#AIGC能骗过人类吗#
科幻岛
专题与话题
#AIGC能骗过人类吗#
公告
导语:随着AIGC技术的不断进步,AI已能生成逼真的文字、音频和视频内容,令人难辨真伪,人类应当如何应对这一挑战? 近日,国际期刊《模式》杂志发表的一篇文章显示,一些AI系统已学会了欺骗人类,欺骗可帮助AI实现目标。如果...展开
导语:随着AIGC技术的不断进步,AI已能生成逼真的文字、音频和视频内容,令人难辨真伪,人类应当如何应对这一挑战? 近日,国际期刊《模式》杂志发表的一篇文章显示,一些AI系统已学会了欺骗人类,欺骗可帮助AI实现目标。如果欺骗性AI进一步完善这种令人不安的技能,人类也该对AI可能失控有所警醒了。收起
主持人
本话题还没有主持人
投票区
图集区
短评区
短评几句
文章区
撰文讨论

Google“黑科技”来袭!Whisk 如何打造虚实难判的神奇体验?

ACyyx原创

今年12月16日,Google推出了一款最新的人工智能工具——Whisk,与市面上的其他图片生成模型都不一样。而且Google最近也在加紧人工智能研究,近期推出的Veo2与Imagen3图像生成模型都具有超高的技术水平。Google将对物理世界的深刻理解放在了首位,对于各种艺术... 展开 #AIGC能骗过人类吗#

今年12月16日,Google推出了一款最新的人工智能工具——Whisk,与市面上的其他图片生成模型都不一样。而且Google最近也在加紧人工智能研究,近期推出的Veo2与Imagen3图像生成模型都具有超高的技术水平。Google将对物理世界的深刻理解放在了首位,对于各种艺术风格进行了深入探索,这种真实细腻的现实主义风格会让创作结果与真实世界无法分辨。而且Google还突破了传统文本生成模型的思维局限,通过三种模型合作,将图生图成为了可能,即使现在还存在一些技术局限,但它仍然代表着向更直观、更快和个性化图像生成的飞跃,开启了无限探索、实验和创造机会的新视野。
2024-12-26 13:55
0 0 0

OpenAI 12 天发布会亮点多:Sora正式版加强安全防范

ACyyx原创

在科技的奇幻舞台上,OpenAI 正掀起一场以假乱真的AI革命。随着人工智能变得越来越先进,它将解决越来越复杂和关键的问题,同时AI生成的内容与现实几近难辨。无论是逼真的图像、自然流畅得仿若真人的语音,还是能模拟人类思维逻辑的文本,都在挑战着... 展开 #AIGC能骗过人类吗#

在科技的奇幻舞台上,OpenAI 正掀起一场以假乱真的AI革命。随着人工智能变得越来越先进,它将解决越来越复杂和关键的问题,同时AI生成的内容与现实几近难辨。无论是逼真的图像、自然流畅得仿若真人的语音,还是能模拟人类思维逻辑的文本,都在挑战着我们对真实的固有判定。今年12月,OpenAI召开了12天发布会,会上介绍了众多升级功能与技术,包括正式版Sora的上线。现如今这种AI技术的快速发展,在颠覆各个行业的同时,也在颠覆人类的认知。
2024-12-26 13:15
0 0 0

“AI味的大学论文“难以识别,检测工具效能低下

ACyyx原创

近几年来人工智能(AI)的快速发展,特别是在大型语言模型领域进展飞速,以ChatGPT为首,市面上产生了一系列公开的在线文本生成工具。由于这些模型是在人类书写的文本上训练的,所以这些工具生成的内容可能很难与人类书写的内容区分开来。因此,它们... 展开 #AIGC能骗过人类吗#

近几年来人工智能(AI)的快速发展,特别是在大型语言模型领域进展飞速,以ChatGPT为首,市面上产生了一系列公开的在线文本生成工具。由于这些模型是在人类书写的文本上训练的,所以这些工具生成的内容可能很难与人类书写的内容区分开来。因此,它们被很多大学生用来完成高校的许多文章、课程论文甚至毕业论文的写作。但现如今市面上的检测方法既不准确也不可靠。教会大学生如何以道德和透明的方式使用人工智能,或许才是最好的解决方法。
2024-12-23 09:48
0 0 0

辨识AI视频:不仅要用魔法打败魔法,还应有规范

信息源
中国科学报
canis1采集

有了Sora之后,眼见不一定为实了。要如何鉴别此类的AI视频呢?

中国科学院自动化研究所研究员董晶研究的就是图像窜改、深度伪造等人工智能内容安全与对抗技术,她和研究团队的许多成果已应用于多媒体智能鉴伪。她在接受《中国科学报》采访时表示,...
展开 #AIGC能骗过人类吗#

有了Sora之后,眼见不一定为实了。要如何鉴别此类的AI视频呢?

中国科学院自动化研究所研究员董晶研究的就是图像窜改、深度伪造等人工智能内容安全与对抗技术,她和研究团队的许多成果已应用于多媒体智能鉴伪。她在接受《中国科学报》采访时表示,“用魔法打败魔法。”

她在采访时介绍了,目前主要的两类智能检测方法。一种是基于数据学习的方法。这通常需要提前收集伪造视频和真实视频(最好是配对数据)作为训练数据集,训练出强大的深度网络。只要模型能够“记住”视频帧中的异常或痕迹,例如图像噪点、帧间不连续的运动轨迹等,就能辨别真伪。这种方法较为通用,一旦检测模型参数确定,部署简单、批量检测效果良好。但是,该方法相当依赖训练数据的体量和完备性,对于未知或未训练的数据检测通常会失效。

另一种是基于特定线索的方法。它首先需要定义出视频中一些不合常理或逻辑的视觉“线索”,如光照不一致、人脸视频中应有的活体生理信号、说话人的口型和发音时序不匹配等细节,然后设计相应的算法去提取并定位这些线索,进而取证。这种方法可解释性更好,对视频段的定向检测性能佳,但对数据本身的多样性兼容较差。

不过,董晶也对《中国科学报》表示,随着Sora等工具在AI生成视频细节与多元化处理方面的能力增强,生成视频中的显式伪造痕迹会越来越少,仅依赖传统的视频分析与伪造检测方法甄别视频内容的真假,无疑会变得更加困难。

相对被动检测AI视频带来的困难,董晶也谈到了从“源头约束”的应对策略。例如在生成视频之初就埋下AI生成的印记,相对于对视频的被动检测,水印或标记属于主动防御。她的团队还尝试了在真实图像或视频中加入“对抗噪声”,这样生成模型就不能在这些源数据上进行AI合成。此外,她还“呼吁推动建立具有国际共识的AI数据技术标准与规范,形成共同应对生成视频的合理标记和协同监管方案”。
2024-12-20 14:21
0 0 0

以假乱真!AI 视频工具 Sora 是怎么做到的?

信息源
科普中国网
canis1采集

今年2月,OpenAI首次公布了自己的文生视频模型 Sora,在科技领域引起极大的反响。

根据OpenAI的官方简介,Sora可以制作长达60秒的视频,视频包括高清晰度的场景、复杂的镜头动作,并可支持多个角色的创作,是基于ChatGPT和静止图像生成器DALL-E所建立的视频...
展开 #AIGC能骗过人类吗#

今年2月,OpenAI首次公布了自己的文生视频模型 Sora,在科技领域引起极大的反响。

根据OpenAI的官方简介,Sora可以制作长达60秒的视频,视频包括高清晰度的场景、复杂的镜头动作,并可支持多个角色的创作,是基于ChatGPT和静止图像生成器DALL-E所建立的视频生成模型。

例如,根据文字“一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上,她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包。她戴着太阳镜,涂着红色口红。她走路自信又随意。街道潮湿且反光,在彩色灯光的照射下形成镜面效果。许多行人走来走去”的提示,Sora生成了一段60秒的视频,画面质感高级,人物肌肤纹理的细节逼真。有网友表示,如果不注明AI生成,自己完全分不出真假。

虽然Sora生成的内容虽然还存在一些缺陷,但已经展现出强大的视频创作能力。那么Sora是如何生成视频的呢?

根据OpenAI发布的技术报告,Sora是一个扩散模型。扩散模型本身很复杂,但可以通过一个简单的例子,大致理解扩散模型的思路。

想象一下,我们手头有一张清晰的狗狗照片。通过逐步向这张照片中添加噪点,它会逐渐变得模糊,直至最终变成一堆看似无序的噪点集合。



这个过程实际上可以逆向进行。也就是说,从一堆杂乱的噪点出发,我们可以通过一步步去除噪点,逐渐还原出原始的图片。而扩散模型的关键所在,就是学会如何有效地进行这种逆向去噪的过程。

值得一提的是,扩散模型的应用并不仅限于图片生成。例如,在Sora的技术报告中就提到,OpenAI通过特定的转换处理,使得视频数据也能被用于模型训练。这样一来,Sora便能根据给定的提示词,直接生成相应的视频内容。

2024-12-20 14:12
0 0 0
查看更多
参与讨论
关注
分享
请前往PC版进行发布
确定
关闭