在迈入生成式人工智能AI的时代,你还能相信你所看到的一切吗?
你能分辨出以下两张照片,哪张是真人,哪张是由AI生成的吗?

答案是,以上两张照片皆由AI生成。
上述两张照片均来自“ThisPersonDoesNotExist.com”网站,该网站每次刷新出来的人物,在现实当中都是不存在的。
除了照片,现在只需一段文字、一段音频或影片,透过生成式人工智能AI技术,就算是已经离世的亲人都能“复活”开口说话。
AI技术的迅猛发展正在挑战人们对事实的认知。不知道真相的你,有把握判断什么是真的,什么是假的吗?
即便你所看到的,是自己熟悉的人的影像,也可能是由AI伪造。
深伪技术(Deepfake)便是上述所说的,其中一种具“换脸、造脸、变脸”技术的生成式应用。如今此技术已成了诈骗份子常用的作案工具之一,透过复制某人来生成逼真的视频、文本、音频、字幕等等,来达成行骗、造谣、伪造等目的。
不过该技术仍存在破绽,只要仔细观察,就能分辨真假。
无法完全复原人物特征
“深伪技术”有破绽可寻
雪兰莪技能发展中心(STDC)运营主任慕希丁(Muhiddin Arifin)在接受《阳光日报》访问时指出,尽管“深伪技术”可以将某人的声音和面部表情模仿得惟妙惟肖,但依然可以通过一些细节察觉出来。
“对诈骗集团而言,要利用‘深伪技术’,100%还原某个人的特征是非常困难的,因为它肯定会有差异。”
“这是因为人工智能需要时间来改善其弱点,而且无法复制相关人物的原有性格。”
4步骤辨别真假人物
至于如何辨明真假,慕希丁表示,民众可以看看影片中的人物,是否出现不自然的动作。
1. 面部肌肉与音频不同步
他指出,民众可以尝试观察影片中的人物,留意其面部表情、眨眼模式或身体动作,是否存在不协调。
“人物的嘴型是否看起来与音频不同步,并且跟人物嘴唇周围的面部肌肉动作不一致。”
2. 影片人物出现异常模糊
他补充说,“深伪技术”很难完美地复制人物的肤色和头发纹理,因此民众可以尝试看看影片中的人物是否出现异常的模糊或奇怪的颜色。
“民众可注意脸部、颈部或发际线周围不寻常的模糊。”
3. 影片背景和灯光不寻常
慕希丁指出,“深伪技术”所产生的影片,其灯光和背景细节可能会出现不连贯的情况。
“民众可注意影片场景中的光源是否发生了变化,或者出现不符合现实的背景元素。”
4. 人物说话表现不自然
另外,民众可以对比影片中的人物是否跟他平时说话的状态一样,还是会出现断断续续或不自然的言语模式。
“简单来说,深伪技术是一种人工智能技术,用于伪造虚假的人物、事件图像和影音,这种技术可以让某人说或做一些他们在现实生活中,永远不会做的事情。”
“深伪技术”诈骗案日益猖獗
随着科技发展迅速,深伪技术已变得越来越常见,近年来网上更出现各种虚假影片。
今年7月,首相安华再度被有心人士通过深伪技术,来宣传高回酬的假投资计划。
今年年初,美国流行乐天后泰勒丝(Taylor Swift)的不雅照在社交媒体疯传,最后证实全是人工智能伪装照。
我国著名歌手茜蒂诺哈丽莎(Siti Nurhaliza)不久前也在社交媒体揭露最新诈骗手段,指有人利用深伪技术模仿她的声音和面貌,以谋取利益。
==============================
看更多: KK新建昌改口认罪罚6万 KK袜子风波落幕
你能分辨出以下两张照片,哪张是真人,哪张是由AI生成的吗?

答案是,以上两张照片皆由AI生成。
上述两张照片均来自“ThisPersonDoesNotExist.com”网站,该网站每次刷新出来的人物,在现实当中都是不存在的。
除了照片,现在只需一段文字、一段音频或影片,透过生成式人工智能AI技术,就算是已经离世的亲人都能“复活”开口说话。
AI技术的迅猛发展正在挑战人们对事实的认知。不知道真相的你,有把握判断什么是真的,什么是假的吗?
即便你所看到的,是自己熟悉的人的影像,也可能是由AI伪造。
深伪技术(Deepfake)便是上述所说的,其中一种具“换脸、造脸、变脸”技术的生成式应用。如今此技术已成了诈骗份子常用的作案工具之一,透过复制某人来生成逼真的视频、文本、音频、字幕等等,来达成行骗、造谣、伪造等目的。
不过该技术仍存在破绽,只要仔细观察,就能分辨真假。
无法完全复原人物特征
“深伪技术”有破绽可寻
雪兰莪技能发展中心(STDC)运营主任慕希丁(Muhiddin Arifin)在接受《阳光日报》访问时指出,尽管“深伪技术”可以将某人的声音和面部表情模仿得惟妙惟肖,但依然可以通过一些细节察觉出来。
“对诈骗集团而言,要利用‘深伪技术’,100%还原某个人的特征是非常困难的,因为它肯定会有差异。”
“这是因为人工智能需要时间来改善其弱点,而且无法复制相关人物的原有性格。”
4步骤辨别真假人物
至于如何辨明真假,慕希丁表示,民众可以看看影片中的人物,是否出现不自然的动作。
1. 面部肌肉与音频不同步
他指出,民众可以尝试观察影片中的人物,留意其面部表情、眨眼模式或身体动作,是否存在不协调。
“人物的嘴型是否看起来与音频不同步,并且跟人物嘴唇周围的面部肌肉动作不一致。”
2. 影片人物出现异常模糊
他补充说,“深伪技术”很难完美地复制人物的肤色和头发纹理,因此民众可以尝试看看影片中的人物是否出现异常的模糊或奇怪的颜色。
“民众可注意脸部、颈部或发际线周围不寻常的模糊。”
3. 影片背景和灯光不寻常
慕希丁指出,“深伪技术”所产生的影片,其灯光和背景细节可能会出现不连贯的情况。
“民众可注意影片场景中的光源是否发生了变化,或者出现不符合现实的背景元素。”
4. 人物说话表现不自然
另外,民众可以对比影片中的人物是否跟他平时说话的状态一样,还是会出现断断续续或不自然的言语模式。
“简单来说,深伪技术是一种人工智能技术,用于伪造虚假的人物、事件图像和影音,这种技术可以让某人说或做一些他们在现实生活中,永远不会做的事情。”
“深伪技术”诈骗案日益猖獗
随着科技发展迅速,深伪技术已变得越来越常见,近年来网上更出现各种虚假影片。
今年7月,首相安华再度被有心人士通过深伪技术,来宣传高回酬的假投资计划。
今年年初,美国流行乐天后泰勒丝(Taylor Swift)的不雅照在社交媒体疯传,最后证实全是人工智能伪装照。
我国著名歌手茜蒂诺哈丽莎(Siti Nurhaliza)不久前也在社交媒体揭露最新诈骗手段,指有人利用深伪技术模仿她的声音和面貌,以谋取利益。
==============================
看更多: KK新建昌改口认罪罚6万 KK袜子风波落幕