今日头条
从阴府偷来的科技? 亚马逊可模仿死者声音与生者交谈!
【热点话你知】 —— 精选话题打开眼界,国内外大事趣闻轻松了解
“房间里传来抽泣声,玛莎坐在床边,仍接受不到丈夫艾许车祸死亡的事实。在沉重的悲痛中,他打开了电脑,注册了一项号称可以模拟逝者语气的通话服务。玛莎开始沉浸于过去和艾许的种种美好,却没意识到这是一条不归路 ”——出自Netflix影集《黑镜》
在科幻剧情已经演变成科学真理的时代,这已不再是虚构的情节——若你愿意,你可以让机器人模仿逝去的至亲,以他们的语气与你谈话。Alexa模仿逝者生前声音
网友:毛骨悚然
美国科技巨擘亚马逊于6月22日公布了一项研发中的新功能,可让语音助理Alexa听过“不到一分钟录音”的情况下,就能模仿任何声音,包括逝者生前的声音。
大会上也展示了一段影片,显示一个孩子要求Alexa用已故祖母的声音,朗读故事给他听。
广告
“Alexa,阿嬷可以为我朗读《绿野仙踪》吗?”
亚马逊高级副总裁普拉萨在会上指出,人类已经生活在人工智能的黄金时代,所有地梦想和科幻情节,正一步步成为现实。
尽管科技出自人性,然而不少网友对亚马逊的“黑科技”并不感到雀跃。大多觉得,让一个机器人模仿一位逝者的声音,想想就觉得“毛骨悚然”。
So Amazon's latest Alexa feature can mimic the voice of a dead person… that’s just creepy. Would anyone actually use this?— Steve Keating (@LeadToday) June 24, 2022
有人甚至呼吁,不要在有Alexa的房间内,开口说出任何字句。Obviously this feels creepy as hell, but in some ways it also feels like a logical extension of rewatching home movies and looking at pictures? AI is just turning real recorded media from a memory archive to raw material for extrapolation. https://t.co/iUVLwKBbaN— Adi Robertson (@thedextriarchy) June 23, 2022
Amazon is developing a new feature that’ll allow Alexa to imitate a dead persons voice.. & it can mimic any voice after only hearing it speak for one minute.. all I got out of this was..Don’t say a single word in the room with Alexa https://t.co/gpV1djV7zM— Tori Nicks 2.0 🛰 (@MajestyRia) June 23, 2022
谈话了一阵子,玛莎开始强迫自己相信,荧幕的另一端就是死去的丈夫。为了填补她的空虚,她甚至向服务商购买了艾许的复制人。玛莎很快接受了“重生”的丈夫,但这位艾许毕竟还是复制人,而玛莎也很快发现到理想和显示的差距……
其实在亚马逊推出这项黑科技之前,科技江湖中已有名不见经传的民间高手,在失去亲人的痛苦中实现了这项科幻情节。2020年,美国一名男子输入已故未婚妻的资料,训练人工智能聊天软体模仿未婚妻的语气。每当他无法走出丧妻之痛,就会与这个机器人聊天,平复自己的心情。
2017年,澳洲一名人工智能工程师的父亲被诊断罹患癌症。在为数不多的剩余日子,他拼命将父亲人生故事给记录下来。父亲去世后,他将这些珍贵的记忆转换成一个以父亲声音谈话的机器人。

“它并没有取代我父亲,但它给了我们纪念父亲的丰富方式。”
如今,通过人工智能模仿人声已非什么新鲜的科技。这种“声音深度伪造”(audio deepfakes)已用于多媒体创作之中,协助后置人员编辑影音作品或电玩游戏中的声音内容。
2021年,已故明初安东尼波登的纪录片中,导演使用了电脑演算法,重现该名厨的声音。
然而备受争议的是,这些对白并非安东尼波登在生前所说过的话,掀起争议。而这又牵扯了另一个问题——人工智能使用的伦理与道德的界限。

“玛莎意识到,复制人艾许有求必应,却只在她要求下才会表达情感。这让玛莎感到更加沮丧——眼前的复制人是丈夫的样子,声音也是丈夫的语气,但终究是个没有灵魂的躯壳。一怒之下,玛莎竟要他直接从悬崖跳下,而复制人艾许还真的这么做了……”
在亚马逊宣布这项重大消息前几个小时,微软非常刚巧地发布了新版的《负责人AI标准》。除了列明如何建立起符合道德标准地人工智能,也提到了使用人工智能合成声音地种种严格限制。
若此技术被广泛使用,不法分子或将自己的声音造假行骗,或利用与操弄民众的政治立场及情绪,让民众活在谣言满天飞的网络世界中,这到底是什么可怕的世界?
其实在声音深度伪造科技之前,已有科技模仿真人的先例——深度伪造技术(Deepfake)。
该科技可为图片或影片中的人像“换脸”,并已有多项滥用的案例,包括用户用以伪造美国前总统奥巴马斥责特朗普为笨蛋的视频,甚至用知名人士的肖像移花接木到色情影片上。
对于奥巴马遭人Deepfake,有媒体人也用Deepfake模仿奥巴马警告人们提高警惕#DeepFake: #Obama’s public service announcementProduced using impersonators capable of mimicking the source’s voice & gestures, as seen in this warning produced by #BuzzFeed & comedian #JordanPeele using #AfterEffectsCC & #FakeApp pic.twitter.com/CoFlRAFOIb— 🖤ֆǟʍǟɛʟ🐼 (@FragmentedSoul5) January 23, 2022
尽管有者将Deepfake技术用于正面的用途,但为防止其沦为犯罪工具,一些国家已经着手立法,建立起人工智能使用的伦理规范和法律限制。
这就包括了上述所提到的安东尼波登纪录片,以及亚马逊Alexa模拟死者语音的争议。关注科技道德的人士都认为,必须得到死者生前同意的原则,才能够将其声音用于人工智能用途。
或许不久后的未来,除了肖像权之外,法律界未来可能会有“语音权”的出现,界定谁有资格拥有死者声音的使用权限。There are those who will say that there's a fine line between saving someone's voicemails, and this, but let me tell you: Without that person's consent to recreate their voice, either before or after their death, that line is a CHASM; it is a GULF and it is Vast and it is DEEP.— Damien P. Williams, MA, MSc, ABD, Patternist (@Wolven) June 22, 2022
“复制人艾许紧抓着悬崖边,向玛莎高喊求救。玛莎一开始对艾许跳下去的行为感到愤怒,因为生前的丈夫才不会笨到真的这么做。然而当玛莎见到艾许惊慌的样子,她突然意识到,自己已经离不开这位复制她已故丈夫身份的机器人了...”
“虽然人工智能无法消除失去至亲地痛苦,但它绝对可以让他们的记忆保存下去。”这是普拉萨在宣布Alexa未来将有模仿死者声音的新功能后,所表达的观点。倘若这项科技未来真的面世,《澳洲广播新闻》丢出了一个灵魂拷问:你当然可以这么做,但你真的应该这么做吗?
该报道引述澳洲心理学协会主席塔玛拉的观点指出,通过与死者“对话”的确有可能减缓在世亲人的悲痛,但同时也有可能抑制了后者走出丧亲之痛,尽早重返正常生活的能力。

“我们也不能排除风险,企业有可能会借此科技,利用我们的悲伤,让我们沉溺于其中。”
他指出,逝去亲友后若依然无法放下,应该寻求真人的安慰和协助,包括心理学家。深陷科技的辅助中,只会让人更加远离现实而无法自拔。
塔玛拉也强调,适当的悲痛是必要的。
死者“复生”,真的能够抚慰逝去至亲的伤痛,还是只会让生者陷入泥沼,再也无法从悲哀的轮回中释怀?

通过科技,也许我们能建起海市蜃楼,假装我们仍在拥抱真实的逝者;但心中有多痛,回忆就多深,而正是这些再也触摸不及的过去,才是生者该要拥抱的美好,一步步被牵引到再也没有他/她的现实之中。
==============================
看更多:鸭妈妈失踪 狗狗充当 15只鸭宝宝“奶爸”爆红
必看影片