AI模仿「儿子声音求救」骗走老夫妇64万! 真声遭窃漏洞竟在这![]() ▲AI技术已能够模拟逼真人声,却被不肖人士用来诈骗。(示意图/CFP) 加拿大一对夫妻接到「儿子」来电表示出车祸急需法律费用,赶紧透过比特币汇款2.1万美元,后来才知道惨遭诈骗,原来熟悉嗓音竟是人工智慧(AI)模拟而成。《商业内幕》指出,诈骗集团可能从当事人在YouTube发布的雪上摩托车影片撷取音轨,进而仿造声音。
《华盛顿邮报》报导,受害夫妻接到第一通电话,从自称「律师」的男子口中得知,儿子班杰明(Benjamin Perkin)在一场车祸中撞死外交官而入狱,话筒还传来「班杰明的声音」开口要钱。后来,他们又接到第二通电话,「律师」宣称班杰明需要2.1万美元法律费用才能出庭。 夫妻俩爱子心切,迅速筹措资金汇款,后来才隐约感觉有些奇怪。不过,直到「真正的」班杰明当天稍晚打电话过来,他们才惊觉被骗。 班杰明受访时说,那个声音「足够接近(我的声音),让我的父母真的相信他们在跟我说话。」尽管一家人赶紧向加拿大当局报案,但「钱不见了,没有保险,拿不回来了。」 ![]() ▲美国人工智慧公司OpenAI开发的ChatGPT掀起热议。(图/路透) 《商业内幕》报导,更强大的人工智慧兴起之际,冒充身分的诈骗案也持续增多。不过,早在ChatGPT问世之前,涉及AI技术的诈骗就已经出现。 2019年,英国能源公司(British Energy)一名经理把24万多美元汇入一个匈牙利帐户,因为他以为「老板」打电话要求这么做。今年1月,研究AI声音复制及语音合成的美国新创公司ElevenLabs也表示,他们注意到有人「把我们的科技用于恶意目的」,出现「越来越多声音复制的滥用案例」。举例来说,4chan等匿名论坛上就有不肖人士使用AI技术模拟与名人相似的声音,说出种族歧视等不恰当言论。 美国联邦贸易委员会(FTC)去年一共接获240万人通报诈欺案,最常见类型就是冒名顶替者诈骗(Imposter scams),尽管案件数比前一年低,损失金额却更高,达到88亿美元。 FTC已经新成立一间科技办公室,专门调查有发展前景且可能使用AI的公司,是否尝试降低产品可能造成的风险。发言人格伦瓦尔德(Juliana Gruenwald)表示,他们已经发现社群媒体上的诈欺案激增,「产生看似真实影片、相片、音档及文本的AI工具可能加速这个趋势,让骗子更容易接触受害者,速度也更快…我们也关心深伪技术(deepfake)与其他基于人工智慧的合成媒体的风险,它们变得越来越容易创作及散布,将被用于诈骗。」
|
yow_meng5727 发表于 18-3-2023 10:53 AM
AI 开始 被坏人 利用 ,犯罪了。。。
@幸福草莓 @qiuzi @adelinewcm @lim9999 @tornado
yow_meng5727 发表于 18-3-2023 10:53 AM
AI 开始 被坏人 利用 ,犯罪了。。。
@幸福草莓 @qiuzi @adelinewcm @lim9999 @tornado
ADVERTISEMENT
版权所有 © 1996-2022 Cari Internet Sdn Bhd (483575-W)|IPSERVERONE 提供云主机|广告刊登|私隐权|免控|投诉|联络|脸书|佳礼资讯网
GMT+8, 2-4-2023 02:10 PM , Processed in 0.118572 second(s), 34 queries , Gzip On.
Powered by Discuz! X3.4
Copyright © 2001-2021, Tencent Cloud.