揭示AI情感聊天机器人的背后真相
Emma McGowan 2024年2月14日
最近Mozilla的一份报告指出,浪漫型AI聊天机器人的兴起正在带来一系列全新的隐私问题。
自1960年代以来,AI浪漫伴侣就成为了流行文化中的一部分。从《我的人形娃娃》中的全人型机器人“Rhoda Miller”,到Scarlett Johansson在2013年电影《她》中所表现出的无形声音,我们几代人一直在幻想著人工智慧能够满足我们所有的情感需求。而现在,随著生成式AI的发展和推出,这个梦想似乎终于有实现的可能。
但这到底是一个梦想?还是我们正陷入一场隐私的噩梦?这正是Mozilla研究团队在其最新的《隐私信息未包含》浪漫AI聊天机器人特别报告中提出的问题。
报告的发现令人震惊:受测的11款聊天机器人中有10款未能符合Mozilla最低安全标准。这意味著,除了其他问题外,它们不要求用户创建强密码,也没有提供处理任何安全漏洞的方式。目前Google Play商店估计已下载超过1亿次,并且OpenAI最近开放的应用商店也出现了浪漫聊天机器人激增的情况,这一庞大的问题只会愈演愈烈。
然而,这份报告不仅是关于数字的讨论;还涉及到这些发现的主要隐私影响。以Replika AI为例,根据Mozilla的说法,人们在这款应用上与他们的“AI灵魂伴侣”分享了最私密的想法、感受、照片和视频,但该应用不仅会记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户使用像“111111”这样的弱密码来创建帐户,这使得所有敏感信息都面临被黑客攻击的风险。
Calder指出,尽管这些隐私和安全缺陷已经够“诡异”了,但某些机器人还声称能帮助用户的心理健康。她以Romantic AI为例,提到他们的条款和条件中写道:
“Romantic AI既不是医疗或健康服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他任何专家可以这样做。Romantic AI不对服务提供治疗、医疗或其他专业帮助作出任何声明、保证或担保。”
黑洞VP加速器然而,他们的网站上却写著“Romantic AI旨在维护您的心理健康”强调是他们的说法。尽管我们无法确定有多少人阅读了条款与条件,相较之下有多少人阅读了网站内容,但可以肯定的是,许多人接收到的网站信息远多于这些免责声明。
在心理健康的声称及客户自愿与他们的数字“灵魂伴侣”分享个人和私人信息之间,Calder担心这些机器人可能轻易操纵人们做出平时不会做的事情。
“有什么能阻止坏人创建聊天机器人来了解他们的灵魂伴侣,然后利用这段关系操纵这些人去做可怕的事、接受可怕的意识形态,或对自己或他人造成伤害?”Calder说。“这就是为什么我们迫切需要在这些AI应用中引入更多的透明度和用户控制。”
所以虽然AI聊天机器人许诺提供陪伴,但我们仍未达到《她》的那个水平:当前的现实揭示了一个残酷的事实,即用户的隐私是进入这个世界的代价。是时候让用户、开发者和政策制定者要求在AI关系的领域中提升透明度、安全性和对个人界限的尊重。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不妨碍我们的数位自我。