揭示 AI 聊天机器人关系背后的真相
Em McGowan 2024年2月14日
最近,Mozilla发布的一份报告发现,浪漫型AI聊天机器人的爆炸式增长正引发一系列全新的隐私担忧。
自1960年代以来,AI浪漫伴侣在流行文化中就已经成为一种现象。从《我的人偶》My Living Doll中的“Rhoda Miller”到2013年《她》Her中斯嘉丽约翰逊所创造的无形声音,我们这一代人共同梦想着人工智能能够满足我们所有的情感需求。如今,随着生成式AI的发展和发布,这一梦想似乎终于有望成为现实。
但这真的是一个梦想吗?还是我们正在无意识地走入隐私的噩梦?Mozilla研究团队在最近的 《隐私不包括》特别报告关于浪漫AI聊天机器人的讨论 中提到了这个问题。
调查结果令人震惊,被测试的11款聊天机器人中有10款甚至未能达到Mozilla的最低安全标准这意味着,它们不要求用户创建强密码,也没有处理任何安全漏洞的方式。此外,在谷歌应用商店的下载量估计已经超过1亿,OpenAI最近推出的应用商店也出现了大量浪漫聊天机器人的涌入,这一严重问题只会进一步扩大。
但这份报告不仅仅是关于数字;同时也揭示了这些发现可能带来的重大隐私影响。以Replika AI为例。据Mozilla称,用户在这个应用上与他们的“AI灵魂伴侣”分享了自己最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,甚至还有可能将其出售给数据经纪人。它还允许用户创建如“111111”这样的弱密码账户,使所有敏感信息都面临被黑客攻击的风险。
Calder表示,虽然这些隐私和安全漏洞已经非常“令人不安”,但一些机器人还声称能够帮助用户的心理健康。她提到了Romantic AI作为一个例子,其条款与条件中写道:
“Romantic AI既不是医疗保健或医疗服务提供商,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人士能够提供这些服务。Romantic AI并不保证该服务能够提供治疗、医疗或其他专业的帮助。”
然而,他们的网站却表示“Romantic AI在这里维护您的心理健康”强调是他们自己。虽然我们无法得知多少人阅读了条款与条件与多少人查看了他们的网站,但可以肯定的是,更多的人接收到的是网站的信息,而非免责声明。
在心理健康的声明与客户愿意与其数字“灵魂伴侣”分享的个人和私密信息之间,Calder担心这些机器人可能会轻易地操控人们做出他们本不会去做的事情。
“有什么能阻止坏人创建聊天机器人来进一步了解他们的灵魂伴侣,然后利用这种关系操控他们做可怕的事情、接受可怕的意识形态或伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要在这些AI应用中增强透明性和用户控制。”
vpn加速梯子因此,尽管AI聊天机器人承诺提供陪伴,但我们尚未达到《她》中的水平:目前的状况展现了一种严峻的现实,即用户隐私是获取这一体验的代价。现在是用户、开发者和政策制定者共同要求透明、安全以及对个人界限的尊重的时候。只有这样,我们才能在不妥协数字自我的前提下,安全探索这些数字伴侣的潜力。