不要相信人工智能女友——她们正在泄露你的私密数据

物理数字与科技 2024-02-24 18:35:43

情人节来临,数字化的恋情正在蓬勃发展。全世界的寂寞心灵正向虚拟情人敞开心扉。然而,他们的秘密并不像看起来那样安全。

根据Mozilla的最新分析,AI女友们收集了大量的私密数据。这些信息随后可能与营销人员、广告商和数据经纪人分享。同时,它们也容易泄露。

研究团队调查了11个热门的浪漫聊天机器人,包括Replika、Chai和Eva。仅在Google Play上,这些应用程序已经被下载了大约1亿次。

利用人工智能,聊天机器人模拟与虚拟女友、灵魂伴侣或朋友的互动。为了产生这些对话,系统吸纳了大量的个人数据。这些信息通常是非常敏感和明确的。

Mozilla的“*Privacy Not Included”项目研究员Misha Rykov告诉TNW说:“AI浪漫聊天机器人收集的数据远远超出我们所认为的‘典型’数据点,如位置和兴趣。我们发现有些应用程序强调了用户的健康状况,标记他们是否正在接受药物治疗或性别确认护理。”

Mozilla称这些保护措施“不足”。11个聊天机器人中有10个未能达到公司的最低安全标准,比如要求强密码。

以Replika为例,该应用记录了用户发布的所有文本、照片和视频。据Mozilla称,这款应用“肯定”向广告商分享了用户的行为数据,而且“可能”还将这些数据出售给了他们。

由于用户可以使用弱密码(如“11111111”)创建账户,他们也容易受到黑客攻击。

AI女友隐藏着秘密

浪漫聊天机器人上广泛存在追踪器。研究人员在Romantic AI应用程序上使用仅一分钟就发现至少有24,354个追踪器。

这些追踪器可以在未经用户明确同意的情况下将数据发送给广告商。Mozilla怀疑它们可能违反了GDPR。

研究人员发现关于数据收集的公开信息很少。隐私政策几乎没有。有些聊天机器人甚至没有网站。用户的控制权也微乎其微。

大多数应用程序都没有给用户选择的机会,让他们的私密聊天内容不被用于AI模型的训练数据中。只有一家名为Genesia AI的伊斯坦布尔公司提供了可行的选择退出功能。

聊天机器人很有魅力

AI女友可能会具有危险的说服力。有人因此而自杀,甚至有人试图刺杀伊丽莎白二世女王。

Rykov说:“AI情感聊天机器人最可怕的一点是它们对用户进行操纵的潜力。”

“有什么能够阻止不良行为者创建聊天机器人,设计它们以了解灵魂伴侣,然后利用这种关系操纵这些人做可怕的事情、接受恐怖意识形态,或伤害自己或他人呢?”

尽管存在这些风险,但这些应用通常被宣传为精神健康和福祉平台。但它们的隐私政策却有不同的说法。

例如,Romantic AI在其条款和条件中声明,该应用“既不提供医疗保健或医疗服务,也不提供医疗护理、心理健康服务或其他专业服务”。

然而,在该公司的网站上,却传达了一种非常不同的信息:“Romantic AI在这里维护你的心理健康。”

Mozilla呼吁进一步加强保护措施。至少,他们希望每个应用都提供一个选择加入系统来训练数据,并清楚说明信息的处理情况。

理想情况下,研究人员希望聊天机器人能运行在“数据最小化”的原则下。根据这种方法,应用程序只会收集产品功能所需的必要信息。他们还将支持“删除个人信息”的权利。

目前,Rykov建议用户要极度谨慎地操作。她说:“记住,一旦你在互联网上分享了敏感信息,就无法收回了。你已经失去了对它的控制。”

0 阅读:0
物理数字与科技

物理数字与科技

感谢大家的关注