人工智能APP用您的数据预测您当前的精神状态

米言看科技 2024-05-10 19:35:57
你的手机可以告诉你什么时候抑郁,新兴应用程序使用 AI 来猜测你什么时候会难过。它们还能帮助您感觉更好吗?人工智能驱动的应用程序可能能够使用您的数据(包括自拍)来预测您当前的精神状态。福特 是未来完美研究员,专注于新兴技术、文化和思想的交叉点。她还对科学的过程、资助它的机构以及实现它的人着迷。 如果你有喉咙痛,你可以接受一系列检测——新冠病毒、呼吸道合胞病毒、链球菌、流感——并得到相当准确的诊断(甚至可能是治疗)。即使您没有生病,心率和血压等生命体征也能让医生对您的身体健康状况有适当的了解。 但是,对于心理健康来说,没有公认的生命体征。医生办公室可能偶尔会进行心理健康检查,或者在与治疗师会面后留下笔记。不幸的是,人们总是对他们的治疗师撒谎(一项研究估计,超过90%的人至少对治疗师撒谎过一次),在他们本已有限的心理健康记录中留下了漏洞。这是假设有人可以与治疗师联系——很多美国人生活在没有足够的心理健康专业人员可以四处走动的地区。 但绝大多数美国人确实可以使用手机。在过去的几年里,学术研究人员和初创公司已经构建了人工智能驱动的应用程序,这些应用程序使用手机、智能手表和社交媒体来发现抑郁症的警告信号。通过收集大量信息,人工智能模型可以学会发现一个人身体和行为的细微变化,这些变化可能表明心理健康问题。许多数字心理健康应用程序只存在于研究领域,但有些可以下载——社交媒体平台和医疗保健提供者已经在部署其他形式的被动数据收集来标记潜在的危机(它可能在你没有阅读的服务条款中的某个地方)。 希望这些平台能够帮助人们在最需要的时候以负担得起的方式获得精神卫生保健,并在危机时期迅速进行干预。Ellipsis Health的联合创始人兼首席医疗官阿拉托认为,对数字心理健康解决方案的需求如此之大,仅靠医疗保健系统已经无法解决。“没有技术,我们就无法处理我们的心理健康问题,”他说。 这些问题很重要:在过去几年中,精神疾病的发病率飙升。大约29%的美国成年人在他们生命中的某个阶段被诊断出患有抑郁症,美国国家心理健康研究所估计,近三分之一的美国成年人会在某个时候经历焦虑症。 虽然手机经常被认为是心理健康问题的原因,但它们也可以成为解决方案的一部分——但前提是我们创造出可靠运行并降低意外伤害风险的技术。科技公司可以滥用从人们最脆弱的时刻收集的高度敏感数据,而几乎没有监管来阻止他们。数字心理健康应用程序开发人员仍然有很多工作要做,以赢得用户的信任,但围绕美国心理健康危机的风险足够高,我们不应该因为恐惧而自动驳回人工智能驱动的解决方案。 人工智能如何检测抑郁症? 要被正式诊断为抑郁症,某人需要至少连续两周表现出至少五种症状(如感到悲伤、对事物失去兴趣或异常疲惫)。但达特茅斯学院盖泽尔医学院生物医学数据科学和精神病学助理教授雅各布森认为,“作为一个领域,我们对抑郁症的看法是错误的。通过只寻找稳定的症状,医生可能会错过抑郁症患者所经历的日常潮起潮落。“这些抑郁症状变化非常快,”雅各布森说,“我们的传统治疗方法通常非常非常缓慢。 即使是最虔诚的接受治疗的人通常每周看一次治疗师(而且疗程起价约为 100 美元,通常不在保险范围内,每周一次对许多人来说已经成本过高)。2022 年的一项研究发现,只有 18.5% 的精神科医生接受新患者,导致面对面预约的平均等待时间超过两个月。但是你的智能手机(或你的健身追踪器)可以记录你的步数、心率、睡眠模式,甚至你的社交媒体使用情况,比单独与治疗师交谈更全面地描绘你的心理健康状况。 一种潜在的心理健康解决方案:在日常生活中从智能手机和可穿戴设备中收集数据,并使用这些数据来训练人工智能模型,以预测您的情绪何时会下降。在雅各布森今年2月与人合著的一项研究中,研究人员开发了一款名为MoodCapture的抑郁症检测应用程序,该应用程序利用用户的前置摄像头在回答有关情绪的问题时自动自拍,参与者每天完成三次调查。人工智能模型将他们的反应(对悲伤和绝望等当下的感受进行评分)与这些图片相关联,使用他们的面部特征和其他背景线索(如照明和背景物体)来预测抑郁症的早期迹象。(举个例子:几乎每次完成调查时,参与者看起来都好像躺在床上,他更有可能抑郁。 该模型不会试图将某些面部特征标记为抑郁。相反,该模型会寻找每个用户的细微变化,例如他们的面部表情,或者他们倾向于如何握住手机。MoodCapture以大约75%的准确率准确地识别了抑郁症状—这是第一次使用这种坦率的图像以这种方式检测精神疾病。 在这项研究中,研究人员只招募了已经被诊断出患有抑郁症的参与者,每张照片都标有参与者自己对抑郁症状的评分。最终,该应用程序旨在使用用户使用面部识别解锁手机时拍摄的照片,每天加起来有数百张图像。这些数据与其他被动收集的电话数据(如睡眠时间、短信和社交媒体帖子)相结合,可以评估用户未经过滤、毫无防备的感受。你可以告诉你的治疗师任何你想说的话,但足够的数据可以揭示真相。 该应用程序还远非完美。MoodCapture在预测白人抑郁症方面更准确,因为大多数研究参与者都是白人女性——一般来说,人工智能模型的好坏取决于他们提供的训练数据。像 MoodCapture 这样的研究应用程序需要获得所有参与者的知情同意,大学研究由校园的机构审查委员会监督,但如果在未经用户同意的情况下收集敏感数据,持续监控可能会让人感到毛骨悚然或违规。明尼苏达大学计算机科学与工程学助理教授钱塞勒说,在知情同意的情况下,这样的工具可以“非常好,因为它们会注意到你自己可能没有注意到的事情。 在移动医疗指数和导航数据库(MIND)认可的大约10000个(并且还在增加)数字心理健康应用程序中,其中18个被动收集用户数据。与研究应用程序MoodCapture不同,没有一个使用自动捕获的自拍照(或任何类型的数据)来预测用户是否抑郁。一些流行的、评价很高的应用程序,如Bearable——由患有慢性疾病的人制作,从双相情感障碍到纤维肌痛——随着时间的推移跟踪定制的症状集合,部分是通过被动地从可穿戴设备收集数据。“你无法管理你无法衡量的东西,”阿拉托说。 不过,这些追踪器应用程序更像是日记而不是预测器——它们不会对他们收集的信息做任何事情,只是将其展示给用户,让他们更好地了解生活方式因素(比如他们吃什么,或者他们睡了多少)如何影响他们的症状。一些患者会截取他们的应用程序数据以向他们的医生展示,以便他们提供更明智的建议。其他工具,如Ellipsis Health语音传感器,根本不是可下载的应用程序。相反,它们在幕后作为“临床决策支持工具”运作,旨在通过与医疗保健提供者进行例行通话时的声音来预测某人的抑郁和焦虑水平。像 Meta 这样的大型科技公司使用人工智能来标记,有时甚至删除有关自残和自杀的帖子。 一些研究人员希望将被动数据收集提升到更激进的程度。新加坡南洋理工大学的认知神经科学家克里斯托普洛斯共同领导了2021年的一项研究,该研究根据Fitbit数据预测了抑郁症的风险。在一份新闻稿中,他表达了他对更普遍的数据收集的愿景,“这些信号可以与智能建筑甚至智能城市计划相结合:想象一下,一家医院或一个军事单位可以使用这些信号来识别处于危险中的人。这就提出了一个明显的问题:在这个想象中的未来世界中,如果全知算法认为你很伤心,会发生什么? 仅在过去五年中,人工智能就取得了如此大的进步,可以毫不夸张地说,在未来十年中,情绪预测应用程序将存在——如果初步测试继续看起来很有希望,它们甚至可能起作用。无论这究竟是让你松了一口气还是让你感到恐惧,随着情绪预测数字健康工具开始从学术研究环境转移到应用商店,开发人员和监管机构需要认真考虑他们将如何处理他们收集的信息。 所以,你的手机认为你很沮丧——现在怎么办?这要看情况,校长说。干预措施需要取得谨慎的平衡:确保用户的安全,同时又不“完全抹去他们生活中的重要部分”。例如,禁止某人在Instagram上发布有关自残的内容,可能会切断某人与有价值的支持网络的联系,弊大于利。Chancellor说,应用程序提供用户真正想要的支持的最佳方式是询问他们,任何数字心理健康平台都可以是合乎道德的,“只要人们有能力同意使用它。她强调,“如果没有得到当事人的同意,那么干预是什么都无关紧要——这可能是不合适的。 像雅各布森和钱瑟勒这样的学术研究人员必须跳过许多监管障碍来测试他们的数字心理健康工具。但对于科技公司来说,这些障碍并不存在。美国健康保险流通与责任法案等法律并未明确涵盖可用于推断某人健康状况的非临床数据,例如社交媒体帖子、手机使用模式或自拍。 即使一家公司表示他们将用户数据视为受保护的健康信息 (PHI),它也不受联邦法律的保护——只有当数据来自“医疗保健服务事件”(如医疗记录或医院账单)时,才有资格成为 PHI。通过 Woebot 和 BetterHelp 等平台进行的文本对话可能会让人感到保密,但关于数据隐私的关键警告(虽然公司可以选择遵守 HIPAA,但用户数据在法律上不被归类为受保护的健康信息)通常会出现在用户最不可能看到的地方——比如几乎没有人阅读的冗长服务协议条款。例如,Woebot 有一个特别适合读者的服务条款,但高达 5625 个单词,它仍然远远超出了大多数人愿意参与的范围。 雅各布森说:“没有太多的法规可以阻止人们基本上将所有这些嵌入到服务条款协议中。乔杜里对此大笑。“老实说,”她告诉我,“我已经研究这些平台将近二十年了。我仍然不明白这些服务条款在说什么。 “我们需要确保我们都点击'我同意'的服务条款实际上是非专业人士可以理解的形式,”德乔杜里说。上个月,Choudhury研究小组的研究生Sachin Pendse与人合著了关于开发人员如何创建“同意转发”应用程序的指南,这些应用程序可以主动赢得用户的信任。这个想法借鉴了“是即是”的肯定性同意模型,因为FRYS在这里也适用:用户对数据使用的同意应该始终是自由的、可逆的、知情的、热情的和具体的。 但是,当算法(如人类)不可避免地会犯错误时,即使是最同意的应用程序也可能做一些用户不想要的事情。赌注可能很高。例如,在 2018 年,Meta 算法使用来自 Messenger 和 WhatsApp 的文本数据来检测表达自杀意图的消息,触发了一千多次“健康检查”,即未经同意的主动救援。关于他们的算法如何工作的具体细节很少是公开的。Meta 澄清说,他们使用基于大量训练示例的模式识别技术,而不是简单地标记与死亡或悲伤相关的单词——但除此之外没有太多。 这些干预通常涉及警察(他们携带武器,并不总是接受危机干预培训),并且可能会使已经处于危机中的人的情况变得更糟(特别是如果他们认为他们只是在与值得信赖的朋友聊天,而不是自杀热线)。“我们永远无法保证事情总是安全的,但至少,我们需要做相反的事情:确保它们不是不安全的,”德乔杜里说。 一些大型数字心理健康组织因不负责任地处理用户数据而面临诉讼。2022 年,最大的心理健康支持热线之一 Crisis Text Line被发现使用来自人们在线文本对话的数据来训练客户服务聊天机器人,用于他们的营利性衍生产品 Loris。去年,美国联邦贸易委员会下令BetterHelp支付7万美元的罚款,原因是该公司被指控与Facebook、Snapchat、Pinterest和广告公司Criteo共享人们的个人健康数据。 Chancellor表示,虽然像BetterHelp这样的公司可能不是恶意运营的——医疗系统速度慢、人手不足、成本高昂,而且在许多方面,他们正试图帮助人们克服这些障碍——但他们需要更清楚地与客户沟通他们的数据隐私政策。虽然初创公司可以选择将人们的个人信息出售给第三方,但Chancellor说,“没有治疗师会把你的数据放在那里给广告商。如果您或您认识的任何人正在考虑自杀或自残,或者焦虑、沮丧、心烦意乱或需要交谈,有人想提供帮助。 在美国:危机短信专线:免费向741741发送短信 危机,保密的危机咨询 国家预防自杀生命线:1-800-273-8255 特雷弗项目:1-866-488-7386 有朝一日,Chancellor希望精神卫生保健的结构将更像今天的癌症护理,人们从专家团队(不是所有的医生)那里得到支持,包括朋友和家人。她将技术平台视为护理的“额外层”——至少目前是这样,这是服务不足社区的人们唯一可用的护理形式之一。即使所有的道德和技术问题都得到了解决,数字健康平台也完全按照预期工作,它们仍然由机器驱动。“人际关系对于帮助人们克服心理健康问题仍然非常有价值和核心,”乔杜里告诉我。“我不认为它永远可以被取代。当被问及完美的心理健康应用程序会是什么样子时,她只是说,“我希望它不会假装是人类。
0 阅读:0

米言看科技

简介:感谢大家的关注