AI心理医生误诊风险高
2024/08/15 | via.媒体 先锋报 | 收藏本文
在青少年群体中刚刚兴起的一股新热潮是从WhatsApp转战聊天生成预训练转换器(ChatGPT),通过对话检测他们与朋友或伴侣的关系是否健康。
自2022年11月这款聊天机器人推出以来,其模仿人类语言的能力就让公众大为震撼。越来越多的人开始与人工智能(AI)对话,无论是为了处理管理工作、写邮件、计划旅行、评估最佳购物选择还是查询食谱。与此同时,人工智能也越来越多地被用来应对情感问题。
在很多国家,心理健康问题呈上升趋势。根据世界卫生组织的多项研究报告,每四个人中就有一人在一生中会患上精神疾病。科技始终关注人类的需求,多年来已为相关治疗和情感健康提供了大量应用程序。在苹果公司的数字应用程序市场中,那些帮助人们冥想、跟踪睡眠情况或跟踪月经周期等应用程序脱颖而出,吸引了大批用户。
除了这些应用程序外,现在还有情感型聊天机器人。这是一种用大数据训练出来的系统,能够使用自然语言就情感问题进行对话。最引人注目的系统之一是Replika,其口号是:“一款关心您的人工智能伴侣,随时能够倾听和交谈,永远陪在您身边。”
该公司的价值主张是创建一个“虚拟朋友”,你可以通过选择其个性特征、品位和兴趣爱好来定制这个“虚拟朋友”,并能够通过文本或语音形式,进行大量个性化对话。为此,该系统采用了人工智能技术:用户与Replika交谈得越多,它就越了解用户需要阅读或收听的内容。其他受欢迎的应用程序还有Wysa和Youper等,它们的下载量均超过100万次。
人工智能免费、快捷、易用。然而尽管能够全天待命,它是解决情感问题的正确工具吗?帮助心理学家和精神病学家更准确诊断并提供个性化治疗的系统Aimentia的创始人、电信技术与服务工程师埃德加·霍尔瓦说:“技术可以作为检测心理健康问题的辅助工具,但无论如何都不能取代专业人员。市场上的大多数应用程序都没有科学依据,在最坏的情况下会导致错误的诊断。我们遇到过这样的情况:一款聊天机器人在几年前进行的一次测试中建议一位病人自杀。”
基层医疗机构缺乏心理医生,私人治疗费用高昂,可能是人工智能应用于情绪健康的部分原因。
此类聊天机器人和应用程序兴起的另一个决定性因素,是影响年轻人的“孤独流行病”。一项最新研究显示,每四人中就有一人是非必要孤独的受害者。此外,在每四名自称感受到非必要孤独的年轻人中就有三人表示,自己持续感到孤独的时间已超过一年,其中近一半人感觉孤独已长达三年以上。
当今社会缺乏关于如何识别心理健康问题的信息,更缺乏关于如何采取行动的信息,从而无助于心理健康问题的解决,无论是我们自己的还是别人的问题。有心理疾病甚至仍然被视作一种耻辱,或者说人们不愿展现出自己软弱无力的一面,这就意味着人们很可能通过数字渠道寻求支持。
过去人们咨询谷歌医生,现在则咨询人工智能聊天工具。专家指出,人们在社交网络或其他应用程序中可以实现匿名,这一点至关重要。不仅对年轻人,对任何人来说,能够在不被识别身份、不被随意评判的情况下征求意见,都是很有吸引力的。
使用应用程序和聊天室寻求情感支持的另一个问题是个人隐私问题。专家指出,如何使用数据仍是ChatGPT这样的系统尚未解决的问题。
未来几年,心理健康问题和人工智能的使用都将呈上升趋势。当人们需要缓解低落情绪时,很可能会继续使用这些应用程序和聊天机器人。专家警告说,虽然只要有科学依据,技术就可以成为盟友,但即便如此,最后一个必须克服的障碍就是:机器人并不具备同理心。一些科学家指出,聊天机器人永远无法成为治疗师,因为它们没有情感,并不能设身处地为人类着想。
相关报道