与人工智能(AI)的互动将成为我们生活中越来越普遍的方面。爱博网投官方网站慕尼黑工业大学(TUM)的一个团队现在完成了第一项关于“具身人工智能”如何帮助治疗精神疾病的研究。他们的结论是:这项技术的重要伦理问题仍未得到解答。政府、专业协会和研究人员迫切需要采取行动。
教自闭症儿童更好地交流的机器人娃娃,帮助患者应对幻觉的计算机生成的虚拟化身,以及为抑郁症提供支持的虚拟聊天:已经有许多利用具身人工智能改善心理健康的举措。这些应用程序被称为具体化,因为它们涉及个人和人工代理之间的交互,从而产生全新的动态。
人工智能在心理治疗中的应用并不新鲜。早在20世纪60年代,第一批聊天机器人就创造了一种心理治疗的幻觉。然而,实际上,这只不过是一个噱头。随着今天先进的算法和更高的计算能力,更多的可能。“这些新应用背后的算法经过了大量数据集的训练,可以产生真正的治疗报告,”TUM医学和健康技术伦理学教授Alena Buyx解释说。她与Amelia Fiske博士和心身医学和心理治疗教授Peter Henningsen一起,对体现人工智能在心理健康方面的应用进行了首次系统调查,并就相关的机遇和挑战得出了结论。
让更多的人获得治疗
新的应用具有巨大的潜力。它们可以使更多人获得治疗,因为它们不受特定时间或地点的限制。此外,一些患者发现与人工智能互动比与人互动更容易。但这也有风险。阿米莉亚·菲斯克说:“人工智能方法不能也不应该被用作人类医生治疗的廉价替代品。”
“尽管具体化的人工智能已经进入临床领域,但医学协会关于如何处理这一问题的建议仍然很少。然而,如果要利用这些技术的好处,同时避免缺点,并确保合理的检查到位,就需要采取紧急行动。年轻的医生也应该在医学院的时候接触到这个话题,”慕尼黑工业大学医学院院长彼得·亨宁森(Peter Henningsen)说。
人工智能的伦理规则仍然缺乏爱博网投官方网站
目前,制定人工智能准则的力度越来越大,包括欧盟刚刚发布的《值得信赖的人工智能伦理准则》。然而,Buyx、Fiske和Henningsen也认为,迫切需要规范人工智能在专业领域的使用。“治疗性人工智能应用是医疗产品,我们需要适当的审批程序和道德准则,”Alena Buyx说。“例如,如果程序能够识别患者是否有自杀念头,那么他们就必须遵循明确的警告协议,就像治疗师一样,以防出现严重问题。”
此外,还需要深入研究具身人工智能的社会效应。阿莱娜·拜克斯说:“我们对人类接触治疗性人工智能会产生什么影响知之甚少。”“例如,通过与机器人接触,患有自闭症谱系障碍的孩子可能只会学会如何更好地与机器人互动,而不是与人互动。”
故事来源:
材料所提供的慕尼黑工业大学(TUM).注:内容可能会根据风格和长度进行编辑。
期刊引用:
引用此页: