广告
科学新闻
来自研究机构

机器人治疗师需要规则

在精神病学中使用具身人工智能会引发伦理问题

日期:
2019年5月15日
来源:
慕尼黑工业大学(TUM)
简介:
与人工智能(AI)的互动将成为我们生活中越来越普遍的方面。爱博网投官方网站一个团队现在完成了首个关于“具身人工智能”如何帮助治疗精神疾病的研究。他们的结论是:这项技术的重要伦理问题仍未得到解答。政府、专业协会和研究人员迫切需要采取行动。
分享:
广告

完整的故事

与人工智能(AI)的互动将成为我们生活中越来越普遍的方面。爱博网投官方网站慕尼黑工业大学(TUM)的一个团队现在完成了第一项关于“具身人工智能”如何帮助治疗精神疾病的研究。他们的结论是:这项技术的重要伦理问题仍未得到解答。政府、专业协会和研究人员迫切需要采取行动。

教自闭症儿童更好地交流的机器人娃娃,帮助患者应对幻觉的计算机生成的虚拟化身,以及为抑郁症提供支持的虚拟聊天:已经有许多利用具身人工智能改善心理健康的举措。这些应用程序被称为具体化,因为它们涉及个人和人工代理之间的交互,从而产生全新的动态。

人工智能在心理治疗中的应用并不新鲜。早在20世纪60年代,第一批聊天机器人就创造了一种心理治疗的幻觉。然而,实际上,这只不过是一个噱头。随着今天先进的算法和更高的计算能力,更多的可能。“这些新应用背后的算法经过了大量数据集的训练,可以产生真正的治疗报告,”TUM医学和健康技术伦理学教授Alena Buyx解释说。她与Amelia Fiske博士和心身医学和心理治疗教授Peter Henningsen一起,对体现人工智能在心理健康方面的应用进行了首次系统调查,并就相关的机遇和挑战得出了结论。

让更多的人获得治疗

新的应用具有巨大的潜力。它们可以使更多人获得治疗,因为它们不受特定时间或地点的限制。此外,一些患者发现与人工智能互动比与人互动更容易。但这也有风险。阿米莉亚·菲斯克说:“人工智能方法不能也不应该被用作人类医生治疗的廉价替代品。”

“尽管具体化的人工智能已经进入临床领域,但医学协会关于如何处理这一问题的建议仍然很少。然而,如果要利用这些技术的好处,同时避免缺点,并确保合理的检查到位,就需要采取紧急行动。年轻的医生也应该在医学院的时候接触到这个话题,”慕尼黑工业大学医学院院长彼得·亨宁森(Peter Henningsen)说。

人工智能的伦理规则仍然缺乏爱博网投官方网站

目前,制定人工智能准则的力度越来越大,包括欧盟刚刚发布的《值得信赖的人工智能伦理准则》。然而,Buyx、Fiske和Henningsen也认为,迫切需要规范人工智能在专业领域的使用。“治疗性人工智能应用是医疗产品,我们需要适当的审批程序和道德准则,”Alena Buyx说。“例如,如果程序能够识别患者是否有自杀念头,那么他们就必须遵循明确的警告协议,就像治疗师一样,以防出现严重问题。”

此外,还需要深入研究具身人工智能的社会效应。阿莱娜·拜克斯说:“我们对人类接触治疗性人工智能会产生什么影响知之甚少。”“例如,通过与机器人接触,患有自闭症谱系障碍的孩子可能只会学会如何更好地与机器人互动,而不是与人互动。”

广告

故事来源:

材料所提供的慕尼黑工业大学(TUM)注:内容可能会根据风格和长度进行编辑。


期刊引用

  1. Amelia Fiske, Peter Henningsen, Alena Buyx。你的机器人治疗师现在将见你:精神病学、心理学和心理治疗中体现的人工智能的伦理含义爱博网投官方网站医学互联网研究杂志, 2019;21 (5): e13216 DOI:10.2196/13216

引用此页

慕尼黑工业大学(TUM)。“机器人治疗师需要规则:在精神病学中使用具身人工智能会引发伦理问题。”《科学日报》。科学日报,2019年5月15日。< www.koonmotors.com/releases/2019/05/190515110323.htm >。
慕尼黑工业大学(TUM)。(2019年5月15日)。机器人治疗师需要规则:在精神病学中使用具身人工智能会引发伦理问题。《科学日报》.2023年6月17日检索自www.koonmotors.com/releases/2019/05/190515110323.htm
慕尼黑工业大学(TUM)。“机器人治疗师需要规则:在精神病学中使用具身人工智能会引发伦理问题。”《科学日报》。www.koonmotors.com/releases/2019/05/190515110323.htm(2023年6月17日访问)。

探索更多的
从科学日报

有关的故事

广告