您的位置:首页 >资讯 >

研究人员将聊天机器人集成到医疗保健中的拟议框架

导读 虽然开发基于人工智能的聊天机器人的技术已经存在了一段时间,但JAMA中的一个新观点阐述了在医疗保健中应用它们之前必须考虑的临床,道德和...

虽然开发基于人工智能的聊天机器人的技术已经存在了一段时间,但JAMA中的一个新观点阐述了在医疗保健中应用它们之前必须考虑的临床,道德和法律方面。尽管COVID-19的出现和随之而来的社交距离促使更多的卫生系统探索和应用自动聊天机器人,但作者仍要求在继续进行之前谨慎和考虑周到。

该观点的主要作者,佩雷尔曼大学医学副教授约翰·D·麦格里维三世医学博士说:“我们需要认识到这是相对较新的技术,即使对于已经存在的旧系统,数据也很有限。”宾夕法尼亚大学医学院。“任何努力还需要认识到,我们已经从研究中获得了许多数据,而不是广泛的临床应用。要知道,对这些系统的评估在进入临床领域时必须是可靠的,而操作它们的系统应该足够灵活以适应快速反馈。”

麦格里维(McGreevey)和宾州医学(Penn Medicine)首席医学信息官C.威廉·汉森(W. William Hanson)III以及宾州伦纳德·戴维斯(Leonard Davis)医疗经济学研究所高级研究员,医学信息学教授FACMI罗斯·科珀(Ross Koppel)博士一起写道: AI辅助对话代理的法律,法律和道德方面。”在其中,作者列出了计划在临床护理中实施聊天机器人或更正式地称为“对话代理”时应考虑的12个不​​同重点领域。

聊天机器人是一种用于通过短信或语音与患者进行交流的工具。许多聊天机器人都由人工智能(AI)驱动。本文专门讨论使用自然语言处理的聊天机器人,这是一种AI过程,旨在“理解”对话中使用的语言并从中汲取线索和联系以提供有意义且有用的答案。

在医疗保健中,这些信息以及人们对它们的反应非常重要,并产生了明显的后果。

汉森说:“我们越来越多地通过电子病历与患者直接沟通,使他们可以直接获得他们的检查结果,诊断和医生笔记。”“聊天机器人一方面能够提高这些通信的价值,或者另一方面能够引起混乱甚至是伤害。”

例如,聊天机器人如何处理告诉别人“我想伤害自己”这样严重的事情具有许多不同的含义。

在自我伤害的例子中,作者提出了几个重点领域。这首先涉及“患者安全”类别:谁监视聊天机器人,以及他们多久进行一次聊天?它还涉及“信任和透明度”:该患者是否会认真对待来自已知聊天机器人的响应?不幸的是,它还在论文的“法律与许可”类别中提出了问题:如果聊天机器人无法完成任务,谁来负责。此外,“作用域”类别下的一个问题在这里也可能适用:这是最适合聊天机器人的任务,还是应该完全由人为操作的任务?

免责声明:本文由用户上传,如有侵权请联系删除!