WHO:保护人类福祉!在公共健康领域慎用AI
AI浪潮一波又一波,在科技圈搅动风云之后,下一个目标很可能就是医疗卫生领域。
在关乎人类生命健康的领域里,对新技术的观点一直是谨慎乐观。对AI这种凸显不确定性的科技,更是如此。
当地时间16日,世界卫生组织(WHO)发声明呼吁谨慎使用人工智能(AI)生成的大型语言模型工具(LLM),以保护和促进人类的福祉、安全和自主性,并维护公共健康。
此类大型语言模型工具包括ChatGPT等许多其他模仿理解、处理和产生人类交流的平台,它们在公众中传播迅速,并越来越多地用于满足人们的健康需求,在健康方面的应用充满了潜力。
可能存在风险
WHO表示,在利用大型语言模型工具来改善健康信息获取、作为决策支持工具,甚至增强在资源匮乏环境中的诊断能力以保护人们的健康和减少不平等时,必须仔细审查其可能存在的风险。虽然WHO支持适当使用技术,包括AI大型语言模型工具,来支持医护人员、患者、研究人员和科学家,但对这种新技术持谨慎态度。
WHO表示,其倡导几大核心价值,包括需要广泛遵守透明度、包容性、公众参与、专家监督和严格评估等,而操之过急地采用未经测试的系统可能会导致医护人员的错误操作,对患者造成伤害,削弱对人工智能的信任,从而破坏或延迟此类技术在全球范围内的潜在长期效益与应用。
为了以安全、有效和合乎道德的方式来使用的技术,并进行严格监督,WHO提出了以下领域的疑虑,包括:用于训练AI的数据可能存在偏差,产生误导性或不准确的信息,可能对健康、公平和包容性构成风险;大型语言模型生成的回答对终端用户或许显得权威而可信,但这些回答可能是完全错误的,或者包含严重错误的信息,尤其是涉及健康的回答;大型语言模型可能在未经事先同意使用的数据上进行培训,并且可能不会保护用户提供的敏感数据(包括健康数据);大型语言模型可能被滥用,以文本、音频或视频内容的形式产生和传播看似极具说服力的虚假信息,公众会很难将其与可靠的健康内容区分开来;与致力于将该工具商业化的技术公司不同,WHO致力于利用新技术,包括人工智能和数字健康,以改善人类健康,同时建议决策者确保患者安全和保护。
WHO并表示,建议在广泛应用于日常医疗和药物治疗之前,应解决这些问题,并对其效益进行清晰的评估,无论是由个人、医护人员还是卫生系统管理者和决策者使用。
WHO并重申,在设计、开发和部署医疗AI时,应遵守该组织《医疗卫生中AI的伦理与治理指南》列举的伦理原则和适当的治理措施。
该指南中确定的六项核心原则是:(1)保护自治权;(2)促进人类福祉、人类安全和公共利益;(3)确保透明度、可解释性和可理解性;(4)促进责任和问责;(5)确保包容性和公平性;(6)促进具有响应能力和可持续性的AI。
WHO该项声明发布后,陆续多家机构宣布暂不考虑将AI技术纳入到医疗技术研发当中。
最新活动更多
-
11月28日立即报名>>> 2024工程师系列—工业电子技术在线会议
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 2024 智能家居出海论坛
-
精彩回顾立即查看>> 【在线会议】多物理场仿真助跑新能源汽车
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论