评论
根据世界卫生组织发布的《世界精神卫生报告》,全世界约10亿人受到精神障碍困扰。我国的精神障碍患者数量也呈逐年上升趋势。受专业医护人员短缺和治疗成本较高等因素影响,传统诊疗模式已难以满足患者需求。在此背景下,生成式人工智能(AI)凭借自然语言处理能力与大数据分析优势,为精神障碍诊疗带来变革性机遇。传统精神障碍诊疗存在隐私泄露、行为监控及过度医疗化等重大伦理争议,而AI技术整合可能面临误诊风险、信任壁垒和伦理治理相对滞后等困境,需要审慎考量。
技术优势背后存在误诊风险
其二,精神障碍具有复杂性。精神障碍患者的遗传特征、成长背景、文化环境和心理状态都是医学诊疗中不可忽视的因素。AI机械式匹配数据标签,缺乏对人类情感与心理的深度理解,在模型使用中表现出“虚假共情”或“情感谄媚”,存在低估患者病情,对复杂病例提出不当建议等风险。精神障碍的复杂性远超算法标准化的判断,若过度依赖AI的诊断结论,可能对患者造成二次伤害。
算法黑箱造成信任壁垒
生成式AI基于深度学习算法,具有黑箱特征,其诊断推导过程尚难以被完全解释。即便是算法开发者,也无法完全追溯每一步诊断过程的决策依据,造成技术与医患之间存在信息壁垒。
其一,AI技术的不透明性从根本上重构了临床医生、患者与AI技术之间的认知关系,甚至动摇治疗过程中的信任关系。在临床诊疗中,生成式AI无法向患者清晰解释“为何判定我患有抑郁症”“诊断依据来自哪些症状特征”等问题。技术自身的不确定性、专有算法不完备、数据动态演变等因素,使技术完全透明难以实现。
其二,算法黑箱为数据安全埋下隐患。生成式AI的训练与运行,需要收集患者的大量敏感信息,包括口述记录、心理测评结果及生物特征数据等,在数据提取、存储、传输与共享过程中,增加了隐私泄露和滥用数据等伦理层面的复杂性。
伦理治理相对滞后
生成式AI在精神障碍诊断场景中的应用是未来发展趋势,而相关伦理治理落后于AI技术的部署速度。
其一,准入门槛与临床验证标准尚不明确。生成式AI诊断模型鱼龙混杂,公共网络传播的通用模型产品多未经过严格临床验证。医疗机构采购与应用AI诊断工具仍处于研究验证阶段,缺乏科学的评估依据与统一的临床检验标准,产品准入需格外谨慎,以防不合格产品流入临床。
其二,责任界定划分模糊。现有相关法律规范条文并未明确AI与人类决策的责任权重,难以有效应对AI误诊的责任归属问题。若引发医疗纠纷,责任该由谁来承担,是算法开发者、医生、医疗机构、卫生健康行政部门,还是AI技术提供者?这尚待明确界定。
其三,普适性的伦理审查规则未有效建立。目前,国内尚未形成可行的针对生成式AI诊断工具的伦理审查机制。医疗机构在引入AI诊断工具时,缺乏统一的伦理评估标准。这种伦理审查的滞后性,可能损害患者利益。
总之,生成式AI输出结果本身缺乏统一界定,难以预测诊断结果的准确性,也无法确保消除安全漏洞。因此,相关部门及机构应及时完善AI诊疗标准、推动算法透明化,明确责任归属,加强伦理治理,使生成式AI真正服务于精神卫生事业。
直面健康热点
分享真知灼见
评论投稿邮箱:mzpljkb@163.com
文:江汉大学马克思主义学院教授 马兰、上海市精神卫生中心副研究员 张青
编辑:李诗尧
校对:马杨