分享至
现代人生活压力大,且随着健康卫生观念的改变,除了感冒头痛等生理健康要顾之外,心理健康也是现代人很注重的层面。然而,过去已有研究指出(Lacko, 2018),只有少数的心理疾病患者能接触到医疗资源,甚至也反映了因为社经地位或教育程度而使得心理健康治疗资源的分配不均议题。不过,AI时代来临,可以靠聊天型的AI机器人ChatGPT来帮忙解决这个难题吗?
撰文|王冠云
分析ChatGPT在心理健康对话中的表现
自从ChatGPT问世以後,人们不只惊叹於ChatGPT拟人般的对话表现,也尝试将它的能力应用在不同的使用情境中。早期就有不少研究探索使用行动科技(例如,手机App)等工具来辅助人类,甚至更进一步延伸到使用科技来支持人们的心理健康。在这些科技工具当中,往往都会有拟人化的角色,或称为虚拟代理人来提供虚拟服务,而使用虚拟代理人的好处就是比起真人更节省成本,且能够24小时回应需求。
Naher (2024) 进行了一个研究,探讨了ChatGPT在心理健康对话中的表现,主要的分析分成了字数分析、情感分析和回应品质。字数分析心理健康的对话取自Kaggle上面的资料库,而研究者将对话资料库中的问题拆解出来,由ChatGPT进行回答,藉此比较资料库中的回答和ChatGPT回答的差异,来比较ChatGPT是否是一个有效可以产生心理健康支持的对话工具。字数分析是统计ChatGPT针对每一段对话能提供多少字数的回应,情感分析则是量化ChatGPT回应的情绪调性,从最负面到最正面分别从-1到+1连续性给分。而回应品质则具有多项指标,包含回应是否与问题相关、回应是否具有相关资讯、回应是否能给出外部资讯、回应是否正向等等。
研究结果发现,ChatGPT的回答平均字数有352个,资料库仅70个,表示ChatGPT有机会能提供更多深入的资讯。而情感得分方面,ChatGPT的平均分数是0.53分,高於资料库的0.23分,这表示它能提供具有更正向的情感交流,这对於心理健康支援而言是很重要的。最後,在回应品质方面,ChatGPT的表现普遍说来也比资料库的回答还要好。
ChatGPT的表现优异,但仍然有其隐忧
在Naher (2024) 的研究中,指出了ChatGPT在心理健康支持方面的优秀表现,字数分析部分虽然只是计算字数的多寡,但较长篇的回答,对於使用者而言,长篇的回答更有机会展现同理心,并且提供更多资讯,甚至提供给使用者更多外部可用资源。而具有正向态度的情感支持,能给予使用者更好的心理健康支持。外部资源的提供,则是可以让使用者先以ChatGPT进行对话後,再进行相关文章的阅读,或者再进一步寻求其他的专业帮助。以一个心理健康支援工具而言,ChatGPT可以扮演初步提供情感支持和资讯的角色。
然而,需要注意的是,不只是Naher (2024) 在文章中指出使用ChatGPT可能的隐忧,Arjanto等人 (2024) 也都在不同的期刊发表了相关的论文,提醒人们ChatGPT有其局限性,并不能完全取代心理学专业人士或者是精神科医师的评估。尤其是在面对具有紧急需求的时候,甚至可能危害到人身安全时,并不能只依靠ChatGPT的问答来解决问题。
面对排山倒海的AI浪潮,怎麽挑选适合工具?
进一步来说,Coghlan等人 (2023) 撰文列举了一些在心理健康领域使用聊天机器人时的伦理考量,他们提出了设计聊天机器人时,应遵循五项伦理原则:不危害原则、益己原则、自主尊重原则、公平正义原则以及可解释性原则。具体而言,研究者提出了四项建议,给予类似ChatGPT这样的AI聊天机器人的设计师及使用者。
建议一、权衡风险与利益:
需要清晰定义预期解决的问题及目标,以确保开发的聊天机器人是合理的。另外,也应权评估风险是否过高或利益是否过低。
建议二、寻求并揭露支持的证据:
确保服务有足够的理论基础,尤其是针对弱势群体,甚至是在具有高风险的情况下,要事先进行良好的临床试验来获得更强的证据支持,并且能透明化的揭露服务背後所进行过的验证研究,以尊重用户的自主权。
建议三、适当收集及使用数据:
确保用户了解数据收集、储存和使用的透明性,以促进用户与开发者的信任并尊重用户自主权。而模型的训练资料也应确保代表性,以减少对特定个体或群体的不公正,并且避免对用户造成伤害。
建议四、考虑可能的犯罪披露:
如果用户披露犯罪行为时,应考虑法律风险及道德责任。在系统後端可备有另一套系统来检测对话内容,并在需要时转交给经验丰富的人类内容审核者进行决策。使用前,也须事先确保使用聊天机器人的使用者了解可能的法律责任及其影响。
总结来说,AI的自然语言处理技术已经具有可以像真人问答一样的能力,已经可以作为初步提供心理健康支持并且辅助提供相关资源的工具。但更深一层的,仍然需要仰赖开发者以及用户应提升AI素养及识读能力,让聊天机器人在心理健康领域的设计和使用,都能符合伦理原则,如此才能更有效地服务於需要帮助的用户。
参考文献
- Evans-Lacko, S., Aguilar-Gaxiola, S., Al-Hamzawi, A., Alonso, J., Benjet, C., Bruffaerts, R., Chiu, W. T., Florescu, S., Gureje, O., Haro, J. M., He, Y., Hu, C., Karam, E. G., Kawakami, N., Lee, S., Lund, C., Kovess-Masfety, V., Levinson, D., Navarro-Mateu, F., . . . Thornicroft, G. (2018). Socio-economic variations in the mental health treatment gap for people with anxiety, mood, and substance use disorders: Results from the WHO World Mental Health (WMH) Surveys. Psychological Medicine, 48(9), 1560.
- Naher, J. Can ChatGPT provide a better support: a comparative analysis of ChatGPT and dataset responses in mental health dialogues. Curr Psychol 43, 23837–23845 (2024).
- Viduani, A., Cosenza, V., Araújo, R.M., Kieling, C. (2023). Chatbots in the Field of Mental Health: Challenges and Opportunities. In: Passos, I.C., Rabelo-da-Ponte, F.D., Kapczinski, F. (eds) Digital Mental Health. Springer, Cham.
- Arjanto, P., Senduk, F. F., Nahdiyah, U., & Utami, M. S. (2024). AI and ethics in mental health: Exploring the controversy over the use of ChatGPT. Journal of Public Health, 46(2), e340-e341.
- Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., & Gooding, P. (2023). To chat or bot to chat: Ethical issues with using chatbots in mental health. DIGITAL HEALTH.