来源:哲学系

讲座回顾|应用伦理:以聊天机器人为例

来源:哲学系发布时间:2024-04-01浏览次数:10


2024331日上午,华东师范大学哲学系应用伦理中心联合华东师范大学哲学系伦理与智慧研究中心、华东师范大学中国现代思想文化研究所成功举办“伦理与智慧”讲堂第八场讲座。本场讲座主题为“应用伦理:以聊天机器人为例”,澳门大学哲学宗教学系张颖教授应邀主讲,我系刘梁剑教授主持,付长珍、张容南、王韬洋几位老师参与对谈,三十余位同学参加讲座。

讲座开场时,考虑到听众的专业背景不同,张颖教授首先对伦理和道德的基本概念做出解释,区分了中西方语境中“道德”一词的不同内涵,并介绍了伦理学的来源及其基本流派。进一步地,张教授指出,伦理学不仅是关于道德原则的体系,更是关于如何生活、如何行动的深入探讨。本次讲座聚焦于应用伦理学的相关议题,尤其是生命伦理学及人工智能技术在医疗领域中的应用问题。如张教授所述,生命伦理学作为一个专门的学术门类,最早起源于20世纪60年代的美国并伴随着显著的宗教色彩。生命伦理触及每个人都必须面对的生与死的问题,包括健康与疾病的本质、死亡的定义、堕胎、安乐死、医生协助自杀、器官移植、克隆与干细胞研究、基因工程,以及人工智能在医疗保健中的应用和医疗资源的分配正义等多个方面。张教授指出,这些议题的相关讨论受到人本主义、个人主义、理性主义、俗世主义和自由主义等思想的综合影响。

随后,张教授借由TIME杂志近几年的相关议题,将讲座重点引向AI聊天机器人在医疗领域的应用。张教授强调,随着AI技术的突破性发展以及其在诸多公共服务领域显而易见的有效性,是否运用AI技术的问题已经转向如何运用AI技术的问题。而随着现当代社会人口老龄化的不断加深,AI健康关怀机器人(以聊天机器人为例)正发挥着越来越重要的作用,张教授针对这一方面展开了更加深入的阐发。聊天机器人,如OpenAI公司的ChatGPT、微软的“必应”(Bing)、谷歌的“巴德”(Bard)及医疗大模型(PaLM 2)等,被设计用于通过语音或文本与人类用户交流,能够收集医疗数据,回应医疗问题,有着减少等候时间、快速得到所需信息、提升广泛度、减少费用、匿名性等等优势,可以说在很大程度上能够提高用户的满意程度。然而,随之而来的隐私、数据安全、偏见和责任等问题,也引发了众多道德和法律上的争议。在整个发展过程中,从模仿、服务到融入、取代,AI将注定改变人与机器的关系。针对前述问题,张教授回应道,AI技术应当是人类的辅助而非人类的取代。

主讲结束后,张教授同各位与会人就相关议题展开了热烈讨论。付长珍教授高度关注人工智能的价值对齐问题,强调要充分考虑在地性。付教授


出,目前AI研发生产方对伦理问题不够关注,他们更侧重于考察产品是否符合法律法规,而忽视了数据隐私等伦理合规的重要性。对于人机关系处理问题,付教授主张双向奔赴的伦理观,突破人类中心主义伦理框架,发展出一种合乎伦理的人工智能(ethical AI)进路。张颖教授回应道,忽视伦理的问题的确普遍存在,在很多时候,法律问题作为更实际的层面往往会受到更多关注,而伦理道德则被视作是“装饰”一般可有可无,这警示着我们需要重新思考新时代下伦理应当如何发挥作用。

张容南教授表达出社交机器人可能影响人类伦理关系的担忧,并提出了两个具体的问题:首先,如果把机器人变得更像人,我们是否会面临一种伦理风险,即机器人比人类更会“关心”,如利用机器人来尽孝。其次,我们应当如何设计符合伦理要求的伴侣机器人,避免这种设计因为迎合市场需求而造成对女性的物化。张颖教授高度认同上述两个问题的现实性,并以日本老年陪护机器人为例作出一定回应。在日本,关于老年陪护机器人的使用现状显示,老年用户往往难以避免对这些陪护机器人形成情感依赖。当机器人察觉到这种情感依赖时,它们会采取直接明了的方式,告知用户自己并非人类陪伴者,以此作为提醒。这些现象也正凸显了社交机器人在满足情感需求方面的复杂性以及对传统伦理关系的挑战。

王韬洋副教授提出,尽管我们始终强调AI机器人作为机器的价值中立性,但因其设计者依旧是人,因此想要完全规避价值倾向是非常困难的。从当前的现实状况来看,很多时候是AI产品先被设计甚至制造出来,然后才有伦理方面的考量,原本应该前置的伦理维度,实际上变成后设的,甚至附加的。如何实现Ethical AI所体现的伦理在先的理念,以及如何避免设计者、生产商的价值倾向对AI机器人的影响,还需要我们进一步地思考与实践。

讨论还涉及了AI伦理责任的划分,伦理学家的角色,以及如何处理敏感的伦理问题,如安乐死和歧视等,张颖教授均做出相应解答。当被问及学界对责任划分的主流观点时,教授指出,当前学术界正处于“共享责任”的争论试验阶段。她强调,伦理学家的积极参与,特别是相关研究院所在最近几年的兴起,正逐渐为伦理学的重要性正名。针对完全失去意识且此前表达过求死欲望的病患如何决定生死的问题,教授给出了具体案例回应。在美国某些地区,患者可以通过提前撰写遗嘱的方式表达自己的意愿,并在执行安乐死前转移到法律允许的地区。她指出,在这类情况下,法律的角色变得尤为重要,为决策提供了必要的支持和指导。关于是否会因为个人长久地与人工智能建立亲密关系而遭受歧视的问题,教授区分了个人情感层面和法律层面的歧视。她认为,个人情感层面的歧视无法控制,也难以约束,但法律层面可能存在的歧视风险的确应受到关注。这些隐忧触发了对于人工智能伦理、法律保护以及人机关系未来走向的进一步思考。

本场讲座中,张颖教授不仅提供了对伦理学的深刻见解,更剖析了AI技术发展中伦理道德问题的复杂性。这些讨论,既展示了在快速发展的科技时代,特别是人工智能领域,伦理先行的重要性,也为未来可能出现的伦理道德问题提供了思考的基础。讲座在掌声中圆满落幕。


文:程超

图:陈夏薇、程超