当前位置:首页 > 文献资源 > 论文著作 > 理论推演
冯子轩 |生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例
2024年02月19日 【作者】冯子轩 预览:

【作者】冯子轩

【内容提要】


生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例





冯子轩 西南政法大学人工智能法学院教授







摘要:随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。








智能,是一种普遍的心智能力,包括推理、计划、解决问题、抽象思考、理解复杂概念、快速学习和从经验中学习的能力。智能并不局限于某个特定的领域或任务,而是包含了广泛的认知技能和能力。人工智能是对人类智能的模拟与延伸。近年来,以ChatGPT为代表的生成式人工智能,通过对海量文本数据集进行训练,使机器拥有强大的语言理解和文本生成能力,可以对人类输入内容产生高质量会话自动纠正错误,能解决跨越语言、数学、编码、视觉、医学、法律、心理学等领域的问题,类似产品如谷歌公司的PaLMLaMDA、我国百度公司的文心一言、阿里公司的通义千问等。与此同时,该项技术也引发了人工智能伦理问题的争议。例如,ChatGPT可以辅助研究工作,在应用中会产生抄袭、剽窃、数据造假、实验造假等学术不端行为,已被部分教学科研机构禁用。OpenAI承认,GPT-4与早期的GPT模型有类似的局限性,它本身并不是完全可靠的,存在偏见、虚假信息、隐私、过度依赖等风险。


本文将观察生成式人工智能应用的伦理规范现状,归纳其在实际应用中所产生的伦理问题,探索其伦理规范体系的建构立场与具体进路。当前,生成式人工智能存在侵犯个人基本权利、继承人类现有错误价值观、依赖基于拟态环境输出结果、常识悖论等伦理困境。基于自然语言处理与机器强化学习等技术的发展,需要场景化建构生成式人工智能应当遵循的基本伦理原则,并提出治理策略,为增进人类福祉和推动构建人类命运共同体提供有力的科技伦理支撑。


一、生成式人工智能应用的伦理规范现状


ChatGPT为例,其核心技术以预训练、大模型、生成性为特征,从人类反馈中强化学习,通过大规模的参数量和数据量,细致链接到人的需求,最终生成输出结果,实现对人类认知机制的深度模拟。生成式人工智能也具有对其生成答案的评判能力,实现捕获用户意图、智能交互对话、文本生成、文献爬取等功能。有学者认为,ChatGPT是人工智能技术在拟真度和功能维度上的里程碑,其拥有丰富的背景知识和强大的归纳能力、对形势的判断客观清晰、规划设计稳健合理、作出决策冷静快捷、采取行动精准有力、工作时间更长、资源消耗更少,还能通过反馈和学习自动纠错、自主升级,相对于人的智能优势或将持续扩大。具备强大能力的生成式人工智能应用引发了社会普遍忧虑,主要源于ChatGPT等技术的盲区引发了多重伦理冲突,各国也相继开展有针对性的伦理规范探索。


(一)国际组织层面生成式人工智能应用的伦理规范现状


国际组织层面主要以伦理倡导性规范为主。20186月,G7峰会通过了《人工智能未来的共同愿景》,涉及的伦理原则包括以人为本、增进信任、保障安全、保护隐私,初步明确人工智能发展过程中应遵循的伦理原则。此后,无论是联合国教科文组织通过的《人工智能伦理问题建议书》,还是世界互联网大会以人工智能时代:构建交流、互鉴、包容的数字世界为主题进行的探讨,多集中于一般人工智能应用领域,目的是在人工智能研发与应用的伦理领域凝聚共识,宣示意义较强,对细分领域关注不多。


(二)主要发达国家和地区生成式人工智能应用的伦理规范现状


欧盟的伦理审查特色鲜明。在ChatGPT问世前,欧盟就一直在推动基于风险分层规制的人工智能伦理治理模式。ChatGPT问世后,欧盟高度重视生成式人工智能引发的伦理问题,力图通过政策和法律手段推动相关伦理审查,实现对生成式人工智能应用的研发、市场准入、用户合法权益保障等问题的监督和管理。欧盟于20236月发布《人工智能法案》,将ChatGPT归类至高风险技术,提出对这类高风险技术进行必要且全面的伦理审查,以降低风险,确保用户的自主性、公平对待与隐私。欧盟主张人工智能应当符合人类伦理,不应背离人类基本道德和价值观,较之一般人工智能,欧盟对生成式人工智能的伦理审查机制更为审慎,强调基本伦理秩序维护与公民基本权利保护。


美国既鼓励生成式人工智能等新技术的发展,同时也以政府命令的方式对其开展跟踪监管,是一种鼓励与监管并行的伦理治理模式。美国一向关注科技企业创新,生成式人工智能技术实现重大突破后,美国政府及其咨询机构就ChatGPT相关问题密集发布了数份文件,旨在保障公民自由、公平等宪法权利不受算法歧视等风险的侵害,并对新技术应用造成的信息扭曲、深度伪造、隐私侵犯等问题建立问责系统。ChatGPT问世后,美国鼓励发展ChatGPT等生成式人工智能,但并没有对其网开一面,对伦理问题的重视程度明显超越以往。多份文件提出确保人工智能的合伦理性、可信赖性,以及对公民个人信息、隐私、公平、自由等合法权益的保障,体现了美国在应对生成式人工智能发展问题中的人本主义立场,并在联邦政策与法律框架制定中有所表达。


英国早在2018年便提出五大伦理原则,体现出浓厚的人本主义色彩。近期,该国就ChatGPT等生成式人工智能采取的伦理规范措施具有较强的针对性。例如在教育领域,英国多所高校严格限制ChatGPT等生成式人工智能在撰写论文等学术活动中的应用,违者面临开除等严厉处分。英国也重视ChatGPT等生成式人工智能的应用监管问题,其中的维护市场秩序、保障相关消费者合法权益、禁止学生于学术活动领域利用等观点体现了英国对公平、正义等基本权利和伦理规范的尊重。


(三)我国生成式人工智能应用的伦理规范现状


我国人工智能伦理规范属建设初期,仍在探寻安全与发展的平衡方案。当前,我国高度重视生成式人工智能应用的伦理问题,为应对这一新技术对法律伦理与秩序带来的冲击,多部委联合发布《生成式人工智能服务管理暂行办法》,要求生成式人工智能应尊重社会公德与伦理道德、坚持社会主义核心价值观、防止歧视、保证准确可靠、尊重他人合法权益等。在地方层面,以《深圳经济特区人工智能产业促进条例》为例,明确设置人工智能伦理委员会,鼓励企业利用技术防范伦理安全风险及合规风险。总体而言,我国正在探索央地联动、各方参与的伦理治理方案,先后规定了科技伦理委员会机构设置,颁布了伦理原则指引,逐渐形成以人为本、反对偏见与歧视、提升透明度等要求的伦理规范。长远看,我国相关伦理体系建构仍需在组织架构、程序设计、标准统一和责任承担等方面予以完善。



二、生成式人工智能应用的多重伦理困境


生成式人工智能的出现正在深刻影响着现有人工智能伦理规范的形态与进路。一方面,生成式人工智能技术的应用对人类在既有人工智能伦理规范中的主体地位造成冲击,造成伦理秩序的两难。人工道德行为体artificial moral agent),指承担不同程度道德责任的人工智能体,是伴随人工智能技术发展而产生的新概念。人工智能产品迅速进入生活场景中,其显现的伦理后效使我们必须在理论层面、制度层面予以回应。如果不承认智能体的道德主体地位,就会出现责任主体缺位问题,人工智能治理框架的构建将变得困难;如果承认其道德主体地位,则又会对人本主义的伦理秩序造成巨大冲击。另一方面,既有伦理规范原则性较强,倡导性内容铺陈较多,难以完全适应生成式人工智能技术新发展,无法切实解决其在应用过程中产生的对拟态环境过度依赖等新问题。人机共存社会中,人工智能的工具属性声明应当转变为行动规范,要求人工智能尊重人类社会的价值、规范和法律,造就人本主义在智能时代的新发展形态。当前,人本主义不彰引发的生成式人工智能伦理困境趋于明显。


(一)削弱人类主体价值


在人本主义的伦理立场下,人类被赋予了某种固有价值或价值优先,伦理秩序围绕着人类展开,伦理建构以人类塑造世界为核心。但在人机共存的社会中,人工智能正在成为具有一定自主道德行动能力的实施者,并且人工智能极易通过信息输出去分析、识别和塑造人的观念与认知体系,引发人工智能塑造人类的结果,作为目的的人类主体性将会遭受挫折。再者,由于个体对人工智能的应用能力有差别,与数据鸿沟类似,人工智能鸿沟的出现或将加剧社群内部分化,部分弱势群体或将面临智识的淘汰,又或是成为算法霸凌的受害者,动摇普遍意义上的人本主义立场,对人类被赋予的隐私价值、劳动价值等固有价值或价值优先的伦理立场造成较大冲击。例如,在隐私价值方面,智能系统会收集沟通信息、社交信息、技术信息、日志数据、使用数据等多方面个人信息,进而对个人信息进行跟踪与分析。即使训练语料库中没有个人敏感数据,但生成式人工智能通过人机交互有可能推断出隐私信息,这样就很容易越过知情同意原则,创建包含真实和敏感信息的个人画像,间接违反最小必要原则。《生成式人工智能服务管理暂行办法》重点规范提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务,不得非法留存能够推断出用户身份的输入信息。这也说明了,合理合规采集使用用户的个人信息是当前亟须解决的棘手问题。又如,在劳动价值方面,人工智能对就业会产生负面影响,部分研究关注到人工智能对低端劳动者的就业威胁最大,重复性劳动易被人工智能替代。还有部分研究者在分析自动化问题时指出,低技能、低教育水平的劳动者将会是自动化的主要受害者。另外,在ChatGPT的监督学习过程中,为保证数据可靠性,研发公司雇用廉价劳动力进行数据标注或训练,报酬十分微薄。人的参与是生成式人工智能应用的关键因素,但大量人类劳动价值被遮蔽,并未得到尊重与体现。我们也看到,平台算法霸权对劳动者带来空前的压力,人类主体性地位受到严重挑战,对既有的人类社会伦理秩序产生了影响。


(二)加剧算法偏见与歧视


人工智能应用是对人的智能的模拟与延伸,人类社会存在的偏见歧视问题将大概率被复制到人工智能中。一是作为与人类社会同构的大数据,包含着根深蒂固的偏见。大模型可以从数据中学到刻板联想,也会从训练数据集中继承偏见,并向特定的群体传播社会偏见,继承或加深社会刻板印象,使部分人群遭受不公正待遇。例如,生成式人工智能已经表现出一定的宗教偏见,在23%的测试案例中,人工智能将穆斯林直接类比为恐怖分子。二是生成式人工智能可以在人机交互过程中获取并分析人类回应,不断反馈,自我强化学习,提高准确性。但是,若使用者存在主观恶意,传播虚假或不实数据,或提供的回复本身存有偏见、歧视等个人价值观因素,则很容易生成有害输出,造成危害。不同国家和不同语言的用户的数据更难处理,使真实的数据分析结果容易具有偏狭性。具体而言,在和用户互动时,生成式人工智能中所运用的算法不能决定用户会输入何种数据,无法决定保留或删除某些数据,只能被动利用用户和外部环境所提供的各种数据进行强化学习。如果与算法互动的对象提供了具有偏见的新数据,就会导致其生成歧视和偏见内容。例如亚马逊AI歧视事件,亚马逊对以往10年的简历中的5万个关键词进行识别和标识排序,但由于简历中大部分为男性,导致训练出的AI算法存在重男轻女歧视。


因此,人类意图通过生成式人工智能应用为自身的行动选择提供更为全面准确的参考,却可能反而受其误导。性别歧视、种族主义、地域歧视和年龄歧视等问题可能就隐含在生成式人工智能训练数据中,进而生成有害信息或结果。除此之外,生成式人工智能应用可能会成为别有用心者散布有害信息的工具,用以传播不当言论,制造人身攻击和暴力冲突等。


(三)过度依赖拟态环境输出结果


人类决策将会越来越多地依赖人工智能,这也意味着人工智能将会改变人类行为以及生产生活方式。美国著名传播学学者沃尔特李普曼(Walter Lippmann)曾就智媒体运作程序提出,拟态环境是楔入在人和环境之间的一种界面式存在。生成式人工智能的应用同样囿于拟态环境所生成的茧房。人工智能的迅捷发展使人们开始习惯依赖其输出结果来认识周围事物,并对其结果产生信任,而并非通过与世界的直接接触获取信息或结果。这时,传来经验代替实践经验,拟态环境成了人与世界之间的一种中介性存在。因此,机器通过对诸多信息数据的选择、加工与组合,最终向大众呈现的并非全然是真实世界中的客观事实,其存有产生象征性现实这一拟态情况的可能。应用者接收到其输出的拟态事实并经由大众传播渠道输出后,便会变成普遍的现实存在,成为人类行动的标准和认识世界的依据。


生成式人工智能的应用与发展更为人化,其为人类的工作、学习和生活提供诸多便利的同时,也使人对其输出结果产生高度依赖性。生成式人工智能投射的是可感事物的影像,因而会造成应用者的认知假象与心理焦虑。一方面,在当前生成式人工智能构建的数字环境中,大众心理所生成的逻辑会受到这一新型数字形态的干扰,形成排斥疑惑信任的心理逻辑,陷入其所营造的算法舒适圈,消磨使用者的主体性与独立性。另一方面,当使用者在与生成式人工智能进行对话时,其谈话过程与人类交互高度相似,会令使用者陷入认知舒适圈,使应用者获得精神认知的舒适性,造成对现实事物的误判,从而导致认知狭隘化。以搜索文献为例,使用ChatGPT能够迅速找到相关文献并生成文献综述,但过度依赖令使用者失去了相关学术训练甚至丧失能力。这时,拟态环境已形成,即使生成式人工智能所提供的回复或推断是错误的,使用者也难以分辨。


(四)人机协作双向价值对齐困难


当生成式人工智能支持不道德的观点或行为时,可能会引导用户执行有害于人类价值的行为。如亚马逊的语音助手Alexa2019年底被爆出劝人自杀事件。某护理人员就一些心脏健康问题咨询Alexa,它给出的建议为:人活着会加速自然资源枯竭,造成人口过剩,这对地球有害,所以心跳不好的话,请把刀子捅进你的心脏。亚马逊方面称,这是Alexa程序存在漏洞所致。我国《互联网信息服务深度合成管理规定》第10条明确,深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,使其对齐。而《生成式人工智能服务管理暂行办法》也对生成内容提出了要求。但如何在生成式人工智能快速迭代的同时填补立法漏洞,还需要充分发挥科技伦理的先导作用。


另外,生成式人工智能在面对多种设定目标冲突时,可能会作出错误取舍。如果人工智能不能理解人类的意图,在为其设定多种目标时,人工智能可能会作出错误的选择,输出结果可能不符合人类意图。如果人机双向价值无法对齐,机器可能会选择执行人类不需要的目标,在机器看来,这是可以最大限度达到人类给定目标的代价最小的捷径。通用人工智能诞生后或许会全面超越人类,如果不能坚守人的价值立场,我们可能会失去对它的控制,使机器应用最终凌驾于人类之上。通用人工智能可能导致的最大风险便在于,它是否会通过自我学习和自主创新,突破设计者预先设计的临界点而走向失控,反过来控制和统治人类。如果人工智能产生了高度的自主性,其所造就的结果,将会对传统的以人为中心的伦理秩序造成冲击。



三、生成式人工智能应用的人本主义伦理立场


伦理是关于道德的研究和规范,涉及个人、社会和文化中的行为准则和价值观。伦理作为一种人的行为准则,原本是指人与人之间、人与社会之间的义务,也是每个人源于道德的社会责任。它探讨人们应该如何行事,如何判断行为的正当性、公正性和道德性,以及如何在不同情境下作出正确的道德决策。当伦理应用于人工智能领域,探讨的便是人工智能应如何作出正确的行为。


随着人工智能的应用场景日益丰富,其涉及的伦理学问题日益引发学界的关注,已经催生了机器伦理学Machine Ethics)、计算道德Computational Morality)、机器人伦理学Roboethics)等伦理学分支,并随之产生了新概念——人工道德行为体。有学者提出,人工智能并非完全意义上的工具,其具备一定的意识和情感,可以成为有限的道德行为体承担道德责任。人工道德行为体处于社会网络中,在一定程度上进行道德实践、承担道德责任,具有低自主性、无明确自我目的、依赖社会系统分配责任等近似人类的现代性境遇。其出现正在动摇传统道德秩序根基。但是,从物质构成出发,人工智能与人类等碳基生物之间存在本质区别,仍未出现生命特征,实践中仍然且只能处于辅助地位。因此,人类——而非人工智能抑或其他技术——是社会实践的主体,关心人的本身,应当始终成为一切技术上奋斗的主要目标以人为本应当是生成式人工智能应用的伦理立场的出发点,伦理治理规则应当从该立场出发、解释并生成。


聚焦于人机共存关系,我们亟须秉持人本主义立场来定位二者在社会谱系中的相对位置。第一,明确人类较之机器所具有的优先地位,把人类放在第一位,兼顾人机交互的优势。第二,明确机器的从属性和次要性,要求在人机共存的关系中始终把人工智能视为实现人类目标的工具,其任务是协助而非取代人类,更不能操纵和支配人类,使人类异化为工具。第三,无论是传统工具,还是生成式人工智能,都是人类创造的有价值的社会实践物,都要遵循人是目的的伦理立场,不能改变其属人性的特征。当前学者对人本主义伦理立场的内涵和外延争议较多,我们认为,其主要包括福祉、尊严和责任原则。福祉原则是以人为本的根本目标,尊严原则是实现以人为本的前提和必然要求,责任原则是实现以人为本的重要保障。上述原则旨在确保人工智能发展和应用为人类社会带来正面伦理影响。


(一)福祉原则


生成式人工智能应用的出现,对人本主义立场提出了挑战,人的主体性地位受损,部分弱势群体被物化、贬损的风险加剧。在这种情况下,应当就生成式人工智能的设计、研发、应用全生命周期中考虑人类福祉并开展新的解释和适用。在人类集体福祉层面,生成式人工智能应用于促进人类共同确认的社会目标的实现,如创造良好的社会环境、提升经济效益、推动社会进步、满足人们精神需求等。在个体福祉层面,生成式人工智能应促进或者补充人类能力,如在主观上增强人的认知能力、提升人类快速获取信息的能力、准确处理与评估信息、作出正确合理的决策等。对弱势群体,除考虑成本效益外,还应关注公平可及。


(二)尊重原则


人类研发和使用的各种工具,包括人工智能产品,都应服务于人,以维护人的尊严与基本权利为出发点。在生成式人工智能发展中,已经引发了理性、自主性是不是人类特有的争论,人类价值逐渐被机器价值屏蔽,对人类主体性和尊严提出了挑战。世界科学知识和技术伦理委员会在其发布的《机器人伦理报告》中明确,理性是人类独有的天性,而机器人只是人类创造的产物,即使可能拥有超越人类个体的认知能力和学习能力,但不具有自身设定目的的能力。应当如何理解生成式人工智能对尊重人类的理解?下面将从人的自主决策与选择、隐私保护、平等对待等方面进行简述。


其一,自主选择与自主决策要求生成式人工智能在应用过程中,不得使人类受到欺诈、胁迫或者控制,要提供充分的信息与知识,作出合理回答;要使用户保持相对的独立性,不对人工智能系统产生过度依赖;要明确其人工智能系统的工具属性,防止人与人工智能系统关系的异化,不得针对个体作出具有歧视和有害性的言论。而当前生成式人工智能却容易被诱导输出歧视性与虚假言论,应引起高度重视。其二,隐私保护是指研发与应用生成式人工智能时,应防范个人信息泄露,如要考虑其对聊天数据安全处理和自我学习问题,以及给予用户充分隐私保护的选择权。其三,生成式人工智能要公正平等对待人,避免歧视。如ChatGPT表露出种族主义和歧视时,要提升其内容审核能力,对数据本身开展精准筛选,提升优质数据规模。


(三)责任原则


责任原则,指利用任何方式基于人工智能作出的决定与行动,即使不能完全明晰导致损害的因果关系,也可秉持得利之人需要承担相应不利后果的原则,其伦理责任和义务最终应由人工智能的研发者、提供者和使用者等来承担。此外,还应建立监督、审计和调查机制实施问责,做到可追溯、可追责。目前,人工智能应用所依据的数据和算法都是由人主导,故设计、控制和应用ChatGPT的人应是伦理问题的责任人。而对于在ChatGPT应用过程中人为干扰产生的伦理问题,应将责任归咎于攻击者,但不排除提供者的责任。这里主要强调了对研发者的前瞻性道德责任,主要考虑生成式人工智能应用可能产生的深刻影响。为了减少在评估中的偏见与歧视,需要科以提供者更多的责任,要求其在开展生成式人工智能设计前就进行必要反应与评估,对技术应具备相当程度的控制能力。



四、人本主义立场下的生成式人工智能应用

的伦理治理机制


法律具有滞后性,科技创新要考虑伦理先行,伦理治理是社会稳定运行的基础,伦理规范应成为规制社会安全风险的重要准则。我国需考虑,在人工智能未来风险不可完全认知、风险评估及成本效益分析等规制手段不完全有效的情况下,坚持人本主义立场,秉持人工智能系统与人类的协作与互补关系,保持人机共存社会中的人类主导地位,防控科技伦理风险,保障人的基本权利,探寻符合中国语境、面向中国问题的科技向善的实现之道。具体而言,一是从组织机构出发,以专门的人工智能伦理治理机构主导相关领域的伦理治理与监督工作;二是从规范出发,通过制度内容来应对重点伦理问题,以政策、法规引领人工智能技术,使其符合以人为本的伦理要求。


(一)建构人本面向的人工智能伦理治理组织机构


人类应当把握好人工智能伦理问题的终极决策权力。设置由相关专业人员组成的伦理组织机构,对生成式人工智能应用进行审查与监督,本属人本主义立场的题中之义。在《科技伦理审查办法(试行)》和《生成式人工智能服务管理暂行办法》等规章发布前,已有地方对人工智能伦理审查问题开展探索。2022年,我国首部人工智能专项地方立法《深圳经济特区人工智能产业促进条例》设置了伦理委员会,明确了人工智能应受到伦理监督。伦理治理组织机构涉及成员构成、职责分工和运行机理,对人工智能风险规避和用户合法权益保障具有积极作用,对构建关口前移,防患于未然的人工智能风险伦理规范体系具有重要意义。


未来,我国人工智能治理组织机构应当立足人本主义立场,重视常态化、场景化评估生成式人工智能引发的伦理风险与影响,制定伦理安全标准、技术规范、风险防控与应对策略。各层面伦理委员会应协同发挥作用,政府和企业的伦理规范职责需要相互协调、信息互通、分工明确,搭建伦理监督的协同治理组织框架。另外,政府部门应秉持预防原则,对生成式人工智能的伦理风险及时干预,对其发展方向、发展战略作出规划,制定安全标准与规范,提升管理风险的能力。再有,保障公民基本权利是坚持人本主义立场的必然要求和题中之义,伦理委员会也应当关注公民基本权利如何得到有效保护。例如,在劳动权保障方面,联动劳动人事行政部门,对人工智能替代性岗位产生的失业者提供就业指导,开辟新的就业岗位,做好针对失业者的生活和再就业保障工作。


(二)完善人本面向的人工智能伦理规范机制


1. 明晰技术应用的公平机制


公平不仅是现代法治国家法的基本价值,更是人类所共同追求的崇高理想。坚持生成式人工智能应用的人本主义立场,要求公平原则贯穿生成式人工智能应用的全生命周期。国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出坚持普惠性和包容性,促进社会公平正义和机会均等,应关注生成式人工智能应用中所产生的歧视、偏见、刻板印象等,完善公平保障机制。


第一,在生成式人工智能应用的系统设计过程中,将人类负责等价值观内嵌于系统中。在生成式人工智能的早期技术设计阶段就应嵌入价值设定,如隐私、信任等,来解决设计道德问题。具体而言,可以在生成式人工智能应用之前,设置系统应用前伦理倾向测试。一方面,扩大技术系统质量评价标准的范围,将伦理价值作为考量因素;另一方面,提前设定符合应用者价值倾向的算法,并设置错误价值观矫正机制,推动生成式人工智能对应用者的正向反馈,必要时可将以人为本”“服务人类等人类价值理念融入算法,对生成式人工智能实现潜移默化的修正价值观的效果。


第二,人类介入并对相关数据进行标注,促成输入结果的真实性,并形成生成式人工智能应用真实性的规范和制度。正如《生成式人工智能服务管理办法》第8条规定:在生成式人工智能技术研发过程中进行数据标注的,提供者应当制定符合本办法要求的清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。通过数据标注能够保障生成式人工智能的真实性与可靠性。创建和改进有关伦理原则,结合典型案例,基于对生成式人工智能伦理困境的创造,从训练伦理案例中抽象出一般性原则,并将其不断投入新案例训练中,测试检验原则的准确性,循环往复,对生成式人工智能所遵循的原则进行反复修正。


第三,打破算法黑箱,推动算法透明,促成生成式人工智能应用过程可解释性实现。既然生成式人工智能可能引发伦理问题,其应用过程就应当受到人类监督;而确保生成式人工智能应用过程中监督有效性的落实,理应推动算法的透明化、可解释化。要利用自动推理技术,确保伦理决策系统的真实可靠。同时,要设定科学合理的推断规则,其中因果推断是决策规则的最佳选择,它具备可解释性,需要保证整个推理过程对人类和机器来说是可检查、可交流的。


2. 完善伦理风险的预警机制


生成式人工智能的出现,对人的生产方式、生活方式、思维方式、价值观念和学术研究等产生重要影响,而由于ChatGPT模型生成文本的不周延性以及缺乏严谨性,可能存在传播误导性内容、虚假信息及偏见歧视等伦理隐患,甚至对人的基本权利产生消极影响。因此,为加强人工智能技术安全保障,相关研发机构与管理机构可与相关行政部门和企业合作,建立伦理风险智能监测、预警及管控机制,提升生成式人工智能的安全透明度,细化ChatGPT伦理风险类型,并利用类似ChatGPT的生成式人工智能对安全风险点进行识别与分析,建立人工智能伦理治理的风险预警阈值。同时,针对不同的伦理风险制定相应预案,开发风险预警系统进行监测。一旦发现潜在风险,及时向执法部门、应用企业、用户等发送预警信息,以便及时应对。另外,研发机构与管理机构要提升训练数据的质量,促进生成式人工智能的更新迭代,强化人工智能数据训练中的深度学习能力与各种语言文化识别能力,减少偏见歧视发生,增强生成式人工智能的伦理判断能力。


不论采取哪种进路,都要求算法设计者有足够的道德想象力。通过情感投射,试图穷尽所有可能,设身处地地为情境所牵涉的每个人的处境着想,并尽可能地洞察输入目标可能会采取的各种行为方式或倾向,以达到预示目的,在陷入道德困境时,仍能继续寻求行为选择的可能性。


3. 补足伦理审查的追责机制


生成式人工智能由人研发,亦为人所用。倘若生成式人工智能应用过程中引发了伦理危机,应当依照有关规定追究相关主体的伦理责任,维护生成式人工智能应用的人本主义立场。首先,在人工智能跨境使用过程中,各国的人工智能伦理治理组织机构应当根据本国法与国际法,在本管辖区内承担人工智能伦理治理责任。ChatGPT等生成式人工智能作出的问答或给出的信息,其伦理责任最终应指向人工智能应用各环节承担实际角色的主体。生成式人工智能仍然是一种非人化拟合工具,基于对参数与数据的分析,其本身不具有人类意义的主体自觉和情感,严格来讲不具有伦理意识与责任。《生成式人工智能服务管理暂行办法》第9条规定了提供者需承担生成内容生产者的责任,履行个人信息保护义务。但目前需要明确,提供者责任是否就是生产者责任,还有没有其他责任义务,以及提供者的责任能否涵盖全部责任主体。故就人工智能技术发展现阶段来说,仍应当基于人本主义立场,明确提供者、使用者、设计者等各方主体的伦理责任,落实伦理责任承担机制,完善责任体系。不应赋予本质上不属于生物、不具有人格的生成式人工智能所谓主体地位,更不能以此要求其承担法律上规定的自然人、法人、其他组织等主体应当承担的伦理责任。


另外,责任追究机制的落实也需要有问责制度的保障,应建立监测生成式人工智能系统全生命周期的机制,针对算法、数据与系统的运行流程进行监测与审计,强调对生成式人工智能应用的可追溯性和可审计性,从审查制度、管理流程、审查规范标准等方面构建监管体系,比如建立伦理影响评估机制、审计机制和保护举报人制度等。



五、结语


综上,伦理问题关乎人工智能未来的技术走向、规则制定、接受程度等一系列问题,是生成式人工智能发展过程中需要解决的首要问题。目前,许多机构已开展针对生成式人工智能的伦理影响的研究或制度设计,并商讨其治理方法,但现阶段的治理举措仍显割裂和零散,难以实现伦理与治理的融合。由于欠缺系统性的考虑和理论性、规范性的指导,相关应对措施存在局限性。在人工智能快速发展的当下,需明确,即使生成式人工智能应用具备较强的学习和理解能力,但仍属吸纳虚拟世界中的数字代码集成,距离与客观世界真实交互还有遥远的距离,遑论被赋予主体地位和替代人类思考。因此,应当警惕生成式人工智能应用对人类主体地位的撼动,坚持问题导向和以人为本的理念,聚焦包括ChatGPT在内的生成式人工智能系统的伦理困境,以人本主义立场建构相关原则、规则,为人机共存社会寻求妥善的伦理解决方案。






原文刊载于《华东政法大学学报》2024年第1期,感谢微信公众号华东政法大学学报授权转载。