探求真理 发展学术 服务社会
欢迎访问深圳市社会科学网 今天是

理论热点

【“三大体系”建设】人工智能的伦理挑战与科学应对路径

 日期:2024-10-30   来源:中国社会科学网

  自2022年以来,生成式人工智能(AIGC)大模型推动了人工智能(AI)产业的爆发式增长,人工智能技术正在深刻改变并重塑经济、社会。随之而来的是人们对人工智能带来的机会和风险的争论。事实上,争论可以还原到人工智能研究的核心问题,即新一代人工智能是否具有自主意识和伦理主体性,而这进一步关涉到人工智能未来会不会发展出独立于人的自主个体,人工智能在工具价值之外是否具有伦理价值,人工智能立法的监管对象是人还是人工智能本身。

  人工智能是否具有意识?

  大卫·查尔默斯(David Chalmers)在20世纪90年代提出了所谓的“意识难题”。他关注到为什么大脑中的物理过程会导致主观体验“意识”,试图理解这些大脑中的物理过程为什么会伴随主观体验。脑科学和神经科学可以帮助我们理解大脑特定的机制和功能,如感知、记忆和学习,因为它们可以用标准的科学方法和涉及物理过程的解释来解决。虽然我们可以描述与不同的主观体验相关的大脑活动,但这并不能解释为什么这些活动会引发任何主观体验。“意识难题”涉及主观体验的内在本质以及为什么物理过程会产生“质”的体验。这里解释大脑中的物理过程如何产生主观体验的困难被称为“解释鸿沟”,这一鸿沟表明我们当前的科学理解不足以完全解释意识,可能需要新的理论或范式来弥合这一鸿沟。“意识难题”还重新点燃了二元论(认为心灵和身体是分离的)和物理主义(认为一切都是物理的)之间的争论。

  “意识难题”也对发展有意识的人工智能提出了挑战。虽然我们可以创建模仿人脑神经元学习行为的神经网络系统,但神经网络的学习机理并没有被完全理解和掌握,进而新一代人工智能是否已经具有主观体验或如何才能产生主观体验也没能得到科学的解释。

  事实上,意识是一个复杂的概念,一般而言,意识被理解为个体对自我和环境的感知和认知,涉及到主观体验、情感、思维等多个层面,意识问题贯彻整个哲学和科学的发展历程,至今并未有清晰的定义,对意识产生的机理很难在短期有重大突破。近年来,意识的神经科学和脑科学研究方面取得了很多进展,并产生了诸如“意识的信息整合理论”等,以试图解释意识的机制。但是我们不得不承认,意识问题仍然没有完善的理论描述或科学的解释,因此,我们也无法科学地判断人工智能有没有自主意识。

  人工智能是否具有伦理主体性?

  在伦理学领域,主体通常指能够进行道德判断和承担道德责任的个体。伦理主体性意味着个体不仅能够做出行为选择,还能够对这些选择进行反思,并承担相应的责任。伦理主体性的前提条件是自主意识,即个体具有自我意识和独立决策的能力。但是通过“意识难题”的讨论,我们认为对于人工智能是否具有自主意识的问题,当前无法给出科学的解释,那么对于人工智能是否具有伦理主体性,同样无法给出科学的答案。

  然而从当前的人工智能应用来看,有两点值得注意:一是人工智能系统是具有伦理属性的,特别是生成式人工智能大模型具有一种伦理和价值的倾向,并可以做出伦理判断。人工智能时代之前的工具和技术是完全按照设计者或应用者的设定执行特定行动的工具,但是新一代人工智能具有了伦理判断的能力,会拒绝执行违反大模型的伦理倾向的指令。虽然大模型进行伦理判断的能力源自算法和训练数据,但是大模型是基于对模型应用者输入的自然语言指令进行解读并主动做出回应的,因而大模型具有伦理判断和价值选择的能力。

  二是人工智能的伦理属性归属于何主体?显然现阶段,在人工智能的伦理主体性得到科学的答案之前,人工智能的伦理属性首先应该归属于其设计者和应用者,即主体人(或机构)。但是在意识问题和主体性问题得到科学的解决之前,从哲学上我们是可以直观地认为大模型具有了一定的自主意识和自主的伦理判断,所以应该承担一定的伦理主体性责任。也就是说,在科学和应用领域,我们认为人工智能的伦理行为仍然只是设计者或应用者主体人的工具行为;但是在哲学领域,我们认为人工智能的行为既具有工具属性,又体现了一定程度的伦理主体性,所以我们应该具有前瞻性地进行人工智能伦理的主体和主体的伦理规范研究。

  人工智能伦理的主体涉及到模型设计者、模型应用者和模型自身三方,但是鉴于人工智能伦理主体性理论的不完备和法律体系的现状,模型设计者和模型应用者是明确的立法监管对象,模型自身并不具备理论和现实上的合法的、可监管的主体地位。所以当前人工智能监管对策可以从以下方面开展:一是在模型应用阶段,应立法以规范模型,只能是合法合规的应用模型,并明确违法的责任,其监管的对象是模型应用者;二是在模型设计阶段,应立法以规范模型设计者在算法、训练数据、模型服务等各环节都能符合国家、地区和国际组织的法律法规;三是在人工智能研究阶段,针对潜在的“人工智能自主意识”带来的伦理问题,需要在法律、伦理和技术层面采取多方面的对策,规范并促进对人工智能技术进行可控的前瞻性研究,对具有自主意识的人工智能系统的伦理主体性和伦理规范进行研究。前两点关注的是在现有以人为主体的伦理和法律体系的范围内对人工智能的设计和应用进行规范;最后一点关注的是进行人工智能伦理的主体性研究,并在此基础上进行人与人工智能的关系研究,探讨人工智能主体与当前以人为主体的伦理和法律体系的融合拓展路径。

  【本文得到西南民族大学中华民族共同体研究院资助(项目编号:2024GTT-WT01)】

  (郭玉山,西南民族大学哲学学院,阿坝师范学院马克思主义学院;段吉福,西南民族大学哲学学院院长、教授)