探求真理 发展学术 服务社会
欢迎访问深圳市社会科学网 今天是

学术研究

【“三大体系”建设】构建和谐共生的人工智能伦理关系

 日期:2023-06-15   来源:中国社会科学网

  作为人类科技史上的重要变革,人工智能已经全面渗透于生产、交通、金融、医疗、教育、传媒等领域,并在很多领域接近甚至超越人的能力。人工智能的高速率发展显现出人机关系的新图景,也引起人类对人工智能伦理的追问,比如:如何面对隐私和数据泄露问题?技术失控或误用之下如何来界定人与机器的责任?机器人有可能超越和取代人类吗?人工智能会不会对人类伦理道德根基造成威胁?人工智能伦理问题的追问在一定程度上折射出人类对于人与人工智能伦理关系的焦虑。提早考虑和统筹布局,妥善处理人类与人工智能的关系,让技术造福人类,是当下人工智能伦理研究的重要议题。

  一、明确人工智能伦理关系中人类的主体地位,把维护人类共同利益放在第一位

  人不能迷失于人工智能的幻像之中,而应坚持人在人工智能伦理关系中的主导地位。于人类而言,人工智能是人类的创制物,只是一个辅助工具。合理、规范地利用技术服务于人类共同的福祉和利益是人工智能发展的最高伦理规范。唯有把人工智能的发展提高到人类整体发展的高度来认识,从研发、使用、治理着手,才有利于构建和谐的人机关系,维护人类共同利益。

  人工智能的设计研发应恪守人类基本伦理道德。人工智能的研发要与人类的尊严、发展和自由相契合,把维护人类共同利益放在第一位。倡导技术的包容性与平等性,避免数字鸿沟和算法歧视,让人工智能技术惠及更多人。特别需要强调的是,对于关乎国计民生的人工智能产品研发,需要聘请专家进行伦理审查,综合评估产品的伦理影响,纠正负面影响并提出修正措施。

  人工智能的使用应遵循安全原则。在使用人工智能时,以“安全可控”为标准,以“不得伤害人类”为限度,以“善用”为关键。在具体的操作过程中,人工智能产品的生产方要明确细化自身责任,同时对用户行使告知义务,保证利益相关者充分的知情权,最大限度防止滥用和误用,预防和减少数据泄露,保护个人的隐私。

  人工智能的治理需要有关各方统筹协作。人工智能的治理是一个系统工程,不可能仅靠某个领域、某个城市或者某个部门、企业单个力量能够达成的。在国内,需要政府主管部门及人工智能领域的学者、企业、用户等通力合作,开展战略设计,确保人工智能始终向着有益于全社会的方向发展。在国际上,有关各国应克服政治分歧、技术壁垒、贸易争端等矛盾,寻找共同的价值基础,协同应对人工智能带来的风险和挑战,构建规范有序、公平公正、安全健康的国际智能产业发展新秩序,保证人工智能的发展能够造福全人类。

  二、探索为人工智能植入价值观,使其具备优良的“伦理品质”

  人类之所以前所未有地关注人工智能伦理问题,关键在于人工智能能够模仿人的智能和行为,并代人作出决策,具有某种“拟主体性”的性质。这就要求,在人机关系中,人工智能与人类在价值观上必须一致。也就是说,要将人类价值观植入人工智能之中,使其具有人类的价值审度和道德决策能力,以增强人工智能决策的可靠性和安全性。

  道德算法的置入是当前产业界、学术界讨论最多的路径。采用数学模型描述和计算人类伦理道德规范,通过代码转化将人的伦理道德“自上而下”地变成程序化的机器处理。同时,人工智能也可以通过不断的自我学习和深入的人机交流,更有效地理解人的道德思维方式,“自下而上”地生成普遍的伦理原则。如此一来,人工智能就可以基于不同情境,通过自身强大的计算能力,作出价值判断,进而作出决策、采取行动。

  当然,探索为人工智能植入人类价值观,是一项复杂的工程,依然面临许多难题,例如:用数学模型来表达和定义伦理范畴尚显片面和偏颇;人工智能伦理上的因果关系难题尚未解决;人工智能伦理决策的简单化和伦理盲点问题将不可避免地发生等等。客观地讲,将人类伦理变成程序化的机器伦理是一个世界性的科学难题,不是一蹴而就的,需要技术、哲学、法学等领域的专家学者深度交流,跨学科合作。

  三、重视人工智能法律制度建设,促进伦理规范发挥效力

  较之人工智能的发展,相关法律制度的回应略显缓慢和滞后,这在一定程度上存在制度性风险,引发人机冲突。因此,需要构建一个法律制度框架,为人工智能的发展划定规则边界,明晰其发展空间,规范其行为方式。可以预见,人工智能在未来将大放异彩。人工智能越发展,社会风险也越大,人类也越焦虑,也就越需要法律制度的约束。

  推进人工智能立法工作。首先,要提升立法的前瞻性和先进性。人工智能的快速发展迭代决定了相关法律法规难以赶上技术发展的步伐。因此,要充分考虑产业的长远发展趋势,针对人工智能可能带来的伦理风险进行立法,明确责任划分依据和标准,从而保证利益相关者的权利。其次,相关立法要兼顾安全性与发展性。在进行人工智能立法时,不仅要回应社会对安全问题的焦虑,还应考虑产业和技术的发展,在安全与发展之间寻求平衡点。再次,加强人工智能立法的国际合作。随着全球化的推进,生产要素在全球范围内流动,风险也随之蔓延至全球。人工智能带来的隐私安全、专利侵权、跨国犯罪、军备竞赛等问题,仅靠一国之力已无法有效解决,需要在全球治理框架下进行讨论。

  加强人工智能伦理制度建设。随着人工智能的发展,安全、公平、隐私、责任、透明等已成为广为接受的伦理原则。更为关键的是,要让这些伦理原则切实有效地发挥作用,必须将其转化为具体的制度体制。具体表现在:制定严格的人工智能研发伦理标准,规范限制从业人员的行为,防范人工智能潜在的负面影响;树立风险防范意识,建立人工智能风险预警机制,全程监测人工智能创制和使用,及时搜集风险信息,然后根据对这些信息的判断做出预警和处理,防患于未然,最大限度减少损失;建立事后评估制度,加强对应用程序检测和审查,做到每个环节都有据可查,堵住人为的恶意代码置入和算法偏见,确保技术安全性。

  【本文系山东省社科规划研究项目“智能传播时代高校网络意识形态安全风险精准防控研究”(项目编号:22CSZJ22)阶段性研究成果】 

  (作者单位:山东建筑大学马克思主义学院)