随着科技的发展,人工智能愈发成为国际竞争的新焦点和经济发展的新引擎,用法治保障人工智能产业发展,用伦理确保人工智能向善也成为各国颇为重视的课题。本期“声音”版编发一组稿件,与读者一道探讨如何促进人工智能产业健康规范发展。
近日,深圳通过了《深圳经济特区人工智能产业促进条例》,上海也正在制定本市的人工智能产业促进条例。这两部地方性立法虽以促进技术创新和产业发展为主要目的,但都将伦理原则内置于其中,创设了伦理委员会,引入了伦理风险评估、伦理审查、伦理安全标准管理、伦理指引和伦理教育等制度,以追求向善的创新,以人为本的发展。
人们常说“技术是一把双刃剑”,的确,技术体现的是工具理性,它旨在帮助人类找到实现任何给定目的的最优方案,但它本身并不能告诉我们什么样的目的是值得追求的。因此,需要给技术套上法律和伦理的缰绳,使之服务于帮助人类实现美善生活的目的。为了前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,我国成立了国家科技伦理委员会,发布了《关于加强科技伦理治理的意见》,在科技伦理治理体制、制度保障以及审查和监管等方面迈出了重要步伐。
人工智能是数字科技时代最重要的技术之一,而且与传统的被动型技术相比,其具有自我演化、快速迭代、难以预测的特点。如何让人工智能技术及相关产业在“以人为本,科技向善,安全可控”的伦理原则指引下健康发展,是摆在我们面前的紧迫问题。目前,我国尚未出台国家层面的人工智能专门立法或伦理指导意见,但深圳、上海在地方性的制度试验中均规定了人工智能伦理方面的内容,这将为全国性的制度建设提炼经验,试错避雷。
那么,人工智能领域为什么需要建立健全伦理相关制度?伦理和法律的关系又是什么?首先,法律是社会的底线伦理,如果突破了法律,人与人之间的和平共处就无法实现,基本的社会秩序就无法得到维持。但只有法律还不够,因为我们不仅要活着,还要活得好,活得有尊严感和幸福感,这时候就需要伦理出场了,伦理原则指引人们去做不止于守住底线的、对社会有益的事情。在日常社会交往中,伦理是内生的,依靠社会评价、同侪压力和亲情友情来“执行”。但在人工智能等科技领域,由于信息不对称和专业能力不对称,普通社会公众很难对某种技术支撑的产品或服务的善恶利弊作出评价,因此需要专业化和制度化的伦理评价和伦理审查机制。
其次,法律是回应性的,它只能在特定损害结果发生后,对特定法律关系中的主体进行判断、评价和提供救济。而在人工智能技术遍布于我们日常使用的各种手机应用、购物平台和社交媒体的当下,很多损害结果往往难以察觉,但却像温水煮青蛙那样恶化着我们的总体生存环境,比如大数据杀熟、过度获取和滥用个人信息、利用算法诱导青少年上瘾,等等。在这种资本通过技术肆意利用人性弱点的背景下,个人觉察损害结果本已不易,证明平台有过错或违反法定义务更难,而证明因果关系则是难上加难。伦理在此时可以作为法律的补充,事前的伦理指引和伦理审查,可以确保算法设计者知晓什么样的设计是向善的,是能够被公众接受的,从而确保有可持续商业追求的企业和工程师在进行相关设计时就遵循伦理原则。而法律则在出现可见的严重损害结果时强力介入,惩处那些触碰规则底线的行为主体。
最后,法律是一般性的,是刚性的,它更像是栅栏或围墙,界分出合法与非法的边界。它天然缺乏敏捷性、灵活性和场景适配性。如果法律规则过严过密,必然会遏制技术创新和产业发展;如果过宽过疏,则又会留下巨大的漏洞,使大量模糊而又圆滑的危害民生福祉的行为成为漏网之鱼。这对于有人工智能助力的法律主体来说尤其如此。而伦理则具有更强的场景适配性和行业特定性,它更像是量身定制的合体衣服,由技术专家、人文社会科学家、行业组织和特定用户群体通过行为互动和协商沟通发展出来,约束从业者的行为,因此能够与法律配合营造出既有利于企业和创新者追求正当利益,又有助于维护个人尊严和权利的良好制度环境。
(作者系上海交通大学凯原法学院教授,上海交通大学涉及人的科学研究伦理委员会委员)