「AI三法则」是时候更新了

机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

20世纪中期,机器人三法则问世。世界科幻小说三巨头之一阿西莫夫的笔下,AI技术的发展被限制在此条框之内,影响至今。

无规矩,不成方圆。

科技世界里,规矩被具化成机器人三法则所代表的科技伦理。若脱离伦理任由技术“自由”生长,结局必定是对人类社会造成反噬,由阿西莫夫同名小说改编的电影《I, Robot》讲的就是这样一个故事。

半个多世纪过去了,AI技术已然不可同日而语,对应的AI伦理又该是怎样?

近日,恰逢2022世界人工智能大会召开,同往年一样,AI伦理正是核心议题之一。

会议期间,IFF国际金融论坛、新加坡国立大学李光耀公共政策学院、新加坡AIII人工智能国际研究院、日本神户大学、日本国际元宇宙协会、三井住友保险、上海交通大学中国法与社会研究院、上海人工智能研究院、特斯联、商汤科技等多家国际机构与知名学者,共同发起了“亚洲科技促进可持续发展目标联盟”,并全球人类命运共同体发出“上海倡议“,具体包括:

1个总体目标:科技促进亚洲可持续发展目标实现

2项共识:以人为本、技术可控

3类挑战应对:亚洲不平衡发展的“数字经济鸿沟“、”供应链鸿沟“、“ESG鸿沟”

4种举措:数字基础设施互联互通,数字公共服务包容发展,数字信任与伦理安全,数字社会能力建设

面对新兴科技可能带来的风险,AI三法则是时候更新了。

刷新AI伦理,势在必行

最初的机器人三法则还适用吗?人工智能产业常会为此争论不休。

答案是肯定的,因为三法则是AI伦理的根基。可在此基础之上,还应与时俱进地进行延展。

根据工信部的数据,截至目前,中国人工智能核心产业规模已经超过4000亿元,企业数量超过3000家。且随着人工智能与制造、交通、医疗、民生等领域加速融合,产业规模还将持续爆发。

在产业爆发的背景下,近年来全球AI伦理体系的建设进程明显加速。

例如2016年,Google、Facebook、IBM、亚马逊、微软等美国知名科技公司共同宣布成立“Partnership on AI”合作组织,并发布《Principles of Partnership on AI》,该组织表示将设立未来人工智能领域研究者需要遵守的行为准则。

视线回到国内,企业的探索与政策的引导正同步展开。

以商汤科技为例,去年世界人工智能大会上,正式提出了“平衡发展”的AI伦理观,以及“以人为本、技术可控、可持续发展”三大核心原则。并基于此从组织建设、机制建设、工具建设、文化建设、生态建设等多方面展开了实践。

从实践中总结经验,今年大会上,商汤科技在《“平衡发展”的人工智能治理白皮书》中再次强调,“人工智能的发展与治理应当并行,两者的功能和关系正如汽车的‘发动机’和‘方向盘’,相辅相成、缺一不可”,并进一步提出发展“负责任且可评估”的人工智能。

政策方面,对技术的伦理与治理也给出了方法论。

今年3月份中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,治理要求中明确提到了两点,伦理先行和立足国情。前者,强调了科技伦理对科研创新保障的重要性;后者,则要求伦理体系建设以及治理的过程要开放包容、因地制宜、造福人民。

志在为全球科技伦理治理贡献中国实践智慧和亚洲共识方案,亚洲科技促进可持续发展目标联盟的成立意义由此凸显。

随着AI产业化将迎来大规模的爆发,须有伦理原则、ESG原则引导方向。以联盟汇聚产业力量,共同刷新当前的AI伦理法则,势在必行。

底线与追求,让AI平衡发展

完备的伦理治理体系,是促进科技创新可持续发展的标配。辨明是不是的问题之后,我们来剖析具体的原则。

首先能够确定的是,所有技术发展的底线均是以人为本,人工智能概莫能外。

上个世纪阿西莫夫为AI伦理做的奠基,核心思想就是以人为本,因而要求机器人不得伤害人类、服从人类的指令。

从小说走进现实,AI的落地生根,让伦理原则的适用范围则变得更为复杂。

大数据、计算机视觉、语音识别、机器学习等,某项技术普及开来,其必须正视不同国家地区的历史、文化、社会、经济等方面的发展差异,让技术实现无偏见的应用,此前有公司的图像识别算法将黑人识别为“灵长类动物”就是最典型的反面案例。

当然,业内也能找到很多正面样本。比如现代社会家长多会因为孩子过多接触电子屏幕而头疼,商汤科技近期发布的“元萝卜”AI下棋机器人则为孩子的兴趣转移找到了一个很好的解决方案。依托AI视觉技术和机械臂技术,让下棋机器人与孩子进行互动游戏,可有效锻炼孩子思维能力。

其次在终极方向上,AI技术的发展不能偏离促进社会、经济、文化及环境可持续发展的轨道。

这一点也是产业共识,从“亚洲科技促进可持续发展目标联盟”的名字就能窥得。在《关于加强科技伦理治理的意见》里,伦理原则第一条就明确提出科技活动应“增进人类福祉”,促进人类社会和平发展和可持续发展。

再进一步看,可持续发展覆盖了社会、经济、环境、文化等多个方面,技术需与时代趋势同频共振,并根据各行业的实情去助力发展的可持续。

在环保方面,近年全球都在向碳中和的绿色目标挺进,AI技术就大有可为。如电力工业作为全球主要的二氧化碳排放源,行业的数字化转型和降本提效可以有效促进减排。为此,商汤科技把AI与AR技术结合,为电力工业量身定做电网智能巡检解决方案,以智能技术的辅助来节省运维时间和人力成本,从技术层面为电力系统低碳转型的可持续发展添了一份力。

最后需要思考的问题是,在技术应用的过程中怎样保证上述底线与追求如期从规划落到执行?答案很简单——技术可控。

技术可控,实际上就是要确保人工智能由人类开发、为人类服务、受人类控制,相应地,其人工智能应用导致的伦理责任也应由其控制者(人类)承担。

责任主体的明确,给技术的应用上了一道伦理、法治的安全锁,更利于把技术发展的风险控制在源头。遵循技术可控理念开发的产品,自然就避免了失控所导致的一系列问题。

综上,结合AI技术应用落地的实际案例,从产业发展的底层逻辑来看,以人为本、技术可控、可持续发展,商汤科技基于“平衡发展”而完善的伦理原则,恰是适应当前周期的“新AI三法则”。

当下治理,是在给未来“治病”

谷歌公司的座右铭相信大家都很熟悉,不作恶。作为科技公司,包括谷歌在内,行业深知技术作恶的危害性。科技伦理的存在,就是为消除技术潜在作恶的可能性。

业内经常会举一个例子:试想未来的某一天,你赶时间去机场,于是对自动驾驶的网约车发出指令“送我到机场,越快越好”,而AI在执行该指令时超速行驶、闯了红灯并撞倒了行人。

这便是科技伦理缺位的灾难性后果,而为了预防该场景上演,企业必须在技术研发、产品设计阶段就提前给予治理。

上医,治未病。

对此,商汤科技联合创始人,人工智能伦理与治理委员会委员杨帆表示:“AI伦理风险的边界和核心要求是发展负责任且可评估的人工智能,在治理和合规上企业要先想一步,先做一步。”

“负责任且可评估的人工智能”的核心特点;来源:商汤《“平衡发展”的人工智能治理白皮书》

负责任且可评估,在明确责任主体之后,商汤科技对人工智能治理提出的进一步要求。具体包括七个方面:对人负责、对社会负责、对环境负责、责任可溯源、风险可评估、过程可评估以及效果可评估。

而透过治理体系的完善以及商汤过去的治理实践可以看出:人工智能这项面向星辰大海的前沿技术,每走一步都要脚踏实地。

这正契合法国哲学家萨特的观点,“自由是一种责任”。

产业爆发之下,AI技术发展的自由,实际上是建立在对自己,对他人,对社会以及对技术本身负责的基础之上。唯有如此,技术的价值才能得到最大化释放。随着时间推移,当下进行的科技伦理建设、治理工作可产生的效益会愈发凸显。

不过话说回来,科技伦理治理绝非易事。

阿西莫夫定下的机器人三法则,在科幻作品中常常会被打破。放之情况更为复杂的现实生活,对应的挑战性可想而知。而且,这是全球、全行业的共性命题,还需所有行业参与者共同建设。

好在,有人正在坚持做着难且正确的事。

业界风云汇
业界风云变幻莫测,嬉笑怒骂皆成文章。商务合作请加微信:jjy-bj

声明:本文内容和图片仅代表作者观点,不代表蓝时代网立场。蓝时代 » 「AI三法则」是时候更新了

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址