不想AI变坏?那就教它学好!

发表于  2016/05/30 06:30   约6分钟

假如人工智能读得懂以及任何一本书,它就能明白人类的善恶观

 

你对人工智能怎么看?

 

  有不少聪明人对这个问题发表过夸张的言谈。

  2014年,特斯拉汽车(Tesla Motors)和太空探索技术公司(SpaceX)的总裁埃隆·马斯克将当前围绕人工智能所做的研究比作“召唤恶魔”,称《2001太空漫游》中的恶意哈尔9000比起未来的人工智能来只是条小宠物狗。

  同年,理论物理学家史蒂芬·霍金指出:“发明人工智能可能是个错误,人类迄今犯过的最大错误!

  作为美国佐治亚理工学院交互计算机系的一名人工智能研究员,马克·里德尔并不那么忧心忡忡。“我觉得走不到人工智能威胁人类的那步田地,”里德尔说,“我不信天网的狗血剧情,也不吃‘奇异性’那套,说什么人工智能会犯上作乱,与人为敌。里德尔指出,当前的人工智能还远不到那个程度,不会一下子视人类为威胁,决意谋反对立。

  然而,有限的人工智能业已创建出来去执行特定任务,甚至在一些情况下他们就近在眼前。

人工智能已创建出来去执行特定任务,甚至在一些情况下他们就近在眼前,如谷歌无人驾驶车

  无人驾驶汽车在开往果蔬店的日常出行中按照人类意愿行事时,面临着一个虽不至于激动万分却也有些类似的问题,即如何将人类的价值观植入人工智能才能使它不会故意伤人。

  里德尔提议说,让人工智能理解人类的最佳方式就是让它们阅读能表达人类价值观的读物。再简单点,即理论上假如人工智能读的懂《圣经》以及任何一本书,它就能明白人类的善恶观。


“濡化法”能让人工智能变好吗?

 

  里德尔认为,人工智能不是因为“邪恶”才伤害人类,而是因为它不懂伤害是什么。为人工智能列出一系列“禁令”就算可行也实在太难。里德尔提出,相反地,我们应该濡化人工智能。

  里德尔和同事布伦特·哈里森在最近的一篇论文《用故事濡化人工智能》中阐述了这一方法,听上去还挺像回事。

  他俩的研究基于《天方夜谭》中的苏丹新娘谢赫拉沙德,一个能够在看故事中学习,创写交互式视频小说的人工智能。里德尔和哈里森利用这种在千千万万个故事中感应模式的能力,创建了一个名为“堂吉诃德”的系统,指导人工智能妥善执行任务。

  举个例子,里德尔和哈里森做了一次模拟实验,给一人工智能布置抓药任务。

  “如果人工智能的优化标准设置为效率,它到药店可能偷了药就跑。但如若我们训练人工智能遵守社会规范,给它一箩筐此类示例,教它先到银行取钱,再去药店买药,前面有人就要排队等都是些我们习以为常的小事。若能让人工智能遵守这些社会秩序将对人类意义深远。”里德尔如是说。

  虽然有条件局限和控制,里德尔哈里森的实验证明此方法还是可行的。因为是模拟任务,研究人员无法真的造出去往现实药店的机器人来,给人工智能灌输一套一堆严格编程的药店之行故事。

  人工智能通过辨别不同药店故事中不同的选择,在同一情境中若能如人般行事就会受到嘉奖,否则就要接受惩罚。

在同一情境中若能如人般行事就会受到嘉奖,否则就要接受惩罚。

  诚然,诺言实现了,这也为确保“创造人工智能并非召唤恶魔”的良方奠定了基础。

 

“濡化法”的问题何在?

 

  濡化人工智能虽然在某种程度上是可行的,但却引出了另一个道德上更加晦涩的问题:——谁来选材

  “濡化法的问题在于我们缺少一个记录着道德行为和不道德行为的大型语料库,”他指出。“但我们有前车之鉴,有许许多多好人好事、坏人坏事的例子,我们没有人类文化的使用指南,却有彰显着人类价值、信仰的集体结晶。”

  “这是个政治难题,”莫雷诺说到。“在我看来不筛选是不行的。当发明出这样一个系统时,就要进行方方面面的评判。”

  “去除反面英雄题材就能真正了解社会了吗?我的不适正源于此。跨入大数据时代,知道的越多越有安全感。从文化中提取故事如若可行,则从圣经、寓言到科幻小说、童话故事都可采纳进去。例子越多,越能找出应模仿的恰当行为。”

从文化中提取故事如若可行,则从圣经、寓言到科幻小说、童话故事都可采纳进去。

  教会人工智能美德更甚人类固然美事一桩,但我们不能简单的给道德行为加密。

  美国当代著名小说家艾萨克·阿西莫夫在1942年撰写《机器人三定律》时就曾有过这种直觉。因而里德尔现在努力争取的是创造与人类美德价值观一致的人工智能,希望这些人工智能够良善。(作者:Emanuel Maiberg,美国旧金山的自由撰稿人)

(文章为作者独立观点,不代表新华网立场)

13 位网友推荐了本文

专家

世界经济论坛

秉承全球公民理念,致力于通过公私合作改善世界状况的国际机构 /  60 篇文章

+ 订阅

所属数据库

互联网

站在前沿,领略前沿,驾驭前沿。

+ 订阅

回应

登录评论

您还能输入 300 字

发送

相关阅读

“能文能武”的机器人,离独立思考有多远?

胡郁 科大讯飞副总裁、研究院院长 2015/12/21 10:40 发表于  热点

近日在新华网主办的首届“智能+”传媒超脑论坛上,科大讯飞副总裁、研究院院长胡郁以“人工智能的认知革命及媒体超脑”为主题发表了报告。人类和动物最大的区别是什么?如果机器人会思考了会是什么样?

稍后阅读 时长:7分钟

思客

不想AI变坏?那就教它学好!

您可以添加如下代码,然后复制粘贴到你要引用的网站下

预览

不想AI变坏?那就教它学好!

人工智能不是因为“邪恶”才伤害人类,而是因为它不懂伤害是什么。让人工智能理解人类的最佳方式就是让它们明白人类的善恶观,比如……给它们讲童话故事

010020040520000000000000011103170219498879

我的书签

扫码关注思客

意见反馈