用户名:
密码:

当前位置:

科技失控:智能机器将成为人类的最后一项发明?

时间:2017-02-08 14:27来源:未知 作者:编辑部 点击:
瓦拉赫教授说:“也许我们的下一代有可能会亲眼看到200年前卢德派所担心的梦魇发生,技术所抢夺的工作将远远超过其创造的工作。就业机会的创造可能也存在周期性的增长,但是我们可以暂时假设所创造的新工作形式远远落后于人们对于就业的需求,这肯定会产生破

作为人工智能伦理学方面的权威,耶鲁大学生物伦理学跨学科中心的主管温德尔·瓦拉赫(Wendell Wallach)对于新兴科技的预言和警告,一直被科技界当做未来发展的重要参考。

比如在2016年天津夏季达沃斯论坛上,瓦拉赫教授认为谷歌人工智能Alpha Go战胜韩国棋手李世石的就表明机器学习的能力越来越重要,但同时,瓦拉赫教授在他的新书《科技失控:用科技思维重新看懂未来》中,也对新兴的热点技术,如人工智能、自动驾驶、地球工程等,提出了伦理挑战和警告。

失业、灾难和毁灭

科技所带来的问题,不仅仅在于技术本身所引发的一些环境、健康和危害,还在于其可能引发的社会问题和伦理问题。

联合国报告称:2/3发展中国家工人将被机器所取代,这一趋势已经被各机构所认同,但其实新技术引发的对失业的恐惧并非新现象,早在1779年英国传奇无产阶级英雄奈德·卢德(Ned Ludd)就亲手砸毁了当时先进的针织机,英国诺丁汉的针织品手工艺人受到其鼓舞及对失业的恐惧而大肆毁坏当时工厂中的机械针织机。以至于后来人们总是把反对工业化和自动化的人称为“卢德分子”。

瓦拉赫教授说:“也许我们的下一代有可能会亲眼看到200年前卢德派所担心的梦魇发生,技术所抢夺的工作将远远超过其创造的工作。就业机会的创造可能也存在周期性的增长,但是我们可以暂时假设所创造的新工作形式远远落后于人们对于就业的需求,这肯定会产生破坏性的后果。”

系列电影《终结者》也引发了人们对于智能自主武器的恐惧,这种由人工智能和超级武器结合的产物,也成为了人类的超级梦魇之一,也被各种科幻创作引为人类毁灭的手段之一。或许人们会找出各种理由来支持自主武器的发展,其中的理由之一极可能是这项技术可以减少战争中的生命损失。但也有可能因此而降低战争的门槛——因为看起来战争成本会更低。

对此瓦拉赫教授在《科技失控》中说:“自主武器系统与非自主武器系统之间的区别可能只是一行代码的问题。”“自主武器容易导致错觉,以为战争可以迅速启动并很快以最小的成本取胜。但是,一旦战争开始,不仅是士兵的生命还有平民的生命都难于幸免。”

智能机器将成为人类最后一项发明

数学家古德(I.J. Good)在1965年发表了一篇题为《有关第一台超智能机器的猜想》的文章中,预测计算机将从各方面都超过人类的智慧能力。超智能机器的一个显著特点是具备制造出更好机器的能力。它们的出现会引发“智慧爆炸”,机器将设计出更智能的计算机,它们的进化将远远超出人类的智慧。古德写下了一句非常著名的话:“第一台超智能机器将是人类的最后一项发明。”

智能机器将给我们带来的变化和发展不言而喻,这种显而易见的好处和发展趋势甚至可以冲淡人们对于智能机器产生的忧虑,近来谷歌的人工智能AlphaGo的表现就经常被当成娱乐新闻被人津津乐道,但是我们绝不能因此而忽视其潜在的问题。更多时候面对趋势我们并不能阻止其发展,但可以决定其究竟什么时候实现。

瓦拉赫教授说:“但是时间越长,机会越多,可以确保超智能机器人对人类和人类的价值观友好。认为科学家肯定终有一天会发现制造此类机器人或实现人类进化当然不是愚蠢的。但是,这很大程度上取决于在20年、200年还是1000年以后实现。”

生死关头,我们是否应该将决策权交给机器

对于无人驾驶汽车安全性较目前的汽车更高的说法,瓦拉赫教授表示怀疑:“据谷歌的统计,当前的设计平均36000英里才会出现一次计算机司机出现严重错误需要人进行干预的情况。这听起来让人比较放心,因为一般的司机需要2或3年才能开够这么远的里程。然而,人类司机一般每50万英里才会出现事故,每130万英里可能发生伤人的事故,每9000万英里才可能导致人员死亡的事故。因此,难以证明依赖备份人类司机的无人驾驶汽车能否真正降低死亡率。”

失控点也可能不仅是技术本身。比如即便是事故死亡率更低,也要区分是驾驶者死亡和事故中死亡,比如说,失控的汽车是选择撞向行人还是路边的供电设备——后者看起来是一个不错的选择,但可能会造成驾驶者死亡,并且如果造成全面停电可能会引起部分区域停电从而影响那些在医院中急救的人从而造成死亡;比如说,为了避免撞上公共汽车或儿童,造成更多的死亡,有些驾驶者会选择从桥上冲下去,这个问题可能并不让人愉快,但确实关乎一个决策权的问题。

而且,现实问题可能会比设想更为复杂往往会涉及到三种或更多的因素在里面,这里面可能涉及一个道德回复:我们的本能反应未必会比机器的选择更好。但这同时也返回我们最初的问题:我们是否应将决策权交给机器?

我们不会停止脚步,但可以少缴智商税

在科技的发展过程中,我们总要为自己的判断和试验而付出不小的代价。不同于科技发展本身的代价和投入,科技中可预见但因为贪婪或其他原因造成的失控点也会造成研究者、投资者和消费者的严重损失,我们姑且将其称之为“科技智商税”。智商税的特点是,在人们清醒之前,总会哭着喊着要交,你如果提醒他他还会怒不可遏,除非他自己最终能意识到。

我们不期望《科技失控》能完全消除科技智商税的发生,但如果我们能对科技进行正反的思考,就能尽可能减少我们犯错的几率。

正如史蒂芬•霍金(Stephen William Hawking)虽然一直警告科技是人类最大的威胁,但同时他也说:我们不会停止进步,或刻意逆转。所以我们必须认识到进步的风险并控制它。

推荐

大量技术发明的涌现都伴随着相应的风险。伦理学家瓦拉赫在这一领域的研究帮我们从危险中排除了不理智的因素。

——《自然》(Nature)

温德尔·瓦拉赫似乎总是比我们超前几年。他这本了不起的书将我们带到了科技前沿,向我们展示了最卓著的技术发明如何,为什么以及在哪些地方改变人类的生活。瓦拉赫思维敏锐入微,他完美地将对新兴技术的渊博知识与对历史的把握、对人性的尊重结合起来。《科技失控》是一本引人入胜、意义非凡的书,话题本身属于学术研究范畴,但读起来却妙趣横生。

——哈佛大学道德与认知实验室主任乔舒亚·格林(Joshua Greene)

这本恰逢其时的书对于大量快速发展的科学技术的利弊进行了不偏不倚的评价。这是一本值得广泛阅读的书。

——剑桥大学宇宙学和天体物理学教授马丁·李斯(Martin Rees)

《科技失控》让人不禁联想到成千上万的畅销小说和卖座电影:比如罗伯特·海因莱因的《我不会害怕邪恶》,艾萨克·阿西莫夫的《我和机器人》,大卫·米切尔的《骨医生》,石垣和未的《别让我走》,尼尔·斯蒂芬森的《钻石时代》,以及《千钧一发》《黑客帝国》《X战警》和《星球大战前传1:幽灵的威胁》等。但是,上述这些作品和它们描述的各种反乌托邦通常被认为是科幻虚拟世界,而瓦拉赫的书绝不能如此定性,他向我们发出了现实的警告,如不加以关注,警惕技术的发展趋势,不断评估技术的利弊,那么他所警告的一切将有可能。

——美国科技博客媒体ArsTechnica

顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
精品图书在线阅读

那些年,我们没有在一起:纯美爱恋

作者:汤晓

  作品中通过三段回忆性的穿越环节,不仅重新提及了网络上关于李雷和韩梅梅小暧昧引发的争议,更是通过摘苹果、借尺…

栏目列表
推荐内容
热点内容