All articles| All Pictures| All Softwares| All Video| Go home page| Write articles| Upload pictures

Reading number is top 10 articles
联想电脑频繁死机误事,用户累觉不爱 - 联想
流星雨、超级月亮、最亮金星:9月份天象“大片”盘点 - 流星雨,超级月亮,狮子座,金星
Fish TV for over $ 100 million financing, its lead investor,
Microsoft ice raids QQ space fight song, AI how to play? ,
加州颤抖吗?德国正打造下一个硅谷 - 硅谷,德国
人人网第四季度财报:跌跌跌! - 人人网,陈一舟
女子买“关键词”坐等升值,结果被骗103万 - 诈骗,关键词
Ching Ming Festival brain: burning paper money and can use “express“? ,
An interview with Bill Gates: the fourth industrial revolution, China plays an important role,
Official Samsung AMOLED screen data: 2020-market share of 65%,
Reading number is top 10 pictures
妹子最好别玩单反
清醇靓丽的美眉
你的钱干净吗?
007 James. bond's new lover
Men don't mature ten sign
Black and white also sexy--YanLiu2
China's first snake village2
Li Zongrui hunting video screenshots2
NeedWallpaper8
乳娘帕梅拉安德森2
Download software ranking
Boxer's Top ten classic battle8
好色的外科大夫
VC++6.0培训教程
Tram sex maniac 2 (H) rar bag19
Adobe Flash Player(IE) 10.0.32.18 浏览器专用的FLASH插件
Sora aoi's film--cangkong_Blue.Sky
《小姨子》英文版5
Boxer's Top ten classic battle2
天龙八部最新服务端
Sora aoi‘s film--Lust fan wall
published in(发表于) 2016/11/12 12:08:32 Edit(编辑)
专家激辩,超级智能何时来临

专家激辩,超级智能何时来临

专家激辩,超级智能何时来临 - IT资讯

艾伦人工智能研究所CEO、著名的人工智能研究者Oren Etzioni九月在《麻省理工技术评论》上撰文批评Nick Bostrom的新书《超级智能》,认为对超级智能AI的长期风险的担忧不过是杞人忧天,在可预见的未来不可能出现超级智能AI。对此来自耶鲁大学政治学和加州大学伯克利分校计算机科学的两位教授Allan Dafoe和Stuart Russell在同份杂志上撰文驳斥Etzioni的批评,力挺Bostrom。有意思的是,Etzioni在这篇评论的文末刊登了一段回应,虽不完全同意两位教授的观点,但为自己对Bostrom的人身攻击致歉。

Oren Etzioni,这位著名的AI研究者,对有关未来AI研究的成功将引起潜在的长期风险的新闻报道有颇多不满。Etzioni矛头直指牛津哲学家Nick Bostrom和他的新书《超级智能》(Superintelligence),针对Bostrom书中说“有关人类水平的智能的到来时间,数据主要来源于对AI研究人员的调查”,Etzioni对AI研究人员进行了另一次调查,宣称自己的结果和Bostrom的调查结果相悖。

相悖的调查结果

超级智能》认为人类水平的智能出现的可能性:

到2022年:10%

到2040年:50%

到2075年:90%

Etzioni的调查结果

Etzioni向193名研究人员提问“你认为什么时候会出现超级智能?”,收到了80份回复(回复率41%)。结果显示,92.5的回答认为在“可预见的未来”(25年内)不可能出现超级智能,其中25%认为超级智能决不可能出现。

需要指出的是,Etzioni甚至没有解释他反驳《超级智能》的理由:书中明确地解释了为什么超级智能AI可能会引发可怕的后果,以及提前意识到这个问题的重要性。Bostrom的论调并不是基于超人AI系统即将来临的预言。他写道,“本书没有认为我们正处于人工智能大突破的入口,也不认为我们能够精确预测这种发展将在什么时候到来。”

因此,在我们看来,Etzioni的文章分散了读者对这本书的核心论点的注意力,并且由于Etzioni对书中的调查结果提出异议而引起读者对Bostrom的人身攻击。我们认为有必要厘清误解。Russell(本文作者之一)甚至参与过Etzioni的调查,发现他的回答完全被曲解了。事实上,我们对调查结果仔细分析后,发现Etzioni的调查结果与Bostrom引用的结果非常一致。

Bostrom的调查结果的累积分布函数图,显示与Etzioni的调查结果(上面饼图)有一致性。

那么,Etzioni是怎样得出不一样的结论的呢?他设计了一个劣于Bostrom的调查工具,且曲解了结果。

那篇文章的副标题是“如果你问那些真正懂行的人,你会发现很少人认为AI会构成对人类的威胁”。因此,读者被误导去相信Etzioni调查的人是真正懂行的,而Bostrom调查的是门外汉。而事实正相反,Bostrom调查的确实是专家,而Etzioni甚至没有向哪个人提问过。Bostrom调查了被引用数最高的100位AI研究者,回答者中超过一半说他们相信有相当的可能性(大于15%)人类水平的机器智能会对人类造成“一定的危害”("on balance bad")

或“极大的危害”("extremely bad")。而Etzioni的调查没有问及任何关于人类威胁的问题。

针对“超级智能的对人类的长期影响”的调查结果

相反,Etzioni只问了一个问题:我们什么时候会实现超级智能?回答者中有一半以上(67.5%)选择了实现超级智能需“超过25年”——在Bostrom的调查中也有超过一半的回答认为超过25年后,有超过50%的概率能实现人类水平的智能。Russell对Etzioni的调查回答的也是“超过25年”,而且Bostrom针对自己的调查写道:“我自己的看法是,调查结果的中位数显示在较近的未来实现超级智能的可能性不大。”

误导性的调查设计

Etzioni设计的调查可能诱导被调查者选择“超过25年”这个选项,然后掉进他的圈套:Etzioni宣称25年是“超出可预见的未来”,进而推论出包括Russell和Bostrom自身都不认为超级智能AI对人类构成威胁。这个推论不仅让Russell和Bostrom惊讶,可能其他许多受访者也会感到惊讶。(实际上,Etzioni的调查很容易得出的结论是“75%的专家认为超级智能AI不可避免”。)仅仅因为大多数专家认为灾难性的危害25年内不会发生,我们就应该忽略它们吗?根据Etzioni的逻辑,我们是不是还应该忽略气候变化的灾难性风险,并且扼杀那些提出风险的人?

与Etzioni等人的观点相反,我们认为指出AI存在的长期风险不等于认为超级智能AI及其伴随的风险“迫在眉睫”。指出AI风险的专家包括Alan Turing,Norbert Wiener,I.J. Good和Marvin Minsky。甚至Oren Etzioni在另一些文章中也承认过这些风险。据我们所知,这些人都没有声称过超级智能AI时代即将来临。如我们上文中论述到的,Bostrom在《超级智能》一书中也没有表达过这样的观点。

站不住脚的含糊观点

Etzioni接着重复了一个含糊的观点:“悲观的预测常常掩盖了AI的潜在益处,例如防止医疗失误、减少车祸,等等”。这个观点甚至无法套在Bostrom身上,因为Bostrom认为成功地控制AI将带来“人类智慧和AI的共荣”。Etzioni的这个观点也相当站不住脚。就像认为分析核电站堆芯熔毁的核工程师“没有考虑廉价电力带来的潜在利益”,而且因为核电站某天能真正产生廉价的电力,我们就不应该提及其危害,也不应该预防堆芯熔毁的可能性。

切尔诺贝利核事故的经验教训表明,声称强大的技术不会带来任何风险是不明智的。同样,声称强大的技术永远不会实现也是不明智的。1933年9月11日,卢瑟福爵士(Lord Rutherford),或许是世界上最著名的核物理学家,认为从原子中提取能量的前景不过是“空谈”。不到24小时,Leo Szilard发明了中子诱发核裂变反应;几年后,核反应堆以及核武器有了详尽的设计。所以说,最好是高估人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认。

许多杰出的AI专家已经意识到AI对人类存续的风险的可能性。不同于媒体报道中的误导说法,这种风险不必由AI自发的恶意引起。相反,风险来自AI部署和优化过程中的不可预测性和潜在的不可逆性,使得该AI比优化它的人更智能。早在1960年Norbert Wiener就已清楚地提出了这个问题,但我们直到今天仍没能解决它。我们希望读者诸君支持正在进行的研究工作。

2016年11月2日Oren Etzioni对此文的回复:

我很高兴,Dafoe和Russell教授和我似乎在三个关键问题上达成了一致:第一,我们应该避免人身攻击。在这里,请允许我道歉:我不应该引用不具名的AAAI研究员,他们中可能从Bostrom博士到唐纳德·特朗普都有。我并不是故意要支持那样的比较;我已经通过电子邮件为这次失误向Bostrom真诚道歉,他也很有风度地接受了我的道歉。第二,作为科学家,评估有关AI的风险时,我们应该以数据为基础。这也是我那篇短文的主要观点,并且文章提供了有关这个问题的数据。第三,我们都认为媒体歪曲了Bostrom著作的原意——这个被广泛关注的话题,某种程度上在白宫有关人工智能的报告中被轻视了。当然,我们在许多细节和错综复杂的论据上有许多不同观点,但时间会告诉我们答案。




添加到del.icio.us 添加到新浪ViVi 添加到百度搜藏 添加到POCO网摘 添加到天天网摘365Key 添加到和讯网摘 添加到天极网摘 添加到黑米书签 添加到QQ书签 添加到雅虎收藏 添加到奇客发现 diigo it 添加到饭否 添加到飞豆订阅 添加到抓虾收藏 添加到鲜果订阅 digg it 貼到funP 添加到有道阅读 Live Favorites 添加到Newsvine 打印本页 用Email发送本页 在Facebook上分享


Disclaimer Privacy Policy About us Site Map

If you have any requirements, please contact webmaster。(如果有什么要求,请联系站长)
Copyright ©2011-
uuhomepage.com, Inc. All rights reserved.