All articles| All Pictures| All Softwares| All Video| Go home page| Write articles| Upload pictures

Reading number is top 10 articles
中国为什么爱山寨却难创新?根源在这里 - 创新,山寨
Telecom fraud: the value chain and pretending to be asleep, “night watchman“,
2015年福布斯亚太最佳上市公司50强出炉:中国大亮 - 福布斯
看英伟达、英特尔折戟移动领域,AMD好开心 - AMD,英特尔,英伟达,Nvidia,Intel,手机芯片,CPU,处理器
Huawei prosecution United States operators t
Walk from driving cell phones! Don’t play with the phone! Don’t play with the phone! ,
MA: the most hated speaking of bad people who remain in the company of the company,
Not dead: men into the net hit the police car video recorded in the Red caught
微博1.42亿美元投资滴滴快的 - 新浪微博,滴滴,快的
新规则导致招商银行一网通无法登录,用户怒斥招行 - 招商银行,一网通
Reading number is top 10 pictures
毛俊杰-能量永动机
So beauty, will let you spray blood9
2012 national geographic daily picture3
初吻给了谁?
Desktop Wallpapers1
八个盛产美女的国家1
如果我是导演...
餐桌上的鱼
Ashlynn Brooke show proud chest measurement2
王艳写真温柔如水1
Download software ranking
The Bermuda triangle1
Boxer Classic video2
Tram sex maniac 2 (H) rar bag9
asp.net技术内幕
功夫熊猫2(下集)
jdk1.5
White deer villiage
Kung.Fu.Panda.2
WebService在.NET中的实战应用教学视频 → 第5集
Unix video tutorial12
aaa published in(发表于) 2014/8/14 5:42:57 Edit(编辑)
人工智能凭借什么毁灭人类? - 人工智能,机器人

人工智能凭借什么毁灭人类? - 人工智能,机器人

人工智能凭借什么毁灭人类? - 人工智能,机器人 - IT资讯
人工智能凭借什么毁灭人类?

近日,“人工智能可能比核武器还要危险。”特斯拉老板埃伦·马斯克在推特上发文预警,他认为,超级智能计算机将很有可能消灭人类。

▲牛津大学哲学教授尼克·博斯特伦(Nick Bostrom)与詹姆斯·巴拉特(James Barrat)

什么样的机器人才是有危险的人工智能?英国代码破译者、计算机先驱阿兰·图灵设计了一个甄别实验:一台计算机和一个人做竞赛,说服一个看不到它们的观察者,使其相信自己才是真正的人类。当机器人至少把半数观察者蒙骗了,才算通过了测试。目前,尚无一台计算机接近于通过测试。但图灵也指出,当超级智能通过图灵测试时,人类的报应就来到了。

根据维基百科中的解释,人类所担心的智能机器人是能够像人一样思考、行动、理性地思考和理性地行动。这里行动应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。而且它们具有有知觉和自我意识。

人工智能对人类的毁灭能力是什么?牛津大学人类未来研究所的研究人员给出了解释,人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是它们的智力。它们将比人类更聪明、更擅长社交、更有工作能力,假如一个超级机器人走进一个酒吧,它比人类更能吸引男人、女人,那时它们才真的可怕。

首先在技术上,具有人工智能的机器人将使得人类全部失业。只要对某技能的人复制一百次,就能复制出一百个具有此能力的机器人,那么在一百个行业里就会拥有一万名高级员工,这也许一个星期就能训练完成,只要愿意还可以复制得更多,成千上万……如果它们真的是超人,性能肯定比描述的更强。这样一来,人工智能几乎可以代替任何人,包括各类专业人员。

《超级智能:方法、危险、战略》和《我们最后的发明:人工智能及人类时代的终结》两本书的作者牛津大学哲学教授尼克·博斯特伦(Nick Bostrom)与詹姆斯·巴拉特(James Barrat)认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。”即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。

詹姆斯·巴拉特认为:“如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标。”

不论如何,未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的机器人相关小说中为机器人设定了行为准则,也就是机器人三定律(Three Laws of Robotics)——

法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;

法则二,机器人必须服从人类的命令,除非违背第一法则;

法则三,在不违背第一及第二法则的前提下,机器人必须保护自己。

执教于印第安纳大学等学术机构的认知科学教授道格拉斯·郝夫斯台特(Douglas Hofstadter)在其《哥德尔、艾舍尔、巴赫——集异璧之大成》一书中称,在获取知识的过程中,计算机必须以和人类差不多的方式整合知识。

不管这个愿望在人类追逐利益的冲动面前是多么无力,但对人工智能的担心是显然的。

▲谷歌公司的工程总监雷·库兹威尔(Ray Kurzwell)

那么,这一天何时到来,谷歌公司的工程总监雷·库兹威尔(Ray Kurzwell)认为,到2029年时,计算机将变得比人类更智能。不过,稍微令人安慰的是,他在《灵魂机器时代》(The Age of Spiritual Machines)中称,人工智能还是会受制于人类。

百度CEO李彦宏对人工智能的发展速度同样乐观,他在今年上半年透露,“百度内部有一个项目叫做‘百度大脑’,它现在的智力水平相当于两到三岁孩子的水平。随着计算成本的飞速下降和计算能力的飞速提升,我们完全可以想象有一天电脑可以越来越接近人脑的智力。”




添加到del.icio.us 添加到新浪ViVi 添加到百度搜藏 添加到POCO网摘 添加到天天网摘365Key 添加到和讯网摘 添加到天极网摘 添加到黑米书签 添加到QQ书签 添加到雅虎收藏 添加到奇客发现 diigo it 添加到饭否 添加到飞豆订阅 添加到抓虾收藏 添加到鲜果订阅 digg it 貼到funP 添加到有道阅读 Live Favorites 添加到Newsvine 打印本页 用Email发送本页 在Facebook上分享


Disclaimer Privacy Policy About us Site Map

If you have any requirements, please contact webmaster。(如果有什么要求,请联系站长)
Copyright ©2011-
uuhomepage.com, Inc. All rights reserved.