当前位置:随意分享网 > 分享微信 >

麻省理工学院物理学家:超级人工智能的风险到底是什么?

时间:2018-04-18 22:13:40    出处:随意分享网    编辑:琳达老师

很多科学家都警告过人工智能的风险。在2018年的TED大会上,麻省理工学院物理学家马克思·泰格马克(Max Tegmark)再次谈到了这个问题。“好奇心日报”介绍了他的演讲内容。

?

泰格马克在现场展示了一幅图画,上面画着山脉、岛屿以及海洋。岛屿、山脉上标注的是一项项跟人工智能有关的技术应用,高低不同的山脉和岛屿,则代表着技术实现的难易程度。翻译、自动驾驶、围棋、语音识别所在的岛屿基本刚高出海平面,这也是目前人工智能最主要的应用领域。而标注在高山上的艺术、摄影、写书等,则代表了人工智能很难驾驭的领域。至少现在看来,在精神创造、艺术文化等方面,还是人类更擅长。

?

不过,泰格马克认为,最终代表人工智能实现程度的海平面会淹没一切。人工智能达到这个高度时,其实已经是通用人工智能。通用人工智能像人类一样,可以思考和学习,能举一反三,甚至能产生独立意识。再往前发展,就会出现更高级的“超级人工智能”。超级人工智能更加难以预测,它可能是那种你下一道命令,比如“预测一下战争的走向”,它就会通过网络检索,分析各种数据,最后用一秒钟给你一个分析报告。

?

去年,不少科学家和大科技公司的创始人都谈到过“超级人工智能”,并且认为它是非常危险的。泰格马克的看法是,超级人工智能的真正风险不在于它有没有恶意,而是它非常善于实现自己的目标,如果这些目标跟人类的目标不一致,人类就会陷入困境。泰格马克举了非洲黑犀牛灭绝的例子,他说,人类不是无知到希望黑犀牛灭绝,而是作为更聪明的物种,人类获得犀牛角的目标和黑犀牛求生的目标不一致。在不断的差异碰撞中,更弱势的一方逐渐消亡。

?

而从目前的研究和预测来看,人工智能将来肯定会在很多领域比人类更出色。所以泰格马克认为,在跟超级人工智能共处时,我们要尽量避免今后的人类遭遇黑犀牛的命运。

Copyright © 2002-2018 随意分享网. 版权所有