完善资料让更多小伙伴认识你,还能领取20积分哦, 立即完善>
``` 在网上看了一篇人工智能的文章,感觉启发很大。一直对人工智能很感兴趣,所以想转载到论坛,可以和坛友一起讨论一番。篇幅过长,会用连载的模式。 你相信人工智能会取代人类的地位吗? 地球的主宰一定是生物? 你希望人工智能的时代来临吗?…… 正文: 人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。 上面这句话不是危言耸听,请耐心的看完本文再发表意见。这篇翻译稿翻译完一共三万五千字,我从上星期开始翻,熬了好几个夜才翻完,因为我觉得这篇东西非常有价值。希望你们能够耐心读完,读完后也许你的世界观都会被改变。 ====================== 内容翻译自http://waitbutwhy.com 原文地址: The AI Revolution: Road to Superintelligence The AI Revolution: Our Immortality or Extinction 转载请保留原文链接和翻译者 知乎 @谢熊猫君 ======================= 我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大 – Vernor Vinge 如果你站在这里,你会是什么感觉? 看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。所以你真实的感觉大概是这样的: 稀松平常。 ------------------------------- 遥远的未来——就在眼前 想象一下坐时间机器回到1750年的地球,那个时代没有电,畅通通讯基本靠吼,交通主要靠动物拉着跑。你在那个时代邀请了一个叫老王的人到2015年来玩,顺便看看他对“未来”有什么感受。我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千公里外正在发生进行的体育比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来,生成一个地图然后地图上有个蓝点告诉你现在的位置,一边看着地球另一边的人的脸一边聊天,以及其它各种各样的黑科技。别忘了,你还没跟他解释互联网、国际空间站、大型强子对撞机、核武器以及相对论。 这时候的老王会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,我觉得老王很可能直接被吓尿了。 但是,如果老王回到了1750年,然后觉得被吓尿是个很囧的体验,于是他也想把别人吓尿来满足一下自己,那会发生什么?于是老王也回到了250年前的1500年,邀请生活在1500年的小李去1750年玩一下。小李可能会被250年后的很多东西震惊,但是至少他不会被吓尿。同样是250来年的时间,1750和2015年的差别,比1500年和1750年的差别,要大得多了。1500年的小李可能能学到很多神奇的物理知识,可能会惊讶于欧洲的帝国主义旅程,甚至对于世界地图的认知也会大大的改变,但是1500年的小李,看到1750年的交通、通讯等等,并不会被吓尿。 所以说,对于1750年的老王来说,要把人吓尿,他需要回到更古老的过去——比如回到公元前12000年,第一次农业革命之前。那个时候还没有城市,也还没有文明。一个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了,来自那个时代的小赵看到1750年庞大的人类帝国,可以航行于海洋上的巨舰,居住在“室内”,无数的收藏品,神奇的知识和发现——他很有可能被吓尿。 小赵被吓尿后如果也想做同样的事情呢?如果他会到公元前24000年,找到那个时代的小钱,然后给他展示公元前12000年的生活会怎样呢。小钱大概会觉得小赵是吃饱了没事干——“这不跟我的生活差不多么,呵呵”。小赵如果要把人吓尿,可能要回到十万年前或者更久,然后用人类对火和语言的掌控来把对方吓尿。 所以,一个人去到未来,并且被吓尿,他们需要满足一个“吓尿单位”。满足吓尿单位所需的年代间隔是不一样的。在狩猎采集时代满足一个吓尿单位需要超过十万年,而工业革命后一个吓尿单位只要两百多年就能满足。 未来学家Ray Kurzweil把这种人类的加速发展称作加速回报定律(Law of Accelerating Returns)。之所以会发生这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快——这本就是更加发达的一个标准。19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快。 即使放到更小的时间规模上,这个定律依然有效。著名电影《回到未来》中,生活在1985年的主角回到了1955年。当主角回到1955年的时候,他被电视刚出现时的新颖、便宜的物价、没人喜欢电吉他、俚语的不同而震惊。 但是如果这部电影发生在2015年,回到30年前的主角的震惊要比这大得多。一个2000年左右出生的人,回到一个没有个人电脑、互联网、手机的1985年,会比从1985年回到1955年的主角看到更大的区别。 这同样是因为加速回报定律。1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度要快,因为1985年的世界比1955年的更发达,起点更高,所以过去30年的变化要大过之前30年的变化。 进步越来越大,发生的越来越快,也就是说我们的未来会很有趣对吧? 未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成——2000年的发展速度是20世纪平均发展速度的5倍。他认为2000年开始只要花14年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年),就能达到又一个20世纪一百年的进步。几十年之后,我们每年都能达成好几次相当于整个20世纪的发展,再往后,说不定每个月都能达成一次。按照加速回报定,Kurzweil认为人类在21世纪的进步将是20世纪的1000倍。 如果Kurzweil等人的想法是正确的,那2030年的世界可能就能把我们吓尿了——下一个吓尿单位可能只需要十几年,而2050年的世界会变得面目全非。 |
|
相关推荐
66个回答
|
|
如果人工智能可以故意不通过图灵测试,而我们相信它没有通过图灵测试,感觉有很严重的安全隐患,因为它在隐藏它的真实目的!有朝一日人类彻底相信了它们不会有自己的想法的时候那么一切就都晚了!
最佳答案
|
|
|
|
接上文:
你可能觉得2050年的世界会变得面目全非这句话很可笑,但是这不是科幻,而是比你我聪明很多的科学家们相信的,而且从历史来看,也是逻辑上可以预测的。 那么为什么你会觉得“2050年的世界会变得面目全非” 这句话很可笑呢?有三个原因让你质疑对于未来的预测: 1. 我们对于历史的思考是线性的。当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。 2. 近期的历史很可能对人产生误导。首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。 (未完待续) |
|
|
|
(接上文) 通往超级智能之路 人工智能是什么? 如果你一直以来把人工智能(AI)当做科幻小说,但是近来却不但听到很多正经人严肃的讨论这个问题,你可能也会困惑。这种困惑是有原因的:
(未完待续) |
|
|
|
(接上文) 所以,让我们从头开始。 首先,不要一提到人工智能就想着机器人。机器人只是人工智能的容器,机器人有时候是人形,有时候不是,但是人工智能自身只是机器人体内的电脑。人工智能是大脑的话,机器人就是身体——而且这个身体不一定是必需的。比如说Siri背后的软件和数据是人工智能,Siri说话的声音是这个人工智能的人格化体现,但是Siri本身并没有机器人这个组成部分。 其次,你可能听过“奇点”或者“技术奇点”这种说法。这种说法在数学上用来描述类似渐进的情况,这种情况下通常的规律就不适用了。这种说法同样被用在物理上来描述无限小的高密度黑洞,同样是通常的规律不适用的情况。Kurzweil则把奇点定义为加速回报定律达到了极限,技术进步以近乎无限的速度发展,而奇点之后我们将在一个完全不同的世界生活的。但是当下的很多思考人工智能的人已经不再用奇点这个说法了,而且这种说法很容易把人弄混,所以本文也尽量少用。 最后,人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类。
现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,可能不会,但是无论如何,世界将变得完全不一样。 让我们来看看这个领域的思想家对于这个旅途是怎么看的,以及为什么人工智能革命可能比你想的要近得多。 (未完待续) |
|
|
|
接上文:
我们现在的位置——充满了弱人工智能的世界 弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子:
现在的弱人工智能系统并不吓人。最糟糕的情况,无非是代码没写好,程序出故障,造成了单独的灾难,比如造成停电、核电站故障、金融市场崩盘等等。 虽然现在的弱人工智能没有威胁我们生存的能力,我们还是要怀着警惕的观点看待正在变得更加庞大和复杂的弱人工智能的生态。每一个弱人工智能的创新,都在给通往强人工智能和超人工智能的旅途添砖加瓦。用Aaron Saenz的观点,现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。 (未完待续)
|
|
|
|
赶上直播了是吗!!! 楼主快更,求先看完再交流!
|
|
|
|
|
|
|
|
接上文: 弱人工智能到强人工智能之路 为什么这条路很难走 只有明白创造一个人类智能水平的电脑是多么不容易,才能让你真的理解人类的智能是多么不可思议。造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人类的大脑,并且创造个类似的东西要简单太多了。至今为止,人类的大脑是我们所知宇宙中最复杂的东西。 而且创造强人工智能的难处,并不是你本能认为的那些。 用计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”(未完待续) |
|
|
|
接上文:
读者应该能很快意识到,那些对我们来说很简单的事情,其实是很复杂的,它们看上去很简单,因为它们已经在动物进化的过程中经历了几亿年的优化了。当你举手拿一件东西的时候,你肩膀、手肘、手腕里的肌肉、肌腱和骨头,瞬间就进行了一组复杂的物理运作,这一切还配合着你的眼睛的运作,使得你的手能都在三维空间中进行直线运作。对你来说这一切轻而易举,因为在你脑中负责处理这些的“软件”已经很完美了。同样的,软件很难识别网站的验证码,不是因为软件太蠢,恰恰相反,是因为能够读懂验证码是件碉堡了的事情。 同样的,大数相乘、下棋等等,对于生物来说是很新的技能,我们还没有几亿年的世界来进化这些能力,所以电脑很轻易的就击败了我们。试想一下,如果让你写一个程序,是一个能做大数相乘的程序容易写,还是能够识别千千万万种字体和笔迹下书写的英文字母的程序难写? 比如看着下面这个图的时候,你和电脑都能识别出这是一个由两种颜色的小长方形组成的一个大长方形。 你和电脑打了个平手。接着我们把途中的黑色部分去除: 你可以轻易的描述图形中透明或不透明的圆柱和3D图形,但是电脑就看不出来了。电脑会描述出2D的阴影细节,但是人脑却能够把这些阴影所展现的深度、阴影混合、房屋灯光解读出来。 (未完待续) |
|
|
|
接上文:
再看下面这张图,电脑看到的是黑白灰,我们看到的却是一块全黑的石头 而且,我们到现在谈的还是静态不变的信息。要想达到人类级别的智能,电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影,而《富春山居图》是烂电影。 想想就很难吧? 我们要怎样才能达到这样的水平呢? 通往强人工智能的第一步:增加电脑处理速度 要达到强人工智能,肯定要满足的就是电脑硬件的运算能力。如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。 用来描述运算能力的单位叫作cps(calculations per second,每秒计算次数),要计算人脑的cps只要了解人脑中所有结构的最高cps,然后加起来就行了。 Kurzweil把对于一个结构的最大cps的专业估算,然后考虑这个结构占整个大脑的重量,做乘法,来得出人脑的cps。听起来不太靠谱,但是Kurzweil用了对于不同大脑区域的专业估算值,得出的最终结果都非常类似,是10^16 cps,也就是1亿亿次计算每秒。 现在最快的超级计算机,中国的天河二号,其实已经超过这个运算力了,天河每秒能进行3.4亿亿。当然,天河二号占地720平方米,耗电2400万瓦,耗费了3.9亿美元建造。广泛应用就不提了,即使是大部分商业或者工业运用也是很贵的。 Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps,当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一部分了。 摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。 也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。 至少在硬件上,我们已经能够强人工智能了(中国的天河二号),而且十年以内,我们就能以低廉的价格买到能够支持强人工智能的电脑硬件。 但是运算能力并不能让电脑变得智能,下一个问题是,我们怎样利用这份运算能力来达成人类水平的智能。 (未完待续)
|
|
|
|
接上文: 通往强人工智能的第二步:让电脑变得智能 这一步比较难搞。事实上,没人知道该怎么搞——我们还停留在争论怎么让电脑分辨《富春山居图》是部烂片的阶段。但是,现在有一些策略,有可能会有效。下面是最常见的三种策略: 1) 抄袭人脑 就好像你班上有一个学霸。你不知道为什么学霸那么聪明,为什么考试每次都满分。虽然你也很努力的学习,但是你就是考的没有学霸好。最后你决定“老子不干了,我直接抄他的考试答案好了。”这种“抄袭”是有道理的,我们想要建造一个超级复杂的电脑,但是我们有人脑这个范本可以参考呀。 科学界正在努力逆向工程人脑,来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年之前能够完成这个任务。一旦这个成就达成,我们就能知道为什么人脑能够如此高效、快速的运行,并且能从中获得灵感来进行创新。一个电脑架构模拟人脑的例子就是人工神经网络。它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接,有自己的输入、输出系统,而且什么都不知道——就像一个婴儿的大脑。接着它会通过做任务来自我学习,比如识别笔迹。最开始它的神经处理和猜测会是随机的,但是当它得到正确的回馈后,相关晶体管之间的连接就会被加强;如果它得到错误的回馈,连接就会变弱。经过一段时间的测试和回馈后,这个网络自身就会组成一个智能的神经路径,而处理这项任务的能力也得到了优化。人脑的学习是类似的过程,不过比这复杂一点,随着我们对大脑研究的深入,我们将会发现更好的组建神经连接的方法。 更加极端的“抄袭”方式是“整脑模拟”。具体来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型,然后把这个模型装在强力的电脑上。如果能做成,这台电脑就能做所有人脑能做的事情——只要让它学习和吸收信息就好了。如果做这事情的工程师够厉害的话,他们模拟出来的人脑甚至会有原本人脑的人格和记忆,电脑模拟出的人脑就会像原本的人脑一样——这就是非常符合人类标准的强人工智能,然后我们就能把它改造成一个更加厉害的超人工智能了。 我们离整脑模拟还有多远呢?至今为止,我们刚刚能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。人类的大脑有1000亿个神经元,听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了,蚂蚁的大脑也不远了,接着就是老鼠的大脑,到那时模拟人类大脑就不是那么不现实的事情了。 2)模仿生物演化 抄学霸的答案当然是一种方法,但是如果学霸的答案太难抄了呢?那我们能不能学一下学霸备考的方法? 首先我们很确定的知道,建造一个和人脑一样强大的电脑是可能的——我们的大脑就是证据。如果大脑太难完全模拟,那么我们可以模拟演化出大脑的过程。事实上,就算我们真的能完全模拟大脑,结果也就好像照抄鸟类翅膀的拍动来造飞机一样——很多时候最好的设计机器的方式并不是照抄生物设计。 所以我们可不可以用模拟演化的方式来造强人工智能呢?这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程,就好像生物通过生存这种方式来表现,并且以能否生养后代为评价一样。一组电脑将执行各种任务,最成功的将会“繁殖”,把各自的程序融合,产生新的电脑,而不成功的将会被剔除。经过多次的反复后。这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程,使得整个流程能够自己运行。 这个方法的缺点也是很明显的,演化需要经过几十亿年的时间,而我们却只想花几十年时间。 但是比起自然演化来说,我们有很多优势。首先,自然演化是没有预知能力的,它是随机的——它产生的没用的变异比有用的变异多很多,但是人工模拟的演化可以控制过程,使其着重于有益的变化。其次,自然演化是没有目标的,自然演化出的智能也不是它目标,特定环境甚至对于更高的智能是不利的(因为高等智能消耗很多能源)。但是我们可以指挥演化的过程超更高智能的方向发展。再次,要产生智能,自然演化要先产生其它的附件,比如改良细胞产生能量的方法,但是我们完全可以用电力来代替这额外的负担。所以,人类主导的演化会比自然快很多很多,但是我们依然不清楚这些优势是否能使模拟演化成为可行的策略。 3)让电脑来解决这些问题 如果抄学霸的答案和模拟学霸备考的方法都走不通,那就干脆让考题自己解答自己吧。这种想法很无厘头,确实最有希望的一种。 总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。 以上这些都会很快发生 硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为: 1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快 2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。 (未完待续)
|
|
|
|
接上文:
强人工智能到超人工智能之路 总有一天,我们会造出和人类智能相当的强人工智能电脑,然后人类和电脑就会平等快乐的生活在一起。 呵呵,逗你呢。 即使是一个和人类智能完全一样,运算速度完全一样的强人工智能,也比人类有很多优势: 硬件上: (未完待续) |
|
|
|
接上文: 软件上来说:
通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当作一个重要的里程碑,但是也就仅此而已了。它不会停留在这个里程碑上的。考虑到强人工智能之于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。 (未完待续)
|
|
|
|
接上文: 这一切发生的时候我们很可能被吓尿,因为从我们的角度来看 a)虽然动物的智能有区别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨的人类要聪明很很很很多。 所以,当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱。” 但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明: 之后呢? (未完待续)
|
|
|
|
接上文: 智能爆炸 从这边开始,这个话题要变得有点吓人了。我在这里要提醒大家,以下所说的都是大实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测。你在下面读到什么离谱的东西的时候,要记得这些东西是比你我都聪明很多的人想出来的。 像上面所说的,我们当下用来达成强人工智能的模型大多数都依靠人工智能的自我改进。但是一旦它达到了强人工智能,即使算上那一小部分不是通过自我改进来达成强人工智能的系统,也会聪明到能够开始自我改进。 这里我们要引出一个沉重的概念——递归的自我改进。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。 现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能出现的中位年份是2040年——距今只有25年。这听起来可能没什么,但是要记住,很多这个领域的思想家认为从强人工智能到超人工智能的转化会快得多。以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。 这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。 但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。 想一下,如果我们的大脑能够发明Wifi,那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。防止人类衰老,治疗各种不治之症,解决世界饥荒,甚至让人类永生,或者操纵气候来保护地球未来的什么,这一切都将变得可能。同样可能的是地球上所有生命的终结。 当一个超人工智能出生的时候,对我们来说就像一个全能的上帝降临地球一般。 这时候我们所关心的就是这篇文章的第一部分完了,我建议你休息一下,喝点水,下面我们要开始第二部分。 (未完待续) |
|
|
|
接上文: 第二部分开始: 文章的第一部分讨论了已经在我们日常生活中随处可见的弱人工智能,然后讨论了为什么从弱人工智能到强人工智能是个很大的挑战,然后我们谈到了为什么技术进步的指数级增长表面强人工智能可能并不那么遥远。第一部分的结束,我们谈到了一旦机器达到了人类级别的智能,我们将见到如下的场景: 这让我们无所适从,尤其考虑到超人工智能可能会发生在我们有生之年,我们都不知道该用什么表情来面对。 (未完待续) |
|
|
|
接上文: 在我们继续深入这个话题之前,让我们提醒一下自己超级智能意味着什么。 很重要的一点是速度上的超级智能和质量上的超级智能的区别。很多人提到和人类一样聪明的超级智能的电脑,第一反应是它运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器,能够用几分钟时间思考完人类几十年才能思考完的东西 这听起来碉堡了,而且超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上。用人类来做比喻,人类之所以比猩猩智能很多,真正的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块,这些模块让我们能够进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做不来这些的。就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行。 而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么,也可以理解摩天大楼是什么,但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说,摩天大楼那么巨大的东西肯定是天然的,句号。对于猩猩来说,它们不但自己造不出摩天大楼,它们甚至没法理解摩天大楼这东西能被任何东西造出来。而这一切差别,其实只是智能的质量中很小的差别造成的。 而当我们在讨论超人工智能时候,智能的范围是很广的,和这个范围比起来,人类和猩猩的智能差别是细微的。如果生物的认知能力是一个楼梯的话,不同生物在楼梯上的位置大概是这样的: 要理解一个具有超级智能的机器有多牛逼,让我们假设一个在上图的楼梯上站在深绿色台阶上的一个机器,它站的位置只比人类高两层,就好像人类比猩猩只高两层一样。这个机器只是稍微有点超级智能而已,但是它的认知能力之于人类,就好像人类的认知能力之于猩猩一样。就好像猩猩没有办法理解摩天大楼是能被造出来的一样,人类完全没有办法理解比人类高两层台阶的机器能做的事情。就算这个机器试图向我们解释,效果也会像教猩猩造摩天大楼一般。 而这,只是比我们高了两层台阶的智能罢了,站在这个楼梯顶层的智能之于人类,就好像人类之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西,我们依然是学不会的。 但是我们讨论的超级智能并不是站在这个楼梯顶层,而是站在远远高于这个楼梯的地方。当智能爆炸发生时,它可能要花几年时间才能从猩猩那一层往上迈一步,但是这个步子会越迈越快,到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时候,它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可。所以让我们记住,当第一个到达人类智能水平的强人工智能出现后,我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这更高百万倍): 前面已经说了,试图去理解比我们高两层台阶的机器就已经是徒劳的,所以让我们很肯定的说,我们是没有办法知道超人工智能会做什么,也没有办法知道这些事情的后果。任何假装知道的人都没搞明白超级智能是怎么回事。 自然演化花了几亿年时间发展了生物大脑,按这种说法的话,一旦人类创造出一个超人工智能,我们就是在碾压自然演化了。当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸,从而改变所有生物的命运。 科学界中大部分人认为踩上绊线不是会不会的问题,而是时间早晚的问题。想想真吓人。 那我们该怎么办呢? 可惜,没有人都告诉你踩到绊线后会发生什么。但是人工智能思想家Nick Bostrom认为我们会面临两类可能的结果——永生和灭绝。 首先,回顾历史,我们可以看到大部分的生命经历了这样的历程:物种出现,存在了一段时间,然后不可避免的跌落下生命的平衡木,跌入灭绝的深渊。 历史上来说,“所有生物终将灭绝”就像“所有人都会死”一样靠谱。至今为止,存在过的生物中99.9%都已经跌落了生命的平衡木,如果一个生物继续在平衡木上走,早晚会有一阵风把它吹下去。Bostrom把灭绝列为一种吸引态——所有生物都有坠入的风险,而一旦坠入将没有回头。 虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运用得当,超人工智能可以帮助人类和其它物种,达到另一个吸引态——永生。Bostrom认为物种的永生和灭绝一样都是吸引态,也就是我一旦我们达成了永生,我们将永远不再面临灭绝的危险——我们战胜了死亡和几率。所以,虽然绝大多数物种都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的,只是至今为止地球上的生命还没聪明到发现怎样去到永生这另一个吸引态。 (未完待续) |
|
|
|
接上文: 如果Bostrom等思想家的想法是对的,而且根据我的研究他们确实很可能是对的,那么我们需要接受两个事实:
有可能,当自然演化踩到绊线的时候,它会永久的终结人类和平衡木的关系,创造一个新的世界,不管这时人类还是不是存在。 而现在的问题就是:“我们什么时候会踩到绊线?”以及“从平衡木上跌下去后我们会掉入哪个吸引态?” 没人知道答案,但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些什么。 ___________ 先来讨论“我们什么时候会踩到绊线?”也就是什么时候会出现第一个超级智能。 不出意外的,科学家和思想家对于这个意见的观点分歧很大。很多人,比如Vernor Vinge教授,科学家Ben Goertzel,SUN创始人Bill Joy,发明家和未来学家Ray Kurzweil,认同机器学习专家Jeremy Howard的观点,Howard在TED演讲时用到了这张图:这些人相信超级智能会发生在不久的将来,因为指数级增长的关系,虽然机器学习现在还发展缓慢,但是在未来几十年就会变得飞快。 其它的,比如微软创始人Paul Allen,心理学家Gary Marcus,NYU的电脑科学家Ernest Davis,以及科技创业者Mitch Kapor认为Kurzweil等思想家低估了人工智能的难度,并且认为我们离绊线还挺远的。 Kurzweil一派则认为唯一被低估的其实是指数级增长的潜力,他们把质疑他们理论的人比作那些1985年时候看到发展速度缓慢的因特网,然后觉得因特网在未来不会有什么大影响的人一样。 而质疑者们则认为智能领域的发展需要达到的进步同样是指数级增长的,这其实把技术发展的指数级增长抵消了。 争论如此反复。 第三个阵营,包括Nick Bostrom在内,认为其它两派都没有理由对踩绊线的时间那么有信心,他们同时认为 a) 这事情完全可能发生在不久的未来 b)但是这个事情没个准,说不定会花更久 还有不属于三个阵营的其他人,比如哲学家Hubert Dreyfus,相信三个阵营都太天真了,根本就没有什么绊线。超人工智能是不会被实现的。 当你把所有人的观点全部融合起来的话是怎样呢? 2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。当把大家的回答统计后,得出了下面的结果:
所以一个中位的人工智能专家认为25年后的2040年我们能达成强人工智能,而2075年这个悲观估计表明,如果你现在够年轻,有一半以上的人工智能专家认为在你的有生之年能够有90%的可能见到强人工智能的实现。 (未完待续)
|
|
|
|
接上文: 另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。结果是:
这个结果和Bostrom的结果很相似。在Barrat的问卷中,有超过三分之二的参与者认为强人工智能会在2050年实现,有近乎半数(42%)的人认为未来15年(2030年)就能实现。并且,只有2%的参与者认为强人工智能永远不会实现。 但是强人工智能并不是绊线,超人工智能才是。那么专家们对超人工智能是怎么想的呢? Bostrom的问卷还询问专家们认为达到超人工智能要多久,选项有a)达成强人工智能两年内,b)达成强人工智能30年内。问卷结果如下: 中位答案认为强人工智能到超人工智能只花2年时间的可能性只有10%左右,但是30年之内达成的可能性高达75% 从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。 当然,以上所有的数据都是推测,它只代表了现在人工智能领域的专家的中位意见,但是它告诉我们的是,很大一部分对这个领域很了解的人认为2060年是一个实现超人工智能的合理预测——距今只有45年。 那么我们来看一下下一个问题,踩到绊线后,我们将跌向平衡木的哪一个方向? 超级智能会产生巨大的力量,所以关键的问题时——到时这股力量究竟由谁掌握,掌握这份力量的人会怎么做? 这个问题的答案将决定超人工智能究竟是天堂还是地狱。 同样的,专家们在这个问题上的观点也不统一。Bostrom的问卷显示专家们看待强人工智能对于人类社会的影响时,52%认为结果会是好或者非常好的,31%认为会是糟糕的或者非常糟糕的,只有17%的人认为结果会是不好不坏的。也就是说,这个领域的专家普遍认为这将是一个很大的事情,不论结果好坏。要注意的是,这个问题问的是强人工智能,如果问的是超人工智能,认为结果不好不坏的人可能不会有17%这么多。 在我们深入讨论好坏这个问题之前,我们先把“什么时候会发生”和“这是好事还是坏事”的结果综合起来画张表,这代表了大部分专家的观点: 我们等下再考虑主流阵营的观点。咱们先来问一下你自己是怎么想的,其实我大概能猜到你是怎么想的,因为我开始研究这个问题前也是这样的想的。很多人其实不关心这个话题,原因无非是: 像本文第一部分所说,电影展示了很多不真实的人工智能场景,让我们认为人工智能不是正经的课题。作家James Barrat把这比作传染病控制中心发布吸血鬼警报一样滑稽。 因为认知偏差,所以我们在见到证据前很难相信一件事情是真的。我确信1988年的时候电脑科学家们就已经常在讨论因特网将是多么重要,但是一般人并不会认为因特网会改变他们的生活——直到他们的生活真的被改变了。一方面,1988年的电脑确实不够给力,所以那时的人们看着电脑会想:“这破玩意儿也能改变我的生活,你逗我吧?”人们的想象力被自己对于电脑的体验而约束。让他们难以想象电脑会变成现在的样子。同样的事情正发生在人工智能领域。我们听到很多人说人工智能将会造成很大影响,但是因为这个事情还没发生,因为我们和一些弱爆了的人工智能系统的个人经历,让我们难以相信这东西真的能改变我们的生活。而这些认知偏差,正是专家们在努力对抗的。 就算我们相信人工智能的巨大潜力,你今天又花了多少时间思考“在接下来的永恒中,绝大部分时间我都不会再存在”这个问题?虽然这个问题比你今天干的大部分事情都重要很多,但是正常人都不会老是想这个吧。这是因为你的大脑总是关注日常的小事,不管长期来看有多少重要的事情,我们天生就是这么思考的。 这篇东西的主要目标就是让你脱离普通人阵营,加入专家思考的阵营,哪怕能让你站到两条不确定线的交点上,目标也达到了。 (未完待续)
|
|
|
|
只有小组成员才能发言,加入小组>>
895 浏览 0 评论
【KV260视觉入门套件试用体验】四、KV260 视觉入门套件和固件更新
1467 浏览 0 评论
【KV260视觉入门套件试用体验】Vitis AI Library体验之OCR识别
1117 浏览 0 评论
【KV260视觉入门套件试用体验】Vitis AI 通过迁移学习训练自定义模型
1478 浏览 0 评论
【KV260视觉入门套件试用体验】KV260系列之Petalinux镜像+Resnet 50探索
1137 浏览 0 评论
【AMD KV260视觉入门开发套件试用】4、简单几步体验ubuntu 20.04.3 LTS运行人员检测应用
1618浏览 1评论
908浏览 1评论
【KV260视觉入门套件试用体验】老刘记事儿KV260初体验之Micro-SD选型提速研究(三)
833浏览 1评论
【KV260视觉入门套件试用体验】KV260部署yolov3实现车辆和行人检测
2434浏览 1评论
【KV260视觉入门套件试用体验】基于KV260的人脸识别的实现与展示
824浏览 1评论
小黑屋| 手机版| Archiver| 电子发烧友 ( 湘ICP备2023018690号 )
GMT+8, 2024-11-18 16:15 , Processed in 1.212545 second(s), Total 108, Slave 100 queries .
Powered by 电子发烧友网
© 2015 bbs.elecfans.com
关注我们的微信
下载发烧友APP
电子发烧友观察
版权所有 © 湖南华秋数字科技有限公司
电子发烧友 (电路图) 湘公网安备 43011202000918 号 电信与信息服务业务经营许可证:合字B2-20210191 工商网监 湘ICP备2023018690号