澳洲幸运5投注法 - 转基因人类、全球冷却、人类灭绝…全世界最聪明的25个人预测未来

澳洲幸运5投注法 - 转基因人类、全球冷却、人类灭绝…全世界最聪明的25个人预测未来

澳洲幸运5投注法,过去5年来,

人工智能在全球范围内爆发式发展,

根据麦肯锡全球研究院的预测,

ai带来的社会革命,

将比工业革命的速度快10倍,

规模大300倍,

影响几乎大3000倍。

《斯坦福2019年度全球ai指数报告》指出,

从2012年开始,

ai算力的提升速度已超过摩尔定律的预测,

平均每3.4个月翻一番。

人工智能何时将超过人类?

人类会被ai取代吗?

智人仅仅是新一轮进化的起点吗?

谁会因为ai失业,谁又会长生不老?

数百万“超人类”已经存在于我们身边?

……

最近出版的《ai的25种可能》一书,

集合了全世界最聪明的25颗大脑,

他们中有物理学家、生物学家、

计算机专家、哲学家、心理学家、艺术家,

有诺贝尔奖获得者,

也有人工智能的理论和技术奠基人。

他们预测了ai发展的种种前景,

也警示了ai给人类带来的种种挑战:

“进步未必一定给我们带来美好的未来,

危险不在于机器变得像人类,

而是人类变得像机器。”

编辑 石鸣

edge的创始人约翰·布罗克曼和他的妻子 摄影:ogata

edge号称全世界最聪明的网站。这个网站集合了进化生物学、遗传学、计算机科学、神经学、心理学、宇宙学和物理学等诸多学科最前沿、最顶尖的研究者,每年选出一个“年度问题”讨论,坚持了20年。

2016年,edge提出的年度问题是“可能的心智”。讨论从美国康涅狄格州华盛顿的五月花格瑞斯酒店的一次圆桌会议开始,之后又有多次研讨会。edge网站创始人约翰·布罗克曼向参加者约稿,最终收到25篇文章,汇集成我们今天看到的这本书。

《ai的25种可能》一书的撰稿者们

“我们人类作为一个物种,真的有能力控制具有完全意识、不受监管、能自我完善的人工智能吗?”布罗克曼问道。

我们曾经把大脑比作计算机,互联网诞生后,我们才发现,大脑不是一台计算机,而是一个计算机网络。基于对人类神经网络的模拟,过去十年,人工智能变得越来越“接近”人类,如果有一天,人工智能比我们更“优秀”,我们该怎么办?还是说,那一天其实已经到来?

实际上,最近几年我们一直听到ai替代人类的消息。2017年,李开复在《奇葩大会》上预测未来十年50%的工作将被人工智能取代。重复性的工作,如客服、收银员等等,已经开始全方位沦陷。创造性的工作也频频传来噩耗:

2015年,美联社使用机器人写作,年报道量超过15亿条,领域涉及金融、房地产、体育等。

2016年里约奥运会,今日头条新闻机器人13天内撰写了457篇报道,每天30篇以上,发稿速度几乎与电视直播同时。

2017年8月9日,四川九寨沟发生7.0级地震,机器人25秒出稿,共540字并配发4张图片。

2018年,第一部ai撰写的长篇小说《路》(the road)诞生并推向市场。此前,ai已经可以写短篇小说,诗歌和剧本。

2019年,虚拟偶像洛天依在演唱会上与郎朗同台

同年,第一张人机合作创作的流行音乐专辑《songularity》诞生,此前已经有ai创作的单曲,ai创作的音乐变得越来越多。

商用客机巨头空中客车公司使用人工智能而非人类设计师来设计飞机,制药巨头葛兰素等公司使用人工智能来进行药物研发,完成得比人类研究员更好。

2019年,ai已经可以拍电影,是一部黑白科幻短片《走神》(zone out)。剧本、导演、表演、配乐等一整套制作程序,大部分都由人工智能完成,做出来只花了两天。

《走神》剧照

在斯坦福发布的《2019年度ai指数报告》中,有一个“人类级表现里程碑”(human-levelperformance milestones)的清单。今年,ai又完成了两项新的里程碑:在《星际争霸2》中击败顶级人类专业玩家,以专家级的准确性检测糖尿病视网膜病变。

科学家们曾经自信地宣称,我们不用担心机器的深度学习能力的威胁,虽然ai已经有了长足的发展,但是机器人“还是不会系鞋带”。

然而,根据知名创投机构cb insights 2019年的报告,牛津大学和耶鲁大学的研究人员认为到2022年(对,就是两年后),ai会比人类叠衣服叠得更好。

“在过去10万年里,整个世界一直处于人脑管理之中。一旦我们拥有超人类的人工智能,人类大脑的管理时代就将结束。环顾四周,你见证了千百年来人类大脑管理世界的最后几十年。”物理学家扬·塔里安在这本书中写道。

《西部世界》剧照

美剧《西部世界》还在讨论,人应该把机器人当人。然而,加州大学伯克利分校人工智能研究实验室的创立者安卡·德拉甘提出,我们现在面临的最迫切的问题是要让机器人把人当“人”,而且一开始就要这样做,“而不是事后再考虑这件事”。

人类会被自己创造的产物——人工智能反噬吗?本书中,不止一位专家提到关键的一点:一定要让人工智能的目标和价值体系,与人类保持一致。

在物理定律中,没有事先设定的意义,但是为了使人类的未来走向美好而不是黑暗,我们应该给自己赋予意义。

下面,我们从书中精选了10个人的预测,听听他们都说了些什么:

弗兰克·维尔切克,2004年诺贝尔物理学奖得主

今天的人类,也许只是未来更强大的智能生物的一个进化起点。

人工智能会有意识吗?人工智能会有创造力吗?人工智能会是邪恶的吗?

基于生理心理学、神经生物学和物理学,答案如果不是“是”、“是”和“是”,那将是非常令人惊讶的。

原因很简单,但也很深刻:根据这些领域的证据,自然智能和人工智能之间,极有可能没有明显的鸿沟。

甚至我们可以推论出,自然智能不过是人工智能的一个特例。

人类大脑目前和人工智能相比具有的优势:三维、自我修复、神经元的连接能力、脑细胞的交互式发育、感觉器官的集成。

三维、自我修复这两项能力,对于ai来说并不难,现在已经有了明确的前进道路。感觉器官的集成方面,人类的感知能力——视觉、听觉、触觉等——远没有达到任何物理极限,在这方面,机器人可以移动更快、身体更强。

所以人类剩下的最核心的优势是连接性和交互式发育。当今的工程技术和神经元及其突触的力量和多样性相比,可以说是差远了。这可能成为一个新的、伟大的研究前沿。

人工智能胜过自然智能的优势是永久的,而自然智能拥有的优势似乎只是暂时的。进化的先锋将是机器人和超级头脑,而不是微不足道的智人。

未来的人类,回头看今天的我们,可能会觉得我们是他们“精神的始祖鸟”。始祖鸟是一种高贵的动物,它能进化成更高级的生物。

迈克斯·泰格马可:麻省理工学院未来生命研究所所长

参观完伦敦科学博物馆,他在地铁站流下了眼泪:所有这些人类取得的令人印象深刻的科技进步,难道都将归于一场空吗?

从物理学家的角度来看,没有任何物理定律表明人类不能制造出在任何方面都比我们具有更高级智能的机器。

根据最近的一项调查,一半以上的人工智能专家认为ai有90%的可能性在2075年达到总体人类能力。在达到人类能力之后,它将在2年(10%的专家认为)到30年(75%的专家认为)内实现超级智能。

我们的宇宙诞生138亿年后,开始有了自我意识。从数十亿年的宇宙角度来看,究竟30年还是300年后实现通用人工智能几乎没什么区别,所以让我们把重点放在含义上,而不是时间上。

我们必须自问:我们希望创造什么样的社会?我们生活的意义和目的在哪里?对于这个问题,我经常会得到以下巧妙的回答:“让我们创造出比我们更聪明的机器,然后让他们找到答案!”

这种回答错误地把智力与道德等同起来。智力没有善恶之分,它只是一种完成复杂目标的能力,无论这个目标是好的还是坏的。我们不能断定如果希特勒更聪明的话,情况就会更好一些。

事实上,如果我们先把比人类更聪明的机器制造出来,再考虑它们的道德问题,这是不负责任的,也是灾难性的。为修建大坝,进行水力发电,需要淹没蚁丘,人类不会对蚂蚁的命运反复三思,所以我们在发展人工智能时,不要把人类置于蚂蚁的位置。

如果我们的技术超越了我们管理技术的智慧,那么这样的技术可能导致人类灭绝。据估计,地球上20%至50%的物种灭绝便是源于此。如果我们人类是下一个因此灭绝的物种,那可是够讽刺的。

乔治·丘奇:哈佛大学教授,人类基因最早的编辑者之一

未来什么样的人可以算作“人”?机器人如果有意识,是不是也应该有权利?

1978年,世界首例试管婴儿路易斯·布朗诞生之前,许多人担心她“可能是个小怪物,在某些方面,可能是畸形”。但今天关于体外受精,很少有人有这种担心。

全世界有超过2300项经批准的基因治疗临床试验正在进行中。通常需要几个月时间才能发生的过程,现在在实验室通过使用正确的转录因子配方在4天内就能发生。

我们能创造出这样的大脑,它具有越来越高的保真度,人工大脑器官超过了以前的亚微升限制,可能超过现在的1.2升现代人脑,甚至超过大象的5升大脑或抹香鲸的8升大脑。

我们认为永远不会跨越的警戒线现在似乎离我们越来越近,也越来越疯狂。人类与机器之间的界限变得模糊,机器变得更像人类,人类也变得更像机器。我们越来越盲目地遵循gps脚本、反射式推特和精心设计的营销。

在遗传学领域,警戒线使我们禁止或避免使用转基因食品,但我们却可以接受改造了基因的细菌来制造胰岛素,或者接受转基因人类——欧洲已批准将线粒体疗法用于成人和胚胎。

地球上已经有超人类了吗?如果我们把“超人类”定义为我们对他们的技术和文化不能理解的那些人,那么肯定有数百万人已经是超人类。而且我们大多数人还盼望着有更多人是超人类。

“什么是人类”的问题,其实已经转化为“各种超人类是什么?他们的权利是什么?”的问题。

未来已来,只是分布不均。

扬·塔里安:skype的开发者,最早的电脑游戏的开发者之一

人工智能是所有风险中最极端的,事关人类的生死存亡。

2009年3月,在热闹的加利福尼亚高速公路旁的一家连锁餐馆,我要在那里见一个年轻人,我一直在关注他的博客。为了让自己方便被认出来,他戴着一枚纽扣,上面写着:即使你的声音颤抖,也要说出真相。

我从他的博客接触到了一个革命性的信息:人工智能的持续发展会造成宇宙规模的变化,这个失控的过程可能会杀死每一个人。

人工智能有风险,这一点还没有成为常识。人工智能研究者们还没有充分认识到这个风险的严重性。

目前关于人工智能风险的争论,主要集中在技术性失业或者对机器学习的偏见上。虽然这样的讨论是有价值的,也能解决迫在眉睫的短期问题,但是,“询问机器超级智能对传统劳动力市场的影响,就像询问月球撞击地球会对美中贸易模式有什么影响。确实会有影响,但你没有抓住要点。”

一个严酷的现实是:宇宙不是为我们而生的,相反,我们需要进化,以适应非常狭窄的环境参数。例如,我们需要地面上的大气大致保持在室温,维持大约100千帕的压力,并有足够的氧气浓度。这种不稳定的平衡出现任何紊乱,哪怕只是暂时的,我们都会在几分钟内死去。

基于硅的智能并没有这种对环境的担忧。而地球目前的环境,对于ai最关心的高效计算来说,几乎肯定不是最佳选择。我们可能会发现我们的星球突然从人为的全球变暖转为机械化的全球冷却。

人工智能安全研究需要解决的一个重大挑战,是如何使未来的超级智能ai——一种比我们人类的碳足迹大得多的人工智能,不要把我们的环境变得不适合生物生存。

丹尼尔·丹尼特:人工智能领域最优秀的哲学家

他曾经建立了一个人类意识模型,这个模型使得计算机也可以发展出人类意识。

大多数哺乳动物都能合成自己的维生素c,但是灵长类动物自从选择以水果为主的饮食后,便失去了这种先天的能力。

现在我们必须从外界摄取维生素c。除此之外,我们人类现在还依赖于衣服、熟食、维生素、疫苗、信用卡、智能手机和互联网,以及人工智能。

事情的不确定性就源于此。当出现极具吸引力的机会时,我们往往愿意花一点钱,为获得新的能力接受一些小的、甚至是微不足道的代价。很快地,我们对新工具如此依赖,没有它们我们便无法发展。原本只是选项,现在却成了必需品。

我们不需要有意识的人工主体。有自然意识的人类的数量已经太多了,我们需要的是智能工具。

这些工具没有权利,也没有会被伤害的感情,亦不会愤愤不满于笨拙的用户对它们的“虐待”。

不让人工主体有意识的原因之一是,不管它们变得多么有自主性,如果没有特殊规定的话,它们不会像我们这些有自然意识的人类一样,有弱点,会死亡。

数字记录和传输是一种重大突破,使得软件和数据实际上可以永远存在,依靠它,机器人获得了永生。如果这还不明显,那么想想假入我们每周都能制造一些“备份”人,人类的道德会受到怎样的影响。

我们不应该努力创造强大的人工智能,而应该极其谨慎地对待我们能够创造和已经创造的人工智能系统。

塞思·劳埃德:量子计算机之父

如果摩尔定律的增长可以持续,那么只需600年时间,就能把整个宇宙变成一个巨大的量子计算机。

最近,我问现代神经科学先驱托马索·波焦,是否担心随着计算机处理能力的快速提高,计算机将很快赶上人脑,“绝不可能,”他回答。

1950年以来,几乎每隔两年,计算机的性能便会提升一倍,这种现象便是“摩尔定律”。

然而,没有任何一种指数式增长能够一直持续下去,摩尔定律的指数式增长近来开始进入基础物理所设定的极限之中。最终,摩尔定律驱动的各种存储器和处理器的指数式增长都将停止。

很多人担心,深度学习和算法的发展,会让人工智能的能力超过人类大脑。但机器学习的真实情况恰恰相反:当它们的学习能力变得越来越强时,它们的学习方式会变得越来越像人类。

许多事例表明,机器的学习是在人类和机器老师的监管下进行的。对计算机进行教育就像对青少年进行教育一样困难、缓慢。

它们带来的学习技能不是“优于”而是“补充”人类学习:计算机学习系统可以识别人类无法识别的模式,反之亦然。

世界上最好的国际象棋棋手既不是计算机,也不是人类,而是与计算机合作的人。

朱迪亚·珀尔:ucla认知系统实验室主任

1980年代他发明了贝叶斯网络,这是当今ai能够进行深度学习的基础,alphago正是凭借深度学习能力,打败了围棋世界冠军李世石。

深度学习有自己的动力学机制,一旦你喂给它大量的数据,它就活跃起来,还能自我修复,找出最优化组合,绝大多数时候都会给出正确的结果。可一旦结果错了,你不会知道哪里出了问题。

有些人认为,我们为什么不利用深度学习系统,建造一种不用了解它们工作原理的智能呢?不透明的系统也能做出色的工作,我们的大脑就是这样的奇迹。

但这种观点有其局限性。我们可以原谅自己不了解人类大脑的运作原理,因为我们都是人,无须这种了解我们也可以与他人交流。但如果我们的机器人都像alphago一样不透明,我们便无法与它们进行有意义的交流。

尤瓦尔·赫拉利(《人类简史》作者——编者注)等研究“智人”的历史学家们一致认为,人类祖先4万年前能统治地球的决定性因素是:他们拥有一种将客观外在事物进行内化的能力,他们能反复回味这种内化的结果,用想象力扭曲它,最终能够回答“如果……会怎样?”

比如他们会问一些介入性的问题:“如果我这样做了,会怎样?”还会问一些回顾性或反事实的问题:“如果我没那样做,会怎样?”

今天没有一台学习机器能回答得了这样的问题。而且,大多数学习机器也不具有这种内化的心理能力,去提出这样的问题。

如果ai的因果模型始终是黑匣子状态,那么我的结论是,不可能从中诞生出堪与人类媲美的人工智能。

文卡·拉马克里希南:2009年诺贝尔化学奖获得者,英国皇家学会现任主席

我思故我在。我们恐惧人工智能,是因为我们相信正是智能才使得我们与众不同。

到目前为止,我一直关注人工智能带来的实用后果。作为一名科学家,困扰我的是我们可能会失去理解力。

在我自己的实验室里,一个实验每天产生超过1t字节的数据,我们对这些数据进行处理、分析和简化。我们知道程序在做什么,因为程序算法的核心是我们设计的。因此,当计算机产生结果时,我们感觉是我们在智力上掌握了它。

新的机器学习程序是完全不同的。通过深层神经网络识别出模式后,它们会得出结论,而我们完全不知道这是怎么回事。如果有人问我们如何知道某事,我们只会说,因为机器分析了数据,机器得出了结论。

有一天,计算机很可能会得到一个全新结果,例如得到一个数学定理,关于这个数学定理的论证,甚至对它的描述,都没有人能理解。我觉得这种理解能力的潜在缺失令人不安。

许多进化论科学家都指出,人脑是几十亿年进化的结果。人类智能并不是像我们认为的那样是人类所有的特殊特征,它只是另一种生存机制。世界上已经有好几个国家已经启动了神经科学的登月计划,看看我们是否可以破解大脑的运作。

如果我们后退一步,看看地球上的生命,就会发现我们远不是最具弹性的物种。如果在某个时候我们人类会被取代,那取代我们的将是地球上最古老的生命形式,比如细菌,它们可以生活在任何地方,从南极洲到深海热液喷口,或者生活在酸性环境中,在这样的环境里你和我都会被融化。

我不知道人工智能会带来怎样的未来,但无论是哪种未来,我都可以相当肯定地说,计算机永远不会是细菌的霸主。

乔治·戴森:科技史学家

他没有完成高中学业,但却被授予维多利亚大学荣誉博士学位。

关于人工智能,我们有三条定律。第一定律是阿什比定律,该定律认为任何有效的控制系统必须与它控制的系统一样复杂。

第二定律由冯·诺依曼提出。该定律指出,一个复杂系统的定义特征一定包含对其行为的最简单描述。生物体最简单的完整模型是生物体本身。

第三定律指出,任何一个简单到可以理解的系统都不会复杂到可以智能化行事,而任何一个复杂到足以智能化行事的系统,都会太过于复杂而无法理解。

第三定律安慰了我们,在理解智能之前,我们不用担心机器会产生超人类的智能。但第三定律存在漏洞。我们完全有可能在不理解时构建某个东西。

“好的”人工智能是个神话。我们与真正的人工智能之间的关系将永远是一个信仰问题,而不是证据问题。

对那些相信他们能制造机器来控制一切的人,大自然对此的反应将是允许他们建造一台机器,来控制他们自己。

斯蒂芬·沃尔弗拉姆:“神童”、科学家、发明家

他发明了人类和ai沟通的第一种真正的语言——wolfram语言。

与机器交流和与人类交流有何不同?在大多数人与人的交流中,我们坚持使用纯语言,而在计算机与人的交流中,大多数人想要的是视觉显示,显示这个或那个的信息图。这是一种非人类的交流方式,比传统的口头交流或打字交流更丰富。

500年前的人类需要解决的大问题是识字。今天,是某种编程。我们正处在这样一个时刻,任何人都可以学会基于知识的编程。现在编程的实际机制很简单,大批程序员所做的许多事情平淡无奇,困难的是学会以计算的方式去思考和想象。

我感兴趣的一个问题是,当大多数人都能编写代码时,这个世界会变成什么样?

很明显,很多琐碎的事情都会发生改变:合同用代码起草,餐厅菜谱用代码书写,等等。编码是一种表达方式,就像用自然语言写作是一种表达方式一样。

自然语言给我们带来了文明,那基于知识的编程会给我们带来什么呢?一个糟糕的答案是,它会给我们带来人工智能的文明。

这是我们不希望发生的事情,因为人工智能会彼此沟通得极为顺畅,这样我们就将被排除在外,因为没有中间语言,没有与我们大脑的连接口。在人工智能彼此沟通的这个层次上,知识交流会带来什么?如果你是穴居人,如果你刚刚意识到有了语言,你能想象得出文明的出现吗?我们现在应该想象什么?

以高中教育为例。如果我们有了计算思维,这会如何影响我们学习历史学?答案是,影响极大。

通常来说,学生无法轻易地创造出新知识。但如果学生对编写代码有所了解,他们就可以访问所有数字化的历史数据,从而找出新东西。基于知识的编程,自己可以不断繁衍。

这是哥白尼故事的另一部分:我们曾经认为地球是宇宙的中心。现在我们认为我们很特别,因为我们有智慧,而其他的东西却没有智慧。恐怕坏消息就是这不是什么特别之处。

我们今天的许多目标都是由某种稀缺造成的。世界上资源稀缺,人们想得到更多的东西。在我们的生命中,时间本身就是稀缺品。

然而,最终这些稀缺都将不复存在。长生不老总有一天会实现,不论是在生物学上还是在数码上。那么,我们今天的动机都不再存在之后,未来人类的后代最终会选择做什么?一个可能的坏结果就是他们总是玩电子游戏。

假设有一天我们能很轻易将人类意识以数字形式上传,将其虚拟化,那么我们很快就有了装着一万亿个灵魂的盒子。在这个盒子里,分子计算将一直继续进行。每个灵魂本质上都在玩一个电子游戏。

你可以想象,这就是我们未来文明的终点。