编者按:本文来自微信公众号“笔记侠”(ID:Notesman),作者 吴军,36氪经授权发布。
内容来源:2019年11月9日,在上海交大安泰EMBA主办的《互联网+训练营(10)》中,智能搜索科学家、丰元创投创始合伙人吴军博士进行了以“人工智能的极限”为主题的精彩分享。笔记侠作为合作方,经主办方和讲者审阅授权发布。
笔记君邀您阅读前,先思考:
人们为什么对人工智能信心爆棚?
人工智能真的会取代人类工作吗?
人工智能的极限在哪里?
今天我们要讲的题目是“人工智能的极限”。这是一个最高层的题目,我们先要讲人工智能不能干什么,或者我们人能干什么,然后再考虑怎么干。
一、如今,人人相信人工智能会改变生活
1.未来,一定会发生的一些事情
五年前我讲大数据的时候,不断说服大家去相信它,因为它能带来机器智能。
但五年后的今天,大家对人工智能的信任爆棚,而且把时间表都列出来了,这个时间表是一个很保守的能够实现的时间表,并不是瞎写的。
首先说下打扑克这件事,下一届的扑克冠军可能是机器。
从计算机的算法角度来讲,打扑克的难度大于围棋。因为博弈论,是你一个人做决定,假如说你在做一个关于企业市场的决定,或者你有一个学习计划,设定一个目标等,都是很容易的事情。
但是,如果你有一个对手,总给你捣乱,这就成为一个难事了。回到围棋和扑克,下围棋时,只有一个人给你捣乱,但打扑克就相当于三个人给你捣乱,自然更难。
总是很多人问我“智能时代孩子学计算机是不是更好”,当下,无论中国家长还是美国家长,似乎普遍都希望孩子学计算机。事实也是如此。
在美国,现在大学里对于像ABC、亚裔的学生来讲,基本上就剩两个专业了,一个是计算机科学,第二个是非计算机科学。
比如说MIT(麻省理工)的本科生,有40%的人随便挑专业,最后有40%选择的是计算机。但是,2024年计算机可能就可以自己编写一些程序了。
今天,计算机已经能写脚本了,那做这种初级工作的程序员可能就失业了。
2012年时,已经有科学家在研究工智能机器翻译,即把人的自然语言翻译成计算机的语言,这样的话,以后产品经理不用再找工程师干活了。
到2026年,计算机就可以完成中学生水平的作文了。今年华尔街日报、纽约时报的很多文章计算机写的,标题、第一段、结尾是人写的,中间全是计算机写的。
2028年,计算机能编辑视频,这是比文字更难的操作。
2049年不得了,最佳畅销的小说都是计算机写的,不过距离今天已过了30年。
2059年就很可怕了,说计算机能研究数学——最难的科学。
按照趋势来讲,这些都是可能发生的,所以,我对这张人工智能时间表并不怀疑。但是,普遍乐观之下,担心也在逐渐加深:
人工智能会不会让我们失去自由?我们会不会成为机器的奴隶?我们何以为人?
2.人工智能从技术走向人文
计算机做事情的过程,绝大多数都是先从技术开始,到最后走向人文。
最早计算机用来计算,连程序都没有;到上个世纪40年代,做出来的计算机才能够进行编程,可以把一个完整流程的过程解决掉;到60年代,计算机有一大突破,在控制上能够做得非常漂亮了。
今年是2019年,阿波罗登月50周年。1969年时,一个阿波罗的主控计算机系统要几个房间这么大,但功能还不如一个手机的千分之一。所以,那个时候能控制38万公里之外的登月,实在是很了不起的事。
一直到90年代之后,机器翻译的论文开始出现了;2000年之后,语言的处理这件看似不是计算机的事儿,现在也能通过计算做成了;再接下来是图像识别。
其实我们今天关注人工智能,还在于2016年阿尔法狗赢了人类。现在所有的棋类比赛,冠军都是计算机。
不过,这些都属于绿色部分的问题,是非常容易解决的,难的是白色雪山上的问题——科学研究。
比如科学,我几周前去了趟英国皇家学院,前院长讲一个报告时提到阿波罗登月50年,我们不需要再派人去月球的原因——没必要,就像中国似的,派个机器人去就可以了,因为机器人在当地做科学实验不受环境干扰,比人做得好。
再比如基因编辑这个热门话题,一旦编辑错了,人就会得病,单单靠人对基因的那一点点了解是不能做到解决疾病而不带来任何副作用的效果的,这就要靠计算机了。
接下来商业谈判,找一个计算机做决策,最后的结果可能比你亲自讨价还价的结果要好。
之后可能还可能写小说;再接下来可怕了,发明技术;比较难的是政治;最难的是艺术。
大家看上面这首李白风格的诗,它是计算机自动生成的,大部分中文系毕业的大学生是写不出来的。有精通唐诗的人会说这个是现代人的平仄,不是古代人的平仄,这样的一个问题不做深究。
大家再看下面这首稍微复杂一点的诗,配了两幅图,是不是挺有意境的?
这是几年前我在谷歌做自动问答项目时,用汉语的语言模型写出来的诗。说实话,一般人还真写不出来,即便拿它做图灵测试,也肯定能通过。
二、人工智能是不是真的存在边界?
1.人工智能还不能做的事
以上提到的这些事儿如果计算机都能做了,那还有什么事情是计算机还不能做的?如果一定要划条边界的话,就是计算机还有什么缺陷?
拿作诗来说,计算机能写出漂亮的词句,但是总体来说思想贫乏;拿计算机作为文字处理来说,它完全能从客观事实中总结简单的规律,甚至能预测未来的走势,但缺乏独立见解。
啥意思?你把这几年百度的财报给它,它会写出一个很好的评论,比如按照这个趋势,接下来它的增长还会怎么样。但百度财报一出来之后,就有无数人吐槽,这个“吐槽”就是独立思想的体现。
另外,计算机可以把事物进行分类,很清楚地划出内涵和外延,但却不能创造概念。
分类的话,比如人脸识别这件事儿,云端有一个涉及脸部特征的单子,计算机可以将人进行分类,一群是要找的“罪犯”,一群是不在搜寻范围内的,会划分得非常清楚。但是如果抓了一些人,让计算机对其贴标签,它就犯难了。
不过,我们人类特别擅长创造概念,比如说现在的一些词儿,像“开挂”这种的,计算机无论如何是起不出来的,这是人的特长。
接下来结合我自己写作的例子、心得进行分享。我写了两本与历史有关的书,一本是《文明之光》,一本是今年的《全球科技通史》。
写作前期我也拜访了一些学历史的学者,到后面慢慢体会到,你想写史,基本上有三个层次,我们以上海为例:
第一,记录史实。这件事计算机比人做得精准、细致。摄像头就是很好的工具,可以将上海所有的生活记录下来,然后删掉没用的,留下特别的。
第二,总结规律。计算机也能总结出规律来,大概每天早上经过陆家嘴的人流情况、人民广场的人流情况等,比如说过年要放烟花,慢慢地它就能总结出哪些日子较为重要。
第三,也是更为关键的一点,写史这件事要传达一个春秋大意,比如司马光写《通鉴》,就是告诉你如何当个好皇帝,是有很强的目的性的;我写《全球科技通史》就是要向大家传达它起的作用,这件事情计算机是做不到的。
2.人工智能的能力边界
前面讲这些,表达的都是:智能时代,很多具体的事情计算机都能做到,但人最重要的是思想,这是计算机无法企及的。
除此之外,人工智能的能力是否有边界呢?当然有,人工智能的边界在某种程度上就是数学的边界,因为它的基础在很大程度上是数学。
这张图我用了好多次,就是说人工智能有三根支柱,分别是摩尔定律、大数据和数学模型。
摩尔定律,大家可能对它无感。但是如果换一个方式来描述,比如5年性能涨十倍,是不是震惊一些?再比如,10年,性能涨100倍。
拿苹果手机来说,2017年苹果手机出到第十代,运行速度是2007年第一代的100倍,第一代是跑不了任何程序的。正是因为性能的提升,才使得我们原来做不到的事,今天的人工智能做到了。
1946年人类第一台计算机诞生了,每秒5000次,而且特别耗电。如果我们用1946年的技术能够实现一个阿尔法狗(2016年出现),需要几百万个三峡发电站的发电量。但现在,完全不需要。这就是科技进步,这就是摩尔定律。
大数据今天不详细讲了,但要记住没有大数据就没有人工智能。
说下数据模型,去年的图灵奖颁给了三个做深度学习的科学家,就是一个数据模型或者说是数学工具。实际上现在谷歌已经将其开源出来了,里面有高很多数据,买几个GPU,你也能达一个水平很高的人工智能系统。
三、回到问题原点:可计算
人工智能在过去大概60年里,做的事情基本上就是把一个个我们看似不是数学的问题变成数学的问题。
例如人脸识别这件事,本是一个推理的问题,后来成了数学问题,所以计算机能实现人脸识别了,显得很智能。实际上的意思就是特征提取、模式匹配和机器学习的问题。
写诗也一样,就像前面讲的,机器不过是把李白的诗进行了统计。包括语音识别、机器翻译都是统计和概率的问题。
1.数学不是万能的
我们回到问题的原点:可计算。按照刚才说的,人工智能的边界取决于数学的边界,那如果数学有边界,人工智能一定有边界,这句话对不对?逻辑上是对的。
那数学有没有边界?这就要讲计算机的老祖宗阿兰·图灵对这样的一个问题的思考:计算和不可计算的边界在哪里?
他受到两位导师的启发,分别是他的老板和19世纪末20世纪初最有名的数学家希尔伯特。
左:希尔伯特19世纪末20世纪初最有名的数学家中:图灵的老板右:图灵
希尔伯特对图灵的启示基于“西伯尔特三问”:
数学是完备的么?
数学是一致的么?
数学是可验证的么?
他通过画大数学这个圈子得出本身数学的圈子是可以越画越大的,但是画特别大之后,就会产生一个不一致性。
最后有一个有名的数学家叫库尔特·哥德尔证明了这样的一个问题:你想一致就不完备,要想完备就不一致,说明数学不是万能的。
数学是可验证的,但很多时候验证起来会很困难。比如说今天比特币交易为什么这么贵?就是因为验证成本很高。
世界上其实有很多的问题不是数学问题,也就是说,不可能世界上所有的问题都由人工智能来解决。
案例:任何无人驾驶汽车的对峙
假设上海市所有道路上行驶的都是无人驾驶汽车,这个交通问题就变成了一个数学问题;但假设有一半不是无人驾驶汽车,在一条单行道上,人在无人驾驶汽车前面,并且站着不动了,而人工智能第一定律是不能伤害人。
这时,如何解决这样的一个问题?里面的乘客可能会选择打电话叫警察来“赶走”这个人。这样的解决办法恰恰说明这并不是一个数学问题。
以及现在大家经常讨论的“一个条件优秀的女孩子三番五次被渣男骗还相信他”的话题,也不是数学问题,所以靠数学是解决不了的。
2.并非所有数学问题都有解
其实,今天世界上的所有问题,是一个大白圈,数学问题不过是一个小黄圈,为了让你们看得清楚一些,把黄圈画大一些,但实际差距要大得多得多。
这样的一个问题搞清楚后,可能又有人问了,数学问题是否都有解?答案是否定的。
1900年,希尔伯特提出了23个数学问题(目前已经被解决了17个,但中国一个没解决),第10问题涉及到可计算:对于大量的数学问题,我有没有办法一下判断它到底有没有解。
对于任意多个未知数的整系数不定方程,要求给出一个可行的算法,使得借助于它,通过有限次运算,可以判定该方程有无整数解。
第一个方程式有没有整数解?有,勾股定律就是这样一个方程式。最早发现这样的一个问题答案的,是古埃及人和美索不达米亚;大概过了2000多年,毕达哥拉斯证明了这个定理。
第二个呢?它叫做费尔马大定理,Xⁿ+Yⁿ=Zⁿ,但他不知道如何证明这个定理。直到1986年,英国一位很有名的数学家怀尔斯经过多次证明后,发现它无解。
第三个方程式有没有解呢?不知道。很多时候不知道是最麻烦的答案。因为凡事得先判断有没有解,才能知道下一步如何做。
假设我们想把一个真实的生活中的问题,变成数学问题,然后用人工智能解决,这条路到底能不能走通,首先得要有一个判断,这样的一个问题到底能不能变成数学问题。
所以,希尔伯特第十问题其实蕴涵着哲学意义,它隐含了一个更为深刻的认识论问题:
对于大部分数学问题,我们能否找到答案的前提是,能否判定答案是不是真的存在!
到目前为止,我们所解决的数学问题其实只是所有数学问题中很小的一部分。但是,尚未找到答案和没有答案是两回事,如果我们能证明一些问题本身就没有答案呢?
最后,第十问题的解决过程颇具戏剧性。它是在二战之后才引起大家广泛研究的,这时大家才觉得这样的一个问题重要。
最初,也就是20世纪60年代,美国著名的女数学家朱莉∙罗宾逊被认为是最可能解决这个难题的人。但是,她离解决这样的一个问题最终还是差几步,始终突破不了。
不过,数学界自古英雄出少年,到了1970年,一个不到20岁的年轻的俄罗斯数学家尤里·马季亚谢维奇在大学本科毕业第二年就解决了这样的一个问题。
这样的一个问题的解决,是一个灾难,也是一个福音。
虽然数学问题只占所有问题的一小部分,但在这一小部分中,我甚至无法判断这样的一个问题有解还是无解。
这是告诉人们:你无法判断有没有解,就不知道该不该把生活中遇到的问题转换成一个类似人工智能问题去解决。所以这是一个灾难。
但是,对于有些应用来讲,比如说加密,只需要验证它有没有答案就好了,我不希望你把它给解决掉,你解决了,我这个比特币还怎么用?所以也是一个福音。
3.关于验证
接下来我们就讲验证,即便是验证,很多时候今天数学或者人工智能的问题也很难验证答案。比如说IBM宣传的很热的看病机器人,说它的水平已经超过了医生的平均水平,治疗疑难杂症的技术已经超过了专家。
但这两年不断曝出负面的新闻,它所开方子的效果无法验证,多次为患者提供不准确且不安全的建议。但是,尚未有病人因沃森的失误受到伤害。这也是人工智能今天的一个边界。
不过这样也很正常,那些为数不多的有答案的问题中也只有少部分能通过计算解决。
把刚才的数学问题放大一下,黄色部分是所有的数学问题,中间只有一小部分的问题知道有解无解,知道有无解之后才有一部分问题可以解。
对于能解决的问题,图灵才给一个答案。对于能解决的数学问题怎么办?它设计了一套机械的数学模型,说按照这套机械来运转,任何一个可以计算的问题都可以在这个机械上被计算。
所以,今天一个数学问题能不能通过计算来解决,就看它在图灵机上跑一遍能不能跑通。当然,图灵机跑的时间是无限的,内存也可以是无限大的,而在我们实际生活中的计算机里是没有这么大的内存的。
因此,图灵当时潜意识有一个绝大多数都是没法验证,但又基本认为是正确的想法,就是运算跟机械运动是相关的,但是人的意识觉得思维是跟量子力学是相关的。
也就是说,我们脑子里的这些意识来自于很多不确定性,带有随机性,所以意识和计算是两回事。
对此,图灵有一个很清晰的判断:计算能够解决的问题,是可计算问题的一个子集。
哪怕在有解的问题里,也只有一小部分是可计算,但可计算不等于工程上能轻松实现。比如比特币,它是不可破解的吗?不是的,但你破解它可能要5万年并且成本也非常非常高。
所以,还要进行细分。在工程上能轻松实现的问题,也只有一少部分是人工智能能解决的。
最后一总结,就是这么两副图,所有的问题最后就剩这么点儿了。有答案的问题再一一往下,才是人工智能问题怎么解决。
面对诺大的世界,人工智能虽然出现了,能够帮我们处理问题,可能只是这么多,但它也已经非常厉害了。
四、高估,源于认知
既然人工智解决不了的问题这么多,人类为何会高估人工智能的水平呢?这涉及到一个认知的问题,人类的认知过程如图所示:
从图中能够准确的看出,人的认知边界是随着我们所学知识的增加逐步扩大的,但是到大学之后,会有一个方向性,即朝着某个专业、某个方向去发展。
比如说写作水平,理工科的学生到大学后写作水平基本就那样了,但他很可能会成为一个领域的专家。
绿色是大学时的认知边界,但是如果你读博士的话,认知边界就要突破这个绿色部分;否则是无法毕业的,当然,这是对专家的要求。
遗憾的是,大部分专业技术人员和专家眼里的世界是这样的:
他自己有一个角度朝着某一点看,觉得小时候认知是蓝色部分,中学是灰色部分,大学是绿色部分,博士阶段是红色部分。殊不知,经过多年努力创造新知,却只看到了世界的一个角度。
知识边界在空白部分,我们折腾来折腾去只解决了这么一点点。我们以为往前走了一步,似乎就能解决世界上各种问题了,但是真实的边界很大的。
我们今天对待人工智能的看法也是一样的,这就是我们今天对人工智能态度爆棚的原因。
人最重要的是思想,一个人假如没有了思想,那不如让机器取而代之,成本也更低一些。
实际上,我很喜欢阿兰·图灵的这句话:“我们仅能前瞻不远,却有很多事情还要做。”
所以,今天对于人工智能来讲,它并不是说发展得太快,而是说我们可能用得还不够好。在这样的一个过程中,我们其实是在做两件事:
第一,我们把一个个原来看似不是人工智能的问题变成人工智能的问题,前提是它的确是个数学问题。
所以,是人工智能的问题用人工智能解决,不是的就不要用。上 帝的归上 帝,凯撒的归凯撒。
第二,在未来的世界,我们人何以为人?其实,这样一个世界上还有很多问题特别需要由人来解决,而非人工智能。
比如数据资产、比如政府工作等等。无论你从事什么,人一定要是找到自己的立足点,因为人工智能之外,还有很多事情属于人的世界。
今天的分享到这里就结束了,谢谢大家。