我经常从我家小姑娘口中听到这样伤心的话。"妈妈,他们说鱼只有7秒的记忆,我觉得siri也是。她从来记不住我说了什么,也记不住自己说了什么,所以,每次对话只能有一个回合。"这说明浅层智能的AI对于数据的提取只限于预存于它的记忆中的数据,而不能吸收并记忆在对话的过程中对方提供的新的数据信息。
"妈妈,我不喜欢siri, 我问她可以有dialogue吗?她说可以。可我开始和她说时,她走了,她说她不能understand我在说什么。""妈妈,siri只能是一个helper,而不是一个friend." 所以,目前AI都是浅层智能,弱人工智能,而不是深度智能。就是吴老师说的无法理解复杂语义和没有建立常识这两点。
1956年的时候,乔姆斯基就试图用有限状态机来描述语法。当时机器翻译已经兴起了,有很大一方面是由于战争的需求,尤其是在冷战初期,1954年1月7日的时候,在纽约的 IBM 总部就开始了一个机器翻译的实验,叫做 Georgetown IBM Experiment。当时他们计算机做了一个演示,就是自动翻译了60个俄语句子成英语,这还是史上第一回。其实机器翻译里面最大的问题,一个是叫做 word sense disambiguation,所谓“词义消歧”。
举一个例子,当时有这么一个例句叫做(大家可以尝试翻译一下)“The spirit is willing, but the flesh is weak.”现在,谷歌翻译里已经能翻出“灵是愿意的,肉体却软弱了”这样的结果了。你不要嫌弃它,还听起来不太通顺,虽然没能翻译成什么“心有余而力不足”这种更贴切中文,土生土长文字的东西。要知道当时的那一个机子翻译出来的是“伏特加(spirit常被用来指烈酒,所以会翻成伏特加)还很好,但是肉已经坏了”。我们知道这个 spirit 和那个 flesh 肯定都是指人的精神和人的肉体,正如吴老师所说,它不知道这种东西叫做 common sense knowledge,也就是常识。我们还尚且有不能区分歧义的时候,何况机器。
但因为从符号学的角度来讲,语言的符号跟它指代物并没有强关联,你今天可以叫香蕉是香蕉,明天你叫它wakawaka, 文字本身只是指代的符号。所以 GPT-2 本身的算法是仅仅预测下一个单词。它并不是被教着去懂得人类意义上的创作的。现在已经有了很大改善,本质上是不是改善我不清楚,但至少结果是。比如,我用谷歌翻译翻出来的大部分句子都胜过有道翻译,就是逻辑比它通畅,甚至还带有文采。
最后,补充一个有趣的小知识。AlphaGo我们知道是用来下围棋的,很多人把它翻译成“阿尔法狗”。甚至很多人就以为它是机器狗。其实,这里Go就是围棋的意思。
因为日语里,围棋就是Go. 围棋诞生于中国,但隋唐的时候到了日本。日语中对于围棋的写法是“囲碁”,也是取了汉字的形。“碁”字通汉语中的“棋”,“棋”在中国古代吴语地区的念法不读作“qi",而是“gia”。很多古吴语都传去了日本,其中就包括这个“棋”字。我学日语的时候,我们老师就说,日语中很多发音和宁波话很像。这个字到了日本后,形变为"碁",同时,音变为 gio,最终定型为go的读音。那么为什么英语要采用日语读音go来命名围棋呢,而不是 weiqi? 这是因为欧美人是在日本最先接触到围棋的,不是在中国。