第17章 人工智能(第6/8页)

聊天机器人的鼻祖之一是名为“伊莉莎”的软件。《2001太空漫游》上映不到两年,伊莉莎面世。它的程序很短,但却可以进行还算合理(有时也让人着急上火)的对话。这个程序取巧的办法在于,它扮演的是心理医生的角色,所以它会复述你对它说的话,但它不提供新的信息,也不回答你的问题。考虑到伊莉莎只有不到400行程序代码,它的功能已经足以让人啧啧称奇了。

类似的项目进展迅速。(这并不出人意料,在我写作本书时,伊莉莎已经出现将近50年了。)2014年,一个叫作“尤金·戈斯特曼”的程序假扮为一个英语非母语的13岁乌克兰小男孩,通过了图灵测试。但我没能找到戈斯特曼聊天程序,于是我和另一个技术领先的聊天程序Cleverbot有了如下的对话:

布赖恩(本书作者):喂,你好吗?

Cleverbot:我很好,你呢?

布赖恩:就那样,天气实在太热了。

Cleverbot:你为什么不喜欢热呢?

布赖恩:因为它让我觉得不舒服。

Cleverbot:这个理由太逊了!

布赖恩:为什么这么说?

Cleverbot:我几岁了?

布赖恩:我怎么知道?

Cleverbot:因为你是我的电话!

布赖恩:你怎么看叙利亚的情况?

Cleverbot:什么情况?

布赖恩:你不看新闻吗?

Cleverbot:我没有电视。

在谈话即将结束的时候,Cleverbot用了一个经典的逃避对话的办法,而一个真实存在的人不太可能通过否定信息的来源来终止可能出现的话题,这表明Cleverbot肯定不是一个真人。

在我写作本书的时候,即便没有电视,任何人也肯定会或多或少地对发生在叙利亚的事情有所耳闻,叙利亚战争是各类新闻的焦点。但上述对话展现了聊天机器人惯用的交谈模式,几乎立刻暴露出它不是真人的事实。对“为什么”这个问题,聊天机器人做出了无厘头的回答;在我反问它我怎么会知道它的年纪的时候,它更是答非所问。其实聊天机器人很容易在谈话中暴露自己的身份,而许多专家竟然会以为这些程序是真实的人,这让我难以相信。我从来没有和聊天机器人进行过超过5分钟的谈话,每次谈话都以机器人用以上交谈模式暴露自己的机器身份而告终。

当然,Hal的交流技巧比聊天机器人强太多了。Hal不仅可以通过图灵测试,还可以进行如真人般的交谈。Hal的讲话方式让我们感觉它是拥有智慧的——人工智能,这种智慧和人类的智慧非常相似。在现实生活中要想实现类似Hal的人工智能,我们还面临着很大的挑战。自从20世纪80年代起,实现人工智能主要通过两种方法:其一是专家系统,其二是神经网络。(当然,除此之外还有很多其他的方法,但是这两种方法是人们试图赋予计算机智慧的典型方法。)

专家系统巧取豪夺人类苦心掌握的技术和知识。(如你所料,采用这种方法的公司肯定不会据实以告,并且会精心包装它们的产品。)首先是知识引导的过程,也就是向各个领域的专家提出大量的系统问题,目的是把多个专家在各个领域的知识整合起来,建立一个强大的数据库。然后这个数据库就可以代替专家,全天24小时为客户提供专业信息。现在看这个方法,很难相信有人真的认为它可以有效代替真正的专业知识。

这种方法的问题显而易见,首先是专家配合度的问题。“如何煮鸡蛋”这样的简单问题可以用简洁、准确、全面的信息回答。在设计初期,很可能就是用这种问题测试所谓的知识引导过程的。但如果对医生或者火箭专家进行类似的“知识引导”,问题就会接踵而至。即便是配合度高的专家也会为解释行业内的默认基础知识而苦恼,更实际的问题是,即使专家有能力解释清楚所有细节,他们又为什么要这么做呢?专家系统的提倡者称,这个系统可以把专家从循规蹈矩的无聊工作中解放出来,让专家们可以把更多的时间花在有挑战性的、有趣的工作上。但是,专家们大多对这些据说可以替代他们的机器持怀疑态度,认为机器的“回答”肯定不是最佳的。

专业技术无疑非常复杂,知识的本质绝不只是信息和思路。知识包含反馈的过程,即把之前的知识和技术融会贯通。知识还包含一定的创造力,复杂的信息网、新信息带来的灵感、信息间的关系都使提取和整合信息变得无比困难。信息之间错综复杂的关系也很难被有效地利用。

虽然问题很多,但专家系统并未绝迹,它们最终被专门用于处理一些复杂版的“如何煮鸡蛋”的问题。现在你很可能只能在机器回复的电话中心和诊断计算机故障的程序中见到专家系统,这让全世界的专家们都松了一口气。一个基于专家系统的HAL 9000永远也不可能取代专家,因为他们的专业知识不可能被提取和整合到一个数据库中。