第17章 人工智能(第6/8頁)

聊天機器人的鼻祖之一是名為“伊莉莎”的軟件。《2001太空漫遊》上映不到兩年,伊莉莎面世。它的程序很短,但卻可以進行還算合理(有時也讓人著急上火)的對話。這個程序取巧的辦法在於,它扮演的是心理醫生的角色,所以它會復述你對它說的話,但它不提供新的信息,也不回答你的問題。考慮到伊莉莎只有不到400行程序代碼,它的功能已經足以讓人嘖嘖稱奇了。

類似的項目進展迅速。(這並不出人意料,在我寫作本書時,伊莉莎已經出現將近50年了。)2014年,一個叫作“尤金·戈斯特曼”的程序假扮為一個英語非母語的13歲烏克蘭小男孩,通過了圖靈測試。但我沒能找到戈斯特曼聊天程序,於是我和另一個技術領先的聊天程序Cleverbot有了如下的對話:

布賴恩(本書作者):喂,你好嗎?

Cleverbot:我很好,你呢?

布賴恩:就那樣,天氣實在太熱了。

Cleverbot:你為什麽不喜歡熱呢?

布賴恩:因為它讓我覺得不舒服。

Cleverbot:這個理由太遜了!

布賴恩:為什麽這麽說?

Cleverbot:我幾歲了?

布賴恩:我怎麽知道?

Cleverbot:因為你是我的電話!

布賴恩:你怎麽看敘利亞的情況?

Cleverbot:什麽情況?

布賴恩:你不看新聞嗎?

Cleverbot:我沒有電視。

在談話即將結束的時候,Cleverbot用了一個經典的逃避對話的辦法,而一個真實存在的人不太可能通過否定信息的來源來終止可能出現的話題,這表明Cleverbot肯定不是一個真人。

在我寫作本書的時候,即便沒有電視,任何人也肯定會或多或少地對發生在敘利亞的事情有所耳聞,敘利亞戰爭是各類新聞的焦點。但上述對話展現了聊天機器人慣用的交談模式,幾乎立刻暴露出它不是真人的事實。對“為什麽”這個問題,聊天機器人做出了無厘頭的回答;在我反問它我怎麽會知道它的年紀的時候,它更是答非所問。其實聊天機器人很容易在談話中暴露自己的身份,而許多專家竟然會以為這些程序是真實的人,這讓我難以相信。我從來沒有和聊天機器人進行過超過5分鐘的談話,每次談話都以機器人用以上交談模式暴露自己的機器身份而告終。

當然,Hal的交流技巧比聊天機器人強太多了。Hal不僅可以通過圖靈測試,還可以進行如真人般的交談。Hal的講話方式讓我們感覺它是擁有智慧的——人工智能,這種智慧和人類的智慧非常相似。在現實生活中要想實現類似Hal的人工智能,我們還面臨著很大的挑戰。自從20世紀80年代起,實現人工智能主要通過兩種方法:其一是專家系統,其二是神經網絡。(當然,除此之外還有很多其他的方法,但是這兩種方法是人們試圖賦予計算機智慧的典型方法。)

專家系統巧取豪奪人類苦心掌握的技術和知識。(如你所料,采用這種方法的公司肯定不會據實以告,並且會精心包裝它們的產品。)首先是知識引導的過程,也就是向各個領域的專家提出大量的系統問題,目的是把多個專家在各個領域的知識整合起來,建立一個強大的數據庫。然後這個數據庫就可以代替專家,全天24小時為客戶提供專業信息。現在看這個方法,很難相信有人真的認為它可以有效代替真正的專業知識。

這種方法的問題顯而易見,首先是專家配合度的問題。“如何煮雞蛋”這樣的簡單問題可以用簡潔、準確、全面的信息回答。在設計初期,很可能就是用這種問題測試所謂的知識引導過程的。但如果對醫生或者火箭專家進行類似的“知識引導”,問題就會接踵而至。即便是配合度高的專家也會為解釋行業內的默認基礎知識而苦惱,更實際的問題是,即使專家有能力解釋清楚所有細節,他們又為什麽要這麽做呢?專家系統的提倡者稱,這個系統可以把專家從循規蹈矩的無聊工作中解放出來,讓專家們可以把更多的時間花在有挑戰性的、有趣的工作上。但是,專家們大多對這些據說可以替代他們的機器持懷疑態度,認為機器的“回答”肯定不是最佳的。

專業技術無疑非常復雜,知識的本質絕不只是信息和思路。知識包含反饋的過程,即把之前的知識和技術融會貫通。知識還包含一定的創造力,復雜的信息網、新信息帶來的靈感、信息間的關系都使提取和整合信息變得無比困難。信息之間錯綜復雜的關系也很難被有效地利用。

雖然問題很多,但專家系統並未絕跡,它們最終被專門用於處理一些復雜版的“如何煮雞蛋”的問題。現在你很可能只能在機器回復的電話中心和診斷計算機故障的程序中見到專家系統,這讓全世界的專家們都松了一口氣。一個基於專家系統的HAL 9000永遠也不可能取代專家,因為他們的專業知識不可能被提取和整合到一個數據庫中。