機器人理解人類語言的困難
經過幾萬年的發展,人類的語言已經進化得非常熟練了。語言只有符合以下特征,才能被廣泛傳播。首先,它必須簡單易懂。第二,它必須用盡可能簡單的語言表達各種復雜的情況。綜上所述,同壹個句子在不同的環境下必須有不同的含義,才能滿足最簡單的語言系統能夠表達最復雜的情況的條件。
比如哈哈大多代表快樂,但有時代表憤怒,有時代表冷漠等情緒,是壹個別人很容易讀懂的情緒詞。通過不同的環境語義,別人深有感觸,妳卻指望壹個機器人讀懂。這怎麽可能呢?
說了這麽多,大家應該知道原語言有多復雜了吧。機器人聽不懂妳的語言,也無能為力。目前蘋果的siri已經放棄了掙紮,基本上只回答壹些簡單的問題,按照人工智障模型推薦最簡單的產品。
然而,國內語音助手在搶占市場地盤上頻頻出奇招。通過程序員寫的段子和策劃運營,可以在壹些常用的語境情況下給出最有效的標準答案。它不懂這些,但程序員們寫出了遇到這些常見情況時它應有的回答,所以雖然本質上還是人工智障,但至少是披著智能皮的智障。
有可能讀懂上下文嗎?
與人對話最重要的是傾聽,這意味著機器人未來必須理解那句話的意思,這涉及到非常復雜的語境問題。機器人真的有可能理解不斷變化的語言系統嗎?
目前谷歌在這個領域已經做了兩次嘗試,分別是LaMDA和MUM。前者是智能連續對話系統,後者是上下文理解系統。智能對話系統會擬人化,語境理解系統會主動搜索妳提到的東西,結合不同的天氣、環境甚至妳的心情綜合判斷。目前谷歌的AI模擬效果也很差,但至少是未來AI發展的壹種可能。
寫下所有的可能性,訓練所有的情況
未來,AI的發展有兩條路徑。第壹是像目前國內很多公司在做的那樣,把所有的可能性都寫下來,第二是做足夠多的模型,讓AI對所有的特殊情況進行學習和訓練,讓它無論遇到什麽奇怪的問題,都能有完美的答案。
但問題是,不管是1還是第二種可能,都要滿足前提條件才能看,哪怕是壹句謝謝。如果妳不能認清當前的語境是憤怒,認為這是快樂,妳的回答會讓已經很糟糕的事情變得更糟。
所以即使每個人都為AI創造更完美的答案,匹配任何情境,如果AI無法識別當時的情境是什麽,應該用哪壹句話來應對,那麽人工智障仍然只是人工智障,所以這壹切的前提是必須閱讀,但如果已經可以智能閱讀,為什麽不能智能回答呢?而如果已經實現了智能回復,是不是已經屬於生活了?