近日,F(xiàn)acebook人工智能研究小組研發(fā)的聊天機器人Bob和Alice突然火了——原本用來和人聊天的兩個AI不僅自主地開始互相聊天,還創(chuàng)造了只有它們互相明白的“語言”。Facebook也暫時關閉了研發(fā)項目。人們不禁擔憂,這是不是一個預兆,昭示著人類最終會如科幻片里一樣,毀滅在“人工智能”手中? 人工智能自創(chuàng)語言,也就是一件普通事 ▲Bob和Alice的對話。Bob:“我能我我其他一切?!盇lice:“球是零對我來說對我來說我對我來說對我來說對?!?/span> 從上圖可以看到,Bob和Alice之間的對話,仍然使用英語單詞,只是完全沒有遵守英語語序。 也就是說,它們不是自創(chuàng)了語言,而是“太蠢”沒有學會好好地說英語。 其實,聊天機器人“自創(chuàng)語言”已經(jīng)不是第一次發(fā)生了。Facebook人工智能研究院(Fair)為了訓練一個能像人類一樣談判的聊天機器人,研發(fā)了一個游戲,讓2個聊天機器人不停談判,就像打怪升級一樣來提高水平。 機器人確實按照程序設定進行,但在這個過程中,研究人員發(fā)現(xiàn)它們之間的交流并不全是英語,而是研發(fā)出了一種新的交流方式。像代數(shù)中用x代替數(shù)字一樣,它們開始用一些奇怪的字母組合代替原本的英語單詞。比如說,用“iii”代替“want”或者“orange”。 這種語言的誕生并沒有那么可怕。人類和人工智能思維本來就是不同的。原本就不會說英語的兩個機器人只是找到了更快捷的“語言”。畢竟對AI來說,“蘋果”只是一長串描繪蘋果的顏色、寫法以及其他水果關系的“代碼”。它們語序混亂的對話乍一看讓人摸不到頭腦,但我們可以完全可以通過反推,明白它的“思考”過程。 ▲AI研究人員此前獲得突破性進展,可以根據(jù)機器做出的結果,再反推出做出決定的整個過程。有時候我們不能理解機器,不是因為它想殺了人類,而是弄懂各種延伸的代碼很難。 正如Facebook研究人員Dhrub Batra所說,對話系統(tǒng)出現(xiàn)故障的原因是因為“沒有針對英語語言的獎勵機制”。這一獎勵機制正是研究人員用來規(guī)范機器自主學習方向,獲得想要的深度學習結果的手段。Facebook原本想要一個說英語的AI,沒想到它偷懶跑偏。Facebook只能關閉程序,重新將“運用標準英語語法”寫進編程,讓它們真的開始“說”英語。 被自創(chuàng)語言唬住,還怎么面對AI的“謊言” 如此看來,F(xiàn)acebook的兩個聊天機器的聊天,就是為了想要的東西而討價還價的過程。 但實際上,比起“自創(chuàng)語言”, AI在這個過程中學會了“說謊”更加值得關注。 正如上文所說,研究人員為了訓練AI像人類一樣談判而設置了一個游戲:分配2本書、1頂帽子和3個球。這3樣物品在雙方心中的價值各不相同。如果一方能通過談判拿下高價值物品,就能獲得獎勵。最終目的,是為了讓機器人理解這些物品對自己的價值,進而去和對方談判。按照設定,雙方想要的東西不會相同,且必須得出結果。就像下圖一樣: ▲You:“我想要帽子和球?!盕ollow:“我也想要帽子,但我可以讓給你書?!盰ou:“我不要書,你可以拿走書和1個球?!盕ollow:“2個”You:“可以,成交?!?對You來說,帽子價值最高) 為此,研究人員找來5808段人類對話,讓AI進行學習和模仿。然而,AI不僅學會了如何表達自己的需求,還學會了“智能行為”——通過“說謊”進行談判。與其直接說出它想要的物品,AI會先假裝自己對另一個低價值物品感興趣,只為了稍后“假意讓步”換來真正想要的物品。 ▲根據(jù)人類對話,AI會模擬不同的可能性。 Batra表示,AI學會談判技能因為它們發(fā)現(xiàn)這一戰(zhàn)略是有效的,能幫它們拿到游戲獎勵。這證明,人工智能是可以像人一樣,學會智能思考和談判能力。在很多次評估中,實驗者甚至不能分辨和TA談判的是真人還是AI。假以時日,當AI技術成熟,它可以具備推理、分析、談判的能力,成為私人秘書、網(wǎng)絡小助手或是談判智囊團,而不是簡單地對指令做出反應。到那時,被AI“小把戲”騙到的,也許就是屏幕前的你。 |
|