在7月底,OpenAI推出了ChatGPT高級語音模式,其功能讓用戶感到震驚。而在周四發(fā)布的一份安全審查報告中,該公司承認,這種擬人化的聲音可能使一些用戶產生情感上的依戀,從而影響到正常的人際關系。 據(jù)OpenAI此前介紹,高級語音模式能提供更自然的實時對話,聽起來極其逼真,它允許用戶隨時打斷,并能感知和響應用戶的情緒。實時響應和可打斷對話是目前語音助手公認的技術難點。 OpenAI在今年5月推出了新版本大模型GPT-4o,同時還展示出了語音模式。該公司原定于6月底開始逐步向用戶開放語音模式,但最終決定推遲至7月發(fā)布。目前,僅向部分ChatGPT Plus用戶開放。 在OpenAI發(fā)布高級語音模式時,它就被視為2013年電影《她》中與主人公談戀愛的AI助理,但當AI承認“她”還與數(shù)百名其他用戶有戀愛關系時,主人公陷入了崩潰。 在經典科幻片《銀翼殺手2049》中,上演了幾乎同樣的場景,AI虛擬人成為了主角的女友,當主角看到虛擬女友以同樣的形態(tài)被售賣時,令人羨慕的真摯愛情瞬間化為烏有。 現(xiàn)在,OpenAI顯然擔心上述虛構的故事成為現(xiàn)實,它觀察到高級語音模式成為了用戶表達情感的工具。“用戶可能會與AI建立社交關系,減少他們對人類互動的需求,這可能有利于孤獨的人,但可能會影響健康的人際關系。” OpenAI指出,從一個聽起來像人類的聊天機器人那里聽到的信息,可能會導致用戶過于信任這個工具,但AI有犯錯的傾向,這也會造成問題。 安全審查報告還提到,科技公司正在競相迅速向公眾推出AI工具,他們說這些工具可能會顛覆人類生活、工作、社交和查找信息的方式。但在人們真正理解這些含義之前,他們就已經這么做了,但這往往會帶來意想不到的后果。 倫理挑戰(zhàn) 一些人已經開始與AI聊天機器人建立所謂的戀愛關系,這引起了情感專家的擔憂。 亞利桑那州立大學研究技術和人類交流的教授Liesel Sharabi表示,科技公司在處理與技術相關的道德和責任問題上承擔了巨大的責任,而且目前這一切都還處于試驗階段。她擔心的是,人們可能會與那些可能長期存在不了、且不斷演變的技術形成非常深厚的聯(lián)系。 OpenAI認為,隨著時間的推移,用戶與ChatGPT語音模式的互動也可能影響社交中的正常行為?!拔覀兊哪P褪亲鹬赜脩舻模试S用戶隨時打斷并'接管麥克風’,這雖然對于AI來說是預期中的行為,但在人類互動中卻是違反社交規(guī)范的,至少有些失禮?!?/p> 目前,OpenAI稱致力于“安全地”構建AI助手,并計劃繼續(xù)研究和解決用戶對其工具“情感依賴”的可能性。 OpenAI并不是唯一一家認識到AI助手模仿人類互動的風險的公司。今年4月,谷歌DeepMind發(fā)表了一篇長篇論文,討論了更有能力的AI助手可能帶來的倫理挑戰(zhàn)。 |
|