乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      楊立昆最新萬字實錄:我們離真正的Agent還差幾大關(guān)鍵技術(shù)

       mrjiangkai 2025-01-13 發(fā)布于上海
      2025-01-13 17:28·人工智能學(xué)家

      來源:數(shù)字開物 數(shù)字開物

      1月9日,CES2025現(xiàn)場,Meta 副總裁兼首席人工智能科學(xué)家楊立昆與Wing Venture Capital 研究主管Rajeev Chand進行了一場對談。對話中談?wù)摿?/span>AGI、scaling law、世界模型、AI智能體等熱點話題。

      楊立昆認(rèn)為AGI這一術(shù)語本身沒有實際意義,他強調(diào)人類智能是高度專業(yè)化的,稱AGI并不代表人類級智能,此外他還表示AI智能體是一個挑戰(zhàn),而非現(xiàn)成的解決方案。

      以下是本次對話完整實錄,經(jīng)翻譯編輯:

      主持人:早上好。我們很榮幸今天能請到一位人工智能的三位教父之一。他是圖靈獎的獲得者,以及許多我無法在此列出的其他獎項。他在 Meta 擔(dān)任首席 AI 科學(xué)家。請大家和我一起歡迎 Yann LeCun 來到 CES。

      所以 Yann,為了準(zhǔn)備這次會議,我向很多人類和非人類詢問了問題。我準(zhǔn)備了兩頁的問題列表,我們會盡可能多地回答。讓我們從本周的新聞開始。OpenAI 的 Sam Altman 在本周早些時候發(fā)布博客稱,讓我確保我正確地使用了這些詞,“我們知道如何構(gòu)建AGI ,并且我們開始轉(zhuǎn)向超級智能?!爆F(xiàn)在,你對AGI和 2025 年的預(yù)測有一些尖銳的措辭。你的反應(yīng)和想法是什么?

      AGI 這個術(shù)語本身是無意義的

      楊立昆:好的,首先,這真的取決于你所說的AGI是什么意思。坦率地說,我不喜歡這個短語,因為人們用它來基本上表示達到人類智能水平的智能,而人類智能是非常專業(yè)化的,我們認(rèn)為我們擁有通用智能,但我們沒有。我們是超級專業(yè)化的。所以整個AGI這個短語,在我看來是無稽之談。

      但是,現(xiàn)在如果我們談?wù)撊祟愃降闹悄埽@是什么意思?我們是否需要能夠通過律師資格考試或大學(xué)入學(xué)考試?問題是,我們無法衡量這一點,因為對于我們能想出的每一個測試或每一個基準(zhǔn),我們將能夠構(gòu)建一個專門的系統(tǒng)來擊敗該基準(zhǔn)。而且多年來,通過組裝所有這些系統(tǒng),我們將擁有能夠做很多事情的系統(tǒng)。但這并不意味著它們具有人類水平的智能,這并不意味著它們具有規(guī)劃、推理、解決問題、理解物理世界的所有能力。

      主持人:那么你如何知道Llama或后續(xù)模型是否達到了人類水平的智能呢?這是你更喜歡的說法。你怎么知道呢?

      楊立昆:絕對不可能,我們今天所知的這種類型的自回歸大語言模型會達到人類水平的智能。它不會發(fā)生。好嗎?所以,我不知道 Sam 指的是什么,他指的是哪種類型的架構(gòu),他沒有說。嗯,過去,他說,我們離AGI還有數(shù)千天,無論你怎么理解,我同意這一點。那是數(shù)千天,問題是有多少個千?你知道,1000 就是三年。所以我們至少還有三年時間,但還不止于此。 如果,我們在 Meta 的 FAIR 正在進行的計劃成功了,因為我們也有一些關(guān)于如何達到人類水平智能的想法。如果一切順利,而且我們沒有遇到任何障礙,我不認(rèn)為這會在五六年之前發(fā)生。

      主持人:所以我不想在定義上花費太多時間,因為它有點讓人覺得無聊,但是當(dāng) Sam 和 OpenAI 談?wù)揂GI時,所以我查了一下,在網(wǎng)站上,它是一個高度自主的系統(tǒng),在大多數(shù)經(jīng)濟上有價值的工作中勝過人類。顯然,對于人類水平的智能,一個 AI 系統(tǒng)可以完成人類可以完成的所有智力任務(wù),并且表現(xiàn)出類似的水平。所以存在差異,工作與任務(wù),全部與大多數(shù)。但是 Yann,我們 Sam 所說的AGI和你所說的人類水平,我們大致是在同一個范圍內(nèi)還是這些是截然不同的東西?

      楊立昆:截然不同。我的意思是有些任務(wù)是純粹的智力任務(wù),通過足夠數(shù)量的訓(xùn)練數(shù)據(jù)和一種新型的架構(gòu),我們可能會在相對較短的時間內(nèi)達到。然后還有一些像人類的任務(wù),很多人類都可以完成,比如管道維修。我們不會很快擁有自動化的管道工,它非常復(fù)雜。它需要對物理世界和操縱等有非常深刻的理解。我們不是,這不是因為我們不能建造機器人。只是我們無法讓它們變得足夠聰明,真正處理物理世界。事實上,我們甚至還遠沒有達到任何動物(貓或狗)對物理世界的理解水平,它們比我們今天擁有的任何 AI 系統(tǒng)都更了解物理世界。

      主持人: 所以當(dāng) Sam 說我們知道如何構(gòu)建AGI 時,讓我們暫時堅持他的定義,并且,你是否認(rèn)為 AGI 的這種定義是可以實現(xiàn)的,考慮到你的定義與他的定義截然不同。他的定義在 2025 年可以實現(xiàn)嗎?

      楊立昆:我認(rèn)為這是一個很糟糕的定義。所以,我不認(rèn)為它有意義。這就像每個人都提出了人類水平智能的基準(zhǔn),并說,如果你在這個基準(zhǔn)上取得成功,那么你就實現(xiàn)了人類水平的智能。而且人們一直犯著同樣的錯誤,已經(jīng)有差不多 70 年了?;氐?50 年代,其中一個最早的人工智能程序, Newell 和 Simon,人工智能的先驅(qū)之一,他們非常謙虛地稱之為“通用問題解決器”,因為他們認(rèn)為這個程序可以解決所有問題,理論上它可以,但實際上卻不能。這是基于搜索之類的東西,人工智能領(lǐng)域的人們一直在犯這個錯誤。并且說曾說過,我們現(xiàn)在有可以擊敗我們下棋的系統(tǒng),那么很快,它們就會像我們一樣聰明,我們現(xiàn)在有可以在沙漠中駕駛汽車的系統(tǒng),很快,我們就會有自動駕駛汽車。不管怎樣,五年了,我們?nèi)匀粵]有。13 年過去了,很快我們就會有可以回答任何問題的系統(tǒng)。我們正在接近這一點,但我們?nèi)匀缓苓b遠。

      只要我們提出的問題的結(jié)構(gòu)或格式與模型在訓(xùn)練過程中所學(xué)習(xí)到的樣式相匹配,大語言模型就會回答。你稍微改變一下陳述,他們就沒有常識。常識的概念,我們什么時候會有具有常識的機器呢,這是一個重要的問題,如果沒有對物理世界的理解,你是無法得到答案的。

      未來擴展的關(guān)鍵:從規(guī)?;酵评頃r搜索與世界模型

      主持人:回到目前的情況。我聽到你說大語言模型不會達到人類水平的智能。回到目前的狀況,在未來兩三年,關(guān)于scaling laws有很多討論。關(guān)于scaling laws 是否對大語言模型減緩,以及新的測試時計算模型是否能重新激活或恢復(fù)規(guī)?;?。你認(rèn)為這些測試時計算模型是否能成為大語言模型系列中全新的擴展方式?

      楊立昆:好的,擴展正在飽和。我們在過去幾年中經(jīng)歷的指數(shù)曲線現(xiàn)在正在變成 S 型曲線。每個指數(shù)曲線在某個時候都會變成 S 型曲線,至少在現(xiàn)實世界中是這樣。而且,訓(xùn)練越來越大的大語言模型和使用越來越多數(shù)據(jù)的成本,正以幾乎呈指數(shù)級的速度增長。性能并沒有按照相關(guān)的scaling law那樣增長。所以我們僅僅依靠規(guī)?;菬o法達到目標(biāo)的,對吧?那些幾年前聲稱的人,他們現(xiàn)在已經(jīng)改變了主意,順便說一下,僅僅是擴展就可以達到人類水平的智能,這顯然不是這種情況。我長期以來一直倡導(dǎo)的是,規(guī)劃和推理。這是什么意思?而且我一直在談?wù)撨@個話題有大約八年的時間了。

      這意味著,擁有一些對世界的心理模型,使得它們能夠預(yù)測自己行動的后果,然后規(guī)劃一系列行動,以實現(xiàn)某個特定目標(biāo)。這不是什么新想法。實際上,在最優(yōu)控制和機器人技術(shù)中,它非常經(jīng)典,這稱為運動規(guī)劃或模型預(yù)測控制?,F(xiàn)在,在大語言模型領(lǐng)域的人們正在重新發(fā)現(xiàn)這一點,他們稱之為推理時搜索。既存在于傳統(tǒng)人工智能中,也存在于像最優(yōu)控制這樣的工程學(xué)科中。你并不是通過簡單地通過一層層的神經(jīng)網(wǎng)絡(luò)計算系統(tǒng)的輸出,而是具有某種目標(biāo)函數(shù),通過優(yōu)化你的答案,搜索一個滿足特定目標(biāo)的答案。

      主持人: 那么 O3 和 Gemini 2.0 快速思考,在你看來,它們是否是大語言模型全新且持續(xù)的擴展?

      楊立昆:所以他們確實在進行搜索,但他們在標(biāo)記空間中進行搜索。 所以基本上在單詞的空間里,這個想法是非常古老的,它已經(jīng)被用于深度學(xué)習(xí)和游戲系統(tǒng),例如 AlphaGo、AlphaZero 以及來自其他玩家的等效系統(tǒng)。所以基本上,你讓系統(tǒng)生成大量單詞或輸出序列,或者他們可能進行的游戲的移動。然后,你有一種方式,只生成那些有潛力的序列。接著你會有第二個神經(jīng)網(wǎng)絡(luò)來評估哪些是最好的,然后選擇最優(yōu)的。這非常昂貴,因為你必須在一個指數(shù)增長的序列數(shù)中進行搜索。所以它是極其昂貴的,實際上目前它在經(jīng)濟上并不可行,沒錯,這也是為什么OpenAI要為這個服務(wù)收取每月200美元,卻還沒有盈利的原因。

      主持人:我之所以花幾分鐘討論這個話題,是因為最近有過一場廣泛的討論,大約三四個月前曾有論調(diào)稱擴展性已經(jīng)走到盡頭。Ilya 談到過預(yù)訓(xùn)練時代的結(jié)束。而在O3中,也有很多關(guān)于“測試時計算”是新的擴展路徑的討論,激起了不少興奮。你也讓一些人——如果我理解正確的話——像Jensen等人開始反思這種擴展性的問題。也許,這是一種思考方式。那么我們可以為此設(shè)定一個指標(biāo)。假設(shè)從Llama2到Llama3的改進是一個單位,而Llama 4,我相信預(yù)計將在今年發(fā)布。那么從Llama 3到Llama4的增長預(yù)期是會和從2到3的增長類似嗎?那么,未來的兩三代,進展的指標(biāo)應(yīng)該會是什么樣的呢?

      楊立昆:好的,首先我認(rèn)為,事情將會有持續(xù)的進展,因為我們在工程技術(shù)、數(shù)據(jù)收集等方面會不斷取得進展。但一旦我們擁有一個經(jīng)過廣泛驗證的架構(gòu),并且能夠像我剛才提到的那樣,使用心理模型來進行推理,我們將看到真正的突破。所以,當(dāng)我們進行思考、規(guī)劃和推理時,我們并不是逐字逐句地寫下我們想到的每一個詞,這有點像當(dāng)前的“測試時計算”,對吧?你生成大量的詞匯,然后從中選出看似最優(yōu)的那些。那并不是我們進行推理的方式。我們的大腦在推理時擁有一個對當(dāng)前情境的心理模型,并且我們根據(jù)這個模型來規(guī)劃一系列行動,以實現(xiàn)某個特定目標(biāo)。我稱之為目標(biāo)驅(qū)動型人工智能。所以,真正的技術(shù)挑戰(zhàn)在于:如何訓(xùn)練系統(tǒng),讓它具備這些世界心理模型。因此,現(xiàn)在在AI研究領(lǐng)域,你可以看到另一個關(guān)鍵詞——世界模型,或稱行動條件下的世界模型。這些模型基本上是允許系統(tǒng)進行規(guī)劃和推理的關(guān)鍵。在當(dāng)前商業(yè)部署的AI系統(tǒng)中,這類模型并不存在,但在研究領(lǐng)域,尤其是在機器人學(xué)的背景下,許多人已經(jīng)開始深入研究這一方向,因為你不能忽視像運動規(guī)劃這樣的問題。因此,我認(rèn)為,這些技術(shù)的突破將在未來幾年內(nèi)實現(xiàn)。

      主持人:那就是說,下一次你真正感到興奮的擴展就是這個方向了?這是你期待的下一個突破

      楊立昆:沒錯,這正是我們在FAIR所專注的方向。我們關(guān)注的是下一代人工智能系統(tǒng),它能夠理解物理世界,具備持久的記憶,擁有一定程度的常識,并且能夠進行規(guī)劃和推理。

      目標(biāo)驅(qū)動型 AI與下一代架構(gòu)

      主持人:讓我們討論一下下一代架構(gòu)。Yann,您多年來一直是反傳統(tǒng)的先鋒,并且這一立場是正確的。那么,您現(xiàn)在提倡放棄生成模型,這是另一個“下一代架構(gòu)”嗎?放棄概率模型、對比學(xué)習(xí)模型,甚至放棄大部分強化學(xué)習(xí)?我知道我剛才簡要提到過這一點,但從非常高的層面來看,目標(biāo)驅(qū)動型 AI 和 JEPA 到底是什么?

      楊立昆:好的,首先,目前很多AI系統(tǒng)所依據(jù)的基本原則或范式,主要是自監(jiān)督學(xué)習(xí),這是我已經(jīng)倡導(dǎo)了十年甚至更長時間的一個方向。自監(jiān)督學(xué)習(xí)的核心思想是:你并不訓(xùn)練系統(tǒng)去執(zhí)行某個特定任務(wù),而是讓它預(yù)測輸入數(shù)據(jù)中的缺失信息。舉個例子,一個大語言模型假設(shè)我們有一段文本,系統(tǒng)的目標(biāo)是預(yù)測文本中的下一個單詞。就是這么簡單。令人驚訝的是,通過這種方式,系統(tǒng)不僅學(xué)會了如何生成語言,甚至能夠理解大量的語言內(nèi)容。

      現(xiàn)在,將這一思想應(yīng)用到現(xiàn)實世界中。訓(xùn)練一個系統(tǒng)去預(yù)測視頻中即將發(fā)生的事情,這個概念已經(jīng)存在了很長時間。我個人在這個領(lǐng)域已經(jīng)工作了近20年。因為有一種觀念是,如果你能夠進行預(yù)測,你就基本上構(gòu)建了一個現(xiàn)實世界的心理模型。過去的20年里,我大部分時間都在研究生成模型。這個想法的基本原理是:如果我給你一段視頻,我暫停它,然后訓(xùn)練系統(tǒng)去預(yù)測接下來會發(fā)生什么,也許我會給它一個我認(rèn)為會在視頻中發(fā)生的動作。系統(tǒng)是否能預(yù)測視頻中接下來會發(fā)生的事情?基本上,這是一個徹底的失敗。失敗的原因在于,你無法預(yù)測現(xiàn)實世界中的所有細節(jié)。

      舉個例子,如果我拍攝了房間一角的視頻,慢慢轉(zhuǎn)動攝像機然后暫停,我問系統(tǒng):“你能預(yù)測視頻的其余部分嗎?”系統(tǒng)可能會預(yù)測出這是一個會議室,人們坐在椅子上之類的內(nèi)容。但它顯然無法預(yù)測你們每個人的外貌,對吧?它無法預(yù)測地毯的紋理,燈光的顏色等等。這些細節(jié)是無法預(yù)測的,因此,生成模型的核心任務(wù)就是預(yù)測這些細節(jié)。很多視頻預(yù)測系統(tǒng)就是在嘗試預(yù)測視頻中的每個細節(jié),但這注定是行不通的。

      因此,在過去五年里,我們一直在研究一種稱為JEPA的全新架構(gòu)。JEPA代表的是聯(lián)合嵌入預(yù)測架構(gòu)(Joint Embedding Predictive Architecture)。JEPA的核心思想是:你不會預(yù)測所有的細節(jié),而是訓(xùn)練系統(tǒng)學(xué)習(xí)視頻、文本等的抽象表示然后在這個抽象表示空間中進行預(yù)測。而所有無法預(yù)測的細節(jié)則被從該表示中去除。這使得預(yù)測問題變得更加簡化,并且驅(qū)動系統(tǒng)學(xué)習(xí)關(guān)于環(huán)境的相關(guān)信息。

      現(xiàn)在,我們已經(jīng)有一些系統(tǒng)能夠在一定程度上進行計劃和行動,并在現(xiàn)實世界中實現(xiàn)類似的操作。我們即將提交的一篇論文顯示,這些系統(tǒng)已經(jīng)獲得了一些常識,因此它們能夠識別視頻中是否發(fā)生了不可能的事情。

      主持人:所以這些系統(tǒng)已經(jīng)獲得了一些常識。

      楊立昆:是的,獲得了一些常識。這是一個有趣的計算,我一直在討論這個話題。如果你考慮一下大型語言模型訓(xùn)練時所用的數(shù)據(jù)量,大約是 20 萬億個Token,那就是像Llama 3 等模型所用的數(shù)據(jù)量。這些數(shù)據(jù)基本上來自互聯(lián)網(wǎng)上所有公開可用的文本。

      主持人:那么 JEPA 是在哪個版本的 Llama 中出現(xiàn)的?是哪個世代的 Llama?

      楊立昆:如果我們幸運的話,應(yīng)該是 Llama5。

      主持人:如果幸運的話,Llama5。哇,這比我預(yù)想的要早。

      楊立昆:是的,如果我們幸運的話。那么,好的,20 萬億個 Token。每個 Token 大約是 3 字節(jié),所以總共總共就是 6 × 1013 字節(jié),四舍五入后大概是 101? 字節(jié)。嗯,我們需要幾百年才能讀取完這些數(shù)據(jù)。你可以想象,這是一龐大的數(shù)據(jù)量?,F(xiàn)在,假設(shè)我們將這個數(shù)字與視覺皮層在四年中所獲得的信息量進行比較。一個孩子在四年內(nèi)大約醒著 16000 小時。視神經(jīng)每秒傳輸大約 2 兆字節(jié)的信息到視覺皮層。通過計算,在四年的時間里,一個孩子接收到的視覺信息總量大約是 101? 字節(jié)。這告訴我們,僅僅通過文本數(shù)據(jù)來訓(xùn)練 AI 是無法實現(xiàn)人類水平的智能的,這種情況永遠不會發(fā)生。

      主持人:所以,Yann,在準(zhǔn)備這次會議時,正如我之前提到的,我讓 ChatGPT、Gemini 和 Meta 向你提問,并要求它們提出一些更具爭議性和更及時的問題。只有 Gemini 知道你關(guān)于JEPA 的工作,并向你提出了相關(guān)問題。那么,面對大規(guī)模訓(xùn)練和基于能量的模型在計算資源和合適數(shù)據(jù)庫的可用性方面的挑戰(zhàn),你如何看待這些問題?

      楊立昆:是的,基于能量的模型與我之前提到的概念相關(guān),現(xiàn)如今人們稱之為測試時計算。它的核心思想是,你通過優(yōu)化計算系統(tǒng)的輸出,而不是單純通過固定數(shù)量的神經(jīng)網(wǎng)絡(luò)層進行計算。系統(tǒng)的目標(biāo)是通過某個目標(biāo)函數(shù)來衡量輸出結(jié)果是否符合特定目標(biāo),例如贏得一場國際象棋比賽,或是打開一個水瓶,任務(wù)可以是任何你設(shè)定的目標(biāo)。系統(tǒng)需要一個內(nèi)部世界模型,通過這個模型來確定一系列操作,以滿足這個目標(biāo)。用于描述這種工作原理的數(shù)學(xué)框架(如果需要的話)就是所謂的基于能量的模型。簡單來說,你會有一個能量函數(shù),它會在測試時通過最小化與系統(tǒng)輸出的偏差來進行優(yōu)化。所以,測試時計算的思想并不是新的,它是一個非常經(jīng)典的概念。

      主持人:那么,最后一個問題是關(guān)于JEPA。Arvin,Perplexity 的投資者之一,如果我沒記錯的話,他曾在 Lex Fridman 的節(jié)目上贊揚了你過去幾十年中的許多正確預(yù)測。他順便提到,他并不認(rèn)為JEPA 是正確的方法,雖然他沒有具體說明原因。你會對那些可能不像你今天那樣看好 JEPA的人說什么?

      楊立昆:嗯,我認(rèn)為你所說的是,他還沒有看到任何演示表明JEPA 會成為下一代 AI 系統(tǒng)的基礎(chǔ)。確實,他是對的。我的意思是,我們還沒有完全構(gòu)建出它。但它即將面世。我一直以來的研究方式是設(shè)定一個非常雄心勃勃的目標(biāo),然后思考系統(tǒng)的哪些特征最終能夠帶領(lǐng)我們到達這個目標(biāo),并且從那開始邁出第一步。我要告訴你,我一直不認(rèn)為自回歸大語言模型會帶我們走向人類級別的智能。對此,我從未改變過立場。嗯,它們非常有用,我們應(yīng)該繼續(xù)研究它們。我們在 Meta 有一個龐大的團隊致力于部署這些模型,這是非常棒的事情,對吧?但作為通向人類級智能的道路,它們稍顯分散注意力,甚至有些誤導(dǎo)。

      因此,真正需要的系統(tǒng)是能夠進行推理和規(guī)劃,并且對物理世界有一定理解的系統(tǒng)。要實現(xiàn)這一點,這些系統(tǒng)必須在底層具備這些能力。

      5、6年內(nèi)不會實現(xiàn)AGI

      主持人: 那么,這是一個非常基本的問題。按照您的定義,您認(rèn)為我們何時能夠?qū)崿F(xiàn)人類水平的智能?

      楊立昆: 如我在回答第一個問題時提到的,我認(rèn)為這至少在我們擁有一個清晰的藍圖之前不會發(fā)生。

      主持人: 那么您會說這需要數(shù)千天的時間嗎?

      楊立昆: 數(shù)千天,具體有多少個千呢?我認(rèn)為在未來五到六年內(nèi),我們不太可能實現(xiàn)這一目標(biāo),至少在沒有清晰的實現(xiàn)路徑之前是如此。而且,即使有了藍圖,我們?nèi)匀恍枰鄷r間來將其付諸實踐。要知道,AI 發(fā)展史上曾多次發(fā)生類似的情況,人們總是對剛剛提出的新技術(shù)充滿過高的期望,然而最終結(jié)果往往令人失望。

      AI智能體是一個挑戰(zhàn),而不是一個現(xiàn)成的解決方案

      主持人: 那么讓我們聚焦到近期的 2025 年。您認(rèn)為AI Agent會成為一項引發(fā)廣泛興奮的技術(shù)嗎?2025 年會是 AI 智能體的崛起之年嗎?在我們兩個月前舉行的私人峰會上,我們詢問了 300 位技術(shù)高管,AI 智能體一詞在未來的趨勢中占據(jù)了最重要的位置。

      楊立昆: AI 智能體是一個挑戰(zhàn),而不是一個現(xiàn)成的解決方案。從某種角度看,每個人都知道我們需要構(gòu)建能夠進行規(guī)劃和決策的系統(tǒng)。問題在于,如何實現(xiàn)這一目標(biāo)?對此,我的回答是:JEPA、基于能量的模型、世界模型和目標(biāo)驅(qū)動型 AI,這些都是構(gòu)建的關(guān)鍵技術(shù)。

      主持人: 所以,您認(rèn)為要構(gòu)建 AI 智能體,是否需要所有這些技術(shù)的結(jié)合?或者,AI 智能體是否代表了用戶自主行動的能力?它會在今年興起嗎?

      楊立昆: 我們可以從兩個角度來看待 AI 系統(tǒng)的行動能力。首先是長遠的目標(biāo),就像我之前所說的那樣,建立一個能夠進行推理、規(guī)劃并理解物理世界的系統(tǒng)。而從短期角度來看,我們如何調(diào)整現(xiàn)有范式,使其能夠執(zhí)行一系列行動。事實上,我們可以通過大量現(xiàn)有的計劃數(shù)據(jù)來訓(xùn)練 AI 系統(tǒng),然后讓它根據(jù)這些數(shù)據(jù)調(diào)整和反芻計劃。例如,你問系統(tǒng)如何安排一次哥斯達黎加度假的行程,它就會根據(jù)以往的經(jīng)驗和數(shù)據(jù)提供建議。這是因為它在大量的計劃數(shù)據(jù)中進行了訓(xùn)練,而不僅僅依賴于對哥斯達黎加地圖的了解。要讓系統(tǒng)能夠從零開始進行規(guī)劃,我們還需要下一代的 AI 系統(tǒng)。

      同時,在一些特定領(lǐng)域,AI 也能夠展現(xiàn)一定的行動能力,例如編寫代碼。代碼生成任務(wù)涉及到計劃和驗證,因為我們可以檢查代碼是否能運行并產(chǎn)生有效的結(jié)果。這是因為代碼作為 AI 代理的一個特例,提供了驗證其輸出有效性的途徑。

      主持人: 讓我轉(zhuǎn)向開源。顯然,您和 Meta 是開源的堅定支持者。我的一位同事問我一個問題:您是否看到 Llama 的開源貢獻既是實質(zhì)性的,又是 Llama 開發(fā)團隊未曾預(yù)見的?如果有,能否舉例說明?

      楊立昆: 是的,這確實存在。顯然,有很多應(yīng)用程序開發(fā)者在使用 Llama 并對其進行微調(diào),以適應(yīng)特定語言的生成或解答特定問題。事實上,已經(jīng)有數(shù)十家初創(chuàng)公司采用這種方式,基于 Llama 開發(fā)垂直應(yīng)用程序。這種模式幫助我們創(chuàng)造了一個新興產(chǎn)業(yè),尤其是在需要一定隱私保護并且要求本地運行的應(yīng)用場景中,Llama 顯得尤為適用。此外,我們還看到,一些大型公司也開始從專有系統(tǒng)轉(zhuǎn)向開源平臺,因為這樣他們可以獲得更多的控制權(quán)。

      同時,開源社區(qū)對 Llama 的貢獻也非常顯著,特別是在理解大語言模型表現(xiàn)方面的貢獻,比如在哪些情境下它們能夠表現(xiàn)良好,在哪些情境下則會遇到困難。此外,開源社區(qū)還在不斷優(yōu)化 Llama,尤其是在嵌入式硬件、低精度算術(shù)等領(lǐng)域的應(yīng)用上,這些進展使得 Llama 可以在普通硬件上運行,而無需依賴昂貴的 GPU。

      監(jiān)管開源平臺和研發(fā)無意義

      主持人: 關(guān)于監(jiān)管的問題,Yann,您多年來一直直言不諱地表達對監(jiān)管的看法。您曾指出,監(jiān)管應(yīng)集中在應(yīng)用層,而不是模型層。您是否認(rèn)為,某些形式的監(jiān)管適用于模型層?

      楊立昆: 快速回答是:不。我認(rèn)為,監(jiān)管研發(fā)是沒有意義的。監(jiān)管研發(fā)的風(fēng)險在于,如果你對開源模型進行監(jiān)管并將其發(fā)布到開源社區(qū),最終會讓整個社區(qū)承擔(dān)責(zé)任風(fēng)險。大多數(shù)公司都不愿意承擔(dān)這種風(fēng)險。如果出現(xiàn)任何連帶責(zé)任,比如有人使用 Llama 的某個自定義版本做了不好的事情,而你也要為此負責(zé),那么 Llama 很可能會從第二天開始消失。我們從未看到有人因為 Linux 出現(xiàn)錯誤而起訴 Linus Torvalds 或 Linux 基金會。即使你家的 Wi-Fi 路由器(運行 Linux)被黑客入侵了,你也不會起訴 Linus Torvalds,甚至不會起訴 Linux 基金會,而是會找路由器的制造商。因此,對于已部署的產(chǎn)品,確實需要進行監(jiān)管和責(zé)任追究,但對于開源平臺和研發(fā)階段的工作,絕對不應(yīng)該進行監(jiān)管。

      AI 智能體將與人類共同存在于虛擬和物理環(huán)境中

      主持人:Yann,我想用一個快速問答環(huán)節(jié)結(jié)束這一部分。請簡短回答“對”或“錯”,并簡要解釋原因。我們將從第一個問題開始。設(shè)想未來,AI 智能體將與人類共同存在于虛擬和物理環(huán)境中。

      楊立昆:對。

      主持人:為什么?

      楊立昆:我認(rèn)為在未來10到15年內(nèi),每個人都會隨身攜帶AI助手。它可能嵌入到智能眼鏡或類似設(shè)備中,成為我們?nèi)粘I畹囊徊糠帧?/span>它們將始終伴隨我們,就像我們身邊有一支始終跟隨的團隊一樣。這些團隊成員是虛擬的,而我們每個人將像大公司高層一樣,擁有自己的虛擬助理。

      主持人:這是Jensen昨天提到的觀點——“通用機器人的ChatGPT時刻即將到來。”

      楊立昆:這取決于你是否具有長遠眼光。是的,未來幾年將會迎來一個轉(zhuǎn)折點。隨著世界模型、規(guī)劃等技術(shù)的進步,下一代機器人將成為可能。雖然我們現(xiàn)在還沒有完全達到那個階段,但它會發(fā)生,甚至可能同時發(fā)生——即機器人制造商有能力以合理價格生產(chǎn)出高效的機器人。

      主持人:那么,你預(yù)見通用機器人會在兩年后、三年后、五年后還是十年后到來?

      楊立昆:我認(rèn)為是在三到五年內(nèi)。

      主持人:對或錯。請簡短說明原因。在未來五年內(nèi),AI 智能體將能夠進行并撰寫被NeurIPS等技術(shù)會議接受的研究。

      楊立昆:錯。至少在沒有人類指導(dǎo)的情況下,AI 智能體不會達到這種水平,尤其是不會達到像研究生那樣的水平。

      主持人:那么,在未來15年內(nèi)呢?

      楊立昆:嗯,我的意思是,我們目前正在努力讓機器變得足夠聰明,接近貓的智能水平。你提到的是一個科學(xué)家,而非一只貓。

      主持人:明白了——沒有AI科學(xué)家。那么下一個問題,核能是滿足AI能源需求的最佳且最安全的來源。對或錯,請用10秒鐘說明理由。

      楊立昆:對。我一直認(rèn)為核能是最好的選擇,是的。

      主持人:倒數(shù)第二個問題。你的推文很精彩。2025年,你認(rèn)為當(dāng)選總統(tǒng)和埃隆·馬斯克的推文會有很大改進。

      楊立昆:嗯,我聽到觀眾席里有人說“不”。好的,那么我現(xiàn)在不再在X上發(fā)帖了。嗯,我不再發(fā)布有實質(zhì)內(nèi)容的推文。我現(xiàn)在只轉(zhuǎn)發(fā)我認(rèn)為有趣的內(nèi)容,偶爾會對朋友或熟人的帖子發(fā)表評論。就這樣,推文就到此為止。

      主持人:對或錯?20秒說明原因。

      楊立昆:我在Threads、LinkedIn和Facebook上發(fā)帖,那才是你應(yīng)該去的地方。如果這個問題是關(guān)于我是否改變了政治觀點,答案是沒有。我對Elon的不滿主要來源于他對科學(xué)機構(gòu)的攻擊。他攻擊像Anthony Fauci這樣的科學(xué)家,還告訴人們不要上學(xué),聲稱大學(xué)變得過于“清醒”了。這種言論正在破壞公眾對高等教育和科學(xué)機構(gòu)的信任,我認(rèn)為這是極其具有破壞性的。至于民主問題,那又是另一個話題。因此,我的立場沒有變化,而不幸的是,Elon也沒有改變。

      主持人:好的,Yann,感謝你參加我們的訪談,感謝你這些年來為AI領(lǐng)域所做的所有貢獻,使我們今天能夠取得如此成就,也感謝你未來的工作??纯催@個房間,座無虛席。非常感謝Yann LeCun來到CES。

        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多