乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      OpenAI發(fā)布GPT

       燕山茶社 2024-05-14 發(fā)布于河北
      OpenAi春季發(fā)布會,上線了GPT-4o,不僅可以免費在ChatGPT中使用,還可以同時處理音頻,視頻,與輸入文本等多種輸入信息。

      GPT-4o(“o”代表“omni”)它接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像的任意組合輸出。模型更加智能,且輸入輸出方式更加自然,符合人類的交互需求。它可以在短短 232 毫秒內響應音頻輸入,平均為 320 毫秒,這與人類在對話中的響應時間相似,完全可以跟模型進行實時聊天了,而不是需要等待一段時間,失去了真真聊天的意義。

      它在英語和代碼文本上的表現(xiàn)與 GPT-4 Turbo 相當,在非英語語言文本上的表現(xiàn)有顯著改善,同時 API 也更快、價格便宜 50%。與現(xiàn)有模型相比,GPT-4o 在視覺和音頻理解方面尤其出色。

      在 GPT-4o 之前,可以使用語音模式與 ChatGPT 交談,平均延遲為 2.8 秒(GPT-3.5)和 5.4 秒(GPT-4)。主要原因是語音模式是一個由三個獨立模型組成的系統(tǒng):一個簡單的語音模型將音頻轉錄為文本,GPT-3.5 或 GPT-4 接收文本并輸出文本,第三個語音模型再將該文本轉換回音頻。這個過程不僅要使用3個模型,浪費時間,而模型之間并沒有交互動作,每個模型完成自己的任務。不僅在交互中會丟失信息,更沒聊天的情感在。給人的感覺就是一個冰冷的機器設備。

      借助 GPT-4o,OpenAi在文本、視覺和音頻上端到端地訓練了一個新模型,這意味著所有輸入和輸出都由同一個神經網絡處理。由于 GPT-4o 是第一個結合所有這些模式的模型,因此仍然只是在探索該模型可以做什么及其局限性。

      GPT-4o 的文本和圖像功能已經在 ChatGPT 中推出。并在免費套餐中提供 GPT-4o,并向 Plus 用戶提供高達 5 倍的消息限制。OpenAi將在未來幾周內在 ChatGPT Plus 中推出新版語音模式 GPT-4o 的 alpha 版。

      開發(fā)人員現(xiàn)在還可以在 API 中訪問 GPT-4o 作為文本和視覺模型。與 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,價格降低一半,速率限制提高 5 倍。

        本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
        轉藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多