乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      剛剛,阿里又開源兩個知識庫領(lǐng)域的模型(向量化、重排)

       ml_Py 2025-06-06 發(fā)布于河南

      大家好,我是 Ai 學(xué)習(xí)的老章

      昨天阿里開源家族迎來兩個新成員——Qwen3-Embedding 和 Qwen3-Reranker,專為文本表征、檢索和排序任務(wù)設(shè)計,都基于 Qwen3 模型構(gòu)建。

      看了測評,Qwen3-Embedding-8B 目前是 MTEB 多語言排行榜榜首,我最期待的是Qwen3-Embedding-0.6B,模型文件不足 1.2GB,Q4 量化版只有 639MB!

      Qwen3-Reranker 也很能打,我準(zhǔn)備替換掉目前正在使用的 BGE-reranker-v2-m3 了。

      下面咱們一起看看這兩個新模型

      關(guān)于 Qwen3-Embedding 和 Qwen3-Reranker 的一切

      知識庫

      Embedding 和 Reranker 都是應(yīng)用于知識庫的兩個核心技術(shù)。

      知識庫是一個結(jié)構(gòu)化或非結(jié)構(gòu)化的信息存儲系統(tǒng),用于存儲、組織和檢索領(lǐng)域特定或通用知識,結(jié)合大模型技術(shù)(如語義搜索和生成模型)來提升檢索效率和回答質(zhì)量。簡單說,就是給大模型外掛了新知識。

      說起知識庫,大家更熟悉的技術(shù)是 RAG,它通過結(jié)合檢索模型和生成模型,先從知識庫檢索相關(guān)信息,再由生成模型(如大語言模型)基于檢索結(jié)果生成自然語言回答,從而減少大模型的幻覺,提高回答的準(zhǔn)確性和上下文相關(guān)性,特別適合知識庫問答場景。

      RAG 基本工作流程包括:

      1. 文檔處理:將原始文檔進行分塊、清洗和標(biāo)準(zhǔn)化處理
      2. 向量化:將文本轉(zhuǎn)換為高維向量表示
      3. 索引構(gòu)建:構(gòu)建高效的向量索引以支持快速檢索
      4. 檢索:根據(jù)用戶查詢,從索引中檢索相關(guān)文檔
      5. 重排序:對檢索結(jié)果進行精確排序,確保最相關(guān)的文檔排在前面
      6. 生成回答:基于檢索到的相關(guān)文檔,生成準(zhǔn)確的回答

      事實上 RAG 目前已經(jīng)從上面最簡單的技術(shù)架構(gòu)發(fā)展出各種變體

      Qwen3-Embedding 對應(yīng) 向量化環(huán)節(jié)

      • 定義:將文本、圖像或其他數(shù)據(jù)轉(zhuǎn)化為高維向量表示,捕捉其語義內(nèi)容。嵌入模型通過深度學(xué)習(xí)生成這些向量,使語義相似的文本在向量空間中距離較近。
      • 作用:支持語義搜索,允許知識庫根據(jù)查詢內(nèi)容的語義(而非僅關(guān)鍵詞)返回相關(guān)結(jié)果。例如,查詢“如何優(yōu)化數(shù)據(jù)庫”可以匹配包含“數(shù)據(jù)庫性能提升”的文檔。

      Qwen3-Reranker 對應(yīng)重排序環(huán)節(jié)

      • 檢索:從知識庫中初步篩選與查詢相關(guān)的文檔,通?;谇度胂蛄康南嗨贫龋ㄈ缬嘞蚁嗨贫龋?/span>
      • 重排序(Reranking):對初步檢索結(jié)果進行精細排序,使用交叉編碼器(cross-encoder)計算查詢與文檔的相關(guān)性得分,進一步提升結(jié)果精準(zhǔn)度。
      • 作用:結(jié)合“粗篩(Embedding)+ 精排(Reranking)”的流程,確保返回最相關(guān)的知識片段。

      Qwen3-Embedding

      Qwen3-Embedding 提供 0.6B、4B 和 8B 三種參數(shù)規(guī)模,滿足不同場景的性能與效率需求。

      官方還放出了這三種參數(shù)模型的 GGUF 量化版

      https://www./collections/Qwen3-Embedding-3edc3762d50f48
      https://www./collections/Qwen3-Embedding-3edc3762d50f48
      模型類型
      模型
      大小
      層數(shù)
      序列長度
      嵌入維度
      MRL 支持
      指令感知
      文本嵌入
      Qwen3-Embedding-0.6B
      0.6B
      28
      32K
      1024
      文本嵌入
      Qwen3-Embedding-4B
      4B
      36
      32K
      2560
      文本嵌入
      Qwen3-Embedding-8B
      8B
      36
      32K
      4096

      Qwen3-Embedding 功能特點:

      • 支持自定義最終嵌入的維度和指令感知(根據(jù)不同的任務(wù)定制輸入指令,官方測試:使用指令通常比不使用指令能提高 1% 到 5% 的性能)
      • 支持 119 種語言,具備強大的多語言、跨語言和代碼檢索能力,適用于文檔檢索、RAG(檢索增強生成)、分類、情感分析、代碼搜索等任務(wù)。

      性能方面:

      8B 參數(shù)的 Embedding 模型在 MTEB 多語言排行榜上位列第一(得分 70.58)

      4B 參數(shù)版就已經(jīng)超越目前特能打的 gemini-embedding-exp-03-07 了

      而我目前使用的是 BGE-M3,也打不過Qwen3-Embedding-0.6B

      這太誘人了,我看外面的評價,有人在測試把量化版放到 Raspberry Pi、手機端運行了

      不過部署上,目前僅支持 transformers 的樣子,vllm 報錯了,應(yīng)該需要更新

      Qwen3-Reranker

      Qwen3-Embedding 也提供 0.6B、4B 和 8B 三種參數(shù)規(guī)模

      https://www./collections/Qwen3-Reranker-6316e71b146c4f
      https://www./collections/Qwen3-Reranker-6316e71b146c4f
      模型類型
      模型
      大小
      層數(shù)
      序列長度
      指令感知
      文本重排序
      Qwen3-Reranker-0.6B
      0.6B
      28
      32K
      文本重排序
      Qwen3-Reranker-4B
      4B
      36
      32K
      文本重排序
      Qwen3-Reranker-8B
      8B
      36
      32K

      測評:

      Model
      Param
      MTEB-R
      CMTEB-R
      MMTEB-R
      MLDR
      MTEB-Code
      FollowIR
      Jina-multilingual-reranker-v2-base
      0.3B
      58.22
      63.37
      63.73
      39.66
      58.98
      -0.68
      gte-multilingual-reranker-base
      0.3B
      59.51
      74.08
      59.44
      66.33
      54.18
      -1.64
      BGE-reranker-v2-m3
      0.6B
      57.03
      72.16
      58.36
      59.51
      41.38
      -0.01
      Qwen3-Reranker-0.6B
      0.6B
      65.80
      71.31
      66.36
      67.28
      73.42
      5.41
      Qwen3-Reranker-4B
      4B
      69.76
      75.94
      72.74
      69.97
      81.20
      14.84
      Qwen3-Reranker-8B
      8B
      69.02
      77.45
      72.94
      70.19
      81.22
      8.05

      Qwen3-Reranker 模型在文本檢索場景中顯著提升搜索相關(guān)性,尤其在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等檢索子集上表現(xiàn)優(yōu)異

      Qwen3-Reranker-0.6B就已經(jīng)傲視群雄了

      我用 vllm 部署了 4B 版,正在測試

      下載,部署代碼

      pip install modelscope
      mkldir Qwen3-Reranker-4B
      cd  Qwen3-Reranker-4B
      modelscope download Qwem/Qwen3-Reranker-4B --local_dir .
      vllm serve . --served-model-name Qwen3-Reranker-4B --port 8001

      制作不易,如果這篇文章覺得對你有用,可否點個關(guān)注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個??,謝謝你看我的文章,我們下篇再見!

      搭建完美的寫作環(huán)境:工具篇(12 章)圖解機器學(xué)習(xí) - 中文版(72 張 PNG)ChatGPT、大模型系列研究報告(50 個 PDF)108 頁 PDF 小冊子:搭建機器學(xué)習(xí)開發(fā)環(huán)境及 Python 基礎(chǔ) 116 頁 PDF 小冊子:機器學(xué)習(xí)中的概率論、統(tǒng)計學(xué)、線性代數(shù) 史上最全!371 張速查表,涵蓋 AI、ChatGPT、Python、R、深度學(xué)習(xí)、機器學(xué)習(xí)等

        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多