1 什么是 Ollama?Ollama 是一種假設(shè)存在的本地大模型運行框架,允許用戶在自己的硬件環(huán)境中輕松部署和使用大規(guī)模預(yù)訓(xùn)練模型。 1.1 Ollama 特性概覽:
1.2 Ollama 資源網(wǎng)址官網(wǎng):https:/// 2 安裝 Ollama訪問 Ollama 下載地址:https:///download 注意上圖底部的 macOS 版本,請檢查是否具備安裝要求。 點擊下方的“Download for macOS”按鈕,下載安裝文件的zip壓縮包。打開解壓縮后生成的文件 ollama.app,直接執(zhí)行即可完成安裝并運行。在終端窗口里輸入:
返回版本信息即表示安裝完成并正在運行。 2) Windows 版本 請注意,目前 Windows 版本為預(yù)覽版,切要求系統(tǒng)為 Windows 10 以上。 點擊下方的“Download for Windows(preview)”按鈕,下載 .exe 可執(zhí)行安裝文件。 打開 cmd 窗口,在命令行輸入執(zhí)行:
如果返回版本信息,即表示安裝成功! 3 使用 OllamaWindows 和 macOS 在使用上幾乎沒有區(qū)別。訪問 Ollama 官網(wǎng),列舉了很多大模型,我們可以從中找一個模型進行測試: 在首頁右側(cè)點擊 Models 連接,可以看到列舉的可以使用的大模型,當(dāng)然也可以通過其左邊的搜索框進行搜索。 找個參數(shù)少一點的模型先測試一下,就下載“通義千問”的 qwen:0.5b-chat 模型,在 cmd 里輸入下面的命令:
下載完成后,運行此模型,在 cmd 中輸入下面的命令:
簡單測試一些,可以運行了: 0.5b 的參數(shù),效果也確實只能呵呵了??吹浆F(xiàn)在,您應(yīng)該也會了,你可以下個 qwen:1.8b-fp16 或 gemma:2b 試試。 |
|