在快速發(fā)展的人工智能領域,2025 年 1 月, DeepSeek
正式推出了備受矚目的 DeepSeek-R1
推理大模型。這款模型憑借其低廉的成本和卓越的性能,一經發(fā)布便迅速在 AI 行業(yè)掀起波瀾,吸引了眾多研究者、開發(fā)者以及企業(yè)的廣泛關注。
DeepSeek-R1
之所以能夠在競爭激烈的 AI 市場中脫穎而出,其性價比優(yōu)勢功不可沒。相較于其他同類型的大模型,它在保證出色性能的同時,大大降低了使用成本,這使得更多的個人開發(fā)者、科研團隊以及預算有限的企業(yè)能夠輕松應用,為推動 AI 技術的普及和發(fā)展提供了新的契機。
DeepSeek
充分考慮到不同用戶的多樣化需求和使用場景,提供了多種靈活的使用方式。其中,本地部署方式具有諸多顯著優(yōu)勢。在數據安全方面,將模型部署在本地,用戶的數據無需上傳至云端,極大地降低了數據泄露的風險,尤其適用于對數據保密性要求較高的行業(yè)和領域,如醫(yī)療、金融等。在性能上,本地部署可以根據本地硬件配置進行優(yōu)化,減少網絡延遲,實現更快速的響應。對于有定制化需求的用戶,能夠在本地對模型進行個性化調整和訓練,以滿足特定的業(yè)務需求。從成本角度來看,長期使用本地部署可能會比依賴云端服務更具成本效益,特別是對于大規(guī)模應用的場景。此外,本地部署還確保了離線可用性,即使在沒有網絡連接的情況下,依然能夠正常運行。對于追求技術自主性的用戶和團隊來說,本地部署讓他們能夠更好地掌控模型的運行和維護,減少對外部服務的依賴。
對于廣大開發(fā)者以及習慣使用命令行操作的技術愛好者而言,在電腦上部署 Deepseek 其實并非難事。整個過程只需準備安裝一款名為Ollama的軟件,以下是詳細的安裝步驟:
一、下載 Ollama 安裝程序 Ollama官方網站:https:///
打開常用的瀏覽器,如 Chrome、Firefox 或 Edge。 在官網的下載頁面,找到適用于 Windows 系統(tǒng)的安裝包,通常為.exe 格式。根據你的系統(tǒng)是 32 位還是 64 位,選擇對應的版本進行下載。下載完成后,文件會保存在你瀏覽器設置的默認下載路徑中,或者你在下載時指定的保存位置。 同樣使用 Safari、Chrome 等瀏覽器,訪問 Ollama 官方網站。
在下載頁面,找到 macOS 版本的安裝文件,一般為.dmg 格式。點擊下載,下載完成后,在 “訪達” 的 “下載” 文件夾中可以找到該文件。
打開終端。對于基于 Debian 或 Ubuntu 的系統(tǒng),在終端中輸入命令:sudo apt-get install -y wget && wget <Ollama官方下載鏈接>,這里的<Ollama官方下載鏈接>需要替換為官網提供的實際下載鏈接。下載完成后,文件會保存在當前工作目錄。
對于基于 Red Hat 或 CentOS 的系統(tǒng),在終端輸入:sudo yum install -y wget && wget <Ollama官方下載鏈接> ,同樣替換為實際下載鏈接。
二、安裝 Ollama 找到下載好的 Ollama 安裝文件(.exe 格式),雙擊運行。
安裝向導啟動后,首先會彈出用戶賬戶控制窗口,詢問是否允許該程序對你的設備進行更改,點擊 “是”。
在安裝界面,按照提示逐步操作。一般會先顯示許可協(xié)議,仔細閱讀后勾選 “我接受協(xié)議”,然后點擊 “下一步”。
選擇安裝路徑,你可以使用默認路徑,也可以點擊 “瀏覽” 選擇其他磁盤位置進行安裝,確定路徑后點擊 “下一步”。
接著可以選擇是否創(chuàng)建桌面快捷方式等附加任務,根據個人需求勾選或取消,之后點擊 “安裝”。
安裝過程中會顯示進度條,等待安裝完成,安裝完成后點擊 “完成” 即可。
打開 “訪達”,找到下載的 Ollama 安裝文件(.dmg 格式),雙擊打開。
會彈出一個包含 Ollama 圖標和應用程序文件夾圖標的窗口,將 Ollama 圖標拖動到應用程序文件夾圖標上,即可完成安裝。安裝完成后,你可以在 “應用程序” 文件夾中找到 Ollama。
對于基于 Debian 或 Ubuntu 的系統(tǒng),下載完成后,在終端中輸入命令:sudo dpkg -i <Ollama安裝包文件名>,這里的<Ollama安裝包文件名>替換為你實際下載的文件名。如果安裝過程中提示缺少依賴包,根據提示使用sudo apt - get install命令安裝相應依賴后,再次運行安裝命令。
對于基于 Red Hat 或 CentOS 的系統(tǒng),在終端輸入:sudo rpm -ivh <Ollama安裝包文件名>,同樣替換為實際文件名。若提示依賴問題,按照提示安裝依賴后重新安裝。
需要注意的是,Ollama沒有直觀的用戶界面,它在后臺默默運行。
三、驗證 Ollama 是否成功安裝 安裝完成后,打開瀏覽器,在地址欄中輸入 “ http://localhost:11434/ ” 。
如果頁面顯示 “Ollama is running”,則表明Ollama已經成功啟動并正在運行。若顯示無法訪問或其他錯誤信息,可能是端口被占用,需要檢查系統(tǒng)中占用 11434 端口的程序并進行處理,或者重新配置 Ollama 的運行端口。
四、了解 ollama 命令用法 打開一個命令行終端。在 Windows 系統(tǒng)中,可以通過搜索 “命令提示符” 或 “PowerShell” 打開;在 macOS 系統(tǒng)中,打開 “終端” 應用;在 Linux 系統(tǒng)中,本身就在終端環(huán)境下操作。
在終端中輸入ollama命令,此時會顯示詳細的命令用法,這些用法為后續(xù)的操作提供了重要的指導。例如,顯示的命令可能包括ollama run(用于運行模型)、ollama pull(用于下載模型)等基本命令及其參數說明。
五、下載 DeepSeek-R1 模型 通過 ollama 客戶端命令,我們可以輕松下載所需的模型。它支持的模型種類豐富,具體的模型和對應的下載命令,可以在官網進行查詢。
打開瀏覽器,訪問 Ollama 官網,切換到官網的 “Models” 頁面。
在 Models 頁面中,找到 DeepSeek-R1 模型??梢钥吹剿鼡碛卸喾N參數可供選擇,通常情況下,對于使用 macOS 系統(tǒng)的用戶,選擇 7b、8b 參數即可滿足日常使用需求。需要注意的是,參數越大,對顯卡和內存的要求也就越高。如果你的電腦配備了 3090 顯卡、4090 顯卡等高性能硬件,那么可以嘗試選擇 32b、70b 等更大的參數。一般來說,參數越大,模型的效果越好,性能也越強大,但同時也需要更多的存儲和計算資源來支持其運行。例如,1.5b 模型的參數規(guī)模為 15 億,占用存儲空間約 1.1GB;7b 模型的參數約為 70 億,占用空間約 4.7GB;14b 模型的參數約為 140 億,占用空間約 9GB。
根據自己的硬件條件和需求,選擇對應的蒸餾模型,將官網提供的對應的下載命令復制到 ollama 控制臺。例如,如果選擇 7b 參數的 DeepSeek-R1 模型,復制對應的ollama pull deepseek-r1:7b命令到終端,然后按回車鍵即可開始本地安裝。
六、安裝過程及等待 輸入下載命令后,終端會顯示下載進度,包括已下載的字節(jié)數、下載速度以及預計剩余時間等信息。
下載過程中,可能會因為網絡波動等原因出現下載中斷的情況。如果出現這種情況,可以重新輸入下載命令,Ollama 通常會支持斷點續(xù)傳,繼續(xù)從上次中斷的位置開始下載。
下載完成后,Ollama 會自動進行模型的安裝和配置,這個過程可能需要一些時間,根據硬件性能不同,時間長短會有所差異。在安裝配置過程中,終端會顯示相關的日志信息,如模型文件的解壓、依賴項的檢查等。
七、開啟對話 當安裝完成的那一刻,你就可以開啟與 DeepSeek-R1 的對話之旅。在命令行終端中輸入ollama run deepseek - r1:7b(這里的參數根據你實際下載的模型參數而定),然后輸入你想要詢問的問題或指令,即可體驗它強大的語言處理能力和智能交互功能,探索無限的 AI 應用可能。