乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      用ollama的免費API零代碼開發(fā)第一個AI應(yīng)用

       AIGC部落 2024-05-22 發(fā)布于廣東

      首先安裝ollama軟件,

      然后打開cmd或者powershell命令提示符,然后輸入:

      ollama run llamafamily/llama3-chinese-8b-instruct

      這就在本地電腦安裝了一個llama3大模型的中文版,然后就可以調(diào)用ollama的api,基于llama3大模型來開發(fā)各種AI應(yīng)用。這個api調(diào)用的是本地電腦上的大模型服務(wù),所以不會有任何費用;而且不聯(lián)網(wǎng)傳輸,數(shù)據(jù)很安全。

      首先安裝ollama的Python庫:pip install ollama

      然后在deepseek的代碼助手中輸入提示詞:

      你是一個Python編程專家,現(xiàn)在要完成一個編寫AI應(yīng)用的Python腳本,具體步驟如下:

      ollama的模型是'llamafamily/llama3-chinese-8b-instruct';

      用ollama庫輸入內(nèi)容“將以下內(nèi)容翻譯為英文:為什么天是藍色的?”

      解析流式響應(yīng),提取出文本內(nèi)容;

      ollama庫的使用示例:

      import ollama

      stream = ollama.chat(

      model='llama3',

      messages=[{'role': 'user', 'content': 'Why is the sky blue?'}],

      stream=True,

      )

      deepseek代碼助手生成的代碼:

      import ollama

      # 定義消息列表,包含要翻譯的內(nèi)容

      messages = [{'role': 'user', 'content': '將以下內(nèi)容翻譯為英文:為什么天是藍色的?'}]

      # 調(diào)用ollama庫的chat函數(shù),指定模型和消息列表,并開啟流式響應(yīng)

      stream = ollama.chat(

      model='llamafamily/llama3-chinese-8b-instruct', # 使用你提供的模型名稱

      messages=messages,

      stream=True, # 開啟流式響應(yīng)

      )

      # 遍歷流式響應(yīng),提取文本內(nèi)容并輸出

      for chunk in stream:

      # 檢查chunk是否包含'message'字段

      if 'message' in chunk:

      # 提取'content'字段并打印

      print(chunk['message']['content'], end='')

      運行程序,返回結(jié)果:why is the sky blue? 說明程序運行成功了。

        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多