1.準備 Modelfile 文件
- 創建一個名為
Modelfile
的文本文件,該文件類似於 Dockerfile,用於指定模型的路徑及相關參數。 - 文件內容範例:
FROM ./nvidia_Llama-3.1-Nemotron-Nano-8B-v1-Q4_K_M.gguf
PARAMETER num_ctx 4096
PARAMETER num_thread 4
TEMPLATE "[INST] {{ .Prompt }} [/INST]"
SYSTEM """請充當繁體中文翻譯器和語言改進助手。"""
FROM:指定模型文件的路徑。
PARAMETER:設置模型的上下文長度(num_ctx)及執行緒數量(num_thread)。
TEMPLATE:定義模型的提示詞格式。
SYSTEM:設置模型的角色或系統提示
2.將gguf與Modelfile作一個目錄,將2個放在一起,進入此目錄打
ollama create 模型名稱 -f ./Modelfile
例如:ollama create nvidia_Llama-3.1-Nemotron-Nano-8B-v1-Q4_K_M -f ./Modelfile
3.運行模型
ollama list
ollama run 模型名稱
例如:ollama run nvidia_Llama-3.1-Nemotron-Nano-8B-v1-Q4_K_M:latest
沒有留言:
張貼留言