2026年3月30日 星期一

ollama 將gpu使用極限

 ollama ps  --顯示運行ollama ID,所示用CPU/GPU 比例,及CONTEXT 大小


右下角圖標--右鍵--view logs,看server.log 找layers 出現 "model layers"=33


1.臨時session設置


先加載一個模型

ollama run zfujicute/OmniCoder-Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-GGUF:latest


再ollama 對話中臨時session設置,看效果

/set parameter num_gpu 256


2.配置永久生效


查看模型配置--在powershell下指令

ollama show zfujicute/OmniCoder-Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-GGUF:latest --modelfile


進入 C:\Users\用戶名\.ollama 打cmd 進入終端視窗

ollama show zfujicute/OmniCoder-Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-GGUF:latest --modelfile > OmniCoder359b.modelfilel


用記事本或notepad++ 開啟OmniCoder359b.modelfilel 在PARAMETER top_p 下加入PARAMETER num_gpu後存檔

PARAMETER top_p 0.8

PARAMETER num_gpu 256


3.使用OmniCoder359b.modelfilel 創建新模型--C:\Users\用戶名\.ollama 打cmd 進入終端視窗


ollama create OmniCoder359b -f OmniCoder359b.modelfilel


看是否有完成模型

ollama list  

會出現OmniCoder359b:latest 


沒有留言:

張貼留言