OLlama 安裝 Google MedGemma 模型(失敗)

以下步驟示範如何把 MedGemma(Google 針對醫療領域釋出的 Gemma 3 變體)裝進 Ollama,並分別說明「文字版 27 B」和「多模態 4 B(看圖)」兩種情境。

建議放在專用資料夾

mkdir -p ~/ollama-models/medgemma && cd ~/ollama-models/medgemma

27 B(文字版,Q4_K_M 量化)

wget -c https://huggingface.co/unsloth/medgemma-27b-text-it-GGUF/resolve/main/medgemma-27b-text-it-Q4_K_M.gguf

4 B(多模態版,Q4_K_M 量化 + mmproj 投影層)

wget -c https://huggingface.co/unsloth/medgemma-4b-it-GGUF/resolve/main/medgemma-4b-it-Q4_K_M.gguf
wget -c https://huggingface.co/unsloth/medgemma-4b-it-GGUF/resolve/main/mmproj-F16.gguf

若想用 原生 pre-train (-pt) 版,檔名一樣要注意大小寫:
wget -c https://huggingface.co/mradermacher/medgemma-4b-pt-GGUF/resolve/main/medgemma-4b-pt-F16.gguf

2. 撰寫 Modelfile

2.1 文字版 27 B

Modelfile 內容(放在同一目錄):
Modelfile27B

FROM ./medgemma-27b-text-it-Q4_K_M.gguf

TEMPLATE """
{{- if .System }}<|im_start|>system
{{.System}}<|im_end|>{{ end -}}
{{- if .Prompt }}<|im_start|>user
{{.Prompt}}<|im_end|>{{ end -}}
<|im_start|>assistant
{{.Response}}<|im_end|>
"""

PARAMETER num_ctx 8192

2.2 多模態 4 B

多模態必須同時載入 主 GGUFmmproj 投影層檔案;Ollama 允許用兩行 FROMOllama
Modelfile4B

FROM ./mmproj-F16.gguf              # 第 1 行:視覺投影層
FROM ./medgemma-4b-it-Q4_K_M.gguf # 第 2 行:4B 主模型

TEMPLATE """
{{- if .System }}<|im_start|>system
{{.System}}<|im_end|>{{ end -}}
{{- if .Prompt }}<|im_start|>user
{{.Prompt}}<|im_end|>{{ end -}}
<|im_start|>assistant
{{.Response}}<|im_end|>
"""

PARAMETER num_ctx 4096

3. 建立並測試模型

# 建立 27B
ollama create medgemma-27b -f ./Modelfile27B
# 建立 4B
ollama create medgemma-4b-vision -f ./Modelfile4B

文字測試
ollama run medgemma-27b

你是誰?

圖像/多模態測試(Ollama CLI)

ollama run medgemma-4b-vision \
--image chest_xray.png \
-p "請描述這張影像的主要異常位置"

或透過 HTTP API:

curl http://localhost:11434/api/generate \
-d '{
"model": "medgemma-4b-vision",
"prompt": "Read this fundus photo and report findings in Chinese",
"images": ["data:image/png;base64,...."]
}'

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *