Ollama API 403 錯誤及解決

Chrome 擴充無法正確連上區域網路 ollama伺服器,錯誤訊息為 403。此篇為問題的解決方案。

我用ollama 打算在區域網路(Lan端)架設大語言模型出現403錯誤,這意味著客戶端被伺服器拒絕訪問,因此我開始排查原因並解決問題。

✅使用本機(127.0.0.1:11434) Chrome plugin及AnythingLLM連入一切正常
✅使用區網電腦(192.168.2.78:11434) AnythingLLM嘗試連入正常
❌使用區網電腦 Chrome plugin 嘗試連入卻失敗,伺服器端顯示錯誤訊息403



原因

根據參考文獻[1], Immersive Translate 擴充功能傳送的「Origin: chrome-extension://amkbndfnliijdhojkpoglbnaaahippg」header不在允許來源清單中。


解決方法

設定 -> 系統 -> 系統資訊 -> 進階系統設定



如下圖操作於【新增系統變數】

【變數名稱】輸入:OLLAMA_ORIGINS
【變數值】輸入:*

按下【確定】,重新啟動電腦,問題應該就解決了!

後記

根據參考文獻[2],類似問題如果出現在macOS或Linux,參考以下指令新增環境變數,不過這個我沒試過喔~


macOS:

執行以下命令後 ,重開App

launchctl setenv OLLAMA ORIGINS "*"


Linux:

執行命令

OLLAMA ORIGINS="*" ollama serve

參考資料

[1] Error 403 occurs when I call ollama’s api #6489

[2] Ollma本地大模型沉浸式翻译【403报错解决】

[3] Ollama 安装与配置 – Windows 系统篇

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *