我用ollama 打算在區域網路(Lan端)架設大語言模型出現403錯誤,這意味著客戶端被伺服器拒絕訪問,因此我開始排查原因並解決問題。
✅使用本機(127.0.0.1:11434) Chrome plugin及AnythingLLM連入一切正常
✅使用區網電腦(192.168.2.78:11434) AnythingLLM嘗試連入正常
❌使用區網電腦 Chrome plugin 嘗試連入卻失敗,伺服器端顯示錯誤訊息403

原因
根據參考文獻[1], Immersive Translate 擴充功能傳送的「Origin: chrome-extension://amkbndfnliijdhojkpoglbnaaahippg」header不在允許來源清單中。
解決方法
設定 -> 系統 -> 系統資訊 -> 進階系統設定

如下圖操作於【新增系統變數】
【變數名稱】輸入:OLLAMA_ORIGINS
【變數值】輸入:*

按下【確定】,重新啟動電腦,問題應該就解決了!
根據參考文獻[1],透過將環境變數 OLLAMA_ORIGINS=chrome-extension:// 新增至伺服器設定來解決此問題,根據這一點來看Ollama似乎能用環境變數來管控使用者的客戶端工具,不過我不管控客戶端工具,所以我的設定是OLLAMA_ORIGINS=*。
後記
根據參考文獻[2],類似問題如果出現在macOS或Linux,參考以下指令新增環境變數,不過這個我沒試過喔~
macOS:
執行以下命令後 ,重開App
launchctl setenv OLLAMA ORIGINS "*"
Linux:
執行命令
OLLAMA ORIGINS="*" ollama serve
如果有閱讀官方的手冊去架Ollama伺服器,很容易忽略 OLLAMA_ORIGINS,這點還是要特別注意一下~