完成本單元後,你將能夠:
在 Windows、macOS、Linux 上完成 Ollama 的安裝與啟動
使用 ollama pull 指令下載 Llama 3、Mistral 等開源模型
使用 ollama run 在命令列與 AI 進行對話測試
學會列出、刪除、更新模型等管理指令
Ollama 是一個讓你能在本地電腦運行大型語言模型(LLM)的開源工具
https://ollama.com
| 模型名稱 | 開發者 | 參數規模 | 特色 |
|---|---|---|---|
| Llama 3 | Meta (Facebook) | 8B / 70B | 最推薦,品質接近 GPT-3.5 |
| Mistral | Mistral AI | 7B | 速度快,效能優異 |
| Gemma | 2B / 7B | 輕量化,適合入門 | |
| Phi | Microsoft | 2.7B | 超輕量,低資源需求 |
llama3(8B 版本)開始,檔案約 4.7GB,一般電腦都能運行。
https://ollama.com
網站會自動偵測你的作業系統,顯示對應的下載按鈕。
OllamaSetup.exe.dmg 檔案curl -fsSL https://ollama.com/install.sh | sh
按下 Win + R,輸入 cmd,按 Enter
或搜尋「命令提示字元」
開啟「終端機」應用程式
或按 Cmd + Space 搜尋 Terminal
ollama --version
ollama version 0.1.32ollama pull llama3
系統會開始下載 Llama 3 模型(約 4.7GB),顯示下載進度:
pulling manifest pulling 6a0746a1ec1a... 100% 4.7GB/4.7GB verifying sha256 digest writing manifest success
ollama pull mistral(約 4GB)
ollama run llama3
等待幾秒鐘載入模型後,會看到提示符號 >>>,表示可以開始對話了!
>>> 你好,請用繁體中文自我介紹 你好!我是 Llama 3,一個由 Meta 開發的開源大型語言模型。 我可以幫助你: - 回答各種問題 - 撰寫文章和程式碼 - 翻譯多國語言 - 進行創意寫作 有什麼我可以幫助你的嗎? >>> /bye
/bye 或按 Ctrl + D 即可退出
| 指令 | 功能 | 範例 |
|---|---|---|
ollama pull |
下載模型 | ollama pull llama3 |
ollama run |
啟動對話 | ollama run llama3 |
ollama list |
列出已下載的模型 | ollama list |
ollama rm |
刪除模型 | ollama rm llama3 |
ollama serve |
啟動 API 伺服器 | ollama serve |
ollama --help |
查看所有指令 | ollama --help |
ollama list
NAME SIZE MODIFIED llama3:latest 4.7GB 2 hours ago mistral:latest 4.1GB 1 day ago
ollama rm mistral
deleted 'mistral'
釋放硬碟空間,清理不再使用的模型。
ollama pull mistral
速度快,7B 參數
ollama pull gemma
Google 輕量模型
ollama pull phi
微軟超輕量模型
Ollama 提供 REST API,讓你可以用程式串接 AI 模型。
ollama serve
開啟瀏覽器,前往:
http://localhost:11434
POST http://localhost:11434/api/generate - 生成文字POST http://localhost:11434/api/chat - 對話模式
A: 重新開啟終端機,或重新啟動電腦。Windows 用戶確認安裝時已加入 PATH。
A: 模型檔案較大(4-8GB),請耐心等待。可以嘗試使用 VPN 或換個網路環境。
A: Llama3 8B 建議至少 8GB RAM。可改用較小的模型如 phi 或 gemma:2b。
A: 首次載入需要時間。有獨立顯卡(GPU)可大幅加速。關閉其他占用記憶體的程式。
>>> /set model mistral Switched to model mistral >>> 你好 (現在使用 Mistral 回答)
>>> /set parameter temperature 0.8 Temperature set to 0.8 >>> /set parameter num_ctx 4096 Context length set to 4096
| 指令 | 功能 |
|---|---|
/bye |
結束對話 |
/clear |
清除對話歷史 |
/help |
查看可用指令 |
/set |
設定參數 |
恭喜!你已經完成 Ollama 的基礎設定,現在擁有一個完全本地運行的 AI 系統。
ollama pull [模型]ollama run [模型]ollama listollama serve在 Part 3,我們將學習如何建立一個美觀的網頁對話介面,串接 Ollama API,打造專屬的 AI 對話平台!