welcom ! Handel home

2025年1月22日 星期三

Ollama 版本系列、功能特色及安裝需求

1. Ollama 版本系列

Ollama 提供多個版本,以適應不同的使用需求:

  • 穩定版 (Stable Release):適用於正式環境,提供經過測試的功能和修復。
  • 開發版 (Beta Release):包含最新功能,但可能仍在測試階段。
  • 企業版 (Enterprise Edition):針對企業用戶,提供高效能支援、API 擴展和商業應用功能。
  • Docker 版 (Docker Image):適用於容器化環境,可輕鬆部署和擴展。
  • 低運算需求版本 (Lightweight Edition):適用於資源有限的設備,如低功耗 CPU、嵌入式系統或邊緣運算環境。

2. 低運算需求版本的特性

針對低算力環境,Ollama 提供了輕量化選擇,主要包括以下版本:

  • Ollama Lite

    • 適用於 RAM 低於 8GB 的設備
    • 提供精簡模型,減少記憶體與運算資源的消耗
    • 適用於 IoT、邊緣設備、單板電腦(如 Raspberry Pi)
  • Ollama Edge

    • 針對邊緣 AI 設備進行優化
    • 支援 ARM 架構處理器,適用於低功耗運算環境
    • 可與微服務架構整合,提高運行效率
  • Ollama Mobile

    • 可運行於 Android、iOS 等行動設備
    • 利用設備的神經處理單元 (NPU) 來提升 AI 計算能力
    • 針對行動裝置優化的低功耗模式

3. 主要功能特色

Ollama 提供強大的 AI 模型處理能力,並具備以下特點:

  • 多模組支持:支援多種大型語言模型 (LLM),包括 OpenAI API 相容模型。
  • REST API 整合:可透過 REST API 與應用程式無縫整合。
  • CLI 操作:提供直觀的指令列工具,方便開發者使用。
  • GPU 加速:可利用 GPU 提升模型推理效能。
  • RAG 檢索增強生成:提升對話的準確性與資訊檢索能力。
  • 高效能佇列處理:支援多執行緒佇列機制,提高請求處理效率。
  • 輕量級模式:針對低算力設備進行優化,減少資源佔用。

4. 安裝需求

Ollama 可以運行在多種環境中,基本安裝需求如下:

(1) 硬體需求

  • 最低需求

    • CPU:Intel 或 AMD 64-bit 處理器 / ARM 架構處理器(適用於 Edge/Mobile 版)
    • RAM:4GB 以上(建議 8GB)
    • 硬碟空間:10GB 以上(依據模型大小需求)
  • 建議配置

    • CPU:多核心高效能處理器 / ARM v8 以上
    • RAM:8GB 以上
    • GPU:適用於 AI 推理的低功耗 GPU 或內建 NPU
    • 硬碟:SSD/NVMe 高速存儲

(2) 軟體需求

  • 作業系統

    • Linux(Ubuntu 20.04 以上)
    • macOS(Apple Silicon 及 Intel)
    • Windows(需使用 WSL2)
    • Android(適用於 Mobile 版)
    • 嵌入式 Linux(適用於 Edge 版)
  • 依賴環境

    • Docker(若使用容器化方式)
    • Python 3.8 以上(若需自行開發擴充功能)

5. 安裝 Ollama Lite for GPU 的 Docker 安裝啟動流程

(1) 拉取 Docker 映像檔

$docker pull ollama/ollama:latest

(2) 啟動 Docker 容器

$docker run -d --name ollama-lite-gpu \
  --runtime=nvidia \
  -p 11434:11434 \
  -e NVIDIA_VISIBLE_DEVICES=all \
  -v ollama-lite-gpu-data:/root/.ollama \
  ollama/ollama:latest

(3) 確認容器運行狀態

$docker ps -a

如果看到 ollama-lite-gpu 正在運行,表示安裝成功。

login 進入 Ollama-lite-gpu 容器 docker image

$docker exec -it ollama-lite-gpu bash

然後使用 ollama pull 指令下載模型。例如,下載 Llama 2 7B 模型 (相對 "Lite" 的選擇):

$ollama pull llama2

或者下載其他模型,例如:

$ollama pull mistral
$ollama pull codellama

您可以從 Ollama 的模型庫 (https://ollama.ai/library) 找到更多模型。

(4) 測試運行

$curl http://localhost:11434/v1/models

如果返回模型列表,則表示 Ollama Lite for GPU 成功啟動。

安裝完成後,可使用 REST API 或 CLI 進行模型運行與測試。

這樣就成功安裝並設定 Ollama Lite for GPU,準備開始使用其強大功能!

沒有留言: