ソフトウェア/Ollama の履歴(No.1)
更新- 履歴一覧
- 差分 を表示
- 現在との差分 を表示
- ソース を表示
- ソフトウェア/Ollama へ行く。
- 1
Ollama はオープンソースの LLM マネージャ&サーバー†
LLM (Large Language Models) モデルを管理し、API を通じてサービスを提供できる。
apache2 の proxy を通じて LAN 内の Ollama サービスをインターネット上から利用可能にする†
- Windows 上に Ollama
- Debian 上に apache2
Ollama サービスを LAN 内に公開する†
Ollama は起動時に環境変数を参照して動作する。
https://qiita.com/kiyotaman/items/1aeb098b5ff0d6d5e641
環境変数名 | デフォルト値 | 型 | 説明 |
OLLAMA_FLASH_ATTENTION | 0 | int | フラッシュアテンション有効化により高速化 |
OLLAMA_HOST | 127.0.0.1:11434 | string | OllamaサーバーのIPアドレス (外部接続は 0.0.0.0:11434) |
OLLAMA_KEEP_ALIVE | "5m" | string | モデルがメモリに保持される期間 (-1は永続) |
OLLAMA_LLM_LIBRARY | なし | string | 自動検出しないで、指定した特定のLLMライブラリを使用する場合にその名前を設定 |
OLLAMA_MAX_LOADED_MODELS | 1 | int | ロードされるモデルの最大数 |
OLLAMA_NUM_PARALLEL | 1 | int | 並行リクエストの最大数 |
OLLAMA_ORIGINS | localhost,127.0.0.1,0.0.0.0, | string | 許可されるオリジンのカンマ区切りリスト |
Counter: 178 (from 2010/06/03),
today: 2,
yesterday: 36