ソフトウェア/Ollama の履歴(No.1)
更新Ollama はオープンソースの LLM マネージャ&サーバー†
LLM (Large Language Models) モデルを管理し、API を通じてサービスを提供できる。
apache2 の proxy を通じて LAN 内の Ollama サービスをインターネット上から利用可能にする†
- Windows 上に Ollama
 - Debian 上に apache2
 
Ollama サービスを LAN 内に公開する†
Ollama は起動時に環境変数を参照して動作する。
https://qiita.com/kiyotaman/items/1aeb098b5ff0d6d5e641
| 環境変数名 | デフォルト値 | 型 | 説明 | 
| OLLAMA_FLASH_ATTENTION | 0 | int | フラッシュアテンション有効化により高速化 | 
| OLLAMA_HOST | 127.0.0.1:11434 | string | OllamaサーバーのIPアドレス (外部接続は 0.0.0.0:11434) | 
| OLLAMA_KEEP_ALIVE | "5m" | string | モデルがメモリに保持される期間 (-1は永続) | 
| OLLAMA_LLM_LIBRARY | なし | string | 自動検出しないで、指定した特定のLLMライブラリを使用する場合にその名前を設定 | 
| OLLAMA_MAX_LOADED_MODELS | 1 | int | ロードされるモデルの最大数 | 
| OLLAMA_NUM_PARALLEL | 1 | int | 並行リクエストの最大数 | 
| OLLAMA_ORIGINS | localhost,127.0.0.1,0.0.0.0, | string | 許可されるオリジンのカンマ区切りリスト | 
Counter: 1448 (from 2010/06/03), 
today: 5,
yesterday: 3