m1macbookAir へ ollamaを入れる
実行環境
M1 MacbookAir 16GB
M1MacでOllamaを試したら爆速で驚いた
を参考に実行する
インストール関連は
OllamaでLLM(Llama 3等)をローカルMacで動かす with WebUI
がわかりやすい
https://ollama.com
へアクセスすると
Download
があるのでこれをクリック
OSを判定しているので
そのまま
Download for macOS
をクリック
ファイルをダウンロードできるので
ダブルクリックで解凍
あとは
ollama run llama3
を実行
初回のみモデルダンロードで時間がかかる
容量が4.7GBとかなり大きいので時間がある時に行わないと無理
終了する時には
/bye
とすればOK
これでも使えるけど
https://github.com/open-webui/open-webui
にある
Open WebUI (Formerly Ollama WebUI)
を使えばブラウザから簡単に使えるようになる
Installation with Default Configuration * If Ollama is on your computer, use this command: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main * If Ollama is on a Different Server, use this command: To connect to Ollama on another server, change the OLLAMA_BASE_URL to the server's URL: docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main * To run Open WebUI with Nvidia GPU support, use this command: * docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda Installation for OpenAI API Usage Only * If you're only using OpenAI API, use this command: docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main Installing Open WebUI with Bundled Ollama Support This installation method uses a single container image that bundles Open WebUI with Ollama, allowing for a streamlined setup via a single command. Choose the appropriate command based on your hardware setup: * With GPU Support: Utilize GPU resources by running the following command: docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama * For CPU Only: If you're not using a GPU, use this command instead: docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama Both commands facilitate a built-in, hassle-free installation of both Open WebUI and Ollama, ensuring that you can get everything up and running swiftly. After installation, you can access Open WebUI at http://localhost:3000. Enjoy! 😄 Other Installation Methods We offer various installation alternatives, including non-Docker native installation methods, Docker Compose, Kustomize, and Helm. Visit our Open WebUI Documentation or join our Discord community for comprehensive guidance.
をみると
Docker で動かす前提になっている
別の方法を調べたら
Enchantedを使えば Mac の場合代用できるらしい
Mac用 Enchanted アプリで文章を自由自在に活用してみる
を参考に
「Enchanted」 を使って iPhone から Ollama にアクセスしてみる
によれば
iPhone からでも使えるらしい
私の環境は Android なので使えないけど…
https://github.com/AugustDev/enchanted
でコードが公開されている
とりあえず先に日本語モデルを入れるのが先