m1macbookAir へ ollamaを入れる
実行環境
M1 MacbookAir 16GB
M1MacでOllamaを試したら爆速で驚いた
を参考に実行する
インストール関連は
OllamaでLLM(Llama 3等)をローカルMacで動かす with WebUI
がわかりやすい
https://ollama.com
へアクセスすると
Download
があるのでこれをクリック
OSを判定しているので
そのまま
Download for macOS
をクリック
ファイルをダウンロードできるので
ダブルクリックで解凍
あとは
1 | ollama run llama3 |
を実行
初回のみモデルダンロードで時間がかかる
容量が4.7GBとかなり大きいので時間がある時に行わないと無理
終了する時には
1 | /bye |
とすればOK
これでも使えるけど
https://github.com/open-webui/open-webui
にある
Open WebUI (Formerly Ollama WebUI)
を使えばブラウザから簡単に使えるようになる
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 | Installation with Default Configuration * If Ollama is on your computer, use this command :
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :main
* If Ollama is on a Different Server, use this command :
To connect to Ollama on another server, change the OLLAMA_BASE_URL to the server's URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https: //example .com - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :main
* To run Open WebUI with Nvidia GPU support, use this command : * docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :cuda
Installation for OpenAI API Usage Only * If you're only using OpenAI API, use this command :
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :main
Installing Open WebUI with Bundled Ollama Support This installation method uses a single container image that bundles Open WebUI with Ollama, allowing for a streamlined setup via a single command . Choose the appropriate command based on your hardware setup: * With GPU Support: Utilize GPU resources by running the following command :
docker run -d -p 3000:8080 --gpus=all - v ollama: /root/ .ollama - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :ollama
* For CPU Only: If you're not using a GPU, use this command instead:
docker run -d -p 3000:8080 - v ollama: /root/ .ollama - v open -webui: /app/backend/data --name open -webui --restart always ghcr.io /open-webui/open-webui :ollama
Both commands facilitate a built- in , hassle- free installation of both Open WebUI and Ollama, ensuring that you can get everything up and running swiftly. After installation, you can access Open WebUI at http: //localhost :3000. Enjoy! <img draggable= "false" class= "emoji" alt= " src= "https://s.w.org/images/core/emoji/11/svg/1f604.svg" > Other Installation Methods We offer various installation alternatives, including non-Docker native installation methods, Docker Compose, Kustomize, and Helm. Visit our Open WebUI Documentation or join our Discord community for comprehensive guidance. |
をみると
Docker で動かす前提になっている
別の方法を調べたら
Enchantedを使えば Mac の場合代用できるらしい
Mac用 Enchanted アプリで文章を自由自在に活用してみる
を参考に
「Enchanted」 を使って iPhone から Ollama にアクセスしてみる
によれば
iPhone からでも使えるらしい
私の環境は Android なので使えないけど…
https://github.com/AugustDev/enchanted
でコードが公開されている
とりあえず先に日本語モデルを入れるのが先