Ollama のモデル削除
ollama list
でインストール済みモデルを調べる
NAME ID SIZE MODIFIED deepseek-r1:8b-llama-distill-q4_K_M 28f8fd6cdc67 4.9 GB 47 hours ago llava:latest 8dd30f6b0cb1 4.7 GB 6 months ago elyza:jp8b 4b08bac08c49 4.9 GB 6 months ago llama3:latest 365c0bd3c000 4.7 GB 6 months ago
elyza:jp8b
以外は不要なので削除する
ollama rm llava:latest ollama rm deepseek-r1:8b-llama-distill-q4_K_M ollama rm llama3:latest
これで再度
ollama run hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf
を実行したけど
pulling manifest pulling daf92c0e1436... 100% ▕████████████████▏ 9.0 GB pulling 8aa4c0321ccd... 0% ▕ ▏ 0 B/ 493 B Error: unexpected status code 200
となる
ollama --version
だと
ollama version is 0.3.6
2024年8月の時点のものなので最新のものにする
Apple Silicon(M3) Macで Ollama を動かしてみる
を参考に
https://ollama.com/download
からダウンロードして
Ollama-darwin.zip
をダブルクリックで解凍
Ollama.app
ができているので
これをダブルクリックで進めればOK
再度
ollama --version
で最新のものになるのを確認
ollama version is 0.5.11
https://huggingface.co/cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese
を参考にモデル名を
cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese
しかし
ollama list NAME ID SIZE MODIFIED hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest 26e5cc1b03cd 9.0 GB 13 minutes ago elyza:jp8b 4b08bac08c49 4.9 GB 6 months ago
となる
このためモデル名を
hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest
として実行したが
INFO [browser_use] BrowserUse logging setup complete with level info
INFO [root] Anonymized telemetry enabled. See https://github.com/browser-use/browser-use for more information.
INFO [agent] 🚀 Starting task:
1. https://cookpad.com/jp にアクセス
INFO [agent]
📍 Step 1
ERROR [agent] ❌ Result failed 1/3 times:
INFO [agent]
📍 Step 1
ERROR [agent] ❌ Result failed 2/3 times:
INFO [agent]
📍 Step 1
ERROR [agent] ❌ Result failed 3/3 times:
ERROR [agent] ❌ Stopping due to 3 consecutive failures
INFO [agent] Created GIF at agent_history.gif
AgentHistoryList(all_results=[ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True), ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True), ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True)], all_model_outputs=[])
もしかしたら、蒸留してしまうと使えないのかもしれない
とりあえず、モデル名の指定がダメかも
import os
from langchain_ollama import OllamaLLM
from browser_use import Agent
from browser_use.browser.browser import Browser, BrowserConfig
from browser_use.controller.service import Controller
import asyncio
controller = Controller()
agent = None
@controller.registry.action('スクリーンショットを保存する')
async def save_screenshot(filename: str = "screenshot.png") -> str:
page = await agent.browser_context.get_current_page()
await page.screenshot(path=filename)
return f"スクリーンショットを {filename} として保存しました"
async def main():
global agent
llm = OllamaLLM(model="hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest")
agent = Agent(
task="""
1. https://cookpad.com/jp にアクセス
""",
llm=llm,
controller=controller,
browser=Browser(config=BrowserConfig(
disable_security=True,
headless=False,
)),
)
result = await agent.run()
print(result)
if __name__ == "__main__":
asyncio.run(main())
だったので
Latest を抜いて再度実行する
しかし変わらない
ollama rm hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest
で一度削除
deepseekr1 browser-use ollama
で検索
Browser-use web-uiでollamaを使ってDeepseek-r1を使用する
を参考に
ollama run deepseek-r1:14b
しかし
import os
from langchain_ollama import OllamaLLM
from browser_use import Agent
from browser_use.browser.browser import Browser, BrowserConfig
from browser_use.controller.service import Controller
import asyncio
controller = Controller()
agent = None
@controller.registry.action('スクリーンショットを保存する')
async def save_screenshot(filename: str = "screenshot.png") -> str:
page = await agent.browser_context.get_current_page()
await page.screenshot(path=filename)
return f"スクリーンショットを {filename} として保存しました"
async def main():
global agent
llm = OllamaLLM(model="deepseek-r1:14b")
agent = Agent(
task="""
Navigate to 'https://en.wikipedia.org/wiki/Internet' and scroll to the string 'The vast majority of computer'
""",
llm=llm,
controller=controller,
browser=Browser(config=BrowserConfig(
disable_security=True,
headless=False,
)),
)
result = await agent.run()
print(result)
if __name__ == "__main__":
asyncio.run(main())
としても結果は変わらない
もしかしたらコードが違うのかもしれない
ollama browser-use
で検索
browser-use + ollamaでローカルサイト(Zabbix)を操作してみた
を参考に
Test.pyとして動かすが失敗
どうやらモデルが原因みたい
取り合えず動く事例が出るまでまつ
Browser-useでollamaを使ってローカルLLMを使用する
https://zenn.dev/tossy21/articles/5b0ff1452af70a#googleへアクセスし、%22openai%22で検索した最初のurlを取得
では実験したすべてのモデルが失敗に終わってるし