Ollama のモデル削除

Ollama のモデル削除

ollama list

でインストール済みモデルを調べる

NAME                               	ID          	SIZE  	MODIFIED     
deepseek-r1:8b-llama-distill-q4_K_M	28f8fd6cdc67	4.9 GB	47 hours ago	
llava:latest                       	8dd30f6b0cb1	4.7 GB	6 months ago	
elyza:jp8b                         	4b08bac08c49	4.9 GB	6 months ago	
llama3:latest                      	365c0bd3c000	4.7 GB	6 months ago	

elyza:jp8b
以外は不要なので削除する

 ollama rm llava:latest 
ollama rm deepseek-r1:8b-llama-distill-q4_K_M
ollama rm llama3:latest 

これで再度

ollama run hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf

を実行したけど

pulling manifest 
pulling daf92c0e1436... 100% ▕████████████████▏ 9.0 GB                         
pulling 8aa4c0321ccd...   0% ▕                ▏    0 B/ 493 B                  
Error: unexpected status code 200

となる

 ollama --version

だと

ollama version is 0.3.6

2024年8月の時点のものなので最新のものにする

Apple Silicon(M3) Macで Ollama を動かしてみる
を参考に

https://ollama.com/download
からダウンロードして
Ollama-darwin.zip
をダブルクリックで解凍

Ollama.app
ができているので
これをダブルクリックで進めればOK

再度

ollama --version        

で最新のものになるのを確認

ollama version is 0.5.11

https://huggingface.co/cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese
を参考にモデル名を
cyberagent/DeepSeek-R1-Distill-Qwen-14B-Japanese

しかし

ollama list
NAME                                                                        ID              SIZE      MODIFIED       
hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest    26e5cc1b03cd    9.0 GB    13 minutes ago    
elyza:jp8b                                                                  4b08bac08c49    4.9 GB    6 months ago     

となる

このためモデル名を
hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest
として実行したが

INFO     [browser_use] BrowserUse logging setup complete with level info
INFO     [root] Anonymized telemetry enabled. See https://github.com/browser-use/browser-use for more information.
INFO     [agent] 🚀 Starting task: 
        1. https://cookpad.com/jp にアクセス
        
INFO     [agent] 
📍 Step 1
ERROR    [agent] ❌ Result failed 1/3 times:
 
INFO     [agent] 
📍 Step 1
ERROR    [agent] ❌ Result failed 2/3 times:
 
INFO     [agent] 
📍 Step 1
ERROR    [agent] ❌ Result failed 3/3 times:
 
ERROR    [agent] ❌ Stopping due to 3 consecutive failures
INFO     [agent] Created GIF at agent_history.gif
AgentHistoryList(all_results=[ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True), ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True), ActionResult(is_done=False, extracted_content=None, error='', include_in_memory=True)], all_model_outputs=[])

もしかしたら、蒸留してしまうと使えないのかもしれない

とりあえず、モデル名の指定がダメかも

import os

from langchain_ollama import OllamaLLM
from browser_use import Agent
from browser_use.browser.browser import Browser, BrowserConfig
from browser_use.controller.service import Controller

import asyncio

controller = Controller()
agent = None

@controller.registry.action('スクリーンショットを保存する')
async def save_screenshot(filename: str = "screenshot.png") -> str:
    page = await agent.browser_context.get_current_page()
    await page.screenshot(path=filename)
    return f"スクリーンショットを {filename} として保存しました"
    
async def main():
    global agent
    llm = OllamaLLM(model="hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest")
    agent = Agent(
        task="""
        1. https://cookpad.com/jp にアクセス
        """,
        llm=llm,
        controller=controller,
        browser=Browser(config=BrowserConfig(
            disable_security=True, 
            headless=False,
        )),
    )
    result = await agent.run()
    print(result)

if __name__ == "__main__":
    asyncio.run(main())

だったので
Latest を抜いて再度実行する
しかし変わらない

ollama rm hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:latest

で一度削除

deepseekr1 browser-use ollama

で検索

Browser-use web-uiでollamaを使ってDeepseek-r1を使用する
を参考に

ollama run deepseek-r1:14b

しかし

import os

from langchain_ollama import OllamaLLM
from browser_use import Agent
from browser_use.browser.browser import Browser, BrowserConfig
from browser_use.controller.service import Controller

import asyncio

controller = Controller()
agent = None

@controller.registry.action('スクリーンショットを保存する')
async def save_screenshot(filename: str = "screenshot.png") -> str:
    page = await agent.browser_context.get_current_page()
    await page.screenshot(path=filename)
    return f"スクリーンショットを {filename} として保存しました"
    
async def main():
    global agent
    llm = OllamaLLM(model="deepseek-r1:14b")
    agent = Agent(
        task="""
        Navigate to 'https://en.wikipedia.org/wiki/Internet' and scroll to the string 'The vast majority of computer'
        """,
        llm=llm,
        controller=controller,
        browser=Browser(config=BrowserConfig(
            disable_security=True, 
            headless=False,
        )),
    )
    result = await agent.run()
    print(result)

if __name__ == "__main__":
    asyncio.run(main())

としても結果は変わらない

もしかしたらコードが違うのかもしれない

ollama browser-use

で検索

browser-use + ollamaでローカルサイト(Zabbix)を操作してみた
を参考に

Test.pyとして動かすが失敗

どうやらモデルが原因みたい
取り合えず動く事例が出るまでまつ

Browser-useでollamaを使ってローカルLLMを使用する
https://zenn.dev/tossy21/articles/5b0ff1452af70a#googleへアクセスし、%22openai%22で検索した最初のurlを取得
では実験したすべてのモデルが失敗に終わってるし

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です