メインコンテンツにスキップ

openHandsの使用履歴

github仓库

インストール

WORKSPACE_BASE=$(pwd)/workspace
docker run -it \
    --pull=always \
    -e SANDBOX_USER_ID=$(id -u) \
    -e WORKSPACE_MOUNT_PATH=$WORKSPACE_BASE \
    -v $WORKSPACE_BASE:/opt/workspace_base \
    -v /var/run/docker.sock:/var/run/docker.sock \
    -p 3000:3000 \
    --add-host host.docker.internal:host-gateway \
    --name openhands-app-$(date +%Y%m%d%H%M%S) \
    ghcr.io/all-hands-ai/openhands:main
  • ローカルユーザーモデルを使用
export WORKSPACE_BASE=$(pwd)/workspace

drun な \
    -it \
    --pull=always \
    --add-host host. Oracker. nternal:host-gateway \
    -e SANDBOX_USER_ID=$(id -u) \
    -e LLM_API_KEY="ollama"
    -e LLM_BASE_URL="http://host. Oracker. nternal:11434" \
    -e WORKSPACE_MOUNT_PATH=$WORKSPACE_BASE \
    -v $WORKSPACE_BASE:/opt/workspace_base
    -v /var/run/docker ock:/var/run/docker.sock \
    -p 3000:3000 \
    ghcr.io/all-hands-ai/openhands:::::main
  • cloudflare llamaモデルを使用
export WORKSPACE_BASE=$(pwd)/workspace


    # -e LLM_API_KEY="ollama" \
    
docker run \
    -it \
    --pull=always \
    --add-host host.docker.internal:host-gateway \
    -e SANDBOX_USER_ID=$(id -u) \
    -e LLM_BASE_URL="https://meta-llama-3-8b-instruct.183461750.workers.dev" \
    -e WORKSPACE_MOUNT_PATH=$WORKSPACE_BASE \
    -v $WORKSPACE_BASE:/opt/workspace_base \
    -v /var/run/docker.sock:/var/run/docker.sock \
    -p 3000:3000 \
    ghcr.io/all-hands-ai/openhands:main
  • 通義千問モデルを使用する
export WORKSPACE_BASE=$(pwd)/workspace

drun な \
    -it \
    --pull=always \
    --add-host host. Oracker. nternal:host-gateway \
    -e SANDBOX_USER_ID=$(id -u) \
    -e LLM_API_KEY="sk-2fa37a46be454b349c8bab1e89eea58a" \
    -e M_BASE_URL="https://dashscope. liyuncs. om/api/v1/apps/f41f5b2eb89b49519d3458024a89257c/completion" \
    -e WORKSPAC_MOUNT_PATH=$WORKSPACE_BASE \
    -v $WORKSPACE_BASE:/opt/workspace_base \
    -v /var/run/doecker. ock:/var/run/docker.sock \
    -p 3000:3000 \
    ghcr.io/all-hands-ai/openhands:::::main