メジャーリリース: AI Vision(Computer Use)+ Apple Intelligence
- AIクリック — AIが画面を見て、説明文でUI要素をクリック。2パスリファインメントで高精度
- AIスマート待機 — AIが画面を監視し、視覚的な条件を満たすまで待機
- AI OCR — Vision LLMで画面上のテキストを読み取り
- AI検証 — AIが画面状態を確認し、条件分岐用にtrue/falseを返却
- AIオートパイロット — Anthropic Computer Use API(Claude Sonnet 4.6 / Opus 4.6)による自律エージェントループ。タスクを説明するとAIがネイティブPC操作でステップごとに実行。Anthropic APIキーが必要
- AI条件(Boolean) — if/ループブロックの条件判定にAIを使用
- セルフヒーリング — 画像/OCR操作が失敗した場合、AI Visionが自然言語で自動リトライ
- 録画強化 — 録画後にAIがクリック位置を分析し、AIクリックブロックへの変換を提案
- Apple Intelligence — macOS 26+でオンデバイスAI。APIキー不要、無料、プライベート、オフライン
- AI設定分離 — AIアシスタント(Apple Intelligenceデフォルト)とAI Visionブロック(クラウド)で独立設定
- AIアシスタント改善 — 応答にプロバイダ名表示、コンソールログ
- アプリ起動修正 — .appパスが存在しない場合にアプリ名でフォールバック
- ブロック挿入修正 — AI生成ブロックがスタートブロックチェーンの末尾に自動接続
- 合計196オペレーション(169から増加)
- 6つのAIプロバイダ: Apple Intelligence, OpenAI, Anthropic, Gemini, Groq, カスタム/ローカルLLM
- v2.0.2 修正: NativeAutopilotServiceクラッシュ修正(JSONシリアライズ)、Apple Intelligenceコンテキストウィンドウ超過修正(カタログ省略)、macOS Spotlightワークアラウンド(Autopilotシステムプロンプト)
- v2.0.3: AIブロックのパラメータラベルを「プロンプト」に統一。ヘルプドキュメント大幅拡充(AIブロックガイド、プロンプト例、推奨モデル、実行・デバッグ、キーボードショートカット)
- v2.0.5: Geminiデフォルトモデルをgemini-2.5-flashに更新(無料: 250回/日)。gemini-2.5-flash-lite(無料: 1,000回/日)を低コスト選択肢として追加
- v2.0.6: トラックパッド対応: 2本指スワイプでワークスペースをパン(従来はズームが誤発動)。ピンチでズーム。Cmd+スクロールでマウスホイールズーム