Max Nardit

AI 設定

Beetroot は AI を使ってクリップボードのテキストや画像を変換できます。翻訳、要約、文法修正、写真からのテキスト読み取り、画像の説明、データ抽出など、用途はさまざまです。API キーはご自身で用意してください (BYOK)。Beetroot はあなたのデータを保存することも、選択した AI プロバイダー以外に送信することもありません。送信は変換を明示的にリクエストしたときのみです。すべての AI API 呼び出しはネイティブ Rust で実行されるため、ブラウザの JavaScript は使われず、CORS の問題もありません。

バージョン: 1.6.5 最終更新: 2026-04-04


対応プロバイダー

プロバイダー速度コスト向いている用途
OpenAI高速有料一般的な変換、広く利用されている
Google Gemini高速無料枠あり予算に優しい選択肢
Anthropic高速有料高品質な書き直し
DeepSeek中程度非常に安価深い推論を要するタスク
ローカル LLM環境次第無料完全なプライバシー、インターネット不要

クラウドプロバイダーのセットアップ

OpenAI

モデル: gpt-5.4-nano (高速、最安) または gpt-5.4-mini (より賢く、前世代の 2 倍高速)

  1. platform.openai.com にアクセスし、サインインまたはアカウントを作成します。
  2. API keys に移動して新しいキーを作成します。sk- で始まります。
  3. Beetroot で 設定 > AI を開きます。
  4. プロバイダーとして OpenAI を選びます。
  5. API キーを貼り付けます。
  6. モデルを選びます。最初は gpt-5.4-nano がおすすめです (高速で安価)。
  7. テストをクリックして接続を確認します。
  8. 保存をクリックします。

以前 gpt-5-nano や gpt-5-mini を使っていた場合、Beetroot は起動時に自動で gpt-5.4 系に移行します。

Google Gemini

モデル: gemini-2.5-flash-lite (最速) または gemini-2.5-flash (推論性能が高い)

  1. aistudio.google.com にアクセスし、Google アカウントでサインインします。
  2. 「Get API key」をクリックしてキーを作成します。AIza で始まります。
  3. Beetroot で 設定 > AI を開きます。
  4. プロバイダーとして Google Gemini を選びます。
  5. API キーを貼り付けます。
  6. モデルを選びます。最速は gemini-2.5-flash-lite です。
  7. テストをクリックして確認します。
  8. 保存をクリックします。

Gemini には寛大な無料枠があり、コストをかけずに AI 変換を試したい場合の良い出発点です。

Anthropic

モデル: claude-haiku-4-5 (最速) または claude-sonnet-4-6 (速度と品質の良いバランス)

  1. console.anthropic.com にアクセスし、サインインまたはアカウントを作成します。
  2. API keys に移動してキーを作成します。sk-ant- で始まります。
  3. Beetroot で 設定 > AI を開きます。
  4. プロバイダーとして Anthropic を選びます。
  5. API キーを貼り付けます。
  6. モデルを選びます。素早い変換には claude-haiku-4-5 がおすすめです。
  7. テストをクリックして確認します。
  8. 保存をクリックします。

DeepSeek

モデル: deepseek-chat (日常的なタスク) または deepseek-reasoner (深い推論、Chain-of-Thought)

  1. platform.deepseek.com にアクセスし、サインインまたはアカウントを作成します。
  2. ダッシュボードで API キーを作成します。
  3. Beetroot で 設定 > AI を開きます。
  4. プロバイダーとして DeepSeek を選びます。
  5. API キーを貼り付けます。
  6. モデルを選びます。多くのタスクには deepseek-chat、複雑な分析には deepseek-reasoner が適しています。
  7. テストをクリックして確認します。
  8. 保存をクリックします。

DeepSeek の価格は非常に競争力があります。deepseek-reasoner モデルは思考プロセスを表示しますが、これは出力から自動的に取り除かれます。


ローカル LLM のセットアップ (インターネット不要)

API キーなし、データを端末から外に出さずに、AI 変換を完全にローカルで実行できます。

オプション 1: Ollama

Ollama はローカルモデルを動かす最も簡単な方法です。

  1. ollama.com から Ollama をダウンロードしてインストールします。
  2. ターミナルを開いてモデルを取得します。
    ollama pull llama3.2
    
  3. Ollama はバックグラウンドで自動的にポート 11434 で動作します。
  4. Beetroot で 設定 > AI を開きます。
  5. プロバイダーとして ローカル LLM を選びます。
  6. プリセットの Ollama を選びます。エンドポイントは自動入力されます。
  7. テストをクリックします。Beetroot が接続して、インストール済みモデルのドロップダウンを表示します。
  8. ドロップダウンからモデルを選びます。
  9. 保存をクリックします。

テキスト用のおすすめ Ollama モデル:

  • llama3.2 -- 汎用的で、多くのハードウェアで動作する良いモデル
  • mistral -- 高速で能力も十分
  • gemma2 -- Google のオープンモデル、テキストタスクに適しています

ビジョン用のおすすめ Ollama モデル:

  • llava -- 汎用ビジョンモデル
  • bakllava -- 詳細な説明が得意
  • moondream -- 軽量で高速

オプション 2: LM Studio

LM Studio はローカルモデルを管理・実行するための GUI を提供します。

  1. lmstudio.ai から LM Studio をダウンロードしてインストールします。
  2. LM Studio の画面でモデルをダウンロードします。
  3. ローカルサーバーを起動します (LM Studio の既定ポートは 1234)。
  4. Beetroot で 設定 > AI を開きます。
  5. プロバイダーとして ローカル LLM を選びます。
  6. プリセットの LM Studio を選びます。
  7. テストをクリックして接続を確認します。読み込まれたモデルは自動検出されます。
  8. 保存をクリックします。

オプション 3: カスタムエンドポイント

OpenAI 互換 API 形式に対応したサーバーであれば、Beetroot で利用できます。

  1. モデルサーバーを起動します。
  2. Beetroot の 設定 > AI で ローカル LLM を選びます。
  3. カスタムを選び、エンドポイント URL を入力します (例: http://127.0.0.1:8080/v1/chat/completions)。
  4. モデル名を入力します。
  5. テスト保存をクリックします。

モデルのおすすめ

目的プロバイダーモデル理由
最も安価なクラウドGoogle Geminigemini-2.5-flash-lite寛大な無料枠
最高品質Anthropicclaude-sonnet-4-6優れた書き直しと翻訳
最速OpenAIgpt-5.4-nano最低のレイテンシー
深い分析DeepSeekdeepseek-reasonerChain-of-Thought 推論
最良のビジョン (クラウド)Google Geminigemini-2.5-flash高速で構造化された OCR 出力
最良のビジョン (ローカル)ローカル LLMQwen 3.5 4B (LM Studio)高精度の OCR、多くのハードウェアで動作
完全なプライバシーローカル LLMllama3.2 (Ollama)データが端末から出ない
オフライン利用ローカル LLM任意の Ollama モデルインターネットなしで動作

AI ビジョン変換

v1.6.5 から、Beetroot はクリップボード履歴の画像を AI ビジョンモデルで解析できます。画像クリップを右クリック → AI でビジョンプロンプトを選びます。

5 つの組み込みビジョンプロンプト:

プロンプト内容
テキストを読む写真、スクリーンショット、手書きメモから OCR
画像を説明する画像の内容のテキスト説明を取得
データを抽出する表、領収書、処方箋などから構造化データを抽出
画像を要約する視覚情報の短い要約
画像のテキストを翻訳する画像内のテキストを翻訳

設定 > AI で独自のビジョンプロンプトも作成できます。

ビジョン対応のプロバイダー:

  • クラウド: OpenAI GPT-5.4、Anthropic Claude (Haiku/Sonnet)、Google Gemini 2.5、DeepSeek
  • ローカル: Ollama (llava、bakllava、moondream)、LM Studio (任意のビジョンモデル)

ヒント: 小さなローカルビジョンモデル (4B パラメータ) でも、手書き文字を高精度に読めます。プライバシー重視なら、Ollama または LM Studio を使えばデータが端末から出ません。


バックグラウンド AI 処理

AI 変換 (テキストとビジョン) はバックグラウンドで実行されます。プロンプトをクリックするとメニューが即座に閉じ、そのまま作業を続けられます。結果が準備できると次のように動作します。

  • Beetroot が表示中なら、新しいクリップがリストの先頭に追加されます。
  • Beetroot が非表示なら、Windows のネイティブ通知が表示されます。クリックすると Beetroot が前面に来ます。

複数の変換をキューに入れると、順番に処理されます。


AI 変換の使い方

プロバイダーをセットアップしたら、テキストや画像を変換する方法はいくつかあります。

方法 1: 変換パネル

  1. リストでテキストクリップを選びます。
  2. Alt+T を押します (または右クリック > 変換)。
  3. 変換パネルには、組み込みのテキスト変換 (UPPERCASE、lowercase、Title Case、空白の整形、空白の除去、1 行化、行の並べ替え、重複の削除) と、その下に AI プロンプトが並びます。検索ボックスで絞り込めます。
  4. AI プロンプトをクリックします。テキストがプロバイダーへ送られます。
  5. 変換結果は新しいクリップとして履歴に保存されます。

方法 2: コンテキストメニューからのクイックアクセス

  1. テキストクリップを右クリックします。
  2. コンテキストメニューの下部にクイックアクセスのプロンプト (最大 5 件) が表示されます。
  3. クリックするとテキストがすぐに変換されます。

プロンプトでクイックアクセスを有効にするには、設定 > AI で、よく使うプロンプトの「クイックアクセス」にチェックを入れます。同時に最大 5 件まで設定できます。

方法 3: ビジョン変換 (画像クリップ)

  1. 画像クリップを右クリックします。
  2. AI サブメニューにカーソルを合わせます。
  3. ビジョンプロンプトを選びます (テキストを読む、画像を説明する など)。
  4. 画像が AI プロバイダーへ送信されます。結果は新しいテキストクリップとして保存されます。

組み込みプロンプト

Beetroot にはすぐに使える AI プロンプトが 10 個用意されています。

プロンプト内容
文法を修正意味を変えずに文法エラーを修正します
任意言語を英語へ言語を検出して英語に翻訳します
要約2-3 文の要点に凝縮します
業務向けに整える明瞭でビジネスにふさわしいトーンに書き直します
コードとして整形適切なコードのインデントと整形を適用します
箇条書きテキストを箇条書きに変換します
平易にする平易でシンプルな言葉に書き直します
短くする半分程度の長さに圧縮します
わかりやすく説明誰でも理解できるシンプルな言葉で説明します
主要データを抽出名前、日付、数値、URL を抽出します

設定 > AI で独自のカスタムプロンプトも作成できます (組み込みも含めて合計 20 件まで)。


トラブルシューティング

問題解決策
「設定で API キーを設定してください」選択中のプロバイダーに API キーが入力されていません。設定 > AI へ移動します。
「API キーが無効です」キーを再確認してください。選んだプロバイダーに合っているか確認します。
「リクエストがタイムアウトしました (30 秒)」プロバイダーの応答が遅すぎました。再試行するか、より高速なモデルに切り替えます。
「空の応答」AI から何も返ってきませんでした。別のプロンプトやモデルを試してください。
「テキストが AI 変換に対して長すぎます」50,000 文字を超えるクリップは処理できません。短い部分をコピーしてください。
ローカル LLM 「失敗」モデルサーバー (Ollama または LM Studio) が動作していること、エンドポイントが正しいことを確認してください。

プライバシー

  • Beetroot は、変換を明示的にリクエストしたときだけ、AI プロバイダーへデータを送ります。
  • テキスト変換では対象のクリップのテキストのみ、ビジョン変換では対象の画像のみが送信されます。
  • クリップボード履歴の全体が送信されることはありません。
  • ローカル LLM を使えば、データは端末から一切出ません。
  • すべての AI API 呼び出しはネイティブ Rust コードから行われ、ブラウザの JavaScript や中間サーバーは介在しません。
  • API キーはお使いのコンピューターにローカル保存され、対応するプロバイダーへ以外送信されることはありません。

最終更新: 2026-04-04

AI 設定 — Beetroot Clipboard Manager