AI 設定
Beetroot は AI を使ってクリップボードのテキストや画像を変換できます。翻訳、要約、文法修正、写真からのテキスト読み取り、画像の説明、データ抽出など、用途はさまざまです。API キーはご自身で用意してください (BYOK)。Beetroot はあなたのデータを保存することも、選択した AI プロバイダー以外に送信することもありません。送信は変換を明示的にリクエストしたときのみです。すべての AI API 呼び出しはネイティブ Rust で実行されるため、ブラウザの JavaScript は使われず、CORS の問題もありません。
バージョン: 1.6.5 最終更新: 2026-04-04
対応プロバイダー
| プロバイダー | 速度 | コスト | 向いている用途 |
|---|---|---|---|
| OpenAI | 高速 | 有料 | 一般的な変換、広く利用されている |
| Google Gemini | 高速 | 無料枠あり | 予算に優しい選択肢 |
| Anthropic | 高速 | 有料 | 高品質な書き直し |
| DeepSeek | 中程度 | 非常に安価 | 深い推論を要するタスク |
| ローカル LLM | 環境次第 | 無料 | 完全なプライバシー、インターネット不要 |
クラウドプロバイダーのセットアップ
OpenAI
モデル: gpt-5.4-nano (高速、最安) または gpt-5.4-mini (より賢く、前世代の 2 倍高速)
- platform.openai.com にアクセスし、サインインまたはアカウントを作成します。
- API keys に移動して新しいキーを作成します。
sk-で始まります。 - Beetroot で 設定 > AI を開きます。
- プロバイダーとして OpenAI を選びます。
- API キーを貼り付けます。
- モデルを選びます。最初は gpt-5.4-nano がおすすめです (高速で安価)。
- テストをクリックして接続を確認します。
- 保存をクリックします。
以前 gpt-5-nano や gpt-5-mini を使っていた場合、Beetroot は起動時に自動で gpt-5.4 系に移行します。
Google Gemini
モデル: gemini-2.5-flash-lite (最速) または gemini-2.5-flash (推論性能が高い)
- aistudio.google.com にアクセスし、Google アカウントでサインインします。
- 「Get API key」をクリックしてキーを作成します。
AIzaで始まります。 - Beetroot で 設定 > AI を開きます。
- プロバイダーとして Google Gemini を選びます。
- API キーを貼り付けます。
- モデルを選びます。最速は gemini-2.5-flash-lite です。
- テストをクリックして確認します。
- 保存をクリックします。
Gemini には寛大な無料枠があり、コストをかけずに AI 変換を試したい場合の良い出発点です。
Anthropic
モデル: claude-haiku-4-5 (最速) または claude-sonnet-4-6 (速度と品質の良いバランス)
- console.anthropic.com にアクセスし、サインインまたはアカウントを作成します。
- API keys に移動してキーを作成します。
sk-ant-で始まります。 - Beetroot で 設定 > AI を開きます。
- プロバイダーとして Anthropic を選びます。
- API キーを貼り付けます。
- モデルを選びます。素早い変換には claude-haiku-4-5 がおすすめです。
- テストをクリックして確認します。
- 保存をクリックします。
DeepSeek
モデル: deepseek-chat (日常的なタスク) または deepseek-reasoner (深い推論、Chain-of-Thought)
- platform.deepseek.com にアクセスし、サインインまたはアカウントを作成します。
- ダッシュボードで API キーを作成します。
- Beetroot で 設定 > AI を開きます。
- プロバイダーとして DeepSeek を選びます。
- API キーを貼り付けます。
- モデルを選びます。多くのタスクには deepseek-chat、複雑な分析には deepseek-reasoner が適しています。
- テストをクリックして確認します。
- 保存をクリックします。
DeepSeek の価格は非常に競争力があります。deepseek-reasoner モデルは思考プロセスを表示しますが、これは出力から自動的に取り除かれます。
ローカル LLM のセットアップ (インターネット不要)
API キーなし、データを端末から外に出さずに、AI 変換を完全にローカルで実行できます。
オプション 1: Ollama
Ollama はローカルモデルを動かす最も簡単な方法です。
- ollama.com から Ollama をダウンロードしてインストールします。
- ターミナルを開いてモデルを取得します。
ollama pull llama3.2 - Ollama はバックグラウンドで自動的にポート 11434 で動作します。
- Beetroot で 設定 > AI を開きます。
- プロバイダーとして ローカル LLM を選びます。
- プリセットの Ollama を選びます。エンドポイントは自動入力されます。
- テストをクリックします。Beetroot が接続して、インストール済みモデルのドロップダウンを表示します。
- ドロップダウンからモデルを選びます。
- 保存をクリックします。
テキスト用のおすすめ Ollama モデル:
llama3.2-- 汎用的で、多くのハードウェアで動作する良いモデルmistral-- 高速で能力も十分gemma2-- Google のオープンモデル、テキストタスクに適しています
ビジョン用のおすすめ Ollama モデル:
llava-- 汎用ビジョンモデルbakllava-- 詳細な説明が得意moondream-- 軽量で高速
オプション 2: LM Studio
LM Studio はローカルモデルを管理・実行するための GUI を提供します。
- lmstudio.ai から LM Studio をダウンロードしてインストールします。
- LM Studio の画面でモデルをダウンロードします。
- ローカルサーバーを起動します (LM Studio の既定ポートは 1234)。
- Beetroot で 設定 > AI を開きます。
- プロバイダーとして ローカル LLM を選びます。
- プリセットの LM Studio を選びます。
- テストをクリックして接続を確認します。読み込まれたモデルは自動検出されます。
- 保存をクリックします。
オプション 3: カスタムエンドポイント
OpenAI 互換 API 形式に対応したサーバーであれば、Beetroot で利用できます。
- モデルサーバーを起動します。
- Beetroot の 設定 > AI で ローカル LLM を選びます。
- カスタムを選び、エンドポイント URL を入力します (例:
http://127.0.0.1:8080/v1/chat/completions)。 - モデル名を入力します。
- テストと 保存をクリックします。
モデルのおすすめ
| 目的 | プロバイダー | モデル | 理由 |
|---|---|---|---|
| 最も安価なクラウド | Google Gemini | gemini-2.5-flash-lite | 寛大な無料枠 |
| 最高品質 | Anthropic | claude-sonnet-4-6 | 優れた書き直しと翻訳 |
| 最速 | OpenAI | gpt-5.4-nano | 最低のレイテンシー |
| 深い分析 | DeepSeek | deepseek-reasoner | Chain-of-Thought 推論 |
| 最良のビジョン (クラウド) | Google Gemini | gemini-2.5-flash | 高速で構造化された OCR 出力 |
| 最良のビジョン (ローカル) | ローカル LLM | Qwen 3.5 4B (LM Studio) | 高精度の OCR、多くのハードウェアで動作 |
| 完全なプライバシー | ローカル LLM | llama3.2 (Ollama) | データが端末から出ない |
| オフライン利用 | ローカル LLM | 任意の Ollama モデル | インターネットなしで動作 |
AI ビジョン変換
v1.6.5 から、Beetroot はクリップボード履歴の画像を AI ビジョンモデルで解析できます。画像クリップを右クリック → AI でビジョンプロンプトを選びます。
5 つの組み込みビジョンプロンプト:
| プロンプト | 内容 |
|---|---|
| テキストを読む | 写真、スクリーンショット、手書きメモから OCR |
| 画像を説明する | 画像の内容のテキスト説明を取得 |
| データを抽出する | 表、領収書、処方箋などから構造化データを抽出 |
| 画像を要約する | 視覚情報の短い要約 |
| 画像のテキストを翻訳する | 画像内のテキストを翻訳 |
設定 > AI で独自のビジョンプロンプトも作成できます。
ビジョン対応のプロバイダー:
- クラウド: OpenAI GPT-5.4、Anthropic Claude (Haiku/Sonnet)、Google Gemini 2.5、DeepSeek
- ローカル: Ollama (llava、bakllava、moondream)、LM Studio (任意のビジョンモデル)
ヒント: 小さなローカルビジョンモデル (4B パラメータ) でも、手書き文字を高精度に読めます。プライバシー重視なら、Ollama または LM Studio を使えばデータが端末から出ません。
バックグラウンド AI 処理
AI 変換 (テキストとビジョン) はバックグラウンドで実行されます。プロンプトをクリックするとメニューが即座に閉じ、そのまま作業を続けられます。結果が準備できると次のように動作します。
- Beetroot が表示中なら、新しいクリップがリストの先頭に追加されます。
- Beetroot が非表示なら、Windows のネイティブ通知が表示されます。クリックすると Beetroot が前面に来ます。
複数の変換をキューに入れると、順番に処理されます。
AI 変換の使い方
プロバイダーをセットアップしたら、テキストや画像を変換する方法はいくつかあります。
方法 1: 変換パネル
- リストでテキストクリップを選びます。
- Alt+T を押します (または右クリック > 変換)。
- 変換パネルには、組み込みのテキスト変換 (UPPERCASE、lowercase、Title Case、空白の整形、空白の除去、1 行化、行の並べ替え、重複の削除) と、その下に AI プロンプトが並びます。検索ボックスで絞り込めます。
- AI プロンプトをクリックします。テキストがプロバイダーへ送られます。
- 変換結果は新しいクリップとして履歴に保存されます。
方法 2: コンテキストメニューからのクイックアクセス
- テキストクリップを右クリックします。
- コンテキストメニューの下部にクイックアクセスのプロンプト (最大 5 件) が表示されます。
- クリックするとテキストがすぐに変換されます。
プロンプトでクイックアクセスを有効にするには、設定 > AI で、よく使うプロンプトの「クイックアクセス」にチェックを入れます。同時に最大 5 件まで設定できます。
方法 3: ビジョン変換 (画像クリップ)
- 画像クリップを右クリックします。
- AI サブメニューにカーソルを合わせます。
- ビジョンプロンプトを選びます (テキストを読む、画像を説明する など)。
- 画像が AI プロバイダーへ送信されます。結果は新しいテキストクリップとして保存されます。
組み込みプロンプト
Beetroot にはすぐに使える AI プロンプトが 10 個用意されています。
| プロンプト | 内容 |
|---|---|
| 文法を修正 | 意味を変えずに文法エラーを修正します |
| 任意言語を英語へ | 言語を検出して英語に翻訳します |
| 要約 | 2-3 文の要点に凝縮します |
| 業務向けに整える | 明瞭でビジネスにふさわしいトーンに書き直します |
| コードとして整形 | 適切なコードのインデントと整形を適用します |
| 箇条書き | テキストを箇条書きに変換します |
| 平易にする | 平易でシンプルな言葉に書き直します |
| 短くする | 半分程度の長さに圧縮します |
| わかりやすく説明 | 誰でも理解できるシンプルな言葉で説明します |
| 主要データを抽出 | 名前、日付、数値、URL を抽出します |
設定 > AI で独自のカスタムプロンプトも作成できます (組み込みも含めて合計 20 件まで)。
トラブルシューティング
| 問題 | 解決策 |
|---|---|
| 「設定で API キーを設定してください」 | 選択中のプロバイダーに API キーが入力されていません。設定 > AI へ移動します。 |
| 「API キーが無効です」 | キーを再確認してください。選んだプロバイダーに合っているか確認します。 |
| 「リクエストがタイムアウトしました (30 秒)」 | プロバイダーの応答が遅すぎました。再試行するか、より高速なモデルに切り替えます。 |
| 「空の応答」 | AI から何も返ってきませんでした。別のプロンプトやモデルを試してください。 |
| 「テキストが AI 変換に対して長すぎます」 | 50,000 文字を超えるクリップは処理できません。短い部分をコピーしてください。 |
| ローカル LLM 「失敗」 | モデルサーバー (Ollama または LM Studio) が動作していること、エンドポイントが正しいことを確認してください。 |
プライバシー
- Beetroot は、変換を明示的にリクエストしたときだけ、AI プロバイダーへデータを送ります。
- テキスト変換では対象のクリップのテキストのみ、ビジョン変換では対象の画像のみが送信されます。
- クリップボード履歴の全体が送信されることはありません。
- ローカル LLM を使えば、データは端末から一切出ません。
- すべての AI API 呼び出しはネイティブ Rust コードから行われ、ブラウザの JavaScript や中間サーバーは介在しません。
- API キーはお使いのコンピューターにローカル保存され、対応するプロバイダーへ以外送信されることはありません。
最終更新: 2026-04-04