Max Nardit

KI-Setup

Beetroot kann Text und Bilder aus der Zwischenablage mit KI umwandeln: übersetzen, zusammenfassen, Grammatik korrigieren, Text aus Fotos lesen, Bilder beschreiben, Daten extrahieren und mehr. Du nutzt deinen eigenen API-Schlüssel (BYOK). Beetroot speichert oder überträgt deine Daten nirgendwohin außer an den von dir gewählten KI-Anbieter, und nur, wenn du eine Transformation ausdrücklich anforderst. Alle KI-API-Aufrufe laufen in nativem Rust, ohne Browser-JavaScript und ohne CORS-Probleme.

Version: 1.6.5 Zuletzt aktualisiert: 2026-04-04


Unterstützte Anbieter

AnbieterGeschwindigkeitKostenGeeignet für
OpenAISchnellKostenpflichtigAllgemeine Transformationen, weit verbreitet
Google GeminiSchnellKostenloses Kontingent verfügbarBudget-freundliche Option
AnthropicSchnellKostenpflichtigHochwertige Umformulierungen
DeepSeekMittelSehr günstigAufgaben mit tiefem Reasoning
Lokales LLMVariabelKostenlosVolle Privatsphäre, kein Internet nötig

Cloud-Anbieter einrichten

OpenAI

Modelle: gpt-5.4-nano (schnell, am günstigsten) oder gpt-5.4-mini (intelligenter, doppelt so schnell wie die Vorgängergeneration)

  1. Gehe zu platform.openai.com und melde dich an oder erstelle ein Konto.
  2. Navigiere zu API keys und erstelle einen neuen Schlüssel. Er beginnt mit sk-.
  3. In Beetroot: Einstellungen > KI öffnen.
  4. Wähle OpenAI als Anbieter.
  5. Füge deinen API-Schlüssel ein.
  6. Wähle ein Modell. gpt-5.4-nano ist zum Einstieg empfohlen (schnell und günstig).
  7. Klicke auf Test, um die Verbindung zu prüfen.
  8. Klicke auf Speichern.

Falls du zuvor gpt-5-nano oder gpt-5-mini genutzt hast, migriert Beetroot beim Start automatisch auf die gpt-5.4-Modelle.

Google Gemini

Modelle: gemini-2.5-flash-lite (am schnellsten) oder gemini-2.5-flash (besseres Reasoning)

  1. Gehe zu aistudio.google.com und melde dich mit deinem Google-Konto an.
  2. Klicke auf „Get API key" und erstelle einen Schlüssel. Er beginnt mit AIza.
  3. In Beetroot: Einstellungen > KI öffnen.
  4. Wähle Google Gemini als Anbieter.
  5. Füge deinen API-Schlüssel ein.
  6. Wähle ein Modell. gemini-2.5-flash-lite ist die schnellste Option.
  7. Klicke auf Test, um zu prüfen.
  8. Klicke auf Speichern.

Gemini hat ein großzügiges kostenloses Kontingent und ist daher ein guter Startpunkt, wenn du KI-Transformationen ohne Kosten ausprobieren möchtest.

Anthropic

Modelle: claude-haiku-4-5 (am schnellsten) oder claude-sonnet-4-6 (beste Balance aus Geschwindigkeit und Qualität)

  1. Gehe zu console.anthropic.com und melde dich an oder erstelle ein Konto.
  2. Navigiere zu API keys und erstelle einen Schlüssel. Er beginnt mit sk-ant-.
  3. In Beetroot: Einstellungen > KI öffnen.
  4. Wähle Anthropic als Anbieter.
  5. Füge deinen API-Schlüssel ein.
  6. Wähle ein Modell. claude-haiku-4-5 ist für schnelle Transformationen empfohlen.
  7. Klicke auf Test, um zu prüfen.
  8. Klicke auf Speichern.

DeepSeek

Modelle: deepseek-chat (Alltagsaufgaben) oder deepseek-reasoner (tiefes Reasoning, Chain-of-Thought)

  1. Gehe zu platform.deepseek.com und melde dich an oder erstelle ein Konto.
  2. Erstelle in deinem Dashboard einen API-Schlüssel.
  3. In Beetroot: Einstellungen > KI öffnen.
  4. Wähle DeepSeek als Anbieter.
  5. Füge deinen API-Schlüssel ein.
  6. Wähle ein Modell. deepseek-chat passt für die meisten Aufgaben; deepseek-reasoner ist für komplexe Analysen gedacht.
  7. Klicke auf Test, um zu prüfen.
  8. Klicke auf Speichern.

DeepSeek bietet sehr wettbewerbsfähige Preise. Das Modell deepseek-reasoner zeigt seinen Denkprozess; dieser wird automatisch aus der Ausgabe entfernt.


Lokales LLM einrichten (kein Internet nötig)

Lass KI-Transformationen vollständig auf deinem Computer laufen, ohne API-Schlüssel und ohne dass Daten dein Gerät verlassen.

Option 1: Ollama

Ollama ist der einfachste Weg, lokale Modelle zu betreiben.

  1. Lade Ollama von ollama.com herunter und installiere es.
  2. Öffne ein Terminal und ziehe ein Modell:
    ollama pull llama3.2
    
  3. Ollama läuft automatisch im Hintergrund auf Port 11434.
  4. In Beetroot: Einstellungen > KI öffnen.
  5. Wähle Lokales LLM als Anbieter.
  6. Wähle die Ollama-Voreinstellung. Der Endpunkt wird automatisch ausgefüllt.
  7. Klicke auf Test. Beetroot stellt eine Verbindung her und zeigt eine Dropdown-Liste deiner installierten Modelle.
  8. Wähle dein Modell aus der Dropdown-Liste.
  9. Klicke auf Speichern.

Empfohlene Ollama-Modelle für Text:

  • llama3.2 -- Solides Allzweckmodell, läuft auf den meisten Geräten
  • mistral -- Schnell und leistungsfähig
  • gemma2 -- Googles offenes Modell, gut für Textaufgaben

Empfohlene Ollama-Modelle für Vision:

  • llava -- Allzweck-Vision-Modell
  • bakllava -- Besser bei detaillierten Beschreibungen
  • moondream -- Leichtgewichtig und schnell

Option 2: LM Studio

LM Studio bietet eine grafische Oberfläche zur Verwaltung und zum Betrieb lokaler Modelle.

  1. Lade LM Studio von lmstudio.ai herunter und installiere es.
  2. Lade über die LM-Studio-Oberfläche ein Modell herunter.
  3. Starte den lokalen Server (LM Studio läuft standardmäßig auf Port 1234).
  4. In Beetroot: Einstellungen > KI öffnen.
  5. Wähle Lokales LLM als Anbieter.
  6. Wähle die LM Studio-Voreinstellung.
  7. Klicke auf Test, um die Verbindung zu prüfen. Das geladene Modell wird automatisch erkannt.
  8. Klicke auf Speichern.

Option 3: Eigener Endpunkt

Jeder Server, der das OpenAI-kompatible API-Format spricht, funktioniert mit Beetroot.

  1. Starte deinen Modell-Server.
  2. In Beetroot: Einstellungen > KI > Lokales LLM wählen.
  3. Wähle Eigener Endpunkt und gib deine URL ein (z. B. http://127.0.0.1:8080/v1/chat/completions).
  4. Gib den Modellnamen ein.
  5. Klicke auf Test und Speichern.

Modell-Empfehlungen

ZielAnbieterModellWarum
Günstigste Cloud-OptionGoogle Geminigemini-2.5-flash-liteGroßzügiges kostenloses Kontingent
Beste QualitätAnthropicclaude-sonnet-4-6Hervorragende Umformulierungen und Übersetzungen
Am schnellstenOpenAIgpt-5.4-nanoNiedrigste Latenz
Tiefe AnalyseDeepSeekdeepseek-reasonerChain-of-Thought-Reasoning
Beste Vision (Cloud)Google Geminigemini-2.5-flashSchnelle, gut strukturierte OCR-Ausgabe
Beste Vision (lokal)Lokales LLMQwen 3.5 4B (LM Studio)Genaue OCR, läuft auf den meisten Geräten
Volle PrivatsphäreLokales LLMllama3.2 (Ollama)Nichts verlässt deinen Rechner
Offline-NutzungLokales LLMBeliebiges Ollama-ModellFunktioniert ohne Internet

KI-Vision-Transformationen

Seit v1.6.5 kann Beetroot Bilder aus deinem Zwischenablage-Verlauf mit KI-Vision-Modellen analysieren. Rechtsklick auf einen Bild-Clip → KI, dann einen Vision-Prompt auswählen.

Fünf eingebaute Vision-Prompts:

PromptWas er macht
Text lesenOCR aus Fotos, Screenshots, handschriftlichen Notizen
Bild beschreibenLiefert eine Textbeschreibung des Bildinhalts
Daten extrahierenHolt strukturierte Daten aus Tabellen, Belegen, Rezepten
Bild zusammenfassenKurze Zusammenfassung des visuellen Inhalts
Bildtext übersetzenÜbersetzt im Bild gefundenen Text

Eigene Vision-Prompts kannst du unter Einstellungen > KI anlegen.

Vision-fähige Anbieter:

  • Cloud: OpenAI GPT-5.4, Anthropic Claude (Haiku/Sonnet), Google Gemini 2.5, DeepSeek
  • Lokal: Ollama (llava, bakllava, moondream), LM Studio (beliebiges Vision-Modell)

Tipp: Auch kleine lokale Vision-Modelle (4B Parameter) können handgeschriebenen Text genau erkennen. Wenn dir Privatsphäre wichtig ist, nutze Ollama oder LM Studio. So verlässt nichts deinen Rechner.


KI-Verarbeitung im Hintergrund

KI-Transformationen (Text und Vision) laufen im Hintergrund. Klicke einen Prompt an, das Menü schließt sich sofort, und du kannst weiterarbeiten. Wenn das Ergebnis bereit ist:

  • Falls Beetroot sichtbar ist, erscheint der neue Clip oben in der Liste.
  • Falls Beetroot ausgeblendet ist, erscheint eine native Windows-Benachrichtigung. Ein Klick darauf bringt Beetroot in den Vordergrund.

Du kannst mehrere Transformationen in die Warteschlange stellen. Sie werden nacheinander abgearbeitet.


KI-Transformationen nutzen

Sobald ein Anbieter eingerichtet ist, gibt es mehrere Wege, Text und Bilder umzuwandeln:

Methode 1: Transform-Panel

  1. Wähle einen Text-Clip in der Liste.
  2. Drücke Alt+T (oder Rechtsklick > Transform).
  3. Das Transform-Panel zeigt eingebaute Textumwandlungen (GROSSBUCHSTABEN, kleinbuchstaben, Title Case, Leerzeichen entfernen, Alle Leerzeichen entfernen, Einzelne Zeile, Zeilen sortieren, Duplikate entfernen) und darunter deine KI-Prompts. Mit dem Suchfeld kannst du filtern.
  4. Klicke einen KI-Prompt an. Der Text wird an deinen Anbieter gesendet.
  5. Das Ergebnis wird als neuer Clip in deinem Verlauf gespeichert.

Methode 2: Schnellzugriff aus dem Kontextmenü

  1. Rechtsklick auf einen Text-Clip.
  2. Am unteren Ende des Kontextmenüs siehst du deine Schnellzugriff-Prompts (bis zu 5).
  3. Ein Klick wandelt den Text sofort um.

Um Schnellzugriff für einen Prompt zu aktivieren, gehe zu Einstellungen > KI und setze das Häkchen bei „Schnellzugriff" neben den am häufigsten genutzten Prompts. Bis zu 5 Prompts können gleichzeitig im Schnellzugriff sein.

Methode 3: Vision-Transformationen (Bild-Clips)

  1. Rechtsklick auf einen Bild-Clip.
  2. Auf das KI-Untermenü zeigen.
  3. Einen Vision-Prompt wählen (Text lesen, Bild beschreiben usw.).
  4. Das Bild wird an deinen KI-Anbieter gesendet. Das Ergebnis wird als neuer Text-Clip gespeichert.

Eingebaute Prompts

Beetroot bringt 10 fertige KI-Prompts mit:

PromptWas er macht
Grammatik korrigierenKorrigiert grammatikalische Fehler ohne den Sinn zu verändern
Beliebige Sprache zu EnglischErkennt die Sprache und übersetzt ins Englische
ZusammenfassenVerdichtet den Text auf 2-3 Kernsätze
Geschäftlich formulierenFormuliert in einem klaren, geschäftlichen Ton um
Als Code formatierenWendet korrekte Code-Einrückung und Formatierung an
AufzählungspunkteWandelt Text in eine Stichpunktliste um
VereinfachenFormuliert in einfacher, klarer Sprache um
Kürzer machenVerdichtet auf etwa die halbe Länge
ErklärenErklärt in einfachen Worten für jeden verständlich
Schlüsseldaten extrahierenExtrahiert Namen, Daten, Zahlen und URLs

Eigene Prompts kannst du unter Einstellungen > KI anlegen (insgesamt bis zu 20 inklusive der eingebauten).


Fehlersuche

ProblemLösung
„API-Schlüssel in Einstellungen setzen"Du hast für den ausgewählten Anbieter keinen API-Schlüssel hinterlegt. Gehe zu Einstellungen > KI.
„API-Schlüssel ist ungültig"Prüfe deinen Schlüssel doppelt. Stelle sicher, dass er zum ausgewählten Anbieter passt.
„Anfrage hat das Zeitlimit überschritten (30 s)"Der Anbieter hat zu lange gebraucht. Versuche es erneut oder wechsle zu einem schnelleren Modell.
„Leere Antwort"Die KI hat nichts geliefert. Probiere einen anderen Prompt oder ein anderes Modell.
„Text ist zu lang für KI-Transformation"Clips über 50.000 Zeichen können nicht verarbeitet werden. Kopiere einen kürzeren Abschnitt.
Lokales LLM „Fehlgeschlagen"Stelle sicher, dass dein Modell-Server (Ollama oder LM Studio) läuft und der Endpunkt korrekt ist.

Datenschutz

  • Beetroot sendet nur dann Daten an einen KI-Anbieter, wenn du eine Transformation ausdrücklich anforderst.
  • Bei Texttransformationen wird nur der konkrete Text-Clip gesendet. Bei Vision-Transformationen nur das jeweilige Bild.
  • Dein gesamter Zwischenablage-Verlauf wird nie übertragen.
  • Mit einem lokalen LLM verlässt überhaupt nichts deinen Rechner.
  • Alle KI-API-Aufrufe laufen aus nativem Rust-Code heraus, ohne Browser-JavaScript und ohne dazwischengeschaltete Drittanbieter.
  • API-Schlüssel werden lokal auf deinem Computer gespeichert und nie irgendwohin übertragen außer an den jeweiligen Anbieter.

Zuletzt aktualisiert: 2026-04-04

KI-Setup — Beetroot Clipboard Manager