KI-Setup
Beetroot kann Text und Bilder aus der Zwischenablage mit KI umwandeln: übersetzen, zusammenfassen, Grammatik korrigieren, Text aus Fotos lesen, Bilder beschreiben, Daten extrahieren und mehr. Du nutzt deinen eigenen API-Schlüssel (BYOK). Beetroot speichert oder überträgt deine Daten nirgendwohin außer an den von dir gewählten KI-Anbieter, und nur, wenn du eine Transformation ausdrücklich anforderst. Alle KI-API-Aufrufe laufen in nativem Rust, ohne Browser-JavaScript und ohne CORS-Probleme.
Version: 1.6.5 Zuletzt aktualisiert: 2026-04-04
Unterstützte Anbieter
| Anbieter | Geschwindigkeit | Kosten | Geeignet für |
|---|---|---|---|
| OpenAI | Schnell | Kostenpflichtig | Allgemeine Transformationen, weit verbreitet |
| Google Gemini | Schnell | Kostenloses Kontingent verfügbar | Budget-freundliche Option |
| Anthropic | Schnell | Kostenpflichtig | Hochwertige Umformulierungen |
| DeepSeek | Mittel | Sehr günstig | Aufgaben mit tiefem Reasoning |
| Lokales LLM | Variabel | Kostenlos | Volle Privatsphäre, kein Internet nötig |
Cloud-Anbieter einrichten
OpenAI
Modelle: gpt-5.4-nano (schnell, am günstigsten) oder gpt-5.4-mini (intelligenter, doppelt so schnell wie die Vorgängergeneration)
- Gehe zu platform.openai.com und melde dich an oder erstelle ein Konto.
- Navigiere zu API keys und erstelle einen neuen Schlüssel. Er beginnt mit
sk-. - In Beetroot: Einstellungen > KI öffnen.
- Wähle OpenAI als Anbieter.
- Füge deinen API-Schlüssel ein.
- Wähle ein Modell. gpt-5.4-nano ist zum Einstieg empfohlen (schnell und günstig).
- Klicke auf Test, um die Verbindung zu prüfen.
- Klicke auf Speichern.
Falls du zuvor gpt-5-nano oder gpt-5-mini genutzt hast, migriert Beetroot beim Start automatisch auf die gpt-5.4-Modelle.
Google Gemini
Modelle: gemini-2.5-flash-lite (am schnellsten) oder gemini-2.5-flash (besseres Reasoning)
- Gehe zu aistudio.google.com und melde dich mit deinem Google-Konto an.
- Klicke auf „Get API key" und erstelle einen Schlüssel. Er beginnt mit
AIza. - In Beetroot: Einstellungen > KI öffnen.
- Wähle Google Gemini als Anbieter.
- Füge deinen API-Schlüssel ein.
- Wähle ein Modell. gemini-2.5-flash-lite ist die schnellste Option.
- Klicke auf Test, um zu prüfen.
- Klicke auf Speichern.
Gemini hat ein großzügiges kostenloses Kontingent und ist daher ein guter Startpunkt, wenn du KI-Transformationen ohne Kosten ausprobieren möchtest.
Anthropic
Modelle: claude-haiku-4-5 (am schnellsten) oder claude-sonnet-4-6 (beste Balance aus Geschwindigkeit und Qualität)
- Gehe zu console.anthropic.com und melde dich an oder erstelle ein Konto.
- Navigiere zu API keys und erstelle einen Schlüssel. Er beginnt mit
sk-ant-. - In Beetroot: Einstellungen > KI öffnen.
- Wähle Anthropic als Anbieter.
- Füge deinen API-Schlüssel ein.
- Wähle ein Modell. claude-haiku-4-5 ist für schnelle Transformationen empfohlen.
- Klicke auf Test, um zu prüfen.
- Klicke auf Speichern.
DeepSeek
Modelle: deepseek-chat (Alltagsaufgaben) oder deepseek-reasoner (tiefes Reasoning, Chain-of-Thought)
- Gehe zu platform.deepseek.com und melde dich an oder erstelle ein Konto.
- Erstelle in deinem Dashboard einen API-Schlüssel.
- In Beetroot: Einstellungen > KI öffnen.
- Wähle DeepSeek als Anbieter.
- Füge deinen API-Schlüssel ein.
- Wähle ein Modell. deepseek-chat passt für die meisten Aufgaben; deepseek-reasoner ist für komplexe Analysen gedacht.
- Klicke auf Test, um zu prüfen.
- Klicke auf Speichern.
DeepSeek bietet sehr wettbewerbsfähige Preise. Das Modell deepseek-reasoner zeigt seinen Denkprozess; dieser wird automatisch aus der Ausgabe entfernt.
Lokales LLM einrichten (kein Internet nötig)
Lass KI-Transformationen vollständig auf deinem Computer laufen, ohne API-Schlüssel und ohne dass Daten dein Gerät verlassen.
Option 1: Ollama
Ollama ist der einfachste Weg, lokale Modelle zu betreiben.
- Lade Ollama von ollama.com herunter und installiere es.
- Öffne ein Terminal und ziehe ein Modell:
ollama pull llama3.2 - Ollama läuft automatisch im Hintergrund auf Port 11434.
- In Beetroot: Einstellungen > KI öffnen.
- Wähle Lokales LLM als Anbieter.
- Wähle die Ollama-Voreinstellung. Der Endpunkt wird automatisch ausgefüllt.
- Klicke auf Test. Beetroot stellt eine Verbindung her und zeigt eine Dropdown-Liste deiner installierten Modelle.
- Wähle dein Modell aus der Dropdown-Liste.
- Klicke auf Speichern.
Empfohlene Ollama-Modelle für Text:
llama3.2-- Solides Allzweckmodell, läuft auf den meisten Gerätenmistral-- Schnell und leistungsfähiggemma2-- Googles offenes Modell, gut für Textaufgaben
Empfohlene Ollama-Modelle für Vision:
llava-- Allzweck-Vision-Modellbakllava-- Besser bei detaillierten Beschreibungenmoondream-- Leichtgewichtig und schnell
Option 2: LM Studio
LM Studio bietet eine grafische Oberfläche zur Verwaltung und zum Betrieb lokaler Modelle.
- Lade LM Studio von lmstudio.ai herunter und installiere es.
- Lade über die LM-Studio-Oberfläche ein Modell herunter.
- Starte den lokalen Server (LM Studio läuft standardmäßig auf Port 1234).
- In Beetroot: Einstellungen > KI öffnen.
- Wähle Lokales LLM als Anbieter.
- Wähle die LM Studio-Voreinstellung.
- Klicke auf Test, um die Verbindung zu prüfen. Das geladene Modell wird automatisch erkannt.
- Klicke auf Speichern.
Option 3: Eigener Endpunkt
Jeder Server, der das OpenAI-kompatible API-Format spricht, funktioniert mit Beetroot.
- Starte deinen Modell-Server.
- In Beetroot: Einstellungen > KI > Lokales LLM wählen.
- Wähle Eigener Endpunkt und gib deine URL ein (z. B.
http://127.0.0.1:8080/v1/chat/completions). - Gib den Modellnamen ein.
- Klicke auf Test und Speichern.
Modell-Empfehlungen
| Ziel | Anbieter | Modell | Warum |
|---|---|---|---|
| Günstigste Cloud-Option | Google Gemini | gemini-2.5-flash-lite | Großzügiges kostenloses Kontingent |
| Beste Qualität | Anthropic | claude-sonnet-4-6 | Hervorragende Umformulierungen und Übersetzungen |
| Am schnellsten | OpenAI | gpt-5.4-nano | Niedrigste Latenz |
| Tiefe Analyse | DeepSeek | deepseek-reasoner | Chain-of-Thought-Reasoning |
| Beste Vision (Cloud) | Google Gemini | gemini-2.5-flash | Schnelle, gut strukturierte OCR-Ausgabe |
| Beste Vision (lokal) | Lokales LLM | Qwen 3.5 4B (LM Studio) | Genaue OCR, läuft auf den meisten Geräten |
| Volle Privatsphäre | Lokales LLM | llama3.2 (Ollama) | Nichts verlässt deinen Rechner |
| Offline-Nutzung | Lokales LLM | Beliebiges Ollama-Modell | Funktioniert ohne Internet |
KI-Vision-Transformationen
Seit v1.6.5 kann Beetroot Bilder aus deinem Zwischenablage-Verlauf mit KI-Vision-Modellen analysieren. Rechtsklick auf einen Bild-Clip → KI, dann einen Vision-Prompt auswählen.
Fünf eingebaute Vision-Prompts:
| Prompt | Was er macht |
|---|---|
| Text lesen | OCR aus Fotos, Screenshots, handschriftlichen Notizen |
| Bild beschreiben | Liefert eine Textbeschreibung des Bildinhalts |
| Daten extrahieren | Holt strukturierte Daten aus Tabellen, Belegen, Rezepten |
| Bild zusammenfassen | Kurze Zusammenfassung des visuellen Inhalts |
| Bildtext übersetzen | Übersetzt im Bild gefundenen Text |
Eigene Vision-Prompts kannst du unter Einstellungen > KI anlegen.
Vision-fähige Anbieter:
- Cloud: OpenAI GPT-5.4, Anthropic Claude (Haiku/Sonnet), Google Gemini 2.5, DeepSeek
- Lokal: Ollama (llava, bakllava, moondream), LM Studio (beliebiges Vision-Modell)
Tipp: Auch kleine lokale Vision-Modelle (4B Parameter) können handgeschriebenen Text genau erkennen. Wenn dir Privatsphäre wichtig ist, nutze Ollama oder LM Studio. So verlässt nichts deinen Rechner.
KI-Verarbeitung im Hintergrund
KI-Transformationen (Text und Vision) laufen im Hintergrund. Klicke einen Prompt an, das Menü schließt sich sofort, und du kannst weiterarbeiten. Wenn das Ergebnis bereit ist:
- Falls Beetroot sichtbar ist, erscheint der neue Clip oben in der Liste.
- Falls Beetroot ausgeblendet ist, erscheint eine native Windows-Benachrichtigung. Ein Klick darauf bringt Beetroot in den Vordergrund.
Du kannst mehrere Transformationen in die Warteschlange stellen. Sie werden nacheinander abgearbeitet.
KI-Transformationen nutzen
Sobald ein Anbieter eingerichtet ist, gibt es mehrere Wege, Text und Bilder umzuwandeln:
Methode 1: Transform-Panel
- Wähle einen Text-Clip in der Liste.
- Drücke Alt+T (oder Rechtsklick > Transform).
- Das Transform-Panel zeigt eingebaute Textumwandlungen (GROSSBUCHSTABEN, kleinbuchstaben, Title Case, Leerzeichen entfernen, Alle Leerzeichen entfernen, Einzelne Zeile, Zeilen sortieren, Duplikate entfernen) und darunter deine KI-Prompts. Mit dem Suchfeld kannst du filtern.
- Klicke einen KI-Prompt an. Der Text wird an deinen Anbieter gesendet.
- Das Ergebnis wird als neuer Clip in deinem Verlauf gespeichert.
Methode 2: Schnellzugriff aus dem Kontextmenü
- Rechtsklick auf einen Text-Clip.
- Am unteren Ende des Kontextmenüs siehst du deine Schnellzugriff-Prompts (bis zu 5).
- Ein Klick wandelt den Text sofort um.
Um Schnellzugriff für einen Prompt zu aktivieren, gehe zu Einstellungen > KI und setze das Häkchen bei „Schnellzugriff" neben den am häufigsten genutzten Prompts. Bis zu 5 Prompts können gleichzeitig im Schnellzugriff sein.
Methode 3: Vision-Transformationen (Bild-Clips)
- Rechtsklick auf einen Bild-Clip.
- Auf das KI-Untermenü zeigen.
- Einen Vision-Prompt wählen (Text lesen, Bild beschreiben usw.).
- Das Bild wird an deinen KI-Anbieter gesendet. Das Ergebnis wird als neuer Text-Clip gespeichert.
Eingebaute Prompts
Beetroot bringt 10 fertige KI-Prompts mit:
| Prompt | Was er macht |
|---|---|
| Grammatik korrigieren | Korrigiert grammatikalische Fehler ohne den Sinn zu verändern |
| Beliebige Sprache zu Englisch | Erkennt die Sprache und übersetzt ins Englische |
| Zusammenfassen | Verdichtet den Text auf 2-3 Kernsätze |
| Geschäftlich formulieren | Formuliert in einem klaren, geschäftlichen Ton um |
| Als Code formatieren | Wendet korrekte Code-Einrückung und Formatierung an |
| Aufzählungspunkte | Wandelt Text in eine Stichpunktliste um |
| Vereinfachen | Formuliert in einfacher, klarer Sprache um |
| Kürzer machen | Verdichtet auf etwa die halbe Länge |
| Erklären | Erklärt in einfachen Worten für jeden verständlich |
| Schlüsseldaten extrahieren | Extrahiert Namen, Daten, Zahlen und URLs |
Eigene Prompts kannst du unter Einstellungen > KI anlegen (insgesamt bis zu 20 inklusive der eingebauten).
Fehlersuche
| Problem | Lösung |
|---|---|
| „API-Schlüssel in Einstellungen setzen" | Du hast für den ausgewählten Anbieter keinen API-Schlüssel hinterlegt. Gehe zu Einstellungen > KI. |
| „API-Schlüssel ist ungültig" | Prüfe deinen Schlüssel doppelt. Stelle sicher, dass er zum ausgewählten Anbieter passt. |
| „Anfrage hat das Zeitlimit überschritten (30 s)" | Der Anbieter hat zu lange gebraucht. Versuche es erneut oder wechsle zu einem schnelleren Modell. |
| „Leere Antwort" | Die KI hat nichts geliefert. Probiere einen anderen Prompt oder ein anderes Modell. |
| „Text ist zu lang für KI-Transformation" | Clips über 50.000 Zeichen können nicht verarbeitet werden. Kopiere einen kürzeren Abschnitt. |
| Lokales LLM „Fehlgeschlagen" | Stelle sicher, dass dein Modell-Server (Ollama oder LM Studio) läuft und der Endpunkt korrekt ist. |
Datenschutz
- Beetroot sendet nur dann Daten an einen KI-Anbieter, wenn du eine Transformation ausdrücklich anforderst.
- Bei Texttransformationen wird nur der konkrete Text-Clip gesendet. Bei Vision-Transformationen nur das jeweilige Bild.
- Dein gesamter Zwischenablage-Verlauf wird nie übertragen.
- Mit einem lokalen LLM verlässt überhaupt nichts deinen Rechner.
- Alle KI-API-Aufrufe laufen aus nativem Rust-Code heraus, ohne Browser-JavaScript und ohne dazwischengeschaltete Drittanbieter.
- API-Schlüssel werden lokal auf deinem Computer gespeichert und nie irgendwohin übertragen außer an den jeweiligen Anbieter.
Zuletzt aktualisiert: 2026-04-04