Datenhoheit bei KI: Warum Ihr Unternehmen eine eigene Chat-Plattform braucht
Das Wichtigste in Kürze: 48 % der deutschen Unternehmen sehen Datenschutzanforderungen als Hemmnis beim KI-Einsatz, 39 % fürchten, dass Daten in falsche Hände geraten.[1] Und 46 % der Organisationen melden interne Datenlecks durch generative KI.[2] Die Antwort ist nicht weniger KI, sondern mehr Kontrolle. Eine selbst betriebene Chat-Plattform wie LibreChat gibt Ihrem Unternehmen Zugang zu allen relevanten KI-Modellen — ohne Unternehmensdaten an Drittanbieter zu verlieren. Datenhoheit und KI-Nutzung schließen sich nicht aus. Im Gegenteil: Wer die Infrastruktur kontrolliert, kann schneller und sicherer experimentieren.
Warum Datenschutz kein Argument gegen KI ist
Der häufigste Satz, den ich in Erstgesprächen mit Mittelständlern höre: „Wir würden KI gerne einsetzen, aber Datenschutz." Und der Satz ist nachvollziehbar. 48 % der deutschen Unternehmen sehen die hohen Anforderungen an den Datenschutz als Hemmnis beim KI-Einsatz. 39 % haben Angst, dass Daten in falsche Hände geraten.[1] Dazu kommen 53 % Verunsicherung durch rechtliche Unklarheiten.[1]
Die Bedenken sind berechtigt. Aber die Schlussfolgerung — KI nicht nutzen — ist falsch.
Was passiert, wenn Unternehmen den KI-Zugang verweigern? Ihre Mitarbeitenden nutzen KI trotzdem. Über 80 % der Beschäftigten verwenden nicht freigegebene KI-Tools am Arbeitsplatz.[3] 38 % geben vertrauliche Daten in KI-Plattformen ein, ohne dass es eine Unternehmensrichtlinie dafür gibt.[4] Das Ergebnis: Schatten-KI mit null Kontrolle. Die Cisco-Studie 2025 beziffert die Konsequenz: 46 % der Organisationen berichten von internen Datenlecks durch generative KI.[2]
Die Alternative zu unkontrollierter KI-Nutzung ist nicht Verbot. Es ist kontrollierte Infrastruktur.
Wer seinen Mitarbeitenden eine sichere, interne KI-Plattform bereitstellt, löst drei Probleme gleichzeitig: Schatten-KI wird überflüssig, Datenflüsse werden kontrollierbar, und die Fachabteilungen bekommen den Zugang, den sie brauchen, um eigene Anwendungsfälle zu finden. Genau das beschreibe ich in „KI ist kein IT-Thema": Die IT stellt die Infrastruktur bereit, die Fachabteilungen experimentieren darin. Datenhoheit ist die Voraussetzung dafür, dass dieser Bottom-up-Ansatz funktioniert.
Was bedeutet Datenhoheit bei KI konkret?
Datenhoheit im KI-Kontext heißt: Sie bestimmen, welche Daten wohin fließen. Nicht der Anbieter. Nicht die Voreinstellungen. Sie.
Drei Ebenen sind relevant:
Infrastruktur-Ebene. Wo läuft die Software? Auf Servern, die Sie kontrollieren — ob eigenes Rechenzentrum, europäischer Cloud-Anbieter oder ein dedizierter Server bei einem deutschen Hoster. Die ZEW-Studie 2025 zeigt: Über 80 % der deutschen Unternehmen fühlen sich bei mindestens einem Technologiefeld von außereuropäischen Anbietern abhängig, besonders bei Software und generativer KI.[5] 52 % fühlen sich konkret bei generativer KI von nicht-europäischen Anbietern abhängig.[5] Eine selbst gehostete Plattform durchbricht diese Abhängigkeit zumindest auf der Infrastruktur-Ebene.
Datenfluss-Ebene. Welche Daten verlassen Ihr Netzwerk und wohin? Bei einer selbst gehosteten Plattform bleibt die Konversationshistorie — Fragen, Antworten, Kontexte — auf Ihrer Infrastruktur. An die KI-API des Anbieters gehen nur die einzelnen Anfragen, und selbst hier können Sie steuern, welche Anbieter mit welchen Verträgen angebunden werden. Enterprise-API-Verträge von OpenAI, Anthropic oder Google garantieren vertraglich, dass Eingabedaten nicht für Modelltraining verwendet werden.
Governance-Ebene. Wer darf was? Nutzergruppen, Modellzugriff, Datenklassifizierung. Eine interne Plattform erlaubt es, dem Vertrieb andere Modelle freizugeben als der Rechtsabteilung. Oder bestimmte Modelle nur für nicht-sensible Aufgaben zuzulassen. Diese Granularität bieten SaaS-Lösungen wie ChatGPT Team oder Business schlicht nicht.
| Kriterium | ChatGPT Team/Business | Selbst gehostete Plattform |
|---|---|---|
| Datenverarbeitung | OpenAI-Server (USA/EU) | Eigene Infrastruktur |
| Konversationsspeicherung | Beim Anbieter | Auf eigenen Servern |
| Modellauswahl | Nur OpenAI | Alle Anbieter frei wählbar |
| Nutzerverwaltung | Basis-Rollen | Volle Kontrolle |
| Kosten pro Nutzer | 25–60 €/Monat (pauschal) | API-Kosten nach Nutzung |
| Vendor Lock-in | Hoch | Keiner |
LibreChat: die Open-Source-Lösung für kontrollierte KI-Nutzung
LibreChat ist eine Open-Source-Chat-Plattform, die alle großen KI-Anbieter über eine einzige Oberfläche zugänglich macht. Selbst gehostet, frei konfigurierbar, mit Enterprise-Funktionen wie Multi-User-Authentifizierung, Rollenmanagement und Konversationssuche.[6]
Warum gerade LibreChat? Weil es drei Anforderungen vereint, die sonst in Konflikt stehen:
Vertraute Benutzeroberfläche. Ihre Mitarbeitenden bekommen ein Chat-Interface, das sie von ChatGPT kennen. Kein Umlernen, keine Hürde. Die Oberfläche unterstützt Funktionen wie Konversationsverzweigung, Dateianhänge, Code-Interpreter und sogar Artefakte (inline Visualisierungen und Diagramme). Für die Fachabteilungen fühlt es sich an wie ChatGPT. Unter der Haube ist es Ihre Infrastruktur.
Multi-Provider-Architektur. LibreChat unterstützt OpenAI (GPT-5.2), Anthropic (Claude Opus 4.6, Sonnet 4.6), Google (Gemini), Mistral, Azure OpenAI, AWS Bedrock und jede OpenAI-kompatible API.[6] Nutzer können innerhalb eines Chats zwischen Modellen wechseln. Die IT konfiguriert, welche Modelle verfügbar sind. Neue Modelle einbinden? API-Key eintragen, Konfiguration anpassen, fertig.
Volle Kontrolle über Daten. Die Plattform läuft auf Ihren Servern. Konversationen, Nutzerprofile, hochgeladene Dateien bleiben in Ihrer Infrastruktur. An die KI-Anbieter gehen nur die API-Anfragen — und welche Anbieter das sind, entscheiden Sie.
Die technische Architektur besteht aus fünf Komponenten: der LibreChat-Anwendung selbst (Node.js), MongoDB für die Datenspeicherung, MeiliSearch für die Konversationssuche, einer optionalen RAG-API für dokumentenbasierte Antworten und PostgreSQL als zusätzliche Datenbank.[6] Das klingt nach Komplexität, ist in der Praxis aber mit Docker Compose in einer Stunde aufgesetzt.
Die 2026-Roadmap bringt zusätzlich ein Admin-Panel mit grafischer Konfiguration (keine YAML-Dateien mehr), Agent Skills mit programmatischem Tool-Aufruf und interaktive Workflows mit Human-in-the-Loop-Freigaben.[7] Alle Features bleiben in der selbst gehosteten Version kostenlos.
Modell-Agilität: der unterschätzte strategische Vorteil
Alle vier bis sechs Wochen erscheint ein neues KI-Modell, das den Vorgänger in bestimmten Benchmarks übertrifft. GPT-5.2, Claude Opus 4.6, Gemini 3 Pro, Kimi K2.5 — der Innovationszyklus ist beispiellos. Wer sich an einen einzigen Anbieter bindet, verpasst Fortschritte oder zahlt Wechselkosten.
Mit einer Multi-Provider-Plattform wie LibreChat sieht die Gleichung anders aus:
Neues Modell verfügbar? API-Key eintragen, testen, entscheiden. Kein Beschaffungsprozess, kein neuer Vertrag, keine Migration. Wenn Claude für juristische Texte besser funktioniert als GPT, nutzen Sie Claude für die Rechtsabteilung und GPT für den Vertrieb. Wenn ein europäischer Anbieter wie Mistral ein Modell herausbringt, das für Ihren Anwendungsfall reicht, binden Sie es ein und reduzieren die Abhängigkeit von US-Anbietern.
Das ist Modellsouveränität in der Praxis. Nicht als theoretisches Konzept, sondern als Architekturentscheidung, die heute getroffen und morgen genutzt wird.
Ein konkretes Szenario: Ein Unternehmen hat LibreChat mit OpenAI-API aufgesetzt. Zwei Monate später erscheint ein neues Modell mit starker Reasoning-Leistung und niedrigeren API-Kosten. Mit einer Multi-Provider-Plattform ist das Modell in zehn Minuten eingebunden. Ohne diese Architektur wäre es ein Evaluierungsprojekt, ein Beschaffungsprozess und eine Migration.
Wichtig bei Open-Source-Modellen: Viele der leistungsstärksten Open-Weight-Modelle kommen inzwischen aus China — Kimi K2.5 (Moonshot AI), DeepSeek V3, Minimax. Diese Modelle lassen sich lokal oder auf europäischen Servern betreiben, und dann bleiben die Daten in Ihrer Infrastruktur. Aber wer die offiziellen APIs dieser Anbieter nutzt, schickt seine Daten auf chinesische Server — das widerspricht jeder Datenhoheitsstrategie. Die Regel ist einfach: Open-Source-Modell selbst hosten = gut. Offizielle API eines chinesischen Anbieters nutzen = Datenhoheit aufgeben.
Die Kostenimplikation ist erheblich — aber differenzierter, als es auf den ersten Blick scheint. API-basierte Nutzung wird pro Token abgerechnet. GPT-5.2 kostet derzeit 1,75 Dollar pro Million Input-Tokens und 14 Dollar pro Million Output-Tokens. Claude Opus 4.6 liegt bei 5 Dollar Input und 25 Dollar Output pro Million Tokens.[8]
Für Gelegenheitsnutzer rechnet sich das: Ein Mitarbeiter, der KI ein paar Mal pro Woche für Zusammenfassungen oder kurze Texte nutzt, verbraucht 2 bis 5 Euro pro Monat an API-Kosten. Für Power User sieht die Rechnung anders aus: Wer KI den ganzen Tag intensiv nutzt — lange Dokumente analysiert, ausführliche Texte generiert, komplexe Prompts iteriert —, kann über die API schnell bei mehreren hundert Euro pro Monat landen. In diesen Fällen sind Flatrate-Angebote wie ChatGPT Pro (200 $/Monat) oder Claude Max (100–200 $/Monat) wirtschaftlicher.
Der strategische Vorteil einer zentralen Plattform wie LibreChat: Sie können beides kombinieren. API-Zugang über die Plattform für die breite Masse der Gelegenheitsnutzer, und für Power User ergänzend direkte Subscriptions bei den Anbietern. So zahlen Sie nie mehr als nötig.
| Kostenposition | ChatGPT Business | LibreChat + APIs |
|---|---|---|
| Pro Nutzer/Monat (pauschal) | ~25 € | — |
| API-Kosten: Gelegenheitsnutzer/Monat | — | 2–5 € |
| API-Kosten: Power User/Monat | — | 50–300 €+ (oder Flatrate-Subscription) |
| Server-Hosting | Inklusive | 20–100 €/Monat gesamt |
| Einrichtung | Keine | 4–8 Stunden (einmalig) |
| 50 Nutzer (davon 5 Power User), 12 Monate | ~15.000 € | ~4.000–9.000 € (API) + ggf. Subscriptions |
Die Zahlen variieren je nach Nutzungsintensität. Das Muster: Für die Mehrheit der Mitarbeitenden — Gelegenheitsnutzer, die KI ein paar Mal pro Woche einsetzen — ist API-Zugang über eine zentrale Plattform die günstigste Option. Für die Handvoll Power User rechnen sich Flatrate-Subscriptions. Copilot und ChatGPT Business verlangen dagegen den gleichen Preis für jeden Nutzer, ob Power User oder Gelegenheitsnutzer.
DSGVO und EU AI Act: was Sie beachten müssen
Datenschutz bei KI ist kein optionales Extra. Es ist geltendes Recht. Und wer eine eigene Infrastruktur betreibt, hat deutlich mehr Handlungsspielraum als bei einer reinen SaaS-Lösung.
DSGVO-Anforderungen. Die deutschen Datenschutzaufsichtsbehörden haben 2024 eine umfassende Orientierungshilfe für den DSGVO-konformen Einsatz von KI veröffentlicht.[9] Die Kernforderung: Unternehmen müssen als Verantwortliche sicherstellen, dass personenbezogene Daten nur zweckgebunden verarbeitet werden, Auftragsverarbeitungsverträge (AVV) mit allen Dienstleistern bestehen und technisch-organisatorische Maßnahmen den Datenschutz gewährleisten.
Mit einer selbst gehosteten Plattform können Sie genau das umsetzen: Die Konversationsdaten bleiben auf EU-Servern. Die API-Anbindungen werden über AVV-konforme Verträge geregelt (OpenAI, Anthropic und Google bieten diese für Enterprise-API-Kunden). Und Sie können technisch erzwingen, dass bestimmte Datenklassen (Personaldaten, Kundendaten) nicht an bestimmte APIs weitergeleitet werden.
EU AI Act. Die KI-Verordnung fordert seit Februar 2025, dass alle Mitarbeitenden, die KI nutzen, über ausreichende KI-Kompetenz verfügen.[10] Ab August 2026 gelten zusätzliche Anforderungen für Hochrisiko-KI-Systeme. Für den typischen Chat-Einsatz (Texterstellung, Recherche, Zusammenfassungen) fallen die meisten Anwendungen nicht in die Hochrisiko-Kategorie. Aber die Dokumentation des KI-Einsatzes — welche Modelle, für welche Aufgaben, mit welchen Leitplanken — ist in jedem Fall sinnvoll.
Eine zentrale Plattform vereinfacht diese Dokumentation erheblich. Statt nachzuverfolgen, wer welches Tool mit welchem Account nutzt, haben Sie eine einzige Stelle: Nutzungsstatistiken, Modellauswahl und Governance-Regeln an einem Ort.
Wie ich im Leitfaden zu KI im Mittelstand schreibe: Nutzen Sie die Compliance-Anforderungen als Anlass, Grundlagen zu schaffen, die Sie ohnehin brauchen. Klare Richtlinien, Schulungen, Dokumentation. Das ist nicht Bürokratie. Das ist die Basis, auf der KI-Projekte skalieren.
IT als Enabler: die praktische Umsetzung von „KI ist kein IT-Thema"
In meinem Artikel „KI ist kein IT-Thema" argumentiere ich, dass die besten KI-Anwendungsfälle nicht von der IT kommen, sondern von den Fachabteilungen, die ihre Prozesse kennen. 95 % der KI-Pilotprojekte scheitern, weil KI als zentrales IT-Projekt aufgesetzt wird, statt den Anwendern die Werkzeuge in die Hand zu geben.[11]
LibreChat ist die praktische Umsetzung dieser These.
Die IT-Abteilung setzt die Plattform auf, konfiguriert die Modelle, definiert die Zugriffsrechte, stellt Sicherheit und Compliance sicher. Das ist IT-Kernkompetenz. Infrastruktur, die funktioniert.
Dann übernehmen die Fachabteilungen. Die Einkäuferin testet, ob Claude Lieferantenvergleiche schneller aufbereitet. Der Vertriebsleiter probiert, ob GPT-5.2 Angebotsentwürfe erstellen kann. Die Personalabteilung experimentiert mit Stellenausschreibungen. Niemand muss bei der IT einen Antrag stellen. Die Plattform steht, die Modelle sind konfiguriert, die Leitplanken definiert. Innerhalb dieses Rahmens ist Experimentieren erwünscht.
| Rolle | Aufgabe bei LibreChat |
|---|---|
| IT | Hosting, Konfiguration, Updates, Nutzerverwaltung, API-Key-Management, Sicherheit |
| Datenschutz | AVV mit API-Anbietern, Datenklassifizierung, Nutzungsrichtlinien |
| Geschäftsführung | Budget, strategischer Rahmen, Experimentierkultur |
| Fachabteilungen | Nutzen, experimentieren, Use Cases finden, Feedback geben |
Dieses Modell skaliert. Es skaliert, weil die IT nicht für jeden neuen Anwendungsfall ein Projekt aufsetzen muss. Es skaliert, weil neue Modelle ohne Beschaffungsprozess eingebunden werden. Und es skaliert, weil die KI-Kompetenz dort entsteht, wo sie gebraucht wird: am Schreibtisch der Anwender.
Schritt für Schritt: LibreChat im Unternehmen einführen
Eine LibreChat-Einführung ist kein Sechsmonatsprojekt. In einer Woche können Sie von null zur produktiven Plattform kommen. So sieht der Weg aus.
Tag 1–2: Infrastruktur aufsetzen. Server bei einem europäischen Hoster (Hetzner, Netcup, IONOS) oder in der eigenen Infrastruktur bereitstellen. LibreChat mit Docker Compose installieren. Grundkonfiguration: Authentifizierung, Startseite, erste API-Keys. Technische Anforderungen: mindestens 2 GB RAM, 20 GB Speicher. Kosten: ab 10–20 Euro pro Monat für einen dedizierten Server.
Tag 3: Modelle konfigurieren. API-Keys für die gewünschten Anbieter einrichten. Meine Empfehlung für den Start: OpenAI (GPT-5.2 für Allzweck und Reasoning) und Anthropic (Claude Sonnet 4.6 für längere Texte und Analysen — bestes Preis-Leistungs-Verhältnis). Später: europäische Anbieter wie Mistral für kostengünstige Alltagsaufgaben. Bei Open-Source-Modellen chinesischer Herkunft: nur selbst gehostet nutzen, nie über deren offizielle APIs. Nutzergruppen und Zugriffsrechte definieren.
Tag 4: Richtlinien und Governance. KI-Richtlinie auf einer Seite: Welche Daten dürfen eingegeben werden? Welche nicht? Wie werden Ergebnisse geprüft? Wer ist Ansprechpartner bei Fragen? Diese Richtlinie ist die Grundlage für alles Weitere. Ohne sie entsteht Unsicherheit. Mit ihr entsteht Experimentierfreude.
Tag 5–7: Pilotgruppe und Rollout. Erst eine Pilotgruppe von 5–10 Personen aus verschiedenen Abteilungen. Kurze Einführung (30 Minuten), dann machen lassen. Feedback sammeln. Dann schrittweiser Rollout an alle Mitarbeitenden.
Wie ich in meinem Artikel zu KI-Anwendungen beschreibe: Die am weitesten verbreitete KI-Anwendung — Textgenerierung und Zusammenfassung — hat die niedrigste Einstiegshürde. Eine Chat-Plattform deckt genau diesen Einstiegspunkt ab. Von dort aus wachsen die Anwendungsfälle organisch.
Was LibreChat nicht löst
Ehrlichkeit gehört dazu. LibreChat ist kein Allheilmittel.
API-Anfragen verlassen Ihr Netzwerk. Ja, die Plattform ist selbst gehostet. Aber die eigentliche KI-Verarbeitung findet bei den API-Anbietern statt. Wenn Sie GPT-5.2 nutzen, gehen Ihre Anfragen an OpenAI. Enterprise-API-Verträge garantieren, dass die Daten nicht für Training verwendet werden, aber sie verlassen trotzdem Ihre Infrastruktur. Für absolut vertrauliche Daten (Geschäftsgeheimnisse, Personaldaten) ist die Lösung: lokale Modelle über Ollama einbinden. LibreChat unterstützt das. Die Leistung lokaler Modelle liegt aber noch hinter den großen Cloud-Modellen.
Kein Ersatz für spezialisierte Lösungen. LibreChat ist ein Chat-Interface. Für Dokumentenverarbeitung, CRM-Integration oder automatisierte Workflows brauchen Sie spezialisierte Tools oder eigene Entwicklung. LibreChat ist der Einstiegspunkt und das Experimentierfeld, nicht die Endlösung für jeden Anwendungsfall.
Betrieb erfordert Mindest-Know-how. Jemand muss Updates einspielen, Backups einrichten und bei Problemen eingreifen. Für Unternehmen ohne IT-Ressourcen gibt es Managed-Hosting-Anbieter, die LibreChat betreiben — aber dann delegieren Sie wieder ein Stück Kontrolle.
Fazit: Kontrolle statt Verzicht
Die Zahlen sind eindeutig. 52 % der Unternehmen in der Informationswirtschaft fühlen sich bei generativer KI von nicht-europäischen Anbietern abhängig.[5] 81 % der deutschen Führungskräfte sind heute besorgter über digitale Souveränität als vor einem Jahr.[12] 62,5 % sehen garantierte EU-Datenspeicherung als entscheidendes Kriterium für künftige Software-Auswahl.[13]
Die Antwort auf diese Bedenken ist nicht, auf KI zu verzichten. Damit fallen Sie zurück. Die Antwort ist, die Infrastruktur zu kontrollieren.
Drei Schritte, die Sie nächste Woche starten können:
Server aufsetzen, LibreChat installieren. Ein europäischer Hoster, Docker Compose, eine Stunde Einrichtung. Die technische Hürde ist niedriger als die meisten annehmen.
API-Keys für zwei Anbieter einrichten. OpenAI und Anthropic als Startpaket. Enterprise-API-Verträge abschließen. Kosten: nutzungsbasiert, typischerweise einstellige Eurobeträge pro Person und Monat.
Pilotgruppe starten, Richtlinie schreiben, machen lassen. Fünf bis zehn Personen aus verschiedenen Abteilungen. Eine Seite Nutzungsrichtlinie. Dann: Experimentieren innerhalb klarer Leitplanken.
Datenhoheit bei KI ist keine Luxusanforderung für Großkonzerne. Es ist ein Infrastrukturthema, das sich mit Open-Source-Tools und überschaubarem Aufwand lösen lässt. Die Alternative — entweder unkontrollierte Schatten-KI oder gar keine KI-Nutzung — ist in beiden Fällen teurer.
Wenn Sie wissen wollen, wie Sie Datenhoheit und KI-Nutzung in Ihrem Unternehmen vereinen, sprechen Sie mich an. Ich begleite den Weg von der Architekturentscheidung über die Einrichtung bis zum Rollout in die Fachabteilungen.
Dieser Artikel wird regelmäßig aktualisiert. Letzte Aktualisierung: Februar 2026.
Fußnoten
-
Bitkom e.V., „Künstliche Intelligenz 2025", Befragung von 604 Unternehmen ab 20 Beschäftigten, KW 27–32/2025. ↩ ↩2 ↩3
-
Cisco, „2025 Data Privacy Benchmark Study", 2.600 Befragte in 12 Ländern, April 2025. ↩ ↩2
-
UpGuard / Microsoft, Shadow AI Research, 2025. Über 80 % der Beschäftigten nutzen nicht freigegebene KI-Tools am Arbeitsplatz. ↩
-
CybSafe / National Cybersecurity Alliance, Studie zu GenAI-Nutzung am Arbeitsplatz, Q4 2024. ↩
-
ZEW Mannheim, „Digitale Souveränität: Unternehmen sehen Abhängigkeit bei KI und Software", repräsentative Befragung von ca. 1.100 Unternehmen, September 2025. ↩ ↩2 ↩3
-
LibreChat, Open-Source-Repository und Dokumentation, github.com/danny-avila/LibreChat, Stand Februar 2026. ↩ ↩2 ↩3
-
LibreChat, „2026 Roadmap: Admin Panel, Dynamic Context & More", Blogbeitrag, Februar 2026. ↩
-
OpenAI API Pricing (GPT-5.2: $1,75/$14 pro M Tokens) und Anthropic API Pricing (Claude Opus 4.6: $5/$25 pro M Tokens; Claude Sonnet 4.6: $3/$15 pro M Tokens), Stand Februar 2026. ChatGPT Pro: 200 $/Monat (Flatrate). Claude Max: 100–200 $/Monat (Flatrate). ↩
-
Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK), Orientierungshilfe zum Einsatz von KI-Anwendungen, 2024. ↩
-
EU KI-Verordnung (AI Act), Artikel 4 — KI-Kompetenzpflicht, in Kraft seit 02.02.2025. ↩
-
MIT NANDA, „The GenAI Divide: State of AI in Business 2025", August 2025. ↩
-
HarfangLab, Cybersecurity Survey, Q2 2025. 81 % der deutschen Führungskräfte sind besorgter über digitale Souveränität als im Vorjahr. ↩
-
Myra Security, „State of Digital Sovereignty 2025", 2025. ↩
Häufige Fragen
Was kostet eine selbst gehostete KI-Chat-Plattform?
Die Plattform selbst (z. B. LibreChat) ist Open Source und kostenlos. Hosting-Kosten beginnen bei 20–50 Euro pro Monat für einen einfachen Server. Hinzu kommen API-Kosten der KI-Anbieter, die sich nach Nutzung richten — typischerweise 2–10 Euro pro aktivem Nutzer und Monat. Die Gesamtkosten liegen damit oft unter den 25–60 Euro pro Nutzer, die ChatGPT Business oder Enterprise kosten.
Ist LibreChat DSGVO-konform?
LibreChat selbst verarbeitet keine personenbezogenen Daten — es ist eine Benutzeroberfläche, die Anfragen an KI-Modelle weiterleitet. Entscheidend für die DSGVO-Konformität ist, wo die Plattform gehostet wird (EU-Server empfohlen) und welche KI-APIs angebunden werden. Mit europäischen Hosting-Anbietern und API-Verträgen, die eine Auftragsverarbeitung nach Art. 28 DSGVO regeln, lässt sich eine konforme Lösung aufsetzen.
Welche KI-Modelle kann ich mit LibreChat nutzen?
LibreChat unterstützt alle gängigen Anbieter: OpenAI (GPT-5.2), Anthropic (Claude Opus 4.6, Sonnet 4.6), Google (Gemini), Mistral, AWS Bedrock, Azure OpenAI und jede OpenAI-kompatible API. Sie können mehrere Anbieter gleichzeitig konfigurieren und Nutzer zwischen Modellen wechseln lassen. Neue Modelle lassen sich durch Hinzufügen eines API-Keys in Minuten einbinden. Vorsicht bei Open-Source-Modellen chinesischer Anbieter (Kimi, DeepSeek): Wenn diese über die offiziellen APIs genutzt werden, fließen Daten auf chinesische Server.
Brauche ich ein IT-Team, um LibreChat zu betreiben?
Für die Ersteinrichtung brauchen Sie jemanden mit grundlegenden Docker-Kenntnissen — ein erfahrener Systemadministrator oder ein externer Dienstleister schafft das in einem Tag. Der laufende Betrieb ist wartungsarm: Updates einspielen, Nutzerverwaltung, API-Keys pflegen. Das kann eine IT-affine Person nebenbei erledigen. Bei größeren Deployments empfiehlt sich eine Managed-Hosting-Lösung.