Bild
Kreuzung

17.07.2024 | Blog Generative KI im Unternehmen: So klappt’s auch mit dem Datenschutz

Immer mehr Unternehmen, Behörden und Kommunen verproben generative KI, um ihre Mitarbeitenden zu entlasten und effizienter zu arbeiten. Doch bei der Umsetzung ergeben sich oft besondere Herausforderungen, vor allem bei der Wahrung von Lese- und Zugriffsrechten. Lesen Sie in unserem Blog, wie Retrieval Augmented Generation (RAG) diese Probleme löst und wie Organisationen auch ihre bestehenden LLMs optimal nutzen können, ohne dabei den Datenschutz aus den Augen zu verlieren.
Eigenes LLM aufgesetzt, aber was ist mit den Benutzerrechten?

1. Die Herausforderung der Implementierung Generativer KI

Unternehmen, Behörden und Kommunen beschäftigen sich zunehmend damit, wie sie generative KI nutzbringend einsetzen können, um ihre Mitarbeitenden zu entlasten und effizienter zu arbeiten. Pilotprojekte werden ins Leben gerufen, schnell mal ein OpenAI oder ähnliche cloud-basierte Anbieter angebunden und getestet. Einige setzen sogar eigene Large Language Models (LLM) auf, mit dem Ziel organisationseigene Dokumente zusammenzufassen, interne Informationen zu recherchieren und daraus neue Texte zu entwerfen.

2. Technologische Hürden bei der Umsetzung

Die IT-Abteilungen der Organisationen sind hierbei meist sehr ambitioniert und kompetent. Oft funktionieren die Tests zu 80 Prozent gut, aber bei den letzten 20 Prozent, die für eine vollständige Lösung nötig sind, treten Schwierigkeiten auf. Dabei besteht eine große Herausforderung in der Berücksichtigung der Lese- und Zugriffsrechte – schließlich sollen keine Antworten mit sensiblen Informationen an unberechtigte Personen herausgegeben werden.

Oft werden dabei auch Daten dupliziert und niemand weiß mehr, welches das Original ist. In einigen Fällen dürfen diese Daten auch gar nicht hochgeladen werden. Andere wiederum stellen fest, dass Features wie Autovervollständigung, Folge-Fragen, Highlighting in Dokumenten, Kuration und Bewertung der Antworten, etc., welche sie aus anderen Applikationen gewohnt sind, oft fehlen, und erst projektspezifisch implementiert werden müssten. Man bräuchte jetzt eigentlich Software- oder Maschine Learning-Entwickler, welche die Applikation aus der Testphase in die Produktion heben. Das kann schnell zu 6-stelligen Projektkosten für eigene Teams oder externe Dienstleister führen. 

3. Unsere Lösung: Organisationsweite Suche mit Berücksichtigung der Nutzerrechte

Spätestens an diesem Punkt kommen Organisationen auf uns zu und wir unterstützen hier gern mit unserem Standardprodukt, das komplexe Features wie die oben genannten bereits enthält. Als Spezialist für Enterprise Search ist die sichere Recherche in organisationseigenen Daten unsere Kernkompetenz. Seit über 20 Jahren ermöglichen wir es Unternehmen, in ihren eigenen Daten relevante Informationen zu finden und dabei bestehende Zugriffsrechte der Nutzenden automatisch zu berücksichtigen. Das bedeutet, dass jeder Suchende nur die Informationen findet, die sie oder er auch berechtigt ist zu sehen – und das beginnt schon bei den Autocomplete-Vorschlägen der klassischen Suche. Das ist die wesentliche Voraussetzung dafür, dass die Berücksichtigung der Benutzerrechte auch für die Ergebnisse generativer KI funktioniert. 

4. Der RAG-Ansatz: Kombination von Sprachmodell und intelligenter Suche

Wie erreichen wir das? Wir arbeiten mit dem RAG-Ansatz (Retrieval-Augmented Generation). Hierbei wird ein GenAI-Sprachmodell mit unserer intelligenten Suchmaschine kombiniert. Bei Anfragen durchsuchen die KI-basierten Retrieval-Technologien der Enterprise Search die organisationseigenen Daten nach relevanten Informationen und stellen sie dem Sprachmodell zur Generierung der Antwort zur Verfügung. Dadurch basiert der Output des Sprachmodells immer auf aktuellen Informationen und das Risiko von Halluzinationen sinkt signifikant. Zudem berücksichtigt die Enterprise Search automatisch die Zugriffsrechte auf die Unternehmensdaten. Mitarbeiter oder Kunden erhalten in ihren Antworten nur Informationen, die sie auch berechtigt sind, zu sehen. Damit wird automatisch eine zentrale Datenschutz-Anforderung erfüllt, die in der aktuellen GenAI-Test-Euphorie übersehen oder zunächst bewusst ausgeklammert wird, weil sie sehr anspruchsvoll ist. Die Software iFinder ermöglicht es, alle relevanten Inhalte, such- und findbar, vektorisiert – also angereichert mit den Embeddings aus dem LLM UND mit den Zugriffsrechten - zur Verfügung zu stellen.

5. Erfolgreiche Integration bestehender LLMs

Wenn wir den Organisationen dann noch mitteilen, dass wir nicht nur ihr Problem mit den Lese- und Zugriffsrechten lösen, sondern ihr vorhandenes LLM verwenden können, um es mit unserer Suche zu kombinieren, sind sie hoch erfreut. So war ihre bisherige Arbeit mit dem LLM nicht umsonst und ihre Anforderungen für einen nutzbringenden Einsatz generativer KI als effiziente Mitarbeiterunterstützung werden erfüllt.

Ob die Firmen ihr eigenes LLM mitbringen oder wir in Absprache mit unseren Kunden ein passendes LLM für ihre Use Cases auswählen: Wir unterstützen Organisationen dabei, ihre eigenen Daten mit generativer KI zu nutzen, um durch eine optimierte Informationsbereitstellung die Produktivität zu steigern.

Fazit 

Pilotprojekte in Unternehmen und im öffentlichen Sektor zeigen, dass LLMs und generative KI die Mitarbeitenden entlasten werden. LLM-Projekte erfolgreich umzusetzen, ist für die Organisationen eine anspruchsvolle Aufgabe. Daher ist es sinnvoll sich von Beginn an KI-Spezialisten an Bord zu holen, bei denen diese Themen zum täglichen Brot gehören. 

Weiterführende Seiten und Artikel

Bild
Netzwerk

Generative KI: Vom Hype zur praktischen Anwendung in Unternehmen

Generative KI, die auf Large Language Models (LLMs) basiert, bietet Organisationen vielfältige Möglichkeiten, ihre Produktivität zu steigern. Sie stehen nun vor der Herausforderung, den bisherigen KI-Hype in konkrete Anwendungen im Business-Umfeld umzusetzen.
Blog lesen
Bild
Person in Neon-beleuchteter Umgebung

Retrieval Augmented Generation – Was hat es damit auf sich?

Ein Konzept, das einem im Bereich Enterprise Search immer häufiger begegnet ist “RAG”, kurz für "Retrieval Augmented Generation". Unser AI-Experte erläutert, was die Kern-Idee ist und welche Fragen bei der Umsetzung zu beachten sind.
Blog lesen
Bild
Flugzeuge

Maximale Effizienz: So profitieren Behörden und Unternehmen von Enterprise Search mit GenAI

Wie können Organisationen LLMs im Geschäftsumfeld nutzbringend und datenschutzkonform einsetzen? Unser KI-Experte ordnet die neuen Technologien ein und beschreibt Anwendungsfälle mit Potential für Unternehmen und Behörden.
Blog lesen

Der Autor

Daniel Manzke
Head of Engineering
Daniel begann seine Karriere im Dokumenten- und Wissensmanagement, wo er früh die Enterprise Search-Software von IntraFind integrierte und nutzte. In den letzten 10 Jahren gründete er ein eigenes KI-Unternehmen und verantwortete als CTO im Startup- und Finanzwesen-Bereich innovative Produkte und Softwarelösungen. Heute leitet er als Head of Engineering bei IntraFind die Weiterentwicklung des iFinder mit Leidenschaft und Expertise.
Bild
Daniel Manzke