GenAI im Versicherungssektor: Sieben Herausforderungen, die Versicherer lösen müssen

Elischa Göttmann, Pegasystems
Foto: Pegasystem
Elischa Göttmann: "Das Thema ist mit Risiken verbunden."

Generative KI verspricht Effizienz, bessere Produkte und personalisierten Kundenservice – auch in der Versicherungsbranche. Doch der Einsatz birgt rechtliche, technische und organisatorische Risiken. Pegasystems identifiziert sieben zentrale Herausforderungen für die Versicherer.

Generative KI verspricht der Versicherungsbranche enorme Fortschritte: vom personalisierten Kundenservice über zielgruppengenaue Produkte bis hin zu effizienteren Prozessen und fundierteren Entscheidungen. Doch so groß das Potenzial ist – der Weg dorthin ist komplex. Versicherungsunternehmen stehen vor technologischen, rechtlichen und kulturellen Herausforderungen, die sie nicht auf die leichte Schulter nehmen dürfen. Pegasystems nennt sieben zentrale Problemfelder, die es zu lösen gilt.

Datenschutz: Zwischen Innovation und DSGVO

Die Grundlage vieler GenAI-Anwendungen ist eine Vielzahl an Daten – darunter oft auch personenbezogene Informationen wie Kundenkorrespondenzen oder Schadensmeldungen. Damit geraten Versicherer unmittelbar in den Anwendungsbereich der DSGVO. „Ist es nicht möglich, die Daten zu anonymisieren, benötigen sie eine Rechtsgrundlage für die Verarbeitung nach Artikel 6 der DSGVO, beispielsweise die Einwilligung der Betroffenen, und müssen die in den Artikeln 13 und 15 aufgeführten Informations- und Auskunftspflichten beachten“, sagt Elischa Göttmann, Principal Solutions Consultant bei Pegasystems.


Das könnte Sie auch interessieren:

Hinzu kämen hohe Anforderungen an technische Schutzmaßnahmen nach Artikel 32. Auch bei der Auswahl der KI-Modelle ist laut Göttman Vorsicht geboten: Die Daten dürfen nicht außerhalb der EU verarbeitet oder gespeichert werden.

Urheberrecht: Wer darf was?

Ein weiteres juristisches Minenfeld liegt im Urheberrecht. Viele Sprachmodelle wurden mit frei verfügbaren Web-Inhalten trainiert – darunter Werke, die dem Schutz geistigen Eigentums unterliegen. Daraus ergeben sich für Unternehmen erhebliche Risiken. „Sie laufen Gefahr, die Modelle künftig nicht mehr verwenden zu dürfen oder Nutzungsgebühren zahlen zu müssen, wenn sie die Grundlage wichtiger Geschäftsprozesse nicht verlieren wollen“, sagt Göttmann, Auch Prompts und Ausgaben sind nicht geschützt – was den internen Know-how-Schutz erschwert. „Zwar lässt sich in Arbeits- oder Aufhebungsverträgen regeln, dass für das Unternehmen erstellte Prompts dessen Eigentum sind – dass ausscheidende Mitarbeitende bei einem neuen Arbeitgeber ähnliche Prompts schreiben, lässt sich indes kaum verhindern“, so Göttmann.

EU AI Act: Neue Regulierung mit Sprengkraft

Mit dem AI Act der EU steht eine umfassende Regulierung bevor. Besonders betroffen sind Lebens- und Krankenversicherungen, da ihre KI-Systeme als „Hochrisikoanwendungen“ eingestuft werden. Die Folgen sind einschneidend: „Versicherungsunternehmen müssen sicherstellen, dass sie die Vorgaben einhalten, etwa indem sie ein Risikomanagement aufbauen, Hochrisiko-KI unter menschliche Aufsicht stellen und allen Informations- sowie Transparenzpflichten nachkommen“, erklärt der Experte. Hinzu kommt eine verpflichtende Grundrechte-Folgenabschätzung. Auch bei externen Lösungen sind Versicherer verantwortlich: „Zwar sieht der EU AI Act einen Prüf- und Zertifizierungsprozess vor, der die Auswahl vereinfacht – dieser befindet sich allerdings noch in der Entwicklung“, sagt Göttmann.

Cybersecurity: Neue Risiken durch neue Technik

Der Einsatz von GenAI verlangt nach einer strategisch erweiterten Sicherheitsarchitektur. Nicht nur Datenschutzverletzungen und Datenabflüsse bei der Nutzung externer Dienste müssen vermieden werden – auch die wachsende Bedrohung durch KI-gestützte Cyberangriffe muss berücksichtigt werden. Göttmann: „Cyberkriminelle nutzen Generative KI unter anderem zur Verfeinerung ihrer Phishing-Kampagnen, für Betrugsversuche mit Deepfakes und zur kontinuierlichen Veränderung von Malware, um die Erkennungsmechanismen von Sicherheitslösungen auszutricksen.“ Die Folgen: Das Risikomanagement muss angepasst werden – doch dafür fehlen bislang ausreichend Erfahrungswerte.

Erklärbarkeit: Die Black Box aufbrechen

Ein zentraler Kritikpunkt an großen Sprachmodellen ist ihre mangelnde Transparenz. Ihre Funktionsweise ist kaum nachvollziehbar – weder für Mitarbeitende noch für Kunden. Das führt nicht nur zu Akzeptanzproblemen, sondern birgt auch regulatorische Risiken. Eine Möglichkeit, dies zu verhindern, sei es, die KI-Systeme so zu gestalten, dass sie ihre Ausgaben mit Quellenangaben versehen, sodass Mitarbeitende die Ergebnisse überprüfen können, so Göttmann.

Akzeptanz: Zwischen Begeisterung und Angst

Neben technischen und regulatorischen Aspekten ist auch die menschliche Komponente entscheidend. Neue Technologien lösen oft Widerstand aus – insbesondere dann, wenn sie bestehende Arbeitsroutinen infrage stellen. „Versicherungsunternehmen sollten Mitarbeitende daher frühzeitig in ihre KI-Pläne einbeziehen und Aufklärungsarbeit leisten, also erklären, wie KI-Tools die Mitarbeitenden bei langweiligen oder repetitiven Aufgaben entlasten, sodass sie mehr Zeit für spannendere, sinnstiftendere Tätigkeiten haben“, erklärt Göttmann. Darüber hinaus müssten die ethischen und rechtlichen Grenzen automatisierter Entscheidungen klar kommuniziert werden.

Modellgrenzen: Wenn Maschinen halluzinieren

GenAI ist laut Göttmann kein Allheilmittel: die Modelle basieren auf Wahrscheinlichkeiten und abstrahierten Trainingsdaten. Bei unerwarteten Eingaben kann es zu sogenannten Halluzinationen kommen, bei denen die KI plausibel klingende, aber falsche Antworten generiert. „Unternehmen müssen daher Mechanismen implementieren, die sogenannte ‚Out of Distribution‘-Daten erkennen, um fehlerhafte Ausgaben zu verhindern“, sagt der Experte. Eine zentrale Rolle spielt die Qualität und Vielfalt der Trainingsdaten. Fehlt es daran, können auch synthetische Daten helfen, doch auch hier lauert Gefahr: „Ein ‚Model Collapse‘ droht, wenn die synthetischen Daten nicht vielfältig genug sind oder nicht der Datenverteilung in der echten Welt entsprechen“, sagt Göttmann.

Fazit: Vorsprung durch Verantwortung

„Versicherungsunternehmen können es sich kaum leisten, auf Generative KI zu verzichten, allein schon, um dem Fachkräftemangel entgegenzuwirken und effizienter zu werden“, betont Göttmann. „Da das Thema allerdings mit Risiken verbunden ist, sollten sie es nicht überstürzt angehen, sondern Governance-Prozesse aufsetzen, um die Risiken systematisch zu minimieren – sowohl für neue als auch bestehende GenAI-Anwendungen.“

Weitere Artikel
Abonnieren
Benachrichtige mich bei
0 Comments
Inline Feedbacks
View all comments