ChatGPT und KI in der Versicherungsbranche – Fluch oder Segen?

Foto: Hepster
Hanna Bachmann ist Co-Founderin und CRO bei Hepster

Der enorme Hype, der durch die Veröffentlichung von ChatGPT im letzten November ausgelöst wurde, ist natürlich auch an der Versicherungsbranche nicht spurlos vorbeigegangen. Welche Chancen und Risiken eröffnen sich aber tatsächlich durch den Einsatz von KI und Chatbots wie ChatGPT? Ein Gastbeitrag von Hepster-Mitgründerin Hanna Bachmann.

Der enorme Hype, der durch die Veröffentlichung von ChatGPT im letzten November ausgelöst wurde, ist natürlich auch an der Versicherungsbranche nicht spurlos vorbeigegangen. Die Reaktionen decken das gesamte Spektrum menschlicher Emotionen ab – von ungebremster Euphorie über neutrale Zurückhaltung bis hin zur kategorischen Ablehnung. Welche Chancen und Risiken eröffnen sich aber nun tatsächlich durch den Einsatz von KI und Chatbots wie ChatGPT für Versicherer, Vermittler und Kunden?

KI ist nicht gleich KI

Tatsächlich lässt sich eine schnelle, pauschale Antwort à la „Daumen hoch“- oder „Daumen runter“-Emoji nicht geben. Dazu stellt sich die Situation zu differenziert dar. Zuerst einmal müssen wir zwischen KI, Chat-Bots im Allgemeinen und ChatGPT im Speziellen unterscheiden. Betrachten wir also zunächst die Künstliche Intelligenz und ihren Einsatz in der Assekuranz-Branche:

KI ist ein alter Hut für Versicherer

Spätestens seitdem die ersten InsurTechs auf der Bühne auftauchten, beschäftigen sich Versicherungsunternehmen mit dem Einsatz von Künstlicher Intelligenz und maschinellem Lernen für die Verarbeitung von Kunden- und Schadensdaten, Automatisierung der Kundenkommunikation und Aufdeckung von Betrugsversuchen. Mitarbeitern der Versicherungsunternehmen, aber auch den Maklern, wird viel Routine-Arbeit abgenommen, sie können sich wieder mehr auf die Kunden konzentrieren.

Gleichzeitig werden diese in die Lage versetzt, bei der Schadenserfassung via Apps und mobile Services mitzuhelfen und Abläufe zu beschleunigen. Über eigene, in die Webseite oder App eingebundene Chatbots lassen sich Anfragen vorqualifizieren und die Bearbeitung koordinieren. In diesem Bereich sind wir also schon ziemlich weit.

ChatGPT eignet sich nicht für den Assekuranz-Einsatz

Speziell nun die Benutzerschnittstelle ChatGPT, die auf die Logik und die Datenverknüpfungen von OpenAI zugreift, sollte aus der Versicherungs-Perspektive sehr kritisch und zurückhaltend betrachtet werden. Ein wichtiger Aspekt ist der Datenschutz: Versicherungsunternehmen unterliegen – zu Recht – sehr restriktiven Datenschutz- und Compliance-Vorgaben. ChatGPT mit Kundendaten zu füttern, um ein Deckungsrisiko zu berechnen, verbieten sich also schon von Vornherein. Weiterhin stellt aber bereits die gewerbliche Nutzung über das Unternehmensnetzwerk oder dienstlich gestellte Endgeräte einen Verstoß gegen die EU-DSGVO dar.

Wer die KI von OpenAI nutzt, um Content für den Unternehmens-Blog oder Flyer für die neue Police zu generieren, tauscht Daten mit einem Unternehmen in den Vereinigten Staaten aus, die immer noch keine zufriedenstellenden Vereinbarungen zum Schutz personenbezogener Daten mit der EU geschlossen haben. Immerhin hat die italienische Datenschutzbehörde ChatGPT für den Abruf aus der Repubblica Italiana sperren lassen. Ein weiterer Aspekt ist die Qualität der Antworten. Alleine Im Börsenkontext war jede dritte Antwort des „Chatbot Generative Pre-trained Transformer“ falsch. Zudem wurde die KI hinter dem Bot hauptsächlich mit Daten bis 2021 trainiert.

Was uns auch zu denken geben sollte, ist die Ankündigung von Elon Musk, einem der initialen Geldgeber von OpenAI, demnächst eine Konkurrenz-Version mit dem Namen TruthGPT entwickeln zu lassen. Diese soll eine „wahrheitssuchende“ KI werden, da ChatGPT zu sehr auf Political Correctness achtet. Vertrauensbildende Maßnahmen sehen anders aus.

ChatGPT ist kein Game-Changer für Versicherungsbetrüger

Zugegeben, bei der Fälschung von Schadendokumenten könnte ChatGPT dazu beitragen, dass diese schneller, einfacher und plausibler erstellt werden können. Nichtsdestotrotz haben schon vor der Verfügbarkeit von KI-Tools Menschen, die über ein Mindestmaß krimineller Energie verfügten, sehr fantasievoll digitale Hilfsmittel zum Fälschen von Dokumenten und Bildbelegen genutzt – erst Paint, dann Photoshop.

Hier hing es also schon vorher von der Kreativität und Detail-Sorgfalt der Betrüger ab, wie authentisch Meldungen und Fotos wirkten und Erfolg hatten. Dementsprechend wurden und werden in diesem Präventions-Bereich bereits Software-Lösungen eingesetzt, die auch ohne KI-Unterstützung nachträgliche Manipulationen von Bildern und Dokumenten erkennen und anzeigen. Tatsächlich konnten wir bisher noch keine Betrugsversuche bemerken, die eindeutig auf den Einsatz von AI beziehungsweise ChatGPT hindeuten würden.

KI in der Fraud-Erkennung ist weitaus mächtiger

Um die Erschleichung von unberechtigten Schadensregulierungen zu verhindern, gibt es Stand heute schon effektive und bewährte Methoden, die sich gegenseitig ergänzen. Zum einen muss in der digitalen Schadenmeldung sichergestellt werden, dass Fotos ausschließlich aus der App heraus gemacht werden können und es keine Verbindung zu externen Speichermöglichkeiten gibt. Auch darf kein direkter Zugriff von Bots oder anderen Tools auf Versicherungsdokumente ermöglicht werden. Weiterhin setzen Versicherer – wie schon erwähnt – seit geraumer Zeit automatisierte Applikationen zur Betrugserkennung ein.

Dazu gekommen sind jetzt Methoden mit KI-Unterstützung, die über enorme Rechenpower verfügen, ständig dazulernen und auf eine umfassende Datenbasis von Referenzfällen zurückgreifen können, die den Betrügern nicht zu Verfügung steht. Diese sind zum Beispiel in der Lage, auf Grundlage eines einfachen Fotos einer Autodelle direkt zu analysieren, ob das Bild zum beschriebenen Schadenhergang passt, wo und wann es angeblich aufgenommen wurde.

Zudem ist es möglich, aufgrund der enormen Datenbasis Vorhersagen zu treffen, in welchen Regionen eine besonders hohe Kumulierung entsprechender Schadensfälle erwartet werden kann. Die Quote der komplett dunkelverarbeiteten Regulierung steigt entsprechend immer weiter – und mittlerweile exponentiell an.

Die größen Impacts und Chancen

Allein schon aus Datenschutzgründen verbietet sich der Einsatz von ChatGPT in der Versicherungsbranche, von den Glaubwürdigkeitsproblemen ganz abgesehen. Ich wüsste nicht, wie sich dieses K.-o.-Kriterium in absehbarer Zeit in Wohlgefallen auflösen könnte. Ganz anders sieht es aus, wenn Effizienz, Geschwindigkeit, Kundenzufriedenheit und Betrugs-Prophylaxe im Fokus stehen. Hier sehe ich im Bereich Kundenkontakt den aktuell größten Impact und immense Chancen bei der DSGVO-konformen Nutzung von KI, die Gesellschaften, Maklern und Kunden zugutekommen können.

Sowohl in der unmittelbaren Schadenaufnahme als auch in der weiterführenden Kundenkommunikation können mittels Chatbots und Sprach-Bots viele wiederkehrende manuelle Arbeitsschritte wegfallen (Änderungen von Stammdaten, Produktfragen, Vorlagen). Sobald die Inhalte durch KI-unterstützte Spracherkennung zuverlässig erkannt und interpretiert werden, können sich die Mitarbeiter auf Ausnahmebearbeitung und Spezialfälle konzentrieren, das Service-Erlebnis für die Kunden nimmt entsprechend zu. Wenn die Versicherer auf dem Stand der Technik bleiben und ihre Produkte kontinuierlich weiterentwickeln, steigt auch nicht das Betrugs-Risiko.

Hanna Bachmann ist Co-Founderin und CRO bei Hepster

Weitere Artikel
Abonnieren
Benachrichtige mich bei
1 Kommentar
Inline Feedbacks
View all comments