ChatGPT: „Chat with me!“

ChatGPT
Foto: PantherMedia
ChatGPT hält viele Verlockungen bereit. Aber welche sind für die Versicherer wirklich von Vorteil?

Noch sind die Versicherer beim Hype-Thema ChatGPT in der Findungsphase. Etwa die Hälfte der angefragten Häuser bastelt an der Strategie und macht daher noch keine Aussage. Die andere Hälfte baut ihre bisherigen KI-Modelle aus und definiert Use Cases für ChatGPT. Kalt lässt das Thema keinen.

Auf die Frage, wo Versicherer den Chatbot einsetzen können, antwortet ChatGPT umfangreich. Er nennt und beschreibt Kundenbetreuung, Schadenmeldung, Versicherungsabschlüsse, Policen- und Vertragsmanagement und Risikobewertung. Aber, so merkt der Bot an, könne er als KI-Tool den menschlichen Kontakt nicht vollständig ersetzen. Für die bestmögliche Kundenbetreuung sollten Versicherer ChatGPT und menschlichen Kundenservice kombinieren. Zudem sei Datenschutz wichtig und müsse bei der Implementierung von KI-Systemen berücksichtigt werden, um die Vertraulichkeit und Sicherheit der Kundendaten zu gewährleisten. Eine durchaus beeindruckende und dennoch flache Antwort. Die Realität ist komplexer: der von ChatGPT salopp ergänzte Datenschutz setzt den Einsatzmöglichkeiten nämlich Grenzen.

Viele Einsatzmöglichkeiten

ChatGPT fiel nicht vom Himmel, sondern entwickelt bisherige Methoden der Künstlichen Intelligenz (KI) weiter, habe aber, so Swiss Life, das enorme Potenzial der KI für „Viele erstmals eindrucksvoll erlebbar gemacht“. Laut Canada Life eröffnet KI Versicherern in Zukunft vielfältige Möglichkeiten, man lote derzeit den sinnvollen Einsatz aus. Die Alte Leipziger sehe in KI-Plattformen wie ChatGPT das Potenzial, Kundenerlebnis und -service deutlich zu verbessern und schneller und personalisierter zu gestalten. Derzeit prüfe man, ob und wie sich ChatGPT und andere Large Language Models (LLM) einsetzen ließen, mit Fokus auf Kommunikation und Interaktion mit den Kunden. ChatGPT könne helfen, im Kundenservice schnelle Antworten auf häufige Fragen bereitzustellen. Swiss Life sei es wichtig, dass der Kunde selbst bestimmen könne, wie er kommunizieren wolle. Man sei überzeugt, dass KI bei der Informationsaufnahme und -verarbeitung im Kundenservice Nutzen stiften werde. Erste positive Erfahrungen habe man mit sprachbasierten KI-Prozessen gemacht, über die sich Kunden schneller mit den passenden Fachexperten vernetzen könnten. Auch im Schadenmanagement könnten Prozesse teilweise automatisiert werden. Spannend sei, ob gerade in sensiblen Phasen wie einer Schadenaufnahme, eine proaktive Nutzung erfolgen werde. Aktuell definiere Swiss Life Use Cases.

Auch Axa arbeite nicht konkret mit ChatGPT, setze aber auf KI-Unterstützung. Zum Beispiel bearbeite ein Chatbot auf Axa.de mehrere hunderttausend Kundendialoge und Anfragen pro Jahr fallabschließend. Er könne nicht nur Produktinformationen zur Verfügung stellen, sondern auch individuelle Kundenanfragen zu Verträgen sowie direkte Serviceanfragen (wie Adressänderung, Versicherungskarte oder IVK anfordern…) bearbeiten. Axa sehe Potenzial, die Fähigkeiten des Chatbots mit LLMs wie ChatGPT weiter zu verbessern, um noch kundenfreundlichere Dialoge zu führen und weitere kontextbezogene Antworten zu liefern. Im Bereich Schaden sei beispielsweise eine selbst entwickelte KI im Einsatz, die in fünf Minuten 500.000 Schadenakten überprüfe und die Mitarbeiter gut dabei unterstütze, mögliche Regresse in der Sachversicherung effizienter zu erkennen, um unnötige Kosten für die Versicherten zu vermeiden.

Auch hepster sehe Einsatzmöglichkeiten bei Customer Support und Schadenkommunikation, bei Plausibilitätsprüfungen von Schadenbeschreibungen oder Rechnung, sowie der Kundenberatung zu bestehenden Policen oder Neuabschlüssen – aber nur für ein bis zwei Produkte. „Allerdings müssen für diese Einsatzmöglichkeiten über ChatGPT gewisse Voraussetzungen geschaffen werden, dass die KI das interne Regelwerk der jeweiligen Versicherer „versteht“ und auf bestimmte Unternehmensdaten zugreifen kann”, schränkt Alexander Hornung, Co-Founder und CPO von hepster, ein. Die Bayerische plane gemäß ihrer KI-Roadmap nach einem einjährigen Test regelbasierter Chatbots nun einen GPT-basierten Prototypen für den Kundensupport zu entwickeln. Im Angebots- und Bestandsprozess würden Ansätze für predictive customer care erprobt. Im Schadenmanagement setzten die Münchner auf KI-Ansätze bei der Betrugserkennung. Mit ChatGPT kann es einfacher werden, Versicherungsbetrugsversuche zu entdecken – gleichzeitig kann das Tool aber auch Betrugsversuche fördern. Überwiegt hier Schaden oder Nutzen?

Chancen und Risiken

Laut Ergo müssen wie bei allen neuen Technologien Chancen und Risiken sorgfältig betrachtet werden – von der Versicherungsbranche, aber auch von weiteren Industrien. Beim Thema Betrugsversuche dürfe man nicht übersehen, dass auch Versicherer ihre Modelle zur Betrugserkennung entsprechend weiterentwickelten. Auch gebe es schon erste Anwendungen wie DetectGPT von der Stanford University, die KI-Texte mit bis zu 95-prozentiger Genauigkeit entlarven könnten. Die Erfahrung zeige, dass jede Innovation auch anders eingesetzt werde als ursprünglich gedacht, so die Alte Leipziger. „Wir schließen nicht aus, dass auch ChatGPT von Personen eingesetzt wird, die illegale Ziele verfolgen. Darauf müssen wir uns auch einstellen, wir stehen jedoch ganz am Anfang der Entwicklung”, sagt Andreas Bernhardt, Leiter Presse- und Öffentlichkeitsarbeit der ALH Gruppe. Für hepster überwiegt der Nutzen der verbesserten Kundenservices. Natürlich bestehe durch Verfahren wie ChatGPT die Gefahr der vereinfachten Beschaffung von Schadendokumenten und Schadenfotos, aber die Systeme ermöglichten es auch, diese Frauds zu erkennen. Weiterhin könnten Echtzeit-Downloads und geschützte Suits, wie Schadenfotos aus Anwendungen heraus zu machen, zu übermitteln und keine Speicherung in der Galerie zu erlauben, angewendet werden, um dem entgegenzuwirken.

Herausforderung Datenschutz

Sehr kritisch bei ChatGPT sind Datenschutz, Datensicherheit, in der Versicherungsbranche überdies die Compliance-Vorgaben. Die Versicherer sind äußerst wachsam. Wie Ergo will auch Axa beim Einsatz neuer Technologien die Chancen und Risiken weitsichtig abwägen und neben den technischen auch die rechtlichen, moralischen und ethischen Grenzen im Blick haben. Bei Swiss Life müssen alle Technologien die hohen Datenschutzstandards des Hauses einhalten. Die Informationssicherheitsbeauftragten und Datenschützer der Alten Leipziger betonten, dass die Nutzung von ChatGPT eine mögliche unbeabsichtigte Übermittlung interner geschäftlicher Daten oder sogar vertraulicher Kundendaten an ein unbekanntes Ziel im Internet bedeute – häufig auch außerhalb der EU. Man werde daher zunächst alle Sicherheitsmaßnahmen treffen, um die sensiblen Kundendaten zu schützen. Die Bayerische sieht beim Einsatz von KI Herausforderungen bei den Themen Datenschutz, Ethik und Transparenz und besonders beim Umgang mit Kundendaten.

Datenpflege: der Teufel steckt im Detail

Stefan Hegedusch, Geschäftsführer die Bayerische IT GmbH, sagt: „Bei aller Euphorie über die breiten Einsatzmöglichkeiten von KI-Tools sollten Versicherer diesbezüglich sehr sensibel sein”. hepster sieht es als möglich an, durch ChatGPT zukünftig Schadenmeldungen (plausibler) zu erstellen. So lange Bots keinen direkten Zugriff auf die Versicherungsdokumente hätten (Police, AVB…) sei das unkritisch, da ein Gesamtzusammenhang im Rahmen des jeweiligen Meldeprozesses hergestellt werden müsse. Könne der Bot jedoch auf besagte Dokumente zugreifen und die Daten verarbeiten und zusammenbringen, werde es kniffliger. Hier müsse die Branche zukünftig isolierte Meldeprozesse aufbauen, die es nicht zuließen, dass der Bot selbst oder generierte Daten des Bots überführt werden könnten. Ergo beschreibt, dass wer heute Daten in ChatGPT eingebe und nicht aktiv reguliere, welche Nutzerdaten zum Training der Modelle verwendet werden dürften, dem Hersteller OpenAI gestatte, alle Daten dafür heranziehen zu dürfen, das gelte für die kostenlose und die ChatGPT Plus Version. Daraus resultierten entscheidende Fragen von Datenschutz und Geheimhaltung. Denn die eingegebenen Daten könnten theoretisch in einer neuen Sprachmodellvariante extrahierbar werden und deren Nutzer auf die personenbezogenen Daten zugreifen. Die Eingabe solcher Daten der Nutzer selbst und von Dritten, wie Namen, E-Mails, Adressen, Zahlungsdaten, besonders schützenswerte Daten wie Gesundheitsdaten oder Daten, die der Geheimhaltung unterliegen sei daher absolut zu vermeiden. „Es sollten keinerlei Informationen, die nicht ohnehin öffentlich bekannt sind, in ChatGPT eingegeben werden”, so das Fazit von Nicolas Konnerth, Head of Voice bei der Ergo Group AG.

Viele Einsatzmöglichkeiten

Die Versicherer sehen auch in der Verarbeitung der vielen textuellen und komplexen Informationen der Branche breite Einsatzmöglichkeiten für ChatGTP, wie Texte zusammenfassen, Infos aus Datenbanken und Dokumenten klassifizieren und extrahieren oder unstrukturierte Infos strukturieren. Als mögliche Anwendungen nennt Ergo das Erstellen von Versicherungsbeschreibungen, Datenschutzhinweise und Einwilligungen ebenso wie Produktclaims. Essenziell wichtig sei jedoch die abschließende Kontrolle durch einen Menschen. Der Einsatz von KI, so die Versicherer, müsse einen Mehrwert für Kunden, Mitarbeiter und Vertrieb bieten. Was gilt für den Vertrieb? ChatGTP räumt ja ein, den menschlichen Kontakt nicht ersetzen zu können. Laut den Zitatgebern müssen sich die Vermittler darauf einstellen, dann könne ChatGPT bei Marktüberblicken, Vergleichen oder Bedingungsanalysen gut unterstützen. Man könne detaillierteren Kundenfragen begegnen, Standardfragen schneller und leichter beantworten und mehr Zeit für die individuelle Beratung gewinnen. Aber auch hier seien Datenschutz, Verlässlichkeit der Aussagen und die regulatorischen und rechtlichen Vorgaben immens wichtig und vorab zu klären, wie die Themen Beratungsprotokoll sowie Haftung und Entschädigung bei Falschberatung. ChatGPT könne die persönliche Kundenberatung derzeit nicht ersetzen, laut hepster entscheidet sich in zehn bis zwanzig Jahren, ob das möglich wird. Die Bayerische stehe kurz vor dem Launch eines selbstlernenden KI-gestützten Chatbots, der Fragen des Vertriebs beantworte und mitlerne. Im nächsten Schritt solle er konkrete Fragen zu den Versicherungsbedingungen beantworten können.

Außerdem solle die KI in der Analyse- und Beratungssoftware und für maßgeschneiderten Akquise-Content eingesetzt werden. „Die proaktive menschliche Ansprache, der Aufbau von Vertrauen und die Sensibilisierung für die Bedeutung von Versicherungsschutz wird (…) eines der Steckenpferde des persönlichen Vertriebs bleiben“, so Maximilian Buddecke, Mitglied des Vorstandes die Bayerische Prokunde AG & Leiter Persönlicher Vertrieb die Bayerische.

ChatGPT ist weder intelligent noch empathisch und nur so gut wie die Daten, mit denen er gefüttert wurde. Genau genommen ist er einer derer, die nicht wissen, was sie tun. Er durchsucht die Daten und bildet dann Sätze, indem er die Worte so reiht, wie sie mit der größten Wahrscheinlichkeit aufeinanderfolgen. Das ist alles, worüber wir chatten.

Autorin Silvia Fischer ist Diplom-Betriebswirtin und Journalistin (FJS).

Weitere Artikel
Abonnieren
Benachrichtige mich bei
0 Comments
Inline Feedbacks
View all comments