Next AI Talk with Sophie

#102 Sophie Hundertmark und Florian Nägele von Helvetia Schweiz

October 30, 2023 Sophie Hundertmark und Florian Nägele Season 4 Episode 35
#102 Sophie Hundertmark und Florian Nägele von Helvetia Schweiz
Next AI Talk with Sophie
More Info
Next AI Talk with Sophie
#102 Sophie Hundertmark und Florian Nägele von Helvetia Schweiz
Oct 30, 2023 Season 4 Episode 35
Sophie Hundertmark und Florian Nägele

Input geben - Networking starten!

Chatbots mit Generative AI - wer könnte besser darüber sprechen als Florian Nägele von der Helvetia Schweiz. Anfang 2023 hat die Versicherung den ersten Chatbot mit einer Schnittstelle zu OpenAI (ChatGPT API) gelauncht.
In dieser Folge berichtet Florian von den Learnings des Projektes und was die Kunden und Zuhörer in den nächsten Monaten von dem AI Chatbot erwarten dürfen.

Vielen Dank auch an unsere Starken Podcast-Partner mesoneer.
Und als Medienpartner mit dabei CMM360.

Und noch mehr zu Chatbots könnt ihr hier lesen.

Support the Show.

Sophie auf WhatsApp kontaktieren

Sophie per Mail anfragen

Sophies Webseite

Vielen Dank auch an unsere Starken Podcast-Partner Corporate Software.
Und als Medienpartner mit dabei CMM360.

Und noch mehr zu AI und Bots könnt ihr hier lesen.

Chatbot Talk with Sophie
Become a supporter of the show!
Starting at $3/month
Support
Show Notes Transcript

Input geben - Networking starten!

Chatbots mit Generative AI - wer könnte besser darüber sprechen als Florian Nägele von der Helvetia Schweiz. Anfang 2023 hat die Versicherung den ersten Chatbot mit einer Schnittstelle zu OpenAI (ChatGPT API) gelauncht.
In dieser Folge berichtet Florian von den Learnings des Projektes und was die Kunden und Zuhörer in den nächsten Monaten von dem AI Chatbot erwarten dürfen.

Vielen Dank auch an unsere Starken Podcast-Partner mesoneer.
Und als Medienpartner mit dabei CMM360.

Und noch mehr zu Chatbots könnt ihr hier lesen.

Support the Show.

Sophie auf WhatsApp kontaktieren

Sophie per Mail anfragen

Sophies Webseite

Vielen Dank auch an unsere Starken Podcast-Partner Corporate Software.
Und als Medienpartner mit dabei CMM360.

Und noch mehr zu AI und Bots könnt ihr hier lesen.

LLM-Chatbots in der Versicherungsbranche: Ein Gespräch mit Florian Nägele über Clara und Generative AI"

Sophie Hundertmark: [00:00:00] So die Aufzeichnung läuft. Herzlich willkommen zu Sophies Chatbot Talk, der Podcast, bei dem es gar nicht mehr rein nur um das Thema Chatbots geht, sondern verstärkt natürlich auch um alle Themen rund um Artificial Intelligence, Generative AI, Chatbots und Voicebots. Heute wird es verstärkt um Chatbots kombiniert mit Generative AI gehen.

Ich habe Florian Negele von der Helvetia-Versicherung als Gast dabei. Die Helvetia ist eine der ersten Versicherungen, die mit ihrem Chatbot Clara zunächst mal sowieso erstmal mit einem der ersten Chatbots Clara online gegangen sind und dann auch Anfang dieses Jahres den ersten Generative AI Chatbot gelauncht haben.

Und ich glaube, da hat Florian sehr viel aus dem Nähkästchen zu plaudern und ich freue mich riesig dass wir heute das Gespräch führen dürfen. Aber bevor ich Florian richtig vorstelle und wir starten, ein herzliches Dankeschön an meine Podcast-Partner Mesonea, CMM360 und Code Creative, [00:01:00]der den Podcast am Ende immer schneidet.

Und nun zu dir, Florian. Florian danke, dass du dir die Zeit nimmst und herzlich willkommen hier im Podcast. 

Florian Nägele: Ja, sehr gerne. Vielen Dank, Sophie. 

Sophie Hundertmark: Ich sage ja manchmal so ein bisschen liebevoll, du bist der Papa von Clara. Für alle, die die Clara noch nicht kennen, beziehungsweise vielleicht auch nicht ganz verstehen, was man als Papa von Clara macht, vielleicht kannst du ganz kurz etwas zu dir und zu Clara sagen.

Florian Nägele: Ja, eben, ich bin der Florian Egele. Ich arbeite schon seit geraumer Zeit bei der Helvetia-Versicherung und ich Ich kümmere mich schon seit etwa sieben Jahren um Chatbots bei Helvetia und wir sind so im Jahr 2020, haben wir gestartet, aus einem, ich sag mal, noch unbenannten Chatbot-Service die Clara zu entwickeln und aus der Clara wurde mittlerweile ein wichtiger, wichtiger identitätsstiftender Faktor für unsere Firma hier im Markt Schweiz und tatsächlich ist in diesem Jahr sogar der wichtigste Self-Service-Kanal, den die Helvetia im Markt so anbietet.[00:02:00]

Sophie Hundertmark: Vielen Dank. Genau. Jetzt wird es spannend. Also, wir haben schon öfter mal von dir gehört und auch von Clara. Ich glaube, wir haben sogar schon zwei Podcast-Folgen zusammen gehabt. Anfang des Jahres ist ja OpenAI sehr bekannt geworden, Thema Generative AI, Chat-GPT. Und ihr habt dann ziemlich schnell beschlossen, jawohl wir wollen das mal kombinieren.

Wir wollen gucken, wie man Clara GPT nutzen kann. Kannst du dazu mal ein bisschen mehr sagen? Was ist eigentlich Clara GPT? Was bedeutet das eigentlich? Und was sind so eure Ideen dahinter? 

Florian Nägele: Ja, sehr gerne. Also ich hole vielleicht kurz aus, wenn man die ganze Story nochmal anguckt. OpenAI hat ja mit Chat-GPT im November 2022 diese ganzen Large-Language-Models popularisiert in unfassbarer Weise, in hoher Geschwindigkeit ging es um den ganzen Globus.

Und bei uns ist es natürlich auch angekommen, da wir uns ja jahrelang schon mit dem Thema Chatbots befassen, Und als dann OpenAI am 1. März die Schnittstelle die API [00:03:00] geöffnet hatte, damit man ihre Sprachmodelle da derart jetzt einbinden kann und auch in eigene Applikationen haben sich unsere Techniker und ich, wir haben uns drangesetzt und geschaut wie können wir das integrieren, wie funktioniert das?

Ja du, und das war dann schon am 3. März am Freitagmorgen war klar, die Sache ist, Die ist technisch noch viel ausgereifter als das, was wir uns jahrelang erarbeitet hatten. Und da haben wir gesagt, okay, das müssen wir einfach ausprobieren. Und dann haben wir versucht, diese Technologie möglichst schnell zu integrieren, einfach mit dem Ziel heraus, dass wir Verständnis über diese Technologie haben.

Aufbauen können und sehen können, wie das dann mit echter Kundeninteraktion wirklich aussieht. Und ja, ich habe dann unser Management versucht zu begeistern für die Idee, möglichst als First Mover auch unterwegs zu sein. Einfach aus der Überzeugung heraus, wenn man ganz am Anfang dabei ist bei einer Entwicklung, dann verzeihen einem die Kunden auch allfällige Fehler und Dinge, die [00:04:00]vielleicht noch nicht so gut funktionieren.

Und wir können trotzdem lernen. Und deswegen sind wir dann als Experiment, haben wir das Ganze, Das Management hat uns großes Vertrauen geschenkt und das war eine Riesenchance für unser Team, aber auch für unsere Firma, tatsächlich mit einem echten Anwendungsfall, mit Generative AI, diese Learnings aufzubauen.

Und seither sind wir am Markt und lernen tatsächlich aus diesen Kundeninteraktionen Wie sich das Kundenverhalten so ergibt, wie sich die Kundenbedürfnisse verändern und sind jetzt natürlich dabei, diese Sache, dieses Know-how zu nutzen, um diesen Service immer weiterzuentwickeln. 

Sophie Hundertmark: Vielleicht kannst du mal sagen, zunächst was sind denn so die größten Unterschiede zu dem normalen Chatbot und jetzt du sagst ja, das war viel besser und so weiter.

Was sind denn da so die größten Unterschiede? 

Florian Nägele: So zwei, drei Sachen, wo ich schnell darauf eingehen kann, die gut verständlich sind, sind zum Beispiel wenn ein [00:05:00] Konsument in einem Chat, Etwas von sich preisgibt, irgendeine Information, als Beispiel seinen Namen oder dass er studiert oder dass er gerade irgendwo umgezogen ist oder solche Sachen, dann sind wir jetzt in der Lage mit Generative AI in unserer Antwort, egal welche Frage es dann auch immer ist, auch darauf Bezug zu nehmen und es dann sozusagen Diesen Fall also konkret und spezifisch zu bedienen.

Also er kann dann zum Beispiel, oder die Klara kann dann antworten und sagen, ja, als Student ist es wichtig, als Beispiel. Oder in dem Fall bei dir würde sie vielleicht sagen, ja, sehr geehrte Frau Hundertmark und geht dann sozusagen... Persönlich auf den Konsumenten ein. Und dadurch entsteht ein neues Erlebnis.

Es ist dann wirklich persönlicher individueller und es ist nicht so eine kalte vordefinierte Antwort. Auch wenn wir uns viel Mühe gegeben haben, diese Antworten empathisch zu schreiben, ist es doch sehr schwierig. Also genau diesen Moment, den konnten wir eigentlich nie [00:06:00] erzeugen. Das ist ein großer Unterschied.

Was dann natürlich auch ein zweiter großer Punkt ist, Ist die auch das spezifische Bedürfnis wird auch spezifisch beantwortet also es geht wirklich genau auf die Frage ein, denn so viele vordefinierte Antwortmuster kann man sich eigentlich gar nicht ausdenken wie die Wie die Nutzer der Clara in dem Sinn entgegenbringen.

Und deswegen entsteht hier wirklich ein großer Mehrwert, dass man wirklich eine Frage tatsächlich beantwortet bekommt und sein Anliegen tatsächlich gelöst bekommt und weniger in so eben vordefinierten Logiken nachher irgendwo übernimmt In der Chatbot-Journey hängen bleibt. Und der letzte Punkt ist gerade in der Schweiz sehr relevant, ist natürlich die Sprache.

Also wir hatten die Clara für den deutschsprachigen Markt in der Schweiz aufgebaut. Und es machte eben große Arbeit, auch so ein Sprachmodell zu übersetzen. Wir haben auch diverse automatisierte Übersetzungstools immer wieder ausprobiert. Sind aber nie zum Punkt gekommen, dass die Qualität wirklich [00:07:00] ausreichend wäre, um auch die französischsprachigen Schweizer Kunden oder die italienischsprachigen Kunden entsprechend zu bedienen.

Und heute kann die Clara mit GPT im Rahmen dieses Experiments auch Anfragen in... In Portugiesisch Spanisch, in Niederländisch sogar in Japanisch habe ich gesehen und Arabisch beantworten. Ob dann die japanische und arabische Antwort korrekt ist, das kann ich dann gar nicht mehr überprüfen. Ich verstehe die Sprache nicht, aber da sieht man schon die Potenziale die die Technologie hat, damit auch Menschen, die vielleicht nicht mit Landessprachen entsprechend vertraut sind, dass sie trotzdem auch einen richtig guten Service künftig erhalten können.

Sophie Hundertmark: Okay, jetzt hast du gerade selber gesagt, das kannst du zum Teil gar nicht mehr ganz überprüfen was dann da auf irgendeiner Sprache passiert. Aber das erleben wir auch vielmals im Deutschen, dass dann der Chatbot vielleicht, man nennt das ja Halluzinieren, sich selbstständig macht. Wie geht ihr mit sowas um?

Habt ihr das auch? Das ist das, was ich vielmals als Gefahr von anderen Unternehmen [00:08:00] höre. 

Florian Nägele: Ja, natürlich ist das ein Punkt, aber ich möchte, bevor wir ins Halluzinieren gehen, würde ich vielleicht vorher mal noch schon an den Punkt gehen, wenn also eine Fragestellung kommt, zum Beispiel zu unserem konkreten Fall, wo es dann um Versicherungsfragestellungen geht, ob ein gewisses Risiko in einem gewissen Szenario versichert sei, da muss ich mal offen gestehen also ich bin ja schon wirklich lange bei Helvetia und lange in der Branche, aber wie das dann immer ganz genau geregelt ist, Das kann ich auch nicht beurteilen.

Ich will sagen, selbst wenn ich der Sprache mächtig bin, ist es extrem schwierig, auf solche spezifischen Anfragen dann auch wirklich die richtige, die fachlich richtige Antwort zu beurteilen, was da wirklich richtig ist. Das ist extrem schwierig, also für einen einzelnen Menschen. Eigentlich kaum noch lösbar und erst recht nicht in der Zeit, in der so eine Antwort generiert wird.

Also das heißt, bevor wir ins Halluzinieren kommen, kommen wir schon an den [00:09:00] Punkt, um festzustellen, okay, wie stellen wir überhaupt Qualität künftig mit diesem System sicher? Und dann eben darüber hinaus, wenn es dann darum geht, okay, sie kommt jetzt wirklich auf ganz kreative Ideen da muss man natürlich dann gut aufpassen und das ist natürlich eine Frage auch der Implementierung des Promptings und der Einstellungssache wie ich die Generative AI entsprechend einsetze und wie ich das kalibriere dass ich das natürlich...

Ich sage mal begünstigen kann oder möglichst verhindern kann, aber gänzlich ausschließen, würde ich mal sagen, kann man das aktuell kaum. Also ein latentes Risiko besteht dann tatsächlich und es wird es wahrscheinlich auch noch eine gewisse Zeit brauchen, bis wir hier solche Standards haben, um das gänzlich auszuschließen in jedem denkbaren Szenario 

Sophie Hundertmark: Okay.

Also ich sage ganz ehrlich, für mich ist das kein Problem. Ich finde das super, dass ihr da überhaupt sagt, hey, wir machen da unsere Learnings mit. Und wie du schon gesagt hast, es ist gar nicht so einfach, immer richtig darauf zu antworten. Nun seid ihr eine [00:10:00] Versicherung und ich kenne das vielmals, dass Versicherungen da schon...

Eigentlich die hundertprozentige Genauigkeit wünschen, bevor sie irgendwas anfangen. Wie hast du das intern bei euch gelöst, dass dein Team trotzdem dahinter steht und gesagt hat, jawohl wir bringen das online, auch wenn da vielleicht mal Fehler passieren? 

Florian Nägele: Ja, also ich meine, das Vertrauen ist auch für die Helvetia und das Vertrauen der Kunden ist für die Helvetia das wichtigste Gut.

Also das darf nicht gefährdet sein, auf gar keinen Fall. Deswegen agieren Versicherungen hier an dieser Stelle meistens Sehr vorsichtig, was ich auch grundsätzlich verstehen kann. Jetzt muss man die Sache aber so ein bisschen einordnen. Also wenn man tiefer einsteigt in diesen Ansatz, was passiert jetzt hier ganz konkret?

Ein Kunde schreibt uns also eine Nachricht und hat eine Frage. Das Gleiche könnte er ja auch in einem Live-Chat machen, wo ein Mitarbeiter da sitzt oder er könnte es auch telefonisch machen. Aber in diesem Fall nutzt er den Chatbot. Jetzt haben wir die Angewohnheit, dass wir von einem System erwarten, dass es zu 100% [00:11:00] genau ist.

Aber wie können wir sicherstellen, bei den bisherigen Kanälen, sei es ein Live-Chat oder Telefonat, dass der Mensch zu 100% genau antwortet? Ich sage, da gibt es das erste Problem, genau wie beim Chatbot auch, die Frage des Verständnisses für das Kundenanliegen. Ich kann ihn ja auch mal falsch verstehen.

Ich kann die Absicht hinter der Fragestellung falsch interpretieren. Dann leite ich schon mal ein komplett anderes Thema ein als Mensch. Und natürlich, wie ich gerade eben an dem Beispiel vorgesagt habe, es kann ja durchaus sein, dass ich auch mal überfragt bin beziehungsweise mir gar nicht bewusst ist, dass ich an der Stelle überfragt bin und ich gebe dem Kunden eine falsche Information.

Auch das ist heute trotz ganz vieler Wissensdatenbanken und ganz vieler Handbücher und Produktbroschüren und sonstigen Dokumenten durchaus vorstellbar und wahrscheinlich möglich Üblich. Jetzt ist es aber so, dass wir Menschen einfach die Angewohnheit haben, anderen Menschen gegenüber, denen wir Vertrauen schenken, auch in gewisser Weise [00:12:00] mal noch Fehler oder Ungenauigkeiten zugestehen.

Und bei künstlicher Intelligenz wir kennen so Beispiele von Tesla, wenn sie da automatisiert dann autonom fahren und dann gibt es einen Unfall, auch einen tödlichen Unfall dann steht das Sogar in der Lokalpresse irgendwo in der Schweiz, in der Zeitung Wenn aber ein Mensch einen Fehler macht beim Autoverkehr irgendwo in den USA, dann steht das sicherlich nicht in der Schweizer Lokalpresse.

Also ich will sagen, wir sind da viel sensibler an der Stelle und ich glaube, wir müssen lernen, mit diesen Technologien umzugehen und auch einzuordnen, was die Antwort bedeutet und dass ich auch immer als Konsument weiterhin, Kritisch bleibe so wie ich auch bei einem Menschen bin, wenn der mir jetzt sagt, ja, das ist nicht versichert auf gar keinen Fall oder das kann man gar nicht versichern oder kriege ich so eine Auskunft, ja, was mache ich dann?

Ich versuche vielleicht trotzdem nochmal rauszufinden, ja, stimmt jetzt diese Aussage, kann ich mich nochmal anderweitig informieren und ich glaube, so sieht es auch aus mit künstlicher Intelligenz Wir müssen lernen damit umzugehen und für die Helvetia ist es deswegen wichtig, dass [00:13:00] Mit hoher transparenz gegenüber ihren kunden zu agieren also transparent zu machen dass wir künstliche intelligenz einsetzen und Und auch transparent zu machen, wo vielleicht auch die Grenzen sind und dass diese Antworten automatisch generiert werden und nicht noch von einem Mitarbeiter vorher freigegeben werden und aber auch gleichzeitig immer die Möglichkeit bieten, über andere Kontaktmöglichkeiten Ebenfalls eine Antwort auf die Fragestellung zu bekommen, weil es gibt ja auch Menschen, die solche Services nicht gern nutzen wollen oder eben ihnen nicht das ausreichende Vertrauen zum jetzigen Zeitpunkt zumindest schenken und so bieten wir die Möglichkeit auch über einen anderen Weg eine absolut auch von einem Menschen herausgearbeitete Antwort zu erhalten und so hoffen wir.

Dass uns die Kunden zugestehen dass wir versuchen, mit den neuen innovativen Möglichkeiten ein tolles Angebot herzustellen, was es heute nicht gibt auf dem Markt, also neue Möglichkeiten zu schaffen und zugleich das Vertrauen, was sie uns schenken, auch entsprechend zu würdigen und zurückzuzahlen. [00:14:00]

Sophie Hundertmark: Man könnte wirklich denken, wir hatten das abgesprochen aber wir haben es nicht abgesprochen.

Aber das ist genau das, was ich immer sage, wenn man mich fragt zum Thema, ja, der Bot macht ja Fehler, dass ich dann auch manchmal sage, naja gut, also Ich erlebe das immer wieder, wenn ich mit einem menschlichen Kundenservice telefoniere. Da passieren auch so viele Fehler. Also ich möchte jetzt keine Namen nennen, aber mein Paket zum Beispiel, was letztens angeliefert werden sollte, war plötzlich laut des Kundenservice zur gleichen Zeit in drei unterschiedlichen Orten.

Also das kann irgendwie nicht so ganz passieren. Ich habe dann nämlich doch nur ein Paket bekommen. Ich habe es dann sogar bekommen. Und da, glaube ich, hast du was sehr Richtiges gesagt. Und was ich auch noch sehr, sehr spannend fand, das habe ich so noch nie selber betrachtet, Du gibst dem Kunden ja auch noch andere Kanäle.

Du kannst ja auch sagen, gut, lieber Kunde, wenn du unbedingt mit Menschen reden willst, ist jetzt halt gerade mitten in der Nacht, dann musst du bis morgen früh warten. Du kannst auch eine E-Mail schreiben. Und so weiter. Also man gibt ihm ja auch noch eine Auswahl Also das ist ja auch noch was anderes.

Ich muss sagen, das hat man ja zum Beispiel auch nicht [00:15:00] immer. Also es gibt da zum Beispiel auch Airlines, die sich da beschlossen haben, man muss mit diesem Chatbot reden. Und wenn man das nicht macht, dann muss man das pro Abo lösen für Premium Support. Das macht ihr ja zum Beispiel nicht. Also ich glaube, da kann man ja schon...

Florian Nägele: Nee, das ist auch wichtig. Also das ist natürlich auch die Positionierung und das Selbstverständnis von der Helvetia ist natürlich, dass sie mit ihren Experten die vor Ort ganz lokal in der ganzen Schweiz verteilt sind, auch immer ansprechbar ist für ihre Kunden und dort auch dieser persönliche Service und die persönliche Nähe auch gepflegt werden kann und genutzt werden kann, um die Bedürfnisse Genau zu verstehen und die passenden Lösungen auch dafür zu finden.

Daran wollen wir auch überhaupt nicht rütteln. Also das, was die Clara hier ist und wir, das ist ein ergänzendes Angebot in unserem Leistungsangebot und nicht jetzt irgendwie nach dem Motto es gibt jetzt nur noch das. Also ich glaube, das ist auch... Ist auch der falsche Weg, da so ich sage mal, ein Thema so dominant nach vorne [00:16:00] zu treiben.

Aber was ich nochmal sagen wollte, auch an dem Punkt, ja, muss es immer hundertprozentig korrekt sein. Es gibt natürlich Fälle, wie jetzt mit deinem Paket oder wie jetzt, ich habe irgendeine Frage und kriege irgendeine Antwort, da können wir natürlich auch mit, Da muss man realistischerweise sagen, im Kundenservice heute auch, da sind wir auch irgendwie nie bei ganz 100 Prozent.

Da können wir auch mit dem Service so gut leben. Es gibt aber andere Fälle. Man stelle sich mal vor, ich möchte mich beraten lassen für eine wichtige Entscheidung in meinem Leben, für eine Lebensversicherung, wie ich meine Familie absichere, wie ich das alles gestalte, wenn ich vielleicht sterben sollte oder solche Lebensrisiken eintreten können.

Da hat ja der Regulator auch ganz klare Vorgaben Vorgaben wie Beratung stattzufinden hat, wie die Menschen ausgebildet sein müssen, damit sie sowas beraten können, wie diese Beratungsgespräche aufgebaut werden müssen. Also es sind gewisse Vorgaben zu regeln und deswegen [00:17:00] würde ich jetzt auch nicht anfangen, mit Generative AI genau in so einen Use Case reinzusteigen, wo ich weiß, das hat wirklich eine ganz hohe Bedeutung wenn das da zu einem Fehler kommt, wo ich weiß, da gibt es regulatorisch völlig zu Recht Hohe Anforderungen, da muss ich jetzt vielleicht nicht mit einer neuartigen Technologie dort anfangen bei dem Thema.

Perspektivisch kann es durchaus sein, dass wir uns dort irgendwann vorwagen, aber auch nur dort, wo es Sinn macht für die Kunden, aber auch für uns als Anbieter von Versicherungs und Vorsorgelösungen. Also da muss man wirklich Schritt für Schritt vorgehen und dann auch schauen, wo die Opportunitäten sind.

Wo es wirklich einen Mehrwert bietet und wo nicht. Aber dann jetzt in so einem System alle Entscheidungsgewalt für solche Lebensrisiken da zu geben, da wäre selbst ich, der das immer vorantreibt durchaus bedächtig und vorsichtig. Also wir fangen mal dort an, wo wir auch gewisse, Ich sage mal, Risiken auch eingehen können, wo wir es auch, wenn wir das dem Kunden eben transparent [00:18:00] machen, wo der Kunde auch eine gewisse Bereitschaft hat, das auch auszuprobieren und auch damit entsprechend umzugehen und Erfahrungen zu sammeln.

Sophie Hundertmark: Okay, ja, vielen Dank noch für diese Ergänzung. Sicherlich sehr hilfreich. Jetzt haben wir über einiges gesprochen, was so gelaufen ist, was passiert ist. Jetzt wollen wir doch nochmal einen Blick in die Zukunft werfen, denn zunächst mal vielleicht müssten wir noch kurz auf die Learnings einkommen. Du hast ja schon angesprochen, ihr habt einiges gelernt.

Das würde ich, glaube ich, erst noch gerne hören und dann, was ihr jetzt mit diesen Learnings macht. 

Florian Nägele: Ja, also erstmal, das erste Learning ist vielleicht mal zur Form, wie wir gearbeitet haben. Wir haben das ja als Experiment am 30.03. lanciert und dieses Experiment, das war wirklich jetzt erfolgreich, kann man sagen, weil die Kunden das auch, Die akzeptiert haben, die das genutzt haben, dass es ein Experiment ist und wir konnten natürlich auch viele auch berechtigte Kritikpunkte oder sagen wir so auch Unklarheiten die im Markt waren, konnte man natürlich relativ gut [00:19:00]adressieren, weil man experimentiert hat.

Also für uns als Unternehmen hat sich das sehr, sehr gelohnt als Experiment so eine neue Technologie mal einzuführen und nicht zu sagen, das ist jetzt das neue Superangebot unserer Firma und ihr werdet schon sehen, das ist einfach fantastisch. Und weil so ausgereift konnte es natürlich in der Kürze der Zeit auch gar nicht sein.

Was dann aber meines Erachtens ein sehr, sehr wichtiges und zentrales Learning war, ist, dass die... Das Kundenverhalten sich verändert hat. Also wenn Konsumenten diesen GPT-basierten Chatbot genutzt haben, dann sind viel komplexere Fragestellungen eingegangen. Und Clara konnte diese natürlich dann auch entsprechend beantworten und darauf eingehen wie ich es vorher berichtet hatte.

Aber genau das ändert sich. Damit habe ich auch nicht gerechnet. Die bisherige Clara Deutlich einfache Fragen bekommen, im Sinne von, ich möchte einen Versicherungsschaden melden, was muss ich tun oder [00:20:00] sowas ähnliches und jetzt werden die Fragen viel komplexer, viel detaillierter, viel individueller und das ist natürlich dann, wenn ich das so sehe, dann meine ich, wenn sich dieser Trend verfestigt und immer mehr Leute eben auch Chat-GPT als normalen Service nutzen, dann glaube ich, dass GPT-Bots relativ bald Oder LLM-Bots relativ bald erwartet werden von Konsumenten Das heißt, die Anbieterseite wird ziemlich stark unter Druck geraten, im 2024, 2025 diese Dienstleistung auch anzubieten auf ihren Webseiten oder Portalen.

Das ist, glaube ich, ein ganz zentraler Punkt, den man auch mitnehmen kann, meines Erachtens. 

Sophie Hundertmark: Absolut. Also ich kriege immer noch natürlich Anfragen für Chatbot-Projekte und ich sage jedes Mal, also über Intent-basiert regelbasierte Bots müssen wir nicht mehr reden. Wir können direkt bei Generative AI starten und die, die gerade noch so in der Zwischenphase angefangen haben, ja die tun ja eigentlich fast leid weil ich sagen muss, [00:21:00] ich glaube, man kann sich mit Intent-Bots noch so viel Mühe geben.

Generative AI bringt da doch sehr schnell deutliche Mehrwerte 

Florian Nägele: Absolut. Absolut. Und was ich vielleicht auch noch einbringen kann, ist, wir haben ja an der Kundenschnittstelle damit begonnen. Also die allermeisten Firmen was ich weiß, die jetzt mit Generative AI versuchen, Fortschritte zu machen, die arbeiten mit internen Use Cases zuerst und das mag gute Berechtigung dafür geben.

Aber was ich halt auch gesehen habe, ist wenn man das natürlich extern nutzt und auch erstmal als Datengrundlage Extern verfügbaren Content, sprich Informationen, die wir auch auf der Webseite haben, nutzt, dann reduzieren sich auch erstmal massiv die informationstechnischen Risiken und die Datenschutzrisiken an der Stelle.

Natürlich muss ich aufklären den Kunden, wie er das Ganze zu verwenden hat und auf was er achten muss, aber da reduziere ich natürlich auch gewisse Risiken. Und was wir natürlich jetzt einfach machen können, wir können anhand dieser Daten und Chats einfach lernen, [00:22:00] was Leute interessiert Und was sie nicht interessiert und das ist natürlich schon wirklich ein Schatz, den wir hier für uns erarbeiten konnten.

Sophie Hundertmark: Perfekt danke. Ich bin immer noch sehr erstaunt, was ihr da alles in der kurzen Zeit gemacht habt, um nicht zu sagen, fast sprachlos, aber jetzt, da auch die Zeit schon recht fortgeschritten ist und ich weiß, die Zuhörer, manchmal kommen die dann mit dem Auto bei der Arbeit an und sind fertig mit Hören oder die Joggingrunde ist zu Ende oder sie können nicht mehr laufen.

Gucken wir noch kurz in die Zukunft. Wie geht es denn jetzt weiter? 

Florian Nägele: Ja, also wir arbeiten jetzt gerade dran in diesen Tagen und Wochen, dass wir unser Experiment, was wir gehabt haben, dass wir das versuchen mit den Self-Service, die die Clara bislang schon anbietet, dass wir das versuchen zu kombinieren und versuchen damit in neuen Formen von, Ja, von Chatbot auf den Markt zu bringen und ja, ich habe schon die Ambition, dass es erstmals gelingt, mit einem Chatbot einen echten Differenzierungsfaktor im [00:23:00] Versicherungsmarkt herzustellen.

Das ist die Ambition. Ob uns das gelingt, das werden wir sehen, das sind verschiedene Faktoren dann relevant, aber daran arbeiten wir, also wir glauben daran. Dass wir hier wirklich einen Unterschied machen können im Markt, weil der Service durchaus dann nochmal eine ganz neue Qualität jetzt bekommt, den wir jetzt immer weiter optimieren auf Basis von dem Experiment.

Und ja, mein Wunsch-Szenario wäre, dass unsere Kunden, unsere Kundenberater in der Fläche ansprechen auf die Klara und umgekehrt unsere Kundenberater unsere Kunden auf die Klara ansprechen und darauf hinweisen, was da für Möglichkeiten sind. Also das ist wirklich ein ganz zentraler Teil unseres Serviceangebots wird.

Das ist die Ambition und da arbeiten wir jetzt gerade in diesen Tagen und Wochen 

Sophie Hundertmark: Und wie geht ihr da technisch dann jetzt vor? Kannst du dazu noch was sagen? 

Florian Nägele: Ja, technisch ist es so, dass wir jetzt tatsächlich, wir haben das Experiment sehr stark auf Chat-GPT in dem Sinn ausgerichtet und auf den verschiedenen Sprachmodellen, die OpenAI da bietet.

Und neu [00:24:00] werden wir tatsächlich jetzt auf Basis von GPT-4 arbeiten Den Service entwickeln und aufbauen, weil wir einfach gesehen haben, durch die größere Anzahl der Tokens durch die bessere Verarbeitung des Contents dass wir bereitstellen können, dass unsere Antwortqualität nochmal besser wird und das ist praktisch die technische Grundlage für diesen Service.

Sophie Hundertmark: Okay. Und jetzt habe ich dazu noch mal kurz eine Frage. Und zwar hattest du das angesprochen mit dem Datenschutz dass es ja noch ein bisschen einfacher ging, vereinfacht ging. Wie wird das denn in Zukunft, gerade wenn wir immer mehr Services anbieten, dann müssen wir da ja auch immer mehr Vorrichtungen schaffen, oder?

Florian Nägele: Richtig, also die Helvetia arbeitet da natürlich gesetzeskonform und auch wirklich im Interesse ihrer Kunden. Also für uns ist Datenschutz nicht irgendwie ein Thema, nach dem Motto, müssen wir halt auch noch machen, sondern das ist schon wirklich zentral und relevant. Und deswegen, so viel kann ich auch verraten die Form der [00:25:00] technischen Implementierung wird so sein, dass wir natürlich über vertragliche Vereinbarungen absichern, dass wir auch wirklich...

Diese Daten, die da an das große Sprachmodell gehen, dass diese Daten beispielsweise jetzt den europäischen Kontinent nicht verlassen, dass diese Daten nicht zum Training der Modelle verwendet werden darf etc. Also sprich da werden entsprechende Standards vertraglich fixiert Und auf dieser Grundlage lassen sich dann auch tiefergehende Use Cases auch realisieren, auch mit gutem Gewissen realisieren.

Und wir sind auch immer vollkommen transparent gegenüber den Behörden, die sich da, die da in diesem Feld zuständig sind. Wir haben beispielsweise im Experiment auch Anfragen vom EDEP, wie das heißt, im deutschsprachigen Raum oder in Deutschland wäre das der, Bundesdatenschutzbeauftragte [00:26:00] erhalten und sind da vollkommen transparent, weil wir einfach glauben, dass es wichtig ist, dass die ganze Gesellschaft da schrittweise und transparent da vorwärtskommt bei dem Thema und dass wir das entsprechend vorantreiben.

Also das natürlich schon entscheidend, auch für die Kunden und für eine Firma wie Helvetia, dass man das mit großem Vertrauen auch vorantreiben kann. 

Sophie Hundertmark: Absolut. Das hattest du ja eingangs schon gesagt, wie wichtig das Vertrauen ist. 

Florian Nägele: Ja, genau. 

Sophie Hundertmark: Ja, Florian, wie schon gesagt, es geht langsam gegen Ende dieser Podcast-Folge, obwohl ich glaube, wir könnten noch unendlich lange sprechen.

Was gibt es denn, was du den Zuhörern noch unbedingt mitgeben möchtest Gibt es irgendwas, wo du sagst das ist das größte Learning oder das musst du irgendwie auf eine andere Art und Weise noch mitgeben wollen 

Florian Nägele: Ich würde mal ganz generell sagen, diese großen Sprachmodelle und die künstliche Intelligenz das ist jetzt wirklich ein Thema, das wird unsere Welt, unsere Gesellschaft, unsere Wirtschaft jetzt in den nächsten [00:27:00] Dekaden prägen.

Und das wird ähnliche Auswirkungen haben wie die Verbreitung des World Wide Webs. Deswegen ist es für mich ganz klar, dass wir auf jeden Fall vorangehen müssen und nicht warten, bis irgendwelche tollen Tollen Use Case irgendwo kommen, sondern jede Firma muss meines Erachtens hier vorwärts gehen und eigene Erfahrungen sammeln, vorankommen in dem Thema, weil es wird sich komplett ändern, wie wir mit Kunden interagieren werden, wie sie auch perspektivisch unser ganzes Umfeld wird sich ändern.

Wir werden ganz neu als Versicherung mit neuen Risiken konfrontiert werden. Wir müssen anhand dieser Anhand eigener Erfahrungen über diese Technologie lernen und vorwärtskommen. Und ja, in welchen Weg man ganz genau einschlägt, das muss jede Firma für sich selbst entscheiden. Aber ich glaube, es ist auf jeden Fall wichtig, voranzukommen.

Und für die LWC ist das ein strategisch sehr relevantes Thema. Und ich freue mich natürlich riesig Dass wir hier mit der Clara [00:28:00] so ein Aushängeschild jetzt herstellen konnten. Und ich bin sehr, sehr gespannt, ob es uns gelingt, schon im 2024 unsere strategische Vision, Maßstäbe bei der Kundenconvenience zu setzen, auch mit der Clara einzulösen.

Sophie Hundertmark: Okay, vielen Dank für die Ausführungen, noch für die guten Tipps. Ich gebe dir recht, ich glaube, Generative AI ist ein Thema, da sollten wir uns jetzt nicht vor verschließen, sondern da müssen wir so früh wie möglich anfangen, Erfahrungen zu sammeln und sicherlich auch mit anderen austauschen. Ich glaube, das ist auch ganz wichtig, dass wir da den Austausch weiterführen.

Und insofern danke ich dir für den heutigen Austausch und für die ganzen Informationen. Danke auch für den zukünftigen Austausch. Ich glaube, da sind wir weiterhin gut im Austausch Und natürlich vielen, vielen Dank an all die Podcast-Zuhörer Vielen Dank an meine Partner CMM360, Mesonair und Quad Creative.

Und ich wünsche jetzt allen noch einen ganz tollen Tag und freue mich schon auf die nächste [00:29:00]Folge.