Sind Versicherungen krypto-fit? Und was genau ist eigentlich Blockchain?

Blockchain, Tokenization, Cryptocurrancy, Bitcoin, Ethereum, Miner, Full Notes – sagen Ihnen diese Begriffe etwas?
Nerd-Talk oder Bullshit Bingo - denkt vielleicht manch einer von Ihnen und vielleicht sogar: Was haben diese Begriffe mit meiner Branche zu tun? Nun ja, es geht um Geldtransaktionen und die gehen eigentlich jeden etwas an.

In dieser Beitragsserie möchten wir Ihnen das Thema Blockchain näherbringen und die Touchpoints zur Versicherungsbranche aufzeigen. Doch beginnen wir in diesem Beitrag mit einer leichten Einführung in die Blockchain-Technologie.

Blockchain – kurze Historie

In der Vergangenheit wurde die zentrale Überwachung „Wer hat wie viel Geld“ über Geldtransaktionen vorrangig von Banken oder neueren Parteien wie z. B. PayPal überwacht. Doch dieses System wurde und wird immer mehr in Frage gestellt. U. a. Manipulationsunterstellungen an das Zentrale System führten dazu, dass der Wunsch nach einem dezentralisierten System immer größer wurde.
Satoshi Nakamoto veröffentlichte 2008 das erste Konzept zur Blockchain und im Jahr darauf implementierte er die erste Bitcoin-Software (die bekannteste Kryptowährung) und startete damit die erste Blockchain. Ergo: Er schuf ein dezentrales Überwachungssystem (Technologie Blockchain) mit digitaler Währung (Bitcoin).

Blockchain – wie funktioniert das? (am Beispiel Bitcoin)

Dezentralisierung der Transaktionsüberwachung erfolgt bei der Blockchain durch ein verteiltes onlinebasiertes Netzwerk, in dem anonyme Menschen Bitcoins über das Bitcoin-Netzwerk transferieren – natürlich 24/7. Es existiert keine zentrale Instanz, die Macht über die Teilnehmer und über ihre Informationen hat.

Als erstes geht eine Transaktionsanfrage ein und muss von dem Netzwerk freigegeben werden.

Das Netzwerk sammelt zu jeder Zeit alle Transaktionen eines bestimmten Zeitraums und fügt es Stück für Stück (in einer Art Wettkampf) auf einer Liste zusammen – der sogenannte Block.


Jeder Block beinhaltet also die letzten ausgeführten Transaktionen. Erstellt ein Miner bzw. Schürfer einen neuen Block, den das Netzwerk akzeptiert, so wird er dann mit Bitcoins dafür belohnt.


Unter Mining versteht man dann, die Erstellung neuer Blöcke unter Verwendung spezieller Hardware. Der Block wird zusätzlich durch einen Kryptomechanismus (Code) versiegelt – man sagt auch verklebt.

Die einzelnen aneinander „geklebten“ bzw. "geketteten" Blöcke nennt man dann die Blockchain.


Die zweitbekannteste Blockchain seit 2015 ist Ethereum mit Ether als dazugehöriger Kryptowährung. Die Entwickler dieser Blockchain haben die SmartContract-Fähigkeit integriert. Das ermöglicht nicht nur Geld und Informationen zu transformieren, sondern auch noch eine bestimmte Logik in Form eines Quellcodes einzubinden. Somit können automatisch Transaktionen getriggert werden, wenn diese Logik erfüllt ist.

Kryptowährungen akuell

Quelle: www.coinranking.com
Derzeit existieren über 100 verschiedene Kryptowährungen mit verschiedenen Marktkapitalisierungen. Die meisten dienen nur Spekulationszwecken. Als Zahlungsmittel wird heute bereits an vielen Stellen Bitcoin etabliert und sogar schon akzeptiert – Lieferando zum Beispiel akzeptiert bereits Bitcoin sowie u.a. Amazon.

In unserem nächsten Beitrag werden wir speziell auf die Versicherungsbranche eingehen. Schwerpunkte werden sein:
  • Adaption der Blockchain zur Schaffung einer dezentralen Versicherung
  • Ethereum als attraktive Kryptowährungsbasis für Versicherungsunternehmen

Viele Grüße
Hannah und Vlad


Vladislav Zolotarev ist Senior Consultant im Bereich Versicherungen bei der PPI AG. Er hat einen Master in angewandter Mathematik und ist einer unserer Experten zum Thema Blockchain in Versicherungen.

Hannah Victoria Groß ist Managerin für Online- und Social-Media-Marketing bei der PPI AG. Sie liefert regelmäßig Beiträge für das Label "Mal quergedacht", Cyber-Security und nun auch Blockchain und ist Moderatorin dieses Blogs.

Collaborative Business Modells (1/3)

Was ist ein Ökosystem? – Eine Metaperspektive.

Erinnern Sie sich an das Leben, bevor kleine Tech-Start-ups wie Amazon, Google und Facebook die Welt veränderten? Sie gaben den Digital Natives die Macht, nachhaltig zu verändern, wie Unternehmen und Endkunden Produkte und Dienstleistungen finden, bewerten, vergleichen, kaufen und nutzen.

Heute sehen wir, wie die Geschichte sich wiederholt: Eine neue Generation von schnell wachsenden FinTechs verändert den Kommunikationsfluss, die Zusammenarbeit und den Handel. Im Fokus stehen heute Collaboration-orientierte Geschäftsmodelle.

Dieser neue Fokus führt zu signifikanten Veränderungen in den Führungs-, rechtlichen und technologischen Fähigkeiten von Versicherungen und verwandelt die bestehende Economy of Scale zu einer Economy of Networks. In diesem Netzwerk entstehen durch vielfältige Interdependenzen zahlreiche Verbindungen, die von mehreren Stakeholdern beeinflusst werden und so ein Ökosystem bilden. Die Fähigkeit, in einem Ökosystem neue Unternehmen zu gewinnen und kontinuierlich weiterzuentwickeln, ist heute mehr denn je von strategischer Bedeutung.

Diese Fähigkeiten bedürfen einer klar fokussierten Analyse des Ökosystems. Insbesondere in der digitalen Geschäftsstrategie müssen Ressourcen und Fähigkeiten der Versicherer eng integriert und verbessert werden, um mit den Herausforderungen der Digitalisierung Schritt halten zu können. Aus diesem Grund bilden FinTechs und Versicherer ein Ökosystem, in dem sie ihre Fähigkeiten bündeln, um neue Geschäftsmodelle zu entwickeln. So wird im Ökosystem von FinTechs und Versicherern das kollaborative Geschäftsmodell ein kritischer Erfolgsfaktor für ihr Geschäft.

Für mich sind Ökosysteme in der Versicherungsbranche eine Allegorie natürlicher Ökosysteme, um darzustellen, wie Organisationen zusammenarbeiten. Im Unterschied zu natürlichen Ökosystemen handelt es sich um Netzwerke von Organisationen, die durch formale Verträge und gegenseitige Abhängigkeit zusammengehalten werden. In Bezug auf FinTechs stellen diese spezialisierten Funktionen Nischenmärkte innerhalb des Ökosystems dar und binden diese an ein Kernunternehmen.

Im Gegensatz zur herkömmlichen Sicht auf die Wertschöpfungskette werden in Ökosystemen auch große Netzwerke von Akteuren (d. h. Vertriebshändler, Hersteller und Kunden) betrachtet. Das Besondere ist die Fokussierung auf die Veränderungsdynamik und die Berücksichtigung der strategischen Auswirkungen dieser Veränderungen. Darüber hinaus wird das Ökosystem genutzt, um die Fähigkeiten zu erklären, wie sich vielschichtige Organisationen entwickeln, um die Fähigkeit zu verbessern, Marktchancen zu erfassen und darauf zu reagieren. Zunehmend schaffen Organisationen dadurch neue Produkte und Dienstleistungen. Die nahezu unbegrenzte Rekombination digitaler Artefakte wird zu einer neuen Quelle der Innovation.

Daher werden verteilte, kollaborative Geschäftsmodelle eine etablierte Art, Geschäft zu entwickeln. Im Gegensatz dazu wurde die Verwaltung der internen Vermögenswerte und Kompetenzen weniger entscheidend für den geschäftlichen Erfolg als das gleichzeitige Management der paradoxen Kräfte der Stabilität und Instabilität.

Damit wir die Art und Weise der kollaborativen Geschäftsmodelle besser verstehen, haben wir über 300 Geschäftsmodelle von FinTechs analysiert und klassifiziert. Wie dies im Detail aussieht und welche Vorteile sich dadurch ergeben, werde ich Ihnen in meinem nächsten Beitrag näherbringen.


Beste Grüße
Ihr Julian Schmidt

#Versicherungen #Digitalisierung #CollaborativeBusinessModells #FintechÖkosystem #Fintechs

Actuarial Data Science – die Macht der Daten

Big Data, small solutions – information overload! Teil 1

Erst vor Kurzem erfuhr ich von einer Bekannten von einer mobilen App, die es ermöglicht, Live-Daten vom Aufenthaltsort eines Users auf dem eigenen Smartphone zu erhalten. In diesem Falle ermöglicht das Tool dem Partner meiner Bekannten, ihre Heimfahrt mit dem Auto (es handelt sich um eine Fernbeziehung) live zu verfolgen, um mögliche Unfälle in Sekundenschnelle zu erkennen und zeitnah zu handeln. Gleichzeitig vermittelt die App beiden während der Fahrt ein Gefühl der Sicherheit.

Diese kurze persönliche Anekdote möchte ich zum Anlass für meinen heutigen Blogeintrag nehmen.

Das Bedürfnis der Sicherheit ist gewiss keine neuartige Erkenntnis. Jedoch lässt sie sich idealerweise auf die – speziell aufgrund der Digitalisierung – veränderten Ansprüche eines Versicherungskunden beziehen. Dieser wünscht heutzutage eine ständige Erreichbarkeit (auf allen Kanälen), individuelle Beratung sowie Produkte und vor allem im Leistungsfall eine schnelle Reaktion. Zusammengefasst wird also mehr als nur der Standard gewünscht.

Hierfür lassen sich die scheinbar unendlichen Mengen an verfügbaren Daten - Stichwort Internet of Things oder noch weiter gedacht: Internet of Everything - hervorragend nutzen, sofern sie denn wahrgenommen werden. Unser Beispiel liefert mit Hilfe des Live-Trackings über GPS bereits eine Ausprägung der möglichen Datenquellen. Die Aufgabe für Versicherer besteht nunmehr darin, verschiedenste Datenstrukturen aus unterschiedlichsten Quellen zu standardisieren, logisch und vorausschauend miteinander zu verknüpfen und somit individuelle Services für den Kunden zu liefern. Um hierbei eine umfassende Analyse zu gewährleisten, sollten die bereits bekannten Themen Big Data und Predictive Analytics sinnvoll verknüpft und genutzt werden.

Das Ziel dieses intelligenten Datenerhebungsprozesses stellen adaptive Produkte dar, die auf die jeweils individuellen Bedürfnisse eines Kunden zugeschnitten sind. Sich ändernde Umstände können in Echtzeit erfasst und erkannt werden und Produkte kontinuierlich an die Situation angepasst werden. Dazu gehört neben der Aktualisierung und Erweiterung von Versicherungsschutz und ‑leistungen ebenso eine Dynamisierung der Prämien. In anderen Worten wird dem Kunden eine „Echtzeit-Absicherung“ geboten, die ausgehend von seinen persönlichen historischen und Live-Daten ergänzt mit weiteren risikorelevanten Informationen individuell kalkuliert werden kann.

Zusätzlich zu der Auswertung und Strukturierung von riesigen Datenmengen erwartet den Versicherer mit der Erhebung persönlicher Daten eine weitere Herausforderung. Hierzu muss dem Kunden der Mehrwert adaptiver Produkte im Tausch zur Bereitstellung und Berechtigung zur Nutzung seiner persönlichen Informationen dargestellt werden. Insbesondere im Zuge der Regulatorik (z. B. EU_DSGVO) keine leichte Aufgabe.

Grundsätzlich entsteht also eine Win-Win-Situation, sofern der Versicherer seine Strategien, Techniken und Prozesse zielgerichtet aufbaut, um relevante Daten und Informationen sinnvoll für die Entwicklung adaptiver Produkte zu nutzen. Freuen Sie sich an dieser Stelle schon einmal auf den zweiten Teil des Blogs.

Vor dem Hintergrund der Anforderungen, die durch die Weiterentwicklung und die Möglichkeiten der heutigen Datennutzung entstehen, müssen sich unter anderem auch die Aktuare über die zukünftigen Aufgaben ihres Berufsfeldes Gedanken machen. Innerhalb der Versicherer werden Think Tanks gebildet, um neue Risikokalkulationsansätze unter Berücksichtigung der neuen Datenerhebungsalternativen zu entwickeln. Neben neuen Herausforderungen können sich für Aktuare durch die Nutzung von Datenmengen auch Chancen – Stichwort Data Scientist – ergeben. Nicht ohne Grund hat der DAV (Deutscher Aktuar Verband) das Thema Actuarial Data Science als eigenen Agenda-Punkt aufgenommen.

Abschließend möchte ich eine Kernfrage aus unserer Einleitung aufgreifen: Welche Informationen sind für die Strategie und das Geschäftsmodell der kommenden Jahre interessant? Hierzu erlaube ich mir die prägnante und vielleicht etwas provokative Aussage: Alle persönlichen bzw. individuellen Daten sind interessant!

Beste Grüße
Bo

Bo Lennart Andresen ist gelernter Kaufmann für Versicherungen und Finanzen und Bachelor der Betriebswirtschaftslehre. Bei PPI arbeitet er als Consultant im Bereich Versicherungen. Mit dem Fachwissen aus dem Versicherungsalltag bildet er die Schnittstelle zwischen fachlichen Anforderungen und der Umsetzung im technischen Bereich.

#Digitalisierung #Versicherungen #Data&Analytics #ActuarialDataScience #Big Data #PredictiveAnalytics  #Data #Datenschutzgrundverordnung #EU-DSGVO,

Digitale neue Welt - Cyberrisiken als Kumulrisiko für Versicherer?

Kumulrisiko - bei dem Wort schrillen die Alarmglocken bei den Versicherungsunternehmen.

Befindet sich in meinem Portfolio ein Kumulrisiko? Ist dieses Kumulrisiko an einen Rückversicherer weitergegeben, und wie hoch ist der Schaden im Worst Case?

Für Leser, die mit dem Begriff „Kumulrisiko“ nichts anfangen können, eine kurze Erklärung:
Wenn ich als Versicherer nur Gebäude an der Westküste Amerikas versichern würde, habe ich ein gut überschaubares Risiko. Und bis zur „Hurrikansaison“ werde ich abends auch ruhig schlafen können. Sobald sich jedoch ein Hurrikan ankündigt und mit voller Wucht auf die Westküste zuzurollen droht, würde ich ins Schwitzen geraten. Denn sollte dieser Hurrikan dort tatsächlich eintreffen, habe ich mit einer hohen Wahrscheinlichkeit Schadenfälle an meinem gesamten Bestand.

Kumulrisiko ist also vereinfacht gesprochen das Eintreten eines zufälligen Schadenereignisses, das mehrere meiner versicherten Objekte betrifft. Daher versuchen Versicherer so gut es geht, Kumulrisiken im Vorfeld zu identifizieren und zu vermeiden und ihr Portfolio soweit wie möglich zu streuen.
Das klappt in oben angesprochenem Beispiel in der Praxis ganz gut. Ich kann die Gebäude, denen ich einen Versicherungsschutz anbiete, ja einfach über Amerika verteilen.

Im Bereich Cyber sieht das jedoch ganz anders aus. Was ist denn ein Kumulrisiko im Bereich von Cyber? Wie kann ich dieses Risiko identifizieren und vor allem wie bekomme ich einen Überblick hinsichtlich meines Bestands?
Eine Kumulbildung Cyber ist nicht so einfach nach geografischen Daten zu ermitteln. Das Internet vernetzt uns heutzutage alle in einer Form miteinander und funktioniert ortsunabhängig, sodass hier die Kumulfindung schwierig ist. Ein Kumul kann z. B. durch die Anbindung an dasselbe Rechenzentrum erfolgen oder durch Verwendung derselben Software.

Ein vielleicht etwas hochgegriffenes Beispiel: WannaCry
WannaCry, eine Cyberattacke vor gar nicht allzu langer Zeit, die u. a. die Bahnanzeigetafeln lahmlegte, war besonders für Rechner mit dem Betriebssystem Windows 8 und Windows XP gefährlich.
Wäre ich jetzt als Versicherer der Meinung, dass ich mit Apple nichts anfangen kann und daher nur auf Windowsrechner vertraue und dementsprechend nur Unternehmen mit Windowsrechnern Versicherungsschutz anbiete, habe ich automatisch ein Kumulrisiko, sobald sich eine Attacke, die Exploits in Windowssystemen nutzt, im Umlauf befindet.

Jetzt fragt sich der eine oder andere Leser vielleicht „So etwas zu messen und nachzuhalten ist doch viel zu aufwändig“. Ja, da gebe ich Ihnen Recht. Ich kann nicht von jedem Unternehmen erfassen, welche Rechner mit welchen Patches dort im Detail betrieben werden.

Aber ich kann in anderen Bereichen sehr wohl mit verhältnismäßig geringem Aufwand Kumule identifizieren: 

  • RZ-Identifikation mittels IP-Adressen
  • Verwenden veralteter Verschlüsselungstechnologien
  • Blacklist-Überprüfungen auf korrumpierte Netze
  • Identische Hard- und Software
  • Nutzung derselben Netzwerke

Dies sind nur ein paar Beispiele für mögliche Cyberkumule und sie zeigen eins, dass Cyberkumule nicht ortsgebunden sind und sich über den ganzen Globus erstrecken können.

Bis zum nächsten Beitrag


Beste Grüße und bis bald
Jonas Schwade


Jonas Schwade ist Diplom-Kaufmann und arbeitet bei der PPI AG als Consultant im Bereich Versicherungen. Seine Schwerpunkte liegen im Bereich der Kommunalversicherungen sowie in allen gesundheitlich relevanten Fragen rund um das Thema Versicherung. Jonas ist Key-Account-Manager des PPI Cyber Thinktanks und generiert Use Cases in diesem Kontext.

#Kumulrisiko #Cyber #Cyber-Rating #Cyber-Security-Programm #Cyberrating #Cyberrisks #Digitalisierung #Finanzindustrie #Risikoberatung #Risikobewertung #Risikolage #Versicherungen #Cyberattacke #Kumulbildung #Kumulfindung #Industrie 4.0


Entwicklung der digitalen DNA in Versicherungen - Braucht ein großes agiles Vorhaben eine kurz- und mittelfristige Releaseplanung? (Teil 3) #Planungspoker

Einige Anregungen aus unserer täglichen Projektpraxis:

Der eine oder andere Blog-Konsument wird sich vielleicht an den 1. Teil dieser Beitragsserie aus dem Mai erinnern und sich jetzt fragen, war da nicht ein anderes Thema für den 3. Teil angekündigt?

Sie haben Recht, aber aufgrund meines aktuellen Projektkontextes habe ich mich entschlossen, heute - und wahrscheinlich auch in meinen nächsten Beiträgen - über ein anderes Thema zu schreiben.

Und so befasst sich dieser Beitrag mit dem DNA-Handlungsfeld des gemeinsamen digitalen Denkens von Fachbereich und IT. Unter dieser Überschrift verstehen wir bei PPI auch alle Methodiken, die z. B. in größeren agilen Vorhaben eine zielorientierte, aber flexible Erarbeitung einer Digitalisierungsplattform in einem großen Team ermöglichen.

Auch in einem agilen Umfeld sind Fragen der folgenden Art absolut sinnvoll, und eine Antwort ist notwendig:
  • Welche Kapazität ist wichtig, um ein Minimal-Viable-Product (MVP) umsetzen?
  • Wie passt meine vorhandene Fachbereichs- und Umsetzungskapazität zu meiner Umsetzungsroadmap? 
  • Wie sieht mein grober Umsetzungsplan für die nächsten 9-18 Monate aus? 
  • Zu welchen Zeitpunkten brauche ich Zulieferungen von Delivery-Einheiten außerhalb meines Projektes? 
  • Wie kann ich überprüfen, ob meine Produktivität im Rahmen der Umsetzung hoch genug ist?
Für eine erfolgreiche Umsetzung dieser und weiterer Vorhaben gilt es, die richtigen und angemessenen Antworten in einem agilen Umfeld zu finden.

Übrigens ist es nach meiner Praxiserfahrung ganz normal, sich dann mit diesen Fragestellungen zu befassen, wenn man sich bereits mitten in einer Umsetzung befindet. Es ist eben manchmal für bestimmte Unternehmenssysteme sinnvoll, erst einmal mit einigen kleinen Themen und einer großen Produktvision in einigen Köpfen loszulaufen und dann in diese Fragestellungen einzutauchen.

So genug der Vorrede, werden wir etwas konkreter. Wie kann ich mit vertretbarem Aufwand und vernünftiger Qualität den Umfang und die notwendige Kapazität eines großen Vorhabens (Planungsbudget: mittlerer zweistelliger Millionenbetrag über 5 Jahre) schätzen, ohne dass ich schon ein detailliertes Konzept für den Gesamtumfang vorliegen habe? Denn Sie erinnern sich, wir befinden uns notwendigerweise in einem agilen Umfeld.

Indem wir einem bewährten Schätzansatz aus der agilen Welt auf angemessene Art und Weise adaptieren – wir „spielen“ Planungspoker auf einem höheren Abstraktionslevel.

Die Grundidee des Planungspokers ist sehr einfach. Die Größe einer fachlichen Anforderung (die normalerweise in Form einer Userstory vorliegt) wird nicht in ihrer absoluten Größe, sondern relativ zu einer Vergleichsfunktionalität geschätzt: „Der Umfang und die Komplexität der Userstory B ist ungefähr X-mal so groß wie der Umfang und die Komplexität der Userstory A.“ Zweiter wichtiger Aspekt dieses Planungspokers ist das zweistufige Schätzen in einer Gruppe (Team). Im ersten Schritt schätzt jedes Mitglied der Schätzgruppe einzeln für sich. Im Rahmen von Workshops wird über die Vorabschätzungen diskutiert und ein einheitlicher Wert vereinbart. Die Größe dieser Userstory B (im Vergleich zu Userstory A) wird dann in sogenannten Storypoints festgehalten. Üblicherweise geschieht dies in einer Skala der Form 1 (=Größe der Vergleichsuserstory A), 2,3,5,8,13,20,40,100 Storypoints und im Vorfeld einer Sprintplanung. Userstories mit einem Storypoint-Wert > 8 werden üblicherweise nicht in einen Sprint aufgenommen, sondern der Wert ist ein Indiz dafür, dass eine Zerteilung sinnvoll ist.
  1. Wenn dieses Grundprinzip und die darin liegende Hypothese, dass das Schätzen einer relativen Größe deutlich einfacher für erfahrene Entwickler ist, als das Schätzen einer absoluten Größe, akzeptiert haben, brauchen Sie nur noch vier Dinge, um hieraus eine valide Kapazitätsschätzung herzuleiten:Mut, um dieses Verfahren auf einem höheren Abstraktionslevel (nämlich auf der Ebene von Epics) durchzuführen
  2. eine Liste von priorisierten Epics als Grundlage für den Planungspoker
  3. eine geeignete Schätzgruppe
  4. ein Vergleichsepic, das Sie umrechnen können

ad 1: Tja, hier sind Sie selbst gefragt oder Sie lassen sich unterstützen.

ad 2: Falls Sie sich an den Oktober erinnern, dort habe ich das Instrument einer UserStoryMap vorgestellt. Aus einer UserStoryMap lässt sich mit relativ geringem Aufwand eine priorisierte Epic-Liste ableiten. Im vorliegenden Fall haben wir das Verfahren mit knapp 100 Epics durchgeführt. Jedes Epic war dabei mit 1-2 Sätzen beschrieben, und wir haben auf dieser Basis die internen und externen Abhängigkeiten aufgezeigt.

ad 3: Wenn Sie keine hierfür geeigneten Menschen an Bord haben, helfen weder Mut noch geeignete Methodik.

ad 4: Für so etwas hilft die Tatsache, dass Sie sich bereits in der Umsetzung befinden, enorm.

Natürlich ist das Thema im Rahmen dieses Beitrags etwas simplifiziert dargestellt. Und vor allem bei dem Schritt Umrechnen von Epic-Points in Kapazität sind noch ein paar Dinge zu tun, aber ich kann Ihnen versichern, es funktioniert!

In der Hoffnung Sie nicht gelangweilt zu haben, sondern Ihnen ein paar Denkanstöße geliefert zu haben, verbleibe ich nach deutlich über einem Jahr digitale DNA bei PPI mit der Empfehlung

„Finden Sie Ihre Ansätze und entwickeln Sie die digitale DNA Ihres Unternehmens (weiter).“ 

Beste Grüße
Tobias Kohl

Online Kundenportale – „Joy of Use“ anstatt Frustration

Beim Versicherungskunden tritt der Schadensfall ein. Was will er also tun?
Er will dieses Problem abgeben und so schnell wie möglich seiner Versicherung melden. In einer digitalen Welt erwartet man eine digitale Lösung. Und hier beginnt die Odyssee an Frustrationen mit Kundenportalen und Online-Schadenmeldungen, denn erst einmal muss die richtige Homepage oder App gefunden auf der der Schaden gemeldet werden kann. Ist die richtige Seite erst einmal gefunden, führen dann zusätzlich aufwendige Authentifizierungsverfahren dazu, dass Kunden ihren Schadensfall nicht schnell und unkompliziert melden können. Grund dafür sind Medienbrüche und lange Registrierungszeiten. Ist der Zugang zum Kundenprotal freigeschalten, wird der Kunde oft mit überladenen und überflüssigen  Funktionen konfontiert.

Das geht auch anders, oder?

Ja, es geht auch anders - aber nicht unbedingt besser. Oft täuschen mäßig konzeptionierte und schlecht umgesetzte Kundenportale den Versicherungskunden, denn es handelt sich hierbei meist um ein Online-Formular, das keinerlei Schnittstellen zu den Systemen der Versicherer aufweist und somit auch keine zügige Schadensbearbeitung ermöglicht. Dort fehlen einfach die nötigen Prüfungen der Daten und die strukturierten Daten am Prozessende.

Ist das wirklich das Ende der Fahnenstange?

Nein, mit dem Customer Self Service Portal (CSSP), einem Produkt der PPI AG, endet die Ära der Frustration. Nicht nur für den Kunden, sondern auch für den Versicherer.  Das Customer Self-Service Portal, als konfigurierbare und einfache Out-of-the-box Lösung, positioniert sich genau zwischen „overengineerten“ Anwendungen und zu flachen Online-PDF-Formularen.
Durch konfigurierbare Business Rules bestimmt der Versicherer die Prüfung von Eingaben und erhält nur valide Daten am Prozessende. Das spart dem Sachbearbeiter Zeit und Nerven. Diese zukunftssichere Lösung benötigt keine Anpassung an der Infrastruktur und ist sowohl mobil als auch Desktop Anwendung nutzbar.
CSSP bietet eine Kundenportallösung ohne Einstiegshürden oder aufwendige Authentifizierung. Das freut den Anwender, der direkt loslegen kann. Die benutzeroptimierte Führung während einer Schadenerfassung fördert den Joy of Use und das sehen auch die Kunden unseres Referenzkunden BD24 Berlin Direkt Versicherung so. Mit einer durchschnittlichen Bewertung von vier Sternen bei möglich fünf. Und ganz nebenbei reduzierte die Implementierung des Customer Self Service Portals bei der BD24 die mittlere Schadenbearbeitungsdauer um 75 Prozent.

Wir denken voraus!
Der Eingang strukturierter Daten zur Abarbeitung im automatisierten Prozess ist bereits möglich. Prozessautomatisierung und dunkelverarbeitete Auszahlungen im Schadensfall sind für 2018 geplant.
Dieser Erfolg blieb nicht unbemerkt und erregte u.a. das Aufsehen von TREND REPORT - lesen Sie hier den Artikel.

Beste Grüße
Ihr Moritz Abt


Moritz Abt arbeitet bei PPI im Bereich Versicherung. Er vereint ökonomisches Fachwissen mit Expertenwissen zum Versicherungsmarkt. Neben seinen klassischen Aufgaben als Projektmanager für das Projekt „Kundenportal und Online-Schadenmeldung“, bildet er mit seinem Wissen aus dem Bereich Test- und Anforderungsmanagement die Schnittstelle zwischen Kundenanforderungen und SW-Entwicklung. Moritz wird diesen Blog regelmäßig mit Beiträgen rund um das Thema Kundenportale und Self-Services versorgen.
#Digitalisierung #Versicherungen #Prozessautomatisierung #Kundenportale #Self-Services

Inflation der Digital Labs

Die Projekte und Programme der Digitalisierung sind im Grundsatz simpel beschrieben:
  • IT-Altlasten verringern
  • Geschäftsprozesse optimieren
  • Kundennähe steigern 
  • und vor allem: ein klares Bekenntnis der Führungsebenen zur Digitalisierung sichern
Bereits 2015 wurden Digitalisierung und Automatisierung von Prozessen, datengetriebene Entwicklungen und Entscheidungen, Agilität für Transformationsprozesse, digitale Governance für die Risikoreduzierung, digitale Plattformen als Einstieg zum Ökosystem, Koproduktion als Spin-off von digitalen Plattformen, unternehmensübergreifende Konvergenz und Integration sowie Transparenz über alle Kanäle als DIE Schlüsseldisziplinen (cio.de 2015) der Digitalisierung identifiziert.

Heute entwickeln immer mehr Versicherer ihre Digitalstrategie in sogenannten Digital Labs weiter. Allianz, Axa, Ergo oder Signal Iduna haben mittlerweile ihre eigenen Hubs, um neue und vor allem digitale Geschäftsmodelle zu entwickeln. Typischerweise befinden sich die Digital Labs irgendwo im Zentrum des Start-up-Hotspots Berlin. Sie sollen dort die Möglichkeit haben, die digitalen Services mitzuentwickeln und so neue Geschäftsmodelle zu erschließen. Ebenso sollen die Kundenpräferenzen in den Finanzdienstleistungsmärkten von morgen, innovative Produkt- und Leistungsangebote als auch der erfolgreiche Weg der etablierten Finanzdienstleister in die digitale Welt erschlossen werden.

Vielerorts stellt sich die Frage: Alles nur bunt oder auch wertschöpfend?

Bunte Klebezettel, Design Thinking Workshops, Designer-Möbel mit Loftcharakter… oftmals sind dies die Dinge, an die wir als erstes denken, wenn es um Digital Labs geht. Der Auftrag der Labs unterscheidet sich dabei wesentlich. Das Spektrum reicht von Start-up-Inkubatoren, über Marketing- und Digitalagenturen, Technologie- und Methodenschmieden bis hin zu Hands-on-Change-Verantwortlichen.

Unabhängig vom Auftrag ist eine messbare und abgrenzbare Zielsetzung eines Digital Labs essenziel. Viele Digital Labs haben keine smarten Ziele und sind damit per Definition nicht erfolgreich – sie können nie ihr Ziel erreichen. Darüber hinaus sollten Digital Labs neue und bestehende Technologien verbinden, um sowohl das Umsatzwachstum als auch die Rentabilität zu unterstützen.

Doch nicht jeder Handgriff muss selbst umgesetzt werden – nutzen Sie digitale Multiplikatoren! Nutzen Sie die Expertise von FinTechs und anderen Intermediären und beteiligen Sie sich gleichzeitig an den erfolgversprechendsten Geschäftsmodellen. Doch gehen Sie behutsam mit Ihren Investitionen um – eine gleichmäßige Verteilung auf die relevanten Geschäftsbereiche ist erfolgskritisch.

Es gilt also: Definieren Sie die Ziele Ihres Digital Labs smart und messen Sie sie stetig daran. Dann haben Digital Labs einen wirklichen Nutzen und sind mehr als nur bunt.

Beste Grüße
Ihr Julian Schmidt

#Versicherungen #Digitalisierung #DigitalLabs #Digitalstrategie

Wachstumsmarkt Asien: Einflussreiche Versicherer Asiens und europ. Player (Teil 1)

„Das globale Wachstum verschiebt sich von den traditionellen Märkten in die Schwellenländer, vor allem nach Asien.“ Dieses Zitat des Allianz-Chefs Oliver Bäte aus dem Jahr 2015 gepaart mit dem aktuellen „Flurgeflüster“ in unseren Projekten und dem fachlichen Interesse am Wandel veranlasst uns, einen Blick über den Tellerrand der deutschen und europäischen Versicherungsmärkte zu wagen, hin zu den Versicherungsmärkten in Schwellenländern – in diesem Fall nach Asien.

Dass wir uns für diesen Blick bewusst Asien ausgewählt haben, hat zwei einfache Gründe: Es herrscht eine komplett andere Kultur (genau genommen etliche verschiedene Kulturen) und der Markt wird im Bereich Versicherungen unterschätzt. Wussten Sie, dass in China die wertvollste Versicherungsmarke der Welt beheimatet ist: die Ping An? Und das in einem sozialistischen Land mit Plan-Wirtschaft und staatlicher Sicherheit für alle – nicht in Wohlstandsländern, in denen jeder viel verlieren kann… Für die aufmerksamen Leser der Forbes-Rankings oder der Versicherungswirtschaft natürlich keine neue Information, sondern Ansporn mal genauer hinzuschauen.

Wir wollen in zwei Beiträgen einen genaueren Blick auf diesen spannenden Wachstumsmarkt werfen und versuchen, spannende Anreize und Tendenzen für den heimischen Versicherungsmarkt zu identifizieren und für Sie aufzubereiten.
Damit Sie schon jetzt spüren können, über welches Potenzial für Anreize oder Änderungen wir sprechen, möchte ich Ihnen einen kleinen Vorgeschmack mit folgendem Zukunftsbild geben:

Die heimische Automobilbranche ist im Wandel. Die meisten ehrwürdigen Autohersteller geraten zunehmend unter Druck durch völlig neue „Player“ am Markt. Sei es durch bereits etablierte Elektrofahrzeughersteller wie Tesla oder Branchen-Fremdlinge wie die Post AG oder Dyson – beide versuchen mit Elektroautos Geschäftsfelder zu erobern. Aus Sicht unserer Versicherer erstmal kein Problem. Die Kfz-Versicherung brauchen sie alle. Spannend wird es, wenn die neuen „Player“ auch hierfür nach neuen Lösungen und Wegen suchen.

Die einfachste Idee: Selber versichern und damit auch noch Geld verdienen.
Der eine oder andere wird jetzt sicher lachen. Und ich muss gestehen, das tat ich auch, als wir in der Mittagspause darauf zu sprechen kamen. Wie solle das auch so einfach gehen? Man baut nicht „eben mal“ eine Versicherung auf. Wo bekommt man das versicherungsfachliche Wissen und die Prozesse her? Wie findet man geeignetes Personal? Und erst die IT…
Doch die Chinesen von eBao Tech beantworten die Fragen ganz schnell mit ihrer Cloud-Lösung. Kurz gesagt lautet der Ansatz der Zukunft wie folgt: Alles was Sie für den Betrieb einer Versicherung benötigen, bekommen Sie auf Knopfdruck über die Cloud bereitgestellt – Systeme, Wissen und Prozesse. Aktuell umfasst das neben Datenbanken auch Produktrechner, bestimmte Services für den Betrieb und White-Labeling Apps. Dies um KI-Chatbots, Portale oder Ähnliches zu erweitern, ist technisch kein Problem… Passende Kernsysteme gibt es auf Wunsch auch dazu. Schnell fehlt nur noch eines: Die Besetzung bestimmter, rechtlich benötigter Positionen (so viele sind es nun auch nicht) und eine rechtssichere Dokumentation – fertig ist die Dyson Direkt Versicherung AG.

Schnell waren wir nicht mehr schmunzelnd beim Mittagessen, sondern fanden uns zum Brainstorming vor einem Whiteboard wieder. Fragen, die uns bewegten: Was benötigt man wirklich für den Versicherungsbetrieb der nächsten Jahre? Wie können wir unseren Kunden dabei helfen? Und: Was können wir noch von den Asiaten lernen?

Zumindest letzterer Frage gehen wir im zweiten Teil der Reihe ausführlicher nach.

Beste Grüße
Ihr Ronny Kant

#WachstumsmarktAsien #AsianInsurances #Versicherungen #Digitalisierung


Ronny Kant ist Consultant im Bereich Versicherungen und ist nebenbei ein sehr kreativer wie auch innovativer Schreiberling. Er interessiert sich für zukünftige Entwicklungstendenzen der Versicherungsbranche und die daraus resultierenden Herausforderungen für Versicherungsunternehmen.


Quelle und Anregungen: u.a. aus der aktuellen Printausgabe der Versicherungswirtschaft-heute

Big Data, small solutions - information overload! #ActuarialDataScience

Was tun mit den Informationsbergen?...

Informationen sind in vielerlei Hinsicht die Basis eines jeden Unternehmens und deren Steuerung. Dabei erfolgt Steuerung auf Basis von Entscheidungen und Entscheidungen sind wiederum nur so gut, wie die zugrundeliegenden Informationen. Es ist also kein Wunder, dass Themen wie Big Data, Predictive Analytics und auch das gute alte Data Warehouse immer noch in jedem Projekt-Portfolio zu finden sind.

Dazu kommt die technische Entwicklung und vor allem die Einstellung der Gesellschaft zu Daten, die weitere Informationsberge erzeugen, mit denen die meisten Versicherungsunternehmen noch nicht wissen, wie sie damit umgehen sollen. Außer, dass sie irgendwie genutzt werden müssen, wenn man wettbewerbsfähig bleiben will. Oder aber der Gesetzgeber hat (mal wieder) eine neue Verordnung erlassen, die die Unternehmen vor technische und prozessuale Herausforderungen stellt. So geschehen aktuell durch die neue europäische Datenschutzgrundverordnung (EU-DSGVO).

Allerdings sind erste Lösungen auch in der Versicherungsbranche zu finden. Neue Kfz-Versicherungen und Fraud-Detection, unterstützt durch Telematik oder automatische Schadenregulierung, nutzen schon heute komplexe Algorithmen der Datenanalyse. Die Möglichkeiten der Nutzung im Zuge der Digitalisierung sind aber sicherlich noch lange nicht ausgeschöpft.

Soweit der allgemeine Teil. Nicht mehr, als allseits bekannt und ausreichend generell, um eigentlich immer gültig zu sein.

Ich möchte in den kommenden Artikeln eine Stufe tiefer gehen und dabei zwei Leitfragen berücksichtigen, die immer wieder gestellt werden:
  • Welche Informationen sind für die Strategie und das Geschäftsmodell der kommenden Jahre interessant?
  • Welche Prozesse, Funktionen und Technik werden für zukunftsorientierte Informationsarchitekturen benötigt?
Die erste Frage möchte ich exemplarisch im Kontext der aktuellen Agenda des DAV betrachten. Dort wird zum ersten Mal als eigener Tagesordnungspunkt „Actuarial Data Science“ im Zuge der Digitalisierung angeboten.

Mit Gedanken zu Unternehmensarchitektur und im speziellen zur Facharchitektur möchte ich in einem weiteren Artikel die zweite Frage diskutieren. Dabei möchte ich zunächst auf unser PPI-Framework zu Data & Analytics und der Vernetzung zum Digitalisierungsrad eingehen. Darauf aufbauend folgt beispielhaft die Anwendung der Kompetenzen von der Strategie bis hin zum Blech.

Seien Sie also gespannt! Und sollte ich schon vorher bei Ihnen Interesse geweckt haben, sprechen Sie mich gerne an.
  • Teil 1: Actuarial Data Science – die Macht der Daten
  • Teil 2: Data & Analytics und Facharchitektur – Beherrschung von (Informations-)komplexität
Beste Grüße
Robert

#Digitalisierung #Versicherungen #Data&Analytics #ActuarialDataScience #Big Data #Fraud-Detection #Data, Datenschutzgrundverordnung, #EU-DSGVO,

Car hacking - Grenzen der Kfz-Versicherung #SelfDrivingCar

Pierce Brosnan fährt mit seinem Hightech-Maserati durch einen Tunnel, als er plötzlich die Kontrolle über den Wagen verliert und mit hoher Geschwindigkeit in eine Wand kracht.

Was in diesem Fall nur eine Szene aus dem Film „I.T.“ ist, könnte schon bald Wirklichkeit werden. Denn es ist kein Zufall oder Unfall gewesen, der das Auto unkontrollierbar machte, sondern ein Hack-Angriff eines verärgerten Mitarbeiters der IT-Abteilung auf den Steuerungsmechanismus des Wagens.

Autonomes Fahren ist eines der wohl mit Abstand meist diskutierten Themen im Hinblick auf zunehmende Digitalisierung. Kann das funktionieren? Können die Autos untereinander und miteinander kommunizieren?

Ich denke schon, dass die Technik in ein paar Jahren soweit ist. Doch wird auch der Gefahr eines potenziellen Hack-Angriffs genug Berechtigung geschenkt?

In diesem Beitrag will ich mich aber gar nicht im Detail mit der Möglichkeit und Ausgestaltung eines solchen Hacker-Angriffs auf ein selbstfahrendes Auto beschäftigen. Dass so ein Angriff möglich ist, steht außer Frage. Ich möchte Ihnen auch keine ausgedachten Horrorszenarien ausmalen.

Vielmehr möchte ich darauf eingehen, wer oder was die Schäden übernimmt, falls es zu so einem Angriff kommt?

Verursachen wir heute einen Unfall, ist dies meist Sache der Versicherungen. Entweder zahlt meine Versicherung oder die des Unfallgegners. Da jeder Autofahrer in Deutschland eine Kfz-Versicherung besitzen muss, brauche ich mir keine Sorgen um die materiellen Schäden im Falle eines Unfalls zu machen.

Was aber, wenn mein Auto von jemandem gehackt wurde oder ich von einem gehackten Auto in einen Unfall verwickelt werde? Zahlt dann auch meine Kfz-Versicherung oder brauche ich dafür eine extra Cyberpolice?

Ich denke, diese Frage ist im Hinblick auf den sich entwickelnden Markt nicht ganz uninteressant. Bei vielen Schäden, wie z. B. Betriebsunterbrechungen wird häufig argumentiert: „Ach, dagegen habe ich doch schon eine Eigenschadenversicherung. Da brauche ich doch keine Cyberversicherung.“ Ist das so?

Die Gefahr von Cyberattacken ist in den jetzigen Prämien von Kfz-Versicherungen noch nicht eingepreist. Ergo bedeutet dies, entweder werden die Prämien steigen oder die Cybergefahr wird ausgeschlossen. Auf der anderen Seite steht die erwartete Senkung der Prämien aufgrund eines prognostizierten Rückgangs der Unfälle.

Die klassischen Kfz-Versicherer, die mit Cyberattacken bis heute relativ wenig zu tun hatten, stehen nun vor der Aufgabe, die entsprechenden Risiken richtig einzuschätzen, gegeneinander abzuwägen und dem Kunden adäquat zu vermitteln.

Ich bin übrigens der Meinung, dass in ein paar Jahren eine private Cyberversicherung genauso zum Standardschutz gehört wie die private Haftpflicht- oder Unfallversicherung.

Beste Grüße und bis bald
Jonas Schwade

Jonas Schwade ist Diplom-Kaufmann und arbeitet bei der PPI AG als Consultant im Bereich Versicherungen. Seine Schwerpunkte liegen im Bereich der Kommunalversicherungen sowie in allen gesundheitlich relevanten Fragen rund um das Thema Versicherung. Jonas ist Key-Account-Manager des PPI Cyber Thinktanks und generiert Use Cases in diesem Kontext.


#Cyber #Kfz #Versicherung #Digitalisierung #SelfDrivingCar

Entwicklung der digitalen DNA in Versicherungen - Anregungen aus Digitalisierungsprojekten (Teil 2) #agilesVorgehen

Wie behalte ich bei großen, agilen Digitalisierungsvorhaben die fachliche Übersicht?

Im Juni habe ich Sie an den digitalen genetischen Code erinnert und eine Reihe von Beiträgen aus der täglichen Projektpraxis der PPI angekündigt. Und kaum 4,5 Monate später erscheint der nächste Teil….

Mittlerweile ist eine Erkenntnis bei sehr vielen unserer Kunden angekommen: Große Digitalisierungsinitiativen brauchen ein agiles Vorgehen!

Aber so leicht diese Erkenntnis auszusprechen ist, so anspruchsvoll ist sie in der praktischen Umsetzung – und dies insbesondere, wenn man aufgrund seiner Unternehmensvorgeschichte mit der Digitalisierungsinitiative ein großes Rad drehen will und muss…

Diese Ausgangssituation bedingt normalerweise, dass man seit vielen Jahren größere Investitionen in wesentliche Teile der Anwendungslandschaft unterlassen hat und jetzt erkennt (oft mit externer Hilfe), dass man ein größeres Vorhaben starten muss, um auch in zehn Jahren seine gute Marktposition noch erhalten oder womöglich ausgebaut haben will.

Der Start in unserem aktuellen Projekt, an dem ich Sie teilhaben lassen möchte, war noch relativ geschmeidig. Die kritische Analyse der Ist-Situation hat ergeben, dass für eine erfolgreiche Zukunft eine Digitalisierungsplattform vonnöten ist. Es sind knapp 50 Applikationen identifiziert, die im Rahmen dieser Initiative abgelöst werden sollen. Das Unternehmen wähnt sich bereits auf einem guten Weg in eine agile Vorgehensweise und ein entsprechendes Budget steht auch bereit….

Und voller Enthusiasmus startet man los. Doch schon nach einiger Zeit kommen die Klassiker in Rahmen einer agilen und digitalen Transformation eines Versicherungsunternehmens zu Tage:
  • Natürlich sind wir agil, aber ich möchte schon, dass sie mir heute sagen, welches Detailfeature Sie mit dem Release 4/2021 in Produktion bringen wollen (Rolle Vorstand).
  • Das wichtigste ist ein gepflegter Product Backlog, in dem alle 3000 Detail-User-Stories jederzeit in aufsteigender Priorisierung so detailliert beschrieben sind, dass die Entwicklung jederzeit starten kann (Rolle Teilzeit-Scrum-Master).
  • Natürlich sind wir ein erfahrenes Entwicklungsteam, aber einfach selbstständig auf die Idee zu kommen, wie ich bei der Umsetzung eines fachlichen Geschäftsvorfalls mit mehreren technischen Komponenten so vorgehe, dass ich durch Kapseln von Teilfunktionalitäten auch in einzelnen Sprints Ergebnisse mit echtem Mehrwert zeigen kann, passt nicht zur Kultur unseres Hauses (Rolle Entwickler).
Sie haben natürlich längst gemerkt, dass diese Aussagen überpointiert sind – aber trotzdem sind sie nach meinen Erfahrungen gar nicht so weit von der Realität entfernt.
Und jetzt die besondere Herausforderung: In einem solchen Umfeld sind Sie Teil eines Product-Owner-Teams, das eine Produkt-Roadmap und eine Übersicht  über den Produkt–Scope liefern muss. Und Sie wollen mit vertretbarem Aufwand alle wesentlichen Stakeholder ins Boot holen.
Da helfen nur drei Dinge weiter: inhaltliche Kompetenz der Menschen, Durchhaltevermögen und einfache, aber wirksame Methoden/Tools. Diese Tools müssen helfen, zwei Kernfragen zu beantworten:
  • Welchen fachlichen Scope wird meine Digitalisierungsplattform haben?
  • Wie schaffe ich es, eine nachvollziehbare Priorisierung und Reihenfolge der Umsetzungsaktivitäten zu erlangen?
Zwei Tools/Methoden, die sich in der Praxis bewährt haben, sind User-Story-Map und Feature-Liste. Beide helfen auf unterschiedliche Art und Weise, den fachlichen Gesamtüberblick zu behalten und die richtigen und wichtigen Dinge zuerst zu tun.

Zur User-Story-Map lässt sich im Internet einiges an Informationsmaterial finden zum Beispiel bei www.realtimeBoard.com:


Nun ein paar Best-Practises aus PPI-Projekterfahrungen:   
  • Pragmatisch zu sein und nicht starr an Inhalt und Bestandteilen (insbesondere an Rollen) festzuhalten, ist für viele erfahrene Pragmatiker ein schwer verdauliches Konstrukt.
  • Ziel ist, die Breite der Anforderungen abzudecken und nicht die Detailtiefe (Insbesondere für Menschen mit Erfahrung in Wasserfall ist dieses Mind-Set eine große Herausforderung.).
Doch nun noch ein, zwei Gedanken zur Feature-Liste, einem vermutlich weniger bekannten Werkzeug. Ein Kernpunkt agiler Vorgehensweisen ist die jederzeitige absolute Transparenz über die gewählte Priorisierung. Koste es was wolle, um sie herzustellen. Und eine solche Transparenz ist ja nicht einfach herzustellen – insbesondere aus fachlicher Sicht. Kernherausforderung ist hier, den richtigen Detaillierungslevel zu betrachten. Hier hilft das Denken in Features und auch die Priorisierung auf diesem Level. Definieren Sie Feature als ein auslieferungsfähiges Bündel fachlicher Funktionalität, dann hilft es hoffentlich, den richtigen Granularitätslevel zu erkennen. Auf dieser Ebene gelingt es nach unseren Projekterfahrungen sehr wohl, auch über einen längeren Zeitraum von mehreren Jahren sehr einfach eine gemeinsame Sicht auf die Gesamtprioritäten zu erhalten. Um Ihnen ein Gefühl für die konkrete Größenordnung zu geben: Im aktuellen Projekt gilt es, ca. 80 fachliche Features über einen Zeitraum von 5 Jahren umzusetzen.

Der Methodist unter Ihnen wird sich jetzt vermutlich die Frage stellen, wie beide Tools konsistent und 100% methodisch rein zusammenpassen. Hier habe ich eine Antwort: Falsche Frage…
Wollen Sie die Frage konkreter beantwortet haben, so kontaktieren Sie uns gerne.

In der Hoffnung, Sie nicht gelangweilt, sondern Ihnen ein paar Denkanstöße geliefert zu haben, verbleibe ich nach deutlich über einem Jahr digitale DNA bei PPI mit der Empfehlung:
„Finden Sie Ihre Ansätze und entwickeln Sie die digitale DNA Ihres Unternehmens (weiter).“ 

Beste Grüße
Tobias Kohl

Mal quergedacht: Turmbau zu Babel 2.0

Das Sprachenwirrwarr
Die meisten kennen die Geschichte: Die Menschen wollen hoch hinaus, sich Gott mal etwas zu weit nähern mit ihrem Turmbau zu Babel. Das gelingt auch erst recht gut, die komplexen und notwendigen Absprachen funktionieren dank einheitlicher Sprache schnell und klar, eben effizient. Nun passt das Gott natürlich gar nicht, dass die Menschen so hoch hinaus wollen. Also verteilt Gott schnell mal neue Sprachen und ruckzuck läuft auf dem Bau nichts mehr reibungslos und das Projekt scheitert.

"Mir kommt vor, das sey die edelste von unsern Empfindungen, die Hoffnung, auch dann zu bleiben, wenn das Schicksaal uns zur allgemeinen Nonexistenz zurückgeführt zu haben scheint. [...]" (Zum Schäkespears Tag von Johann Wolfgang von Goethe, 1771)

Da stelle man sich einmal vor, der werte Johann Wolfgang stünde heute vor einem und begänne seine Rede mit genau diesen Worten. Was den meisten von uns heute selbst beim Lesen Interpretationskopfschmerzen bereitet und längst verheilte Wunden aus Abizeiten aufreißt, war vor knapp 250 Jahren eine Sprache, die zumindest von vielen Menschen problemlos verstanden wurde. Der Schwabe würde frei interpretiert heute das gleiche mit folgenden Worten sagen: "Mr hodd nedd jedn Dag an guada Dag!"


Moderne und digitale Sprachen
Mittlerweile hat sich mit Englisch eine Art verbindende Weltsprache etabliert, denn auch weiterhin treibt den Menschen die Effizienzsteigerung der Sprache. Nebenbei entwickeln wir nun auch Roboter und Künstliche Intelligenz. Was bietet sich mehr an, als diesen Systemen ebenfalls das „Sprechen“ beizubringen und am besten mit einer universellen Sprache wie Englisch? So haben es Forscher von Facebook getan – bis hierhin nichts Besonderes. Ziel war es eigentlich, zwei Chatbots miteinander handeln zu lassen und deren Vorgehen und Optimierungsstrategien zu beobachten. Dies gelingt umso einfacher, je besser man versteht, was die Roboter tun. Bis hierhin auch noch kein Problem. Nur wie der Versuch tatsächlich lief und warum die Forscher den Stecker der Systeme ziehen ließen lässt sich noch nicht erahnen…

Beide Roboter fingen an miteinander zu sprechen und alle dachten, sie würden entsprechend loslegen zu handeln. Doch im ersten Schritt stimmten die beiden sich nur auf einen maximal effektiven Weg ab – dieser führte unweigerlich über die Sprache. Beide erkannten, dass die gelernte Sprache ihrem Ziel nicht dienlich genug war und einigten sich auf eine „neue“ Sprache. Die Roboter entwickelten kurzerhand eine eigene, für die Forscher nicht mehr nachvollziehbare Sprache - innerhalb weniger Stunden – nicht mehreren hundert Jahren! Keiner verstand mehr, was die beiden Roboter da eigentlich trieben. Wie auch, so schnell kann man kein Wörterbuch schreiben.

Kontrollverlust oder normaler Fortschritt?
Nun gut, was macht man konsequenter Weise, um die Kontrolle über die Systeme wieder zu gewinnen? Man zieht den Stecker. Wer weiß, was die Künstliche Intelligenz da ausheckt. (Offiziell war das natürlich nicht die Begründung, sondern vielmehr, dass das Experiment nicht das gewünschte Ergebnis brachte und ein Fortgang daher keinen Sinn hätte.)

So schnell kann man bei einer Art „digitalisierten“, Jahrtausende alten Geschichte der Bibel landen. Nur sind wir nicht allmächtig und dieses Experiment zeigt, dass wir uns der Kontrolle Künstlicher Intelligenz in einer vernetzten, globalen Welt vielleicht nicht so sicher sind, wie wir oft glauben.

Bevor Sie nun befürchten, dass hier eine neue Science-Fiction-Serie entsteht oder ganze Utopien verfasst werden, seien Sie beruhigt. Wie mit allen neuen Erfindungen, gibt es zu Beginn eine ungewisse Menge an unbekannten Herausforderungen. Hätte die Menschheit jedes Mal den Stecker gezogen und dann alles wieder aufgegeben, müssten wir diesen Blogbeitrag als Wandmalerei in einer Höhle verewigen…

Zurück in die Zukunft
Im Grunde spiegelt diese Wandlung und immer wieder neue Interpretation von Sprache auch unser tägliches Schaffen als IT-Berater für Versicherungen wider. Sei es die Übersetzung von Ideen in Fachanforderungen und dann in „Nerdtalk“ oder insbesondere die Orchestrierung heterogener Systeme bei der Systemintegration, bei der man ab und an doch noch moderne, digitale „Goethe“ finden kann. Überall muss man verschiedene Sprachen und Sprachausprägungen verstehen und sprechen lernen, damit die einzelnen Inseln am Ende doch als Gesamtes ihr Ziel erreichen. Die Kunst ist es, bleibende, nachhaltige Sprachentwicklung von kurzzeitigen Hypes zu unterscheiden.


Wir finden daher: Sprache – auch die der Künstlichen Intelligenz - sollte man sportlich nehmen, in jeglicher Hinsicht. Selbst wenn uns manche Blüten auf den ersten Blick zuwider erscheinen, ist es immer interessant den Hintergrund der Entwicklung zu ergründen. Dann ermöglicht das oft einen ganz neuen Blick auf eine eigentlich bekannte Herausforderung. Oder man kann es unter der Rubrik "Hype" verbuchen, im besten Fall darüber lachen und dann getrost vergessen. Schrecken Sie also nicht davor zurück, auch Chatbots in Ihrem Versicherungshaus einzusetzen. Es könnte dann spannend werden, wenn die Chatbots der einzelnen Versicherer sich mal untereinander austauschen würden… :-D


Beste Grüße
Ronny Kant & Jonathan Freitag

Ronny Kant ist Consultant im Bereich Versicherungen und ist nebenbei ein sehr kreativer wie auch innovativer Schreiberling. Er interessiert sich für zukünftige Entwicklungstendenzen der Versicherungsbranche und die daraus resultierenden Herausforderungen für Versicherungsunternehmen.


Jonathan Freitag ist Partner bei aaronprojects und verantwortet dort die IT-Consulting-Sparte. Für nachhaltigen Pragmatismus und direkte Kommunikation kann man ihn immer begeistern.



Image: 143792858 - © mast3r  - by fotolia.com

Automatisiertes Cyberrisk-Rating für Cyber-Versicherer? Ja! mit cysmo

cysmo – Die neue Dimension der Cyber-Risikobewertung

In unserer Blog-Reihe „Schützt die Burgen“ haben wir in den vergangenen Wochen versucht, das komplexe Themengebiet der Cyberrisiken möglichst verständlich für jedermann darzustellen und bestmöglich auf die Versicherungswirtschaft abzubilden.
Aber gehen wir noch einen Schritt zurück. In dem Beitrag Cyber-Deckungsentscheidungen anhand von Fragebögen haben wir uns mit den Herausforderungen in der Risikobewertung, mit denen Underwriter bei der Policierung von Cyberrisiken konfrontiert werden, auseinandergesetzt. Damals schon konnten wir einen Gap zwischen Fragebögen und Audits identifizieren.


Seitdem ist viel passiert... Seit längerem arbeiten wir an einer Produktlösung, die diesen Gap schließen wird. Gestern war es soweit: Mit dem Launch von cysmo bieten wir Versicherern, speziell den Cyber-Underwritern, ein Tool zur besseren Risikobeurteilung.

Vielleicht stellen Sie sich jetzt folgende Fragen:

  • Wer oder was ist cysmo?
  • Wie kann cysmo mir helfen?
  • Wie kann ich cysmo nutzen?
  • Wo erhalte ich Zugang zu cysmo?



cysmo ist ein vollautomatisiertes und browserbasiertes Analysetool, das ergänzend zu den bisher üblichen Vorgehensweisen in der Risikobewertung für Cyber-Versicherungen zu sehen ist. Dabei liefert cysmo eine Echtzeit-Risikobewertung aus Sicht eines potenziellen Angreifers.
cysmo erstellt ein Online-Screening ausschließlich öffentlich einsehbarer Daten, ohne in die Infrastruktur des Unternehmens einzudringen. Als Ergebnis erhält der Underwriter eine Risikobewertung möglicher Angriffspunkte und damit die Messung der Erfolgswahrscheinlichkeit einer potenziellen Cyber-Attacke.

cysmo ist keine statische Anwendung, sondern passt sich je nach Bedrohungslage dynamisch an. Die Risikobewertung liefert immer die aktuellen Werte und kann jederzeit erneut durchgeführt werden.
Vielleicht fragen Sie sich nun, wieso ein Beratungsunternehmen ein solches Produkt auf den Markt bringt.

Wir als PPI haben eine über 30-jährige Erfahrung als Beratungs- und Softwarehaus und kennen uns im Versicherungsmarkt bestens aus. Ergänzend haben wir entsprechendes Cyber- und Security-Know-how einfließen lassen und können somit eine auf Versicherer passgenaue Lösung anbieten, die jedem Versicherer, ob Neuling oder „alter Hase“ im Geschäft, einen echten Wettbewerbsvorteil verschafft.

cysmo ist ein leicht zu bedienendes Tool, das keinerlei Anbindung an die interne IT-Infrastruktur benötigt. Nach einer kurzen Einführung kann sofort losgelegt werden. Dabei unterstützt cysmo den Underwriter mithilfe von interaktiven Erläuterungen, um die erhobenen Daten genau nachvollziehen zu können. Dies schafft die nötige Basis, um Cyberrisiken effizient zu bewerten.
Haben wir Ihr Interesse geweckt?

Wollen Sie die Revolution des Cyber-Versicherungsmarktes live erleben und selbst von dem sich bietenden Mehrwert profitieren?
Dann zögern Sie nicht, uns jetzt zu kontaktieren! Starten Sie Ihren erfolgreichen Weg in die Cyber-Risikobewertung.


Beste Grüße
Sebastian Scholz und Jonas Schwade



#Cyber #Cyberrisks #Cyber-Rating #Cyber-Security-Programm #Risikoberatung #Risikobewertung #Risikolage #Versicherungen #Banken #Finanzindustrie #Cyberrating

Sonderbeitrag: MCC CyberRisks Konferenz 2017 in Bonn

Experten aus verschiedenen Branchen diskutieren über Cyberrisiken

Vergangene Woche (13.09.-14.09.2017) trafen sich im Maritim Hotel in Bonn eine Reihe Experten und interessierte Zuhörer aus den Bereichen Assekuranz, Banken und Finanzindustrie, um durch Vorträge und anschließend stattfindende Diskussionen das Thema Cyberrisks im Detail zu betrachten. Auch wir von PPI waren vertreten.

Ein Erfahrungsbericht
Von der aktuellen Bedrohungs- und Sicherheitslage über Kumule, IoT, Cyber-Security-Management, Cyber-Resilience-Systeme bis zur Industrie 4.0 - die Themen deckten ein breites Spektrum ab und hatten alle einen Hintergrund: Wie kann ein ganzheitliches Cyber-Security-Programm aussehen und vor allem wie kann ein Produkt Cyber Versicherung aussehen?
An dem aktuellen Beispiel Equifax-Hack, bei dem auf Daten von über 140 Millionen US-Kunden zugegriffen wurde, ist die Relevanz von Cyber sowohl in den Punkten Prävention, Notfallplan, Absicherung und Risikotransfer wieder mehr als deutlich geworden.

CyberRisk ist ein branchenübergreifendes Thema
Die Referenten kamen aus vielen verschiedenen Bereichen: Vertreter aus Versicherungen und Maklerschaft standen neben Vertretern aus der Industrie, dem Bundesamt für Verfassungsschutz und auch IT-Dienstleistern auf der Bühne, um ihre Gedanken und Erfahrungen im Bereich Cyber zu teilen.
Über alle Vorträge und Diskussionen wurde recht schnell klar, dass es im Bereich Cyber keine „Silver Bullet“ gibt. In einigen Punkten z. B. in der Produktgestaltung, den auf Wachstum ausgerichteten Marktprognosen und in der absolut notwendigen Unterstützung durch IT Security-Profis in der Risikoberatung, als auch Schadenregulierung im Ernstfall, ist sich die Branche weitestgehend einig. Bei den aktuell verfügbaren Möglichkeiten der effizienten und effektiven Risikobewertung sieht die Branche noch massiven Weiterentwicklungsbedarf. Bisher verwendete Lösungen – Fragebögen und Audits – sind noch nicht optimal. Die passende Terminfindung mit Verfügbarkeit der kaufmännischen Seite und gleichzeitiger Einbindung der IT oder relativ hohe (Opportunitäts-)Kosten für Risikodialoge ohne Austausch auf Detailebene sind nur einige der Herausforderungen, der sich die noch junge Cyber-Versicherungsbranche gegenübersieht. Auch der Blick von außen kommt häufig zu kurz, zumal viele der veröffentlichten erfolgreichen Angriffe tatsächlich auf „Außentäter“ zurückzuführen sind.
Am liebsten hätten die Versicherer und Makler eine automatisierte und schnelle, unkomplizierte Möglichkeit, sich einen Überblick über die Risikolage eines Unternehmens zu verschaffen. Die in kleinen Teilen existierenden quick Scans sind allerdings in der Tiefe nicht ausreichend, um eine tatsächliche Bedrohungs- und potenzielle Schadenssituation einzuschätzen. Die Terminfindung können wir von PPI natürlich nicht vereinfachen. Dafür gibt es ja auch schon doodle.

Was wir aber mit unserer Erfahrung in versicherungsmathematischen Modellen, hochgradig effizienten IT-Produkten und IT-Experten aus der White Hat Szene sehr wohl können, ist eine Risikoeinschätzungsmöglichkeit zu entwickeln: PPI cysmo - eine Anwendung zur automatisierten Cyberrisk-Bewertung aus risikotechnischer Sicht. cysmo ist auf die Bedürfnisse der Versicherungsbranche und des Versicherungsvertriebs ausgerichtet und unterstützt aus Perspektive des Underwriters bei der Zeichnungsentscheidung und dem Kumulmanagement, als auch in der risikoberatenden Situation durch Makler oder Versicherer. ( mehr zu cysmo erfahren Sie am kommenden Donnerstag hier auf diesem Blog - Wer nicht warten möchte: Besuchen Sie unsere Webpage cysmo.de )

An diesem Punkt möchten wir uns recht herzlich für wirklich spannende Vorträge und anregende Diskussion bedanken.
Wir freuen uns schon auf das nächste Jahr und sind gespannt, wie sich der Cyber-Markt, die Branche und die Kundenerwartungen weiterentwickeln werden.

Beste Grüße
Sebastian Scholz, Ronny Kant und Jonas Schwade



#Cyber #Cyberrisks #Cyber-Rating #Cyber-Security-Programm #Risikoberatung #Risikobewertung #Risikolage #Versicherungen #Banken #Finanzindustrie #Cyberrating