ChatGPT hat den erfolgreichsten App-Start aller Zeiten hingelegt, nicht mal Tiktok hat schneller hundert Millionen registrierte Nutzer gewonnen als der KI-getriebenen (KI = Künstliche Intelligenz) Chatbot. Über die Funktionsweise von ChatGPT, die Sprachmodelle, deren Stärken und Schwächen und welche Bedeutung der Fortschritt der generativen KI für alle Lebens- und Geschäftsbereichen im Allgemeinen bedeutet, ist inzwischen viel geschrieben worden.
Die Frage ist, welche strategischen und operativen Konsequenzen hat der ChatGPT-Erfolg für Banken, Fintechs und Finanzdienstleister im Allgemeinen – auch vor dem Hintergrund, dass die Technologie hinter ChatGPT so neu gar nicht ist.
Ohne den intelligenten Chatbot noch einmal komplett erklären zu wollen, zunächst ein Blick auf einige relevanten Aspekte seiner Funktionsweise, um eine Grundlage für die späteren Gedanken zu legen.
ChatGPT, Generative KI und Foundation Models
Der Antrieb hinter ChatGPT ist die KI GPT-3.5, ein sogenanntes „Large Language Model“ (LLM), das bereits 2020 in der Version 3.0 entwickelt wurde. LLM sind Sprachmodelle, die darauf trainiert sind, die Wahrscheinlichkeit von Wortabfolgen zu errechnen. Sprachmodelle, die wie GPT-3.5 (im Folgenden nur GPT) mit dem Transformer-Ansatz arbeiten, sind in der Lage, durch parallelisiertes, automatisiertes Lernen Wissen aus riesigen Datenmengen rasant aufzubauen. GPT ist quasi mit dem Inhalt des kompletten Internets trainiert worden und hat damit das dort repräsentierte Weltwissen statistisch verinnerlicht. Deshalb sind die auf Basis von Wahrscheinlichkeiten berechneten Antworten auf gestellte Fragen so gut, dass sie zum Teil nicht mehr von den Antworten menschlicher Kommunikationspartner zu unterscheiden sind. Dabei geht GPT nicht nur mit Fragen im engeren Sinne um, sondern erledigt komplexe Denkaufgaben, die als natürlichsprachliche Anweisungen formuliert werden – die Beantwortung von Fragen ist nur ein schmaler Aufgabenspezialfall, den GPT beherrscht, ohne komplizierte Code-Zeilen.
Im Gegensatz zu früheren KI-Modellen sind LLMs wie GPT – ausgeschrieben Generative Pretrained Transformer – „nur“ vortrainiert und nicht mehr für spezielle Aufgaben ausgebildet. Deshalb nennt man GPT und seine Verwandten von Google oder anderen Technologie-Unternehmen auch Foundation Models. Foundation Models sind „Roh-Intelligenzen“, die ihre Spezialausbildung durch sogenanntes Finetuning erhalten. Umgekehrt bedeutet dies, dass für spezielle KI-Anwendungsfälle nicht mehr ein komplett eigenes KI-Modell entwickelt werden muss. Ein Anwender kann auf eines der Foundation-Modelle zugreifen und durch vergleichsweise einfaches Finetuning eine Second-Layer-KI für seinen Spezialfall entwickeln.
Foundation-Modelle bilden API-basierende KI-as-a-Service-Plattformen, auf denen sich unzählige KI-Lösungen aufbauen lassen. ChatGPT ist dafür nicht das erste, aber das öffentlichkeitswirksame Beispiel, das von OpenAI selbst entwickelt wurde. ChatGPT wurde eigens für die Kommunikation mit Menschen trainiert und dies eben ziemlich gut.
Dabei ist es wichtig zu erkennen, dass ChatGPT eben nicht nur eine singuläre App ist, die in der Interaktion mit Menschen ausgezeichneten Content produziert, sondern dass dahinter eine gesamte Infrastruktur für generative KI steht, die sich über APIs in Unternehmensprozesse oder Produkte einbinden lässt.
🇲🇽 Die heißeste Payment-Party des Jahres! 🇲🇽
Der Begriff „generative KI“ steht hier für Intelligenzen, die Inhalte produzieren – statt zum Beispiel nur Daten auszuwerten. Als „Generator of Everything“ oder anspielend auf die textliche Formulierung von Aufgaben „Text-to-Everything“ wurden diese KIs in Veröffentlichungen bezeichnet. Sie erzeugen auf Anforderung in natürlicher Sprache Texte, Bilder, ganze Video-Filme, Programm-Code oder auch Proteine für die Medikamentenforschung.
Die Wirkung von ChatGPT
Foundation-Modelle im Allgemeinen und GPT sind im Grunde nicht ganz neu. Die Technologie dafür wurde bereits 2017 entwickelt und es gibt auch bereits erste frühe Geschäftsmodelle, die auf ihrer Basis entwickelt wurden, vornehmlich im Bereich kreativer Inhaltsproduktion.
Mit ChatGPT hat die Allgemeinheit aber erstmals einen sehr einfachen Zugriff auf eine generative KI erhalten und kann damit selbst experimentieren und selbst austesten, was sie Erstaunliches leisten kann. Bislang beschränkte sich die Erfahrung „normaler“ Nutzer auf „enge“ KIs, die Smartphones smart machen, in Sprachassistenten stecken, die Empfehlungs- und Werbeprozesse von Social-Media-Plattformen und E-Commerce-Anbietern treiben oder Bestandteil von Auto-Pilot-Funktionen von Autos sind.
Die Wirkung dieses einfachen Massenzugriffs auf eine künstliche Intelligenz ist nicht zu unterschätzen – er wurde schon als iPhone-Moment für die KI bezeichnet. Über 100 Millionen Menschen, darunter Unternehmer, Gründer, Manager, Wissenschaftler und andere Business-Kreative, beschäftigen sich via ChatGPT mit den Möglichkeiten von generativer KI und Foundation-Modellen. Das wird sowohl einen Pull-, als auch einen Push-Effekt haben: Konsumenten werden künftig ChatGPT-artige Intelligenz in Produkten erwarten, Schaffende werden KI-getriebene Geschäftsmodelle, Produkte, Services, Kunstwerte etc. entwickeln.
Dass die Entwicklung mit großem Tempo weitergehen wird, zeigen auch die Reaktionen der BigTechs, die der ChatGPT-Erfolg provoziert hat: Google wurde gezwungen, seine Zurückhaltung beim Zugriff auf die eigenen Modelle für generative aufzugeben und hat mit Bart gleich Konkurrenzprodukt vorgestellt. Microsoft beginnt als einer der Investoren von Open.AI ChatGPT in die eigene Suchmaschine Bing zu integrieren.
KI in und für die Finanzindustrie
ChatGPT allein wird die Finanzindustrie nicht revolutionieren. Aber der Doppeleffekt durch die Verfügbarkeit von KI-as-a-Service und Massenadaption von generativer KI zwingt Banken, Fintechs und andere Finanzdienstleister strategisch über KI neu nachzudenken. Dies auch, wenn die Finanzindustrie schon zu den frühen und führenden Anwendern enger KIs gehörte. Quant-Fonds entwickeln KI-getriebene Handelsstrategien, Kredite werden mit intelligenten Scoring-Prozessen automatisiert vergeben. Nicht ganz so kluge Chatbots sind in der Kundenkommunikation schon länger im Einsatz.
Der einfache Zugang zu Intelligenz-Plattformen – ChatGPT ist hier nur der Anfang – und der so drastisch gesunkene Aufwand, Second-Layer-KI-Anwendungen zu entwickeln, werden einen sehr breiten und kreativen Entwicklungsprozess in Gang setzen. In diesem werden alle wesentlichen Prozesse der Branche aus einer KI-Perspektive durch- und neu gedacht. Deshalb müssen die etablierten Player strategisch und operativ überlegen, wie sie damit ihre eigenen Prozesse optimieren und/oder neue Produkte entwickeln können. Sonst laufen sie Gefahr, vom kreativen KI-Mahlstrom erfasst zu werden – auch wenn hier, wie in den bisherigen Innovationswellen, die Regulierung Banken und anderen beaufsichtigten Unternehmen einen gewissen Bestandsschutz bietet.
ChatGPT als KI-Sandbox
Glücklicherweise bietet ChatGPT Banken wie jedem anderen Unternehmen auch für das Experimentieren mit generativer KI eine Art sofort verfügbare Sandbox. In die Unternehmenswelt „übersetzt“ ist ChatGPT eine einfache, intuitiv bedienbare Nutzerschnittstelle, die es Fachabteilungen erlaubt, ohne Technikwissen, ohne Unterstützung durch die IT und ohne aufwendige API-Integration mit einem mächtigen Foundation Modell in ihrer eigenen Sprache zu arbeiten. Die Fachabteilungen können damit einerseits die Arbeit mit einer KI erlernen – zum Beispiel wie man „Prompts“, wie die Aufgabenformulierung genannt wird, so verfasst, dass die KI die gewünschten Antworten gibt –, andererseits können sie mit ihrem Prozesswissen austesten, wo der KI-Einsatz durch Prozess-Optimierung oder die Entwicklung ganz neuer Prozesse wertschöpfend ist.
Grenzen für den Einsatz von ChatGPT als KI-Sandbox setzen allerdings Restriktionen hinsichtlich Informations- und Datensicherheit, die für regulierte Häuser in besonderem Maße gelten, sowie aufsichtsrechtliche Vorgaben, die bei der Nutzung von externen Software-as-a-Services zu beachten sind. Aber jenseits dieser Restriktionen ergibt sich ein weites, nicht kritisches Experimentierfeld.
Wenn die möglichen Einsatzfelder für generative KIs identifiziert sind, können dafür auf der Basis von GPT oder spezieller Foundation-Modelle für Finanzunternehmen – die es auch schon gibt – eigene feingetunte Second-Layer-Lösungen entwickelt werden. So ist es etwa denkbar, dass eine Banken-eigene Second-Layer-KI mit Organisationshandbuch, Arbeitsanweisungen, Prozessbeschreibungen etc. trainiert wird, um eine Grundlage für weitere bankeninterne Anwendungen zu schaffen. Ein „Startvorteil“ von Banken ist übrigens, dass ihre Prozesse in Regel optimal dokumentiert sind, sodass es genügend „Trainingsmaterial“ gibt, mit dem sich Modelle trainieren lassen.
Sechs Schritte von KI-Sandbox zur aufsichtsrechtlich konformen KI-Strategie
Standardstrategien für den Einsatz generativer KI für Finanzunternehmen gibt es nicht. Vielmehr muss jedes Unternehmen seinen eigenen Weg finden, nicht den Anschluss bei der Nutzung von Intelligenz-Technologien zu verlieren. Wie beschrieben kann ChatGPT einen Startpunkt für die Entwicklung einer individuellen KI-Strategie bieten. Exemplarisch können Banken und andere regulierte Unternehmen sich mit den folgenden sechs Schritten in Richtung eines aufsichtsrechtlich konformen Einsatzes von KI bewegen.
- Aufsetzen eines strategischen/operativen Frameworks für den potenziellen Einsatz generativer KI (Identifizierung von Einsatzfeldern, strategischer Impact des Einsatzes, Lokalisierung der Einsatzfelder in Fachabteilungen)
- Klärung der Möglichkeiten aus den Perspektiven Informationssicherheit, Datenschutz und Aufsichtsrecht für den Einsatz von KI-Modellen von Dritt-Anbietern
- Einführung ChatGPT und Basistraining für den Umgang mit ChatGPT
- Formulierung der Aufgabenstellungen auf Fachabteilungsebene für den testweisen Umgang mit ChatGPT (Ziele, Testszenarien, Zeitraum, Auswertungs-/Ergebnisreport).
- Kriterien für eigene Finetuning-Projekte auf Basis der Testszenarien (Business Cases/Wirksamkeit auf Cost-Income-Ratio, Prozessdurchlaufzeiten, Ressourcen-Effizienz etc.)
- Start von eigenen Finetuning-Projekten (API-Integration, Sammlung und Aufbereitung von Trainingsdaten)
Einige Anwendungsfälle für generative KI wie GPT liegen auf der Hand: Kundenkommunikation über die verschiedenste Kanäle, Interpretation von Regulierungstexten, Verfassung von Reports und Berichten für Prüfer, Aufsichtsbehörden oder Kunden, die Erzeugung von Computercode etc.; weitere, heute noch nicht immer erkennbare Anwendungsfälle lassen sich durch diese Strategie identifizieren und umsetzen.
Zu dem Thema auch interessant:
Über den Autor:
Seit 2012 realisiert Hartmut Giesen für die Sutor Bank digitale Geschäftsmodelle. Zu seinen Aufgaben gehören das Business Development Fintech, digitale Partner und Crypto/ Blockchain, der Auf- und Ausbau der Sutor Banking-Plattform und die Betreuung interner Digitalisierungsprojekte. Zuvor war er im Hightech-Marketing unter anderem als Agentur-Vorstand und Gründer einer eigenen Agentur unterwegs. An der RWTH Aachen hat Hartmut Giesen Germanistik und Physik studiert.