Künstliche Intelligenz ist älter als viele glauben. Schon vor knapp 100 Jahren, in den zwanziger Jahren des letzten Jahrhunderts, entwickelten die deutschen Physiker Lenz und Ising so etwas wie den Urgroßvater von ChatGPT. Es folgten die US-Amerikaner McCulloch und Pitts Mitte der Vierziger Jahre mit der ersten mathematischen Beschreibung künstlicher neuraler Netze. Alan Turing führt die Ideen in seinem Werk „Intelligente Maschinen“ (1948) fort und legt die Grundlage für das, was wir heute Machine Learning nennen.
KI gibt es also nicht erst seit November 2022. Da erschien ChatGPT und brachte die Technologie in den Mainstream. Doch was ist eigentlich Künstliche Intelligenz genau, was kann sie und was nicht? Wofür eignen sich solche KI-Tools, außer zum Schreiben von Hausaufgaben und SEO-Konzepten?
Was ist Intelligenz?
Die Definition des Begriffes „Künstliche Intelligenz“ macht es sich leicht. „Maschinell nachgebildete menschliche Intelligenz“. Damit sind wir aber keinen Schritt weiter – und auch bei der Frage, was menschliche Intelligenz eigentlich ist, gibt es kaum Einigkeit. Wie auch immer wir das Konzept menschlicher Intelligenz aber auch definieren wollen, ob als Ansammlung mehrerer kollaborierender Systeme zur Lösung verschiedener Probleme oder als ein ganzheitliches Konstrukt. Künstliche Intelligenz besteht immer nur aus Zahlen.
Mathematische Konstrukte, Vektoren, Wahrscheinlichkeitsberechnung, komplizierte Formeln – all das, in schlauer Weise kombiniert, ergibt diejenigen Phänomene, die wir heute als „KI“ bezeichnen. Dazu gehört neben ChatGPT auch OCR, die optische Schrifterkennung bei gescannten Dokumenten, oder Fahrassistenten in modernen Autos. Doch kaum jemand würde ernsthaft behaupten, dass ein BMW plötzlich Bewusstsein entwickelt, nur weil er ein 30-Zone-Schild korrekt erkennt.
Bilderkennung mit neuronalen Netzen
Dabei ist die Art der Bilderkennung in diesem Fall sogar explizit den neuronalen Strukturen menschlicher Gehirne nachgebildet. Stark vereinfacht betrachtet das System ein schwarz-weiß Foto Pixel für Pixel und ermittelt, ob bestimmte Schwellwerte für Helligkeit überschritten werden. Daraus errechnet es eine Wahrscheinlichkeit, ob das Bild ein Verkehrsschild zur Geschwindigkeitsbegrenzung zeigt, auf dem „30“ steht. Angeschlossene Systeme können daraufhin dann zum Beispiel ein Warnsignal auslösen oder sogar die Geschwindigkeit herabsetzen.
Dieses Zusammenspiel aus Reizen und Schwellenwerten ist das, was es zu einem neuronalen Netz macht. Neuronen im Gehirn arbeiten nämlich fast genauso. Nur mit chemischen Botenstoffen, die elektrische Potenziale übertragen, anstatt mit Einsen und Nullen.
Denkt ChatGPT wie ein Mensch?
Aber zurück zu ChatGPT. Der Chat-Bot versteht, was ich möchte, gibt empathische Antworten und kann „wie ein Mensch denken“, oder?
In Wahrheit versteht das hinter ChatGPT arbeitende LLM (Large Language Model) nichts von dem, was man ihm vorgibt. Auch den Sinn seines eigenen Outputs erfasst es nicht. Es weiß nichts von Empathie und denken tut es schon gar nicht. Wie also kommt es zu den überzeugenden, für uns so sehr menschlichen Antworten, die es uns gibt?
Nun, einerseits neigen wir dazu, alles, was wir sehen sofort und so weit wie möglich zu vermenschlichen. Das Resultat eines evolutionären Vorteils all jener, die in der Lage waren, die innere Gefühlswelt ihrer Mitmenschen zu erkennen. Dies ermöglichte stärkere soziale Bindungen und Kooperation, was wiederum für unsere Vorfahren einen Überlebensvorteil darstellte. Die Nebenwirkung: Autos haben Gesichter, das Antlitz Jesu Christi erscheint auf Toastscheiben und ChatGPT hat echtes Bewusstsein.
Die Wahrheit ist weit weniger sentimental, aber dennoch äußerst beeindruckend. Zu verstehen, wie ChatGPT zu seinen Ergebnissen kommt, ist entscheidend. Nur so sind wir in der Lage, das Potential dieser und ähnlicher Technologien richtig einzuschätzen und uns mit konkreten, praktisch sinnvollen Anwendungsfällen aus dem Tal der Ernüchterung hinaus auf den Pfad der Erleuchtung zu begeben.
Vervollständige diese Zeichenfolge
ChatGPT vollendet im Grunde nur Lückentext. Wenn ich also sage, „Montag, Dienstag, Mittwoch, Donnerstag, Freitag, …?“ lautet die Fortsetzung mit sehr großer Wahrscheinlichkeit „Samstag, Sonntag“. Wenn ich sage „Deutschlands größte Insel heißt…“ geht der Satz sehr wahrscheinlich mit „Rügen“ weiter. So funktioniert, vereinfach gesagt, auch ChatGPT. Natürlich sind hier noch ein paar zusätzliche Mechanismen verbaut, die das Verständnis des Inputs verbessern und mehr Output ermöglichen als nur die schlichte Vervollständigung von unfertigen Sätzen.
Aber nach diesem grundlegenden Prinzip arbeiten LLMs – sie nehmen eine Folge von sogenannten Tokens (das können ganze Wörter oder Teile von Wörtern sein) und ermitteln dasjenige Token, das mit der höchsten Wahrscheinlichkeit als nächstes folgt. Zu keinem Zeitpunkt versteht das System inhaltlich, was wir als Input geben oder was es selbst als Output generiert. Es operiert nur mit Zahlenwerten, die Wahrscheinlichkeiten repräsentieren (sogenannten Vektoren).
Diese Wahrscheinlichkeit ermitteln sie aus dem Trainingsmaterial. Im Falle von ChatGPT umfasst dieses Trainingsmaterial sämtliche im Internet frei verfügbaren Texte. Von der gesamten Wikipedia über allen frei zugänglichen Code auf GitHub und vieles mehr. Unvorstellbar viel, so dass die Ermittlung des wahrscheinlichsten nächsten Tokens häufig eine gute Trefferquote hat. Zumindest dann, wenn es um generalistische Fragen geht. Sobald man allzu spezifische Themen anspricht, oder solche, die extremes Nischenwissen voraussetzen, wird es kritisch. Dann nämlich fängt ChatGPT an, zu „halluzinieren“. Noch so ein vermenschlichter Begriff. Das System nimmt ganz einfach dasjenige Token mit der höchsten Wahrscheinlichkeit. Bietet das Trainingsmaterial aber nur sehr wenige oder gar keine Beispiele für den korrekten Zusammenhang, fällt das Ergebnis sehr ernüchternd aus. Es wirkt dann, als würde der Chat-Bot sich „etwas ausdenken“, auch wenn er natürlich nicht zu echter Kreativität fähig ist. Die Halluzinationen sind einzig das Ergebnis mangelhafter Quellenlage.
Der sinnvolle Einsatz von KI
Diese Einschränkung zu verstehen, ist ein wichtiger Schritt heraus aus der Euphorie über die scheinbar unendlichen Möglichkeiten von KI in Gestalt eines LLM. Es erlaubt uns den Blick hinter den Vorhang. Nur so sind wir in der Lage, neue wertvolle Anwendungsfälle zu entwickeln. Ein LLM kann gewisse Aufgaben sehr gut übernehmen. Insbesondere die normalsprachliche Kommunikation und Interaktion zwischen Menschen und Maschine (oder Software). Für andere Aufgaben ist es gänzlich ungeeignet. Alles, was mit Präzision, sowie zuverlässigen und wiederholbaren Ergebnissen zu tun hat, muss mit anderen Technologien gelöst werden.
Das heißt nicht, dass KI immer unzuverlässig ist. Wir müssen nur ein Gespür dafür entwickeln, zu welchen Zwecken welche Art Technologie geeignet ist. Schließlich versuchen wir auch nicht, Gehirnoperationen mit einem Brotmesser durchzuführen statt mit einem Skalpell, nur weil beides „scharfkantige Gegenstände“ sind.
Schwarm-KI: Präzises Legal Tech mit neo:guard
Aus diesem Grund haben wir bei neo:guard genau solche Technologien eingesetzt, die in der Lage sind, zuverlässige, reproduzierbare Ergebnisse herzustellen. Die Anonymisierung und Pseudonymisierung von persönlichen Daten erlaubt kein „ungefähr“ und kein „wahrscheinlich“. LegalTech darf nicht bloß raten. Hier braucht es absolute Präzision und Sicherheit. Das geht nur mit dem smarten Einsatz von KI-Systemen in sogenannten Schwärmen, die sich gegenseitig kontrollieren und auf eng umgrenzte Aufgaben spezialisiert sind.
Dieselben Systeme eignen sich auch für Analyse und Zusammenfassung sehr großer Mengen von Informationen auf Basis tatsächlicher Fakten. Setze ich ChatGPT einen 40-seitigen Vertrag vor mit der Bitte, mir die wichtigsten Personen, Daten und andere Fakten zusammen zu fassen, streikt die Maschine. „Das kann ich nicht.“ Immerhin ist es ehrlich.
Habe ich aber mithilfe einer darauf spezialisierten Software, die nicht nur aus einem LLM besteht, alle relevanten Informationen aus dem Dokument extrahiert, kann ich problemlos ein „dummes“ Large Language Model anweisen, mir aus diesen Fakten eine für Menschen verständlich und leicht lesbare Antwort zu formulieren.
Das ist es, was ein KI-Tool von einem selbstsicher ratenden Spielzeug-Brotmesser zu einem sicheren, präzisen Skalpell macht.