Künstliche Intelligenz: Immer noch „dümmer“ als man denkt

Künstliche Intelligenz ist im Moment sicherlich die meistdiskutierte Innovation auf dem Markt – und dabei auch die am häufigsten missverstandene. Denn schon der Begriff impliziert, dass hier „intelligente“ Maschinen agieren.Aktuelle KI-Systeme haben in Wahrheit aber noch sehr wenig mit wirklicher Intelligenz zu tun. Vielmehr handelt es sich um maschinelles Lernen auf Basis künstlicher neuronaler Netze. Die Bezeichnung Machine Learning (ML) wäre also passender. Zudem suggerieren Hype- und Erfolgsmeldungen häufig eine gewisse Reife der Technologie, die aber faktisch so bisher nicht gegeben ist. Tatsächlich befindet sich ML heute noch in den Kinderschuhen und kämpft mit diversen, sehr fundamentalen Problemen.

Der Schatz im Datensee

Bevor die KI agieren kann, muss sie erst einmal ihr Handwerk lernen – und das ist gar nicht so einfach. Menschen fällt es relativ leicht, neue Dinge durch Beobachten weniger Beispiele zu erlernen und die richtigen Zusammenhänge zu erkennen. Bei Maschinen ist das wesentlich aufwändiger und bedarf großer Mengen von Trainingsdaten und unzähliger Wiederholungen.

Die zurzeit relevanteste Machine-Learning-Methode ist das Supervised Learning. Dabei werden dem System wiederholt Eingaben und Beispiele sowie dazu passende korrekte Ausgaben präsentiert – oftmals sind dazu hunderttausende Beispiele notwendig. So lernt das ML-System, Zusammenhänge zu erkennen, um später auch für unbekannte Eingaben und Anfragen die richtigen Ergebnisse zu liefern. Das begrenzt die Einsatzmöglichkeiten erheblich, da für viele Anwendungen die notwendigen Mengen an Trainingsdaten gar nicht verfügbar sind.

Es existieren zwar alternative Trainingsmethoden, die eine effizientere „Schulung“ ermöglichen. Diese gleichen vom Ergebnis her aber oft noch einem Glücksspiel – etwa der Transition-Learning-Ansatz, in dem die KI auf ähnliche, in großen Mengen verfügbare Daten trainiert und dann mit den wenigen vorliegenden Beispielen sozusagen umgeschult wird. Andere Methoden wie Reinforcement-Learning – das System wird nur auf einen Indikator trainiert, ohne das richtige Ergebnis präsentiert zu bekommen – funktionieren bisher nur für sehr spezielle Anwendungsfälle wie einfache Computerspiele. Ein echtes Unsupervised Learning, das ohne oder mit sehr wenigen Beispielen auskommt, steht noch ganz am Anfang.

googletag.cmd.push(function() { googletag.display(“unit_p6”); });

Vom Zauberlehrling zum Ingenieur

Selbst wenn eine ausreichende Menge an Trainingsdaten in der benötigten Qualität vorliegt, heißt das noch lange nicht, dass das System die gewünschten Zusammenhänge auch wirklich erlernt. Die aktuellen Modelle brauchen eine Vielzahl von Einstellungen wie Lernrate und Batchsize, sogenannte Hyperparameter, die letztlich über Erfolg oder Misserfolg des Trainings entscheiden und für deren Auswahl es nur sehr rudimentäre Regeln oder Best Practices gibt. Das Gleiche gilt für die Architektur des verwendeten Netzes (Art, Größe und Anzahl der Schichten).

Erfahrene Spezialisten, die KI-Systeme auf ihrem langen „Ausbildungsweg“ begleiten, sind dafür unabdingbar. Diese sogenannten Machine-Learning-Engineers zeichnen sich neben ihrem tiefen technologischen Verständnis auch durch enorme Hartnäckigkeit aus. Ihre Aufgabe ist es, in unzähligen Schleifen nach dem „Trial and Error“-Prinzip die richtigen Einstellungen für das aktuelle Problem zu finden. Das „Clarkesche Gesetz“ der Ununterscheidbarkeit von fortgeschrittener Technologie und Magie war selten richtiger als hier. Viele funktionierenden Anwendungen sind heute noch eher gut gezaubert als effizient und systematisch konstruiert.

Denn wir wissen nicht, was sie tun

Wenn ein System schließlich für Trainingsdaten und weitere Beispiele richtige Ergebnisse liefert, heißt das nur, dass es einen Zusammenhang zwischen Eingabe und Ergebnis gefunden hat – aber nicht welchen. Nutzer sind schnell versucht anzunehmen, dass das ML-System dieselben Kategorien bildet, wie wir als Menschen. Aber das muss nicht stimmen. Und es kann passieren, dass das System deshalb für neue Aufgabenstellungen plötzlich völlig versagt. Das liegt möglicherweise daran, dass die Trainingsdaten „unsichtbar verschmutzt“ waren – auch Bias genannt. Ein Beispiel: Wenn auf einem Trainingsdatensatz mit Katzen- und Hundefotos zufällig die Hunde immer vor blauem Hintergrund standen, kann es sein, dass das System nur den Unterschied zwischen blauem Hintergrund und anderen Hintergründen erlernt hat – obwohl es die Hundefotos scheinbar korrekt klassifiziert. Noch schlimmer: Selbst wenn das System die richtigen Zusammenhänge hergestellt hat, bedeutet das nicht, dass es für alle neuen Eingaben auch robust funktioniert. Ein sehr grundlegendes Problem sind in diesem Zusammenhang sogenannte Adversarial Examples: Man kann beispielsweise Bilder gezielt so manipulieren, dass sie für einen Menschen identisch aussehen, ein neuronales Netz sie aber plötzlich in eine gewünschte falsche Kategorie einordnet. Das ist kein theoretisches Problem – ein Forscherteam hat etwa demonstriert, dass man ein autonomes Fahrzeug nicht nur durch ein gezielt auf diese Weise präpariertes Verkehrszeichen durcheinanderbringen kann, sondern dafür sogar ein paar einfache Klebestreifen auf einem echten Stoppschild ausreichen. Die Frage, wie man ein ML-System robust gegen solche Fehldeutungen und Manipulationen machen kann, ist zurzeit noch Gegenstand intensiver Forschung.

Ziemlich gut ist manchmal ganz schön schlecht

Bis auf verhältnismäßig einfache Fälle werden Maschinen Menschen bis auf Weiteres nicht ersetzen können, sondern ihnen eher assistieren oder Aufgaben abnehmen. Gerade in diesem Zusammenhang ist Zuverlässigkeit ein nicht zu unterschätzendes Kriterium. Ein System, das in der Hälfte aller Fälle Fehler macht, kann zwar unter Aufsicht eines Menschen trotzdem einen erheblichen Vorteil liefern. Der Punkt ist aber, dass der Mensch die Ergebnisse immer kritisch beäugen und im Zweifelsfall korrigieren wird, weil er mit einem Versagen rechnet. Liefert die Maschine aber durchgehend 95 Prozent richtige Ergebnisse, gewöhnt sich der menschliche „Kontrolleur“ daran und wird nachlässig – schließlich hat das System gefühlt immer recht. Das kann sehr schnell fatale Konsequenzen haben. Ein Beispiel: Steuert die KI ein Auto und der Mensch verlässt sich blind auf das System, sind Unfälle vorprogrammiert – auch tödliche. Für viele Anwendungen ist die aktuell zu erzielende Korrektheit also bei Weitem noch nicht ausreichend – auch wenn sie schon sehr hoch erscheint. Mehr zu erreichen, ist aber im Moment in vielen Anwendungsfällen noch extrem schwierig.

Test me if you can

Soll Machine-Learning-Systemen etwas Neues beziehungsweise Zusätzliches beigebracht werden, muss man sie im Allgemeinen nicht nur mit weiteren vielen tausend Datensätzen trainieren, sondern wieder mit allen Daten. Das kostet nicht nur Zeit und Geld, sondern kann sogar dazu führen, dass sie plötzlich völlig anders klassifizieren und entscheiden als vorher. Im Grunde müssen Verantwortliche bei jeder kleinen Änderung das System wieder von Grund auf neu testen, was mit erheblichen Aufwänden verbunden ist. Diese werden auch als „technische Schulden“ (Technical Debt) bezeichnet: Man erkauft sich eine schnelle und günstige erste Lösung und muss in der Folge mit überproportionalen Kosten für Änderungen und Anpassungen leben.

Machine Learning eröffnet zweifelsohne völlig neue Möglichkeiten – insbesondere in Bereichen wie Bild-, Sprach- oder Textverständnis sowie bei der Klassifizierung von Daten und bei datenbasierten Prognosen. Dennoch: KI und ML stehen weiterhin am Anfang ihrer Entwicklung. Für eine breite Anwendbarkeit sind immer noch eine Reihe von Herausforderungen zu bewältigen – etwa die Abhängigkeit von großen Datenmengen, das Problem der systematischen Konstruktion von Lösungen, die Fragen der Nachvollziehbarkeit und Bewertbarkeit trainierter Systeme und die Sicherstellung ihrer Robustheit und Zuverlässigkeit sowie schließlich auch ihrer schrittweisen Erweiterbarkeit und effizienten Testbarkeit. Das bedeutet allerdings nicht, dass man die neuen Möglichkeiten nicht heute schon nutzen sollte: Die Entwicklung geht in großen Schritten voran, schon in wenigen Jahren werden KI-Anwendungen wesentlich robuster und vielseitiger sein, als wir das heute für möglich halten.


Quelle: Künstliche Intelligenz: Immer noch „dümmer“ als man denkt

Webseite erstellen lassen?