Künstliche Intelligenz (KI) gilt als hochleistungsfähig, leidet aber unter einem gefährlichen Defizit: Sie ist oft zu selbstsicher, auch wenn sie eigentlich nichts „weiß“. Eine russische Forschergruppe hat nun eine Methode entwickelt, die KI-Modelle dazu bringt, bei unsicheren Eingaben zu zweifeln. Das Versprechen: mehr Sicherheit und echtes „gesunder Menschenverstand“ im Umgang mit unbekannten Situationen – ein Durchbruch für Anwendungsszenarien wie autonome Fahrzeuge, Diagnostik oder Finanzüberwachung.
Der Kern des Problems: Übermäßige KI-Selbstsicherheit
Moderne neuronale Netze erkennen Bilder, Sprache oder Datenmuster oft mit enormer Zuversicht – unabhängig davon, ob ihnen das gezeigte Beispiel vertraut ist oder nicht. Das führt zu brisanten Fehlern, etwa in selbstfahrenden Autos oder medizinischen Systemen, wenn die KI eine unbekannte Situation falsch bewertet. Die Fähigkeit, die eigenen Grenzen zu erkennen („out-of-distribution detection“, OOD), zählt daher zu den dringendsten Sicherheitsproblemen der Branche.
Der neue Ansatz: Identity Curvature Laplace Approximation (ICLA)
Was wurde bisher gemacht?
Die Bewertung von Unsicherheiten in KI-Systemen erfolgte bisher meist mit zwei Herangehensweisen:
- Bayesianische Methoden: Sehr rechenaufwändig, da sie Hunderte bis Tausende Modelle simulieren.
- Laplace-Approximation: Misst die „Krumme“ des Lösungsraums rund um das trainierte Modell (vergleichbar mit einem Berg-Gipfel). Je schärfer die Spitze, desto selbstsicherer das Modell – die Krümmung zeigt das Ausmaß an Unsicherheit.
Die Innovation: Zweifel durch Vereinfachung
Russische Forscher schlagen vor, statt den komplexen Krümmungsverlauf zu bestimmen, diesen durch eine ideale (symmetrische) Form zu ersetzen, die mit einer einzigen Matrix beschrieben wird. Der Algorithmus (ICLA) findet dabei selbst die passende „Weite“ dieser Unsicherheitszone. Das Resultat:
- KI-Modelle bewerten bekannte Daten wie gewohnt sicher,
- bei unbekannten Eingaben wächst der Zweifel,
- unbekannte Situationen werden früher erkannt und korrekt als „ungewiss“ eingestuft.
Tests zeigten auf Standard-Datensätzen (CIFAR-10/100, ImageNet) eine klar erkennbare Überlegenheit gegenüber klassischen Methoden. Die Fehlerrate bei neuen, unbekannten Daten sank deutlich, und die Zuverlässigkeit der KI blieb erhalten.
Bedeutung und Zukunftspotenzial
- Praktische Effizienz: Die Methode ist rechenschonend und leicht in bestehende Netze integrierbar – attraktiv für Echtzeitanwendungen.
- Sicherheit für Kritische Systeme: Das Konzept könnte autonomous Fahren, medizinische Diagnostik oder Finanz-KI deutlich sicherer machen.
- Wissenschaftliche Erkenntnis: Der Ansatz widerlegt, dass immer detailliertere Beschreibung der Entscheidungslandschaft auch immer bessere Sicherheit bringt – Vereinfachung hilft oft mehr als Komplexität.
Mehr Nachdenklichkeit für KI dank russischer Forschung
Mit ICLA zieht die KI erstmals echte Selbstzweifel in Betracht – ein entscheidender Baustein für verantwortungsvolle und sichere KI-Systeme. Ob nun Autos, Arzt-Assistenz oder Trading-Bots: Wenn die Maschine weiß, was sie nicht weiß, profitieren Nutzer und Gesellschaft gleichermaßen. Die Forschung markiert einen wichtigen Paradigmenwechsel hin zu mehr „gesunden Menschenverstand“ in der Künstlichen Intelligenz.
