Zuverlässige KI

© AdobeStock

Künstliche Intelligenz liefert in vielen Anwendungsbereichen eine hohe Performance. Dennoch wird sie aufgrund der schwierigen Interpretierbarkeit selten in kritischen Anwendungsfällen (z.B. in der Medizintechnik) verwendet. Um dies zu ändern, fokussiert sich eine Gruppe der Abteilung auf Verfahren der Erklärbarkeit, Verifikation sowie Unsicherheitsquantifizierung von KI-Systemen.

Erklärbarkeit meint die Nachvollziehbarkeit der inneren Funktionsweise und Entscheidungsfindung einer KI. Beispielsweise umfasst dies das Verstehen der inneren Logik oder einer konkreten Entscheidung. Erklärbarkeit kann dabei global, also für das ganze Modell, oder lokal, für ein bestimmtes Datum, ermöglicht werden. In einigen Fällen ist Erklärbarkeit auch mit Handlungsempfehlungen im Sinne von Wenn-Dann-Aussagen verbunden. Und nicht zuletzt ist es wichtig, die Erklärbarkeit einer KI auf die Zielgruppe abzustimmen. Ein Entwickler Bedarf oftmals einer anderen Erklärung als der Anwender.

Bei der Verifikation wird ein existierendes KI-Modell auf sicherheitsrelevante Aspekte und Robustheit untersucht. Dabei kann beispielsweise die Robustheit der KI gegenüber Störungen überprüft werden. Mittels Unsicherheitsquantifizierung werden Messunsicherheiten in Prozessen oder Daten direkt für Algorithmen nutzbar gemacht. Dies verbessert die Entscheidungsfindung und in Situationen mit inhärenter Unsicherheit kann effektiver und sicherer geplant und prognostiziert werden.

Weitere Informationen über zuverlässige KI gibt es hier auf der KI-Leitthemaseite.

 

veoPipe

Um Akzeptanz für und Vertrauen in Produkte mit KI-Funktionen zu schaffen, müssen während des Produktentwicklungsprozesses Aspekte der Erklärbarkeit und Verifikation von KI-Komponenten betrachtet werden. Hierfür wird in diesem Projekt eine Pipeline entwickelt.

 

ML4SAFETY

Im Projekt »ML4SAFETY« wird ein ganzheitliches Framework zum Nachweis von »safeML« entwickelt, das den Einsatz innovativer Machine-Learning-Verfahren in sicherheitsrelevanten Anwendungen ermöglichen soll. Dadurch werden Hersteller autonomer, sicherheitskritischer Systeme, ihre Lieferanten sowie Prüf- und Zulassungseinrichtungen dabei unterstützt, nachweislich sichere ML-basierte Systeme auf den Markt zu bringen.

 

ELISE

»ELISE« ist ein europäisches Netzwerk von Forschungszentren für Künstliche Intelligenz und arbeitet eng mit »ELLIS« (European Laboratory for Learning and Intelligent Systems) zusammen. Ziel ist die Verbreitung von Wissen und Methoden in Wissenschaft, Industrie und Gesellschaft.

 

Transaction Miner Audit mit Experian

Im Auftrag der Firma Experian hat das Fraunhofer IPA als unabhängiger Partner die KI-Komponente eines Produkts überprüft.

 

AIQualify vereinfacht die Qualifizierung von KI-Systemen

Das Software-Framework aus dem Projekt »AIQualify« ermöglicht die systematische und einfachere Qualifizierung von KI-Systemen insbesondere für KMU auch ohne eigenes Fachwissen.