Software Competence Center Hagenberg
Vielversprechende Forschung an "erklärbarer Künstlicher Intelligenz"

- Manuela Geiß und Florian Sobieczky forschen an "Erklärbarer Künstlicher Intelligenz" (XAI).
- Foto: SCCH
- hochgeladen von Elisabeth Klein
Seit dem von IBM entwickelten Computer "Deep Blue" wissen wir, dass Künstliche Intelligenz (KI) imstande ist, einen Schachweltmeister zu schlagen. Was aber, wenn man KI auch dazu nützen könnte, uns zu erklären, wie man besser Schach spielt? Am Software Competence Center Hagenberg (SCCH) wurde ein neuer Forschungsansatz entwickelt, in dem KI "erklärend" verwendet wird.
HAGENBERG. KI-basierte Systeme sind die Treiber der Digitalisierung. Damit der Mensch die Oberhoheit behält, müssen KI-Modelle nachvollziehbar und interpretierbar sein. "Explainable Artificial Intelligence" (XAI), also erklärbare KI, beschäftigt sich daher mit der zentralen Frage, ob Lernalgorithmen für Künstliche Intelligenz nicht nur die Genauigkeit von Prognosen verbessern, sondern zugleich auch Interpretationen zum besserem Verständnis der Korrektur liefern können. Denn Erklärbarkeit sichert das nötige Vertrauen in Entscheidungen.
Qualitativ bessere Prognosen
Das Prinzip XAI lässt sich überall dort anwenden, wo solides Basiswissen über das zu lösende Problem vorhanden ist. „Man verwendet einen konventionellen, erklärbaren Algorithmus und gibt nur so viel KI dazu, als für eine verbesserte Prognose notwendig ist", erklärt Projektleiter Florian Sobieczky aus Kerschbaum (Gemeinde Rainbach). "Die Voraussagen werden damit nicht besser, aber qualitativ erklärt. Wie dem Schulkind, das von der Lehrkraft den korrigierten Aufsatz erhält, hilft es wenig, dass die Fehler angestrichen sind. Das Kind lernt nichts daraus. Ergänzt man die Info, wie man den Fehler nächstes Mal vermeiden kann, bringt das den entscheidenden Mehrwert. Deshalb korrigieren wir nicht das Modell, sondern beschreiben die Veränderung“, führt Sobieczky das Erfolgsrezept genauer aus.
Investments in Start-ups absichern
Das Wiener Unternehmen "Speedinvest Heroes Consulting GmbH" suchte nach einer Möglichkeit, durch Vorhersage der Erfolgswahrscheinlichkeit von Start-up-Unternehmen unter Berücksichtigung psychologischer Profile die Entscheidung für das zielführendste Investment abzusichern. So wurde im aktuellen SCCH-Projekt, das den Titel inAIco "interpretable AI correction" trägt, der neue Ansatz auf diese Fragestellung angewendet, um bestmögliche Empfehlungen abgeben zu können.
„Das SCCH ist prädestiniert, die Forschung der sogenannten XAI voranzutreiben. Die Expertise, die unsere Forscher und Forscherinnen auf dem Gebiet von Deep Learning und Machine Learning haben, ermöglicht uns die beste KI für die jeweilige Problemstellung auszuwählen. Bei der Klärung der Frage, welche KI am besten zu welchen Basismodellen passt, hat uns Post-Doktorandin Manuela Geiß mit ihrer Expertise auf dem Gebiet der mathematischen Lernmodelle unterstützt, sodass auch die Anwendbarkeit des Ansatzes auf verschiedenste Lebensbereiche ermöglicht wird, zum Beispiel autonomes Fahren“
, so Sobieczky.
Du möchtest kommentieren?
Du möchtest zur Diskussion beitragen? Melde Dich an, um Kommentare zu verfassen.