Künstliche Intelligenzsysteme führen häufig aufgrund von Datenverzerrungen zu unfairen Entscheidungen, wobei die meisten Systeme nur Ergebnisse liefern und es an Transparenz über den Prozess mangelt, was Vorurteile schwer erkennbar macht. Um dieses Problem zu lösen, hat ein Forschungsteam für Computational Intelligence unter der Leitung von Professor Yusuke Nojima an der Graduate School of Informatics der Osaka Metropolitan University ein Fuzzy-KI-System mit integrierter Fairness entwickelt, das darauf abzielt, Genauigkeit und Fairness bereits von Beginn des Trainings an auszubalancieren. Die entsprechende Studie wurde in der Fachzeitschrift „IEEE Transactions on Fuzzy Systems“ veröffentlicht.

Fuzzy-KI-Systeme treffen Entscheidungen anhand von Regeln, die der menschlichen Argumentation ähneln, und ermöglichen graduelle Urteile statt strenger binärer Entscheidungen, wodurch sie sich an komplexe reale Situationen anpassen können. Die Forscher wandten die Methode „Multi-objective fuzzy genetics-based machine learning“ an, um mehrere Kandidatenmodelle zu entwickeln, die Fairness direkt in den Trainingsprozess integrieren, anstatt sie nachträglich zu bewerten.
Jedes Modell wurde hinsichtlich Genauigkeit und Fairness bewertet, und der Algorithmus wurde optimiert, um den besten Kompromiss zu finden. Für die Tests verwendete das Team vier Benchmark-Datensätze zur Fairness, die reale Szenarien wie Einkommen, Kreditrisiko, Bankeinlagen und Rückfallquoten betreffen – Bereiche, die anfällig für Verzerrungen aufgrund von Geschlecht und ethnischer Zugehörigkeit sind.
Veröffentlichungsdetails: Autor: Osaka Metropolitan University; Titel: „Fair decisions, clear reasons: Creating fuzzy AI with fairness built in from the start“; veröffentlicht in: „IEEE Transactions on Fuzzy Systems“ (2026); Zeitschrifteninfo: IEEE Transactions on Fuzzy Systems













