Medienethikerin fordert Kennzeichnung für Künstliche Intelligenz

s:113:"Ein humanoider Roboter auf einer Ausstellung im Heinz Nixdorf MuseumsForum Paderborn zur künstlichen Intelligenz";
Ein humanoider Roboter auf einer Ausstellung im Heinz Nixdorf MuseumsForum Paderborn zur künstlichen Intelligenz
München, Tübingen (epd).

Eine Kennzeichnungspflicht für Anwendungen mit Künstlicher Intelligenz fordert die Medienethikerin Jessica Heesen. „Wir müssen wissen, wo KI drinsteckt“, sagte die Wissenschaftlerin im Gespräch mit dem Evangelischen Pressedienst (epd). Zahlreiche Anwendungen basierten längst auf KI, oft ohne dass sich die Verbraucher dessen bewusst seien, etwa bei Versandhändlern oder Streamingdiensten. KI-Systeme seien aber auch in der Verwaltung, bei Hotlines oder bei Börsennachrichten im Einsatz.

Ob man in der Arbeit mit einem KI-System kooperiert, bei der Hotline mit einer KI spricht oder der Wetterbericht mit KI geschrieben wurde - all das sei für die Nutzer nicht zu erkennen. Es sei aber wichtig, darüber informiert zu sein, „auch um weiterhin unser Vertrauen in Kommunikation setzen zu können“, sagte Heesen, die an der Universität Tübingen mehrere Forschungsprojekte leitet. Zudem gehe es um Verantwortung, um Fehler besser korrigieren zu können. Die Ethikerin forderte, diesen rechtlichen Bereich zu klären und KI-Anwendungen zu kennzeichnen: „Wir brauchen eine deutliche Abgrenzung zwischen Mensch und Maschine.“

Heesen plädierte dafür, dass menschliche Selbstbestimmung im Umgang mit KI-Systemen gewahrt sein müsse. Es müsse technisch stets die Möglichkeit eingebaut sein, die Nutzung von KI abzulehnen. Ein solches „Opt-out“ würde bedeuten, „dass ich selber entscheiden kann, ein KI-System nicht mehr einzusetzen“. Als Beispiel nannte sie den Einsatz von KI in der Verwaltung, um den Anspruch einer Person auf Sozialhilfe zu ermitteln: Wenn diese Technologie zu merkwürdigen Entscheidungen führe, „dann muss es möglich sein, als menschlicher Entscheider nein zu sagen“.

Da die Gesellschaft zunehmend durch KI-Systeme gesteuert werde, müsse hart daran gearbeitet werden, dass diese diskriminierungsfrei funktionierten. KI müsse alle Menschen gleich und fair behandeln, doch technisch sei das eine große Herausforderung, sagte Heesen. Es gelte, die KI mit Daten von Menschen aller gesellschaftlichen Gruppen zu trainieren. Aus den USA gebe es Beispiele, wo eine Anwendung im Gesundheitssystem dunkelhäutige Menschen benachteiligt habe. Eine Bedingung sei, dass die Entwicklerteams eine möglichst große Diversität aufweisen, so die Forscherin. Sie sprach sich dafür aus, ein Label für ethisch geprüfte KI-Anwendungen zu schaffen, um für die Nutzer transparent zu machen, ob es sich um ein gutes Produkt handelt.

epd-Gespräch: Christine Ulrich und Rieke C. Harmsen