Die Maschine kann nicht für uns entscheiden, was wir wollen

Lesedauer 5 Minuten
Foto: Katharina Zweig (c) Felix Schmitt
Katharina Zweig ist Informatikprofessorin an der TU Kaiserslautern, wo sie das Algorithmus Accountability Lab leitet und den deutschlandweit einmaligen Studiengang „Sozioinformatik“ ins Leben gerufen hat.

Das Thema künstliche Intelligenz (KI) ist in den Medien aktuell präsenter denn je. Die Professorin und Autorin des Buches „Ein Algorithmus hat kein Taktgefühl“, Katharina Zweig, spricht im Interview zum Verhältnis zwischen Mensch und KI. Die Informatikerin ist optimistisch und glaubt, dass die Beziehung gelingen kann.

Frau Zweig, eine Frage, die bei der aktuellen Berichterstattung etwas untergeht: Was ist eigentlich der wirkliche Nutzen von künstlicher Intelligenz?

Generell ist KI dort nützlich, wo wir mit Algorithmen (also mit Anweisungen, wie bestimmte Probleme gelöst werden können – Anm.d.Red.) allein nicht mehr weiterkommen. Früher hat man versucht, dem Computer die Welt zu erklären, also zum Beispiel für Übersetzungssysteme. Aber wir als Menschen sind gar nicht in der Lage, alle Regeln aufzuschreiben, um die Welt gut genug zu beschreiben, damit der Computer sie vollständig verstehen kann. Neue KI-Methoden können jetzt aber aus Beispielen lernen und die Maschine baut sich dann ihre eigene Weltsicht anhand der Beispiele auf. Das heißt: Wir können KI überall dort einsetzen, wo es vorher unstrukturierte Daten gab, mit denen der Computer nicht arbeiten konnte – etwa bei der Audio- oder Bilderkennung. KI setzen wir also dort ein, wo wir mit den Mitteln der klassischen Informatik nicht mehr weiterkommen. Und dann kann sie tatsächlich Sinn stiften.

Die Tagesschau berichtet darüber, wie die Europäische Union künstliche Intelligenz regulieren möchte:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Wo wird für Sie der gesellschaftliche Nutzen von KI besonders deutlich?

Es gibt hypothetische Beispiele. Ich würde mir wünschen, dass KI-Systeme viel mehr genutzt würden, um Inklusion voranzutreiben. Man könnte Kindern helfen, die keine Deutsch-Muttersprachler sind, indem man die Matheaufgaben mit einem Scanner übersetzt, damit das Kind ganz normal am Mathematik-Unterricht teilnehmen kann. Man könnte sehbehinderten Menschen helfen, indem Maschinen ihnen die Umwelt besser beschreiben, als das heute möglich ist.

Wie könnte man denn solche sinnstiftenden KIs trainieren?

Am Anfang steht immer eine klare Problembeschreibung: Wo ist unser Schmerzpunkt, was würden wir gerne verbessern? Dann muss man fragen, welche Technologie geeignet ist, um das Problem zu lösen? Eine Lösung aus der klassischen Informatik ist dabei immer vorzuziehen. Nur wenn das nicht geht, sollte man auf KI-Systeme zurückgreifen. Und sinnstiftend – dieser Sinn muss vorher definiert werden, dann kann man die Software entsprechend trainieren.

„Die Maschine kann nicht für uns entscheiden, was wir wollen. Das ist ein menschliches Privileg.“

Katharina Zweig
Also wir als Gesellschaft müssen definieren, was die Maschine tun soll?

Auf jeden Fall! Und jeder, der erzählt, man müsse nur genügend Daten hineinschmeißen und dann würde die Maschine das schon von selber sortieren, … das stimmt so nicht, das ist verkürzt. Damit die Maschine trainiert werden kann, benötigt man immer ein klares Qualitätsmaß: Und bei diesem Qualitätsmaß geht es um die Frage, was uns als Menschen wichtig ist.

Wie sähe denn eine KI-Ethik aus?

Ich bin mit diesem Begriff KI-Ethik nicht besonders glücklich. Das wirkt dann so, als wäre dies verhandelbar oder das Sahnehäubchen obendrauf. Meistens geht es bei den vorgeblich ethischen Fragen um rechtliche Vorgaben. Jeder Bürger, jede Bürgerin, über die eine Entscheidung getroffen wird, die in irgendeiner Form automatisiert ist, und die noch nicht hinreichend von der Datenschutzgrundverordnung DSGVO abgedeckt ist, braucht ausreichende Transparenzrechte. Sie sollen also Einblicke in die über sie verwendeten Daten erhalten, vielleicht auch über die Logik, die dahinter steckt. Das sind rechtliche Forderungen, die durchgesetzt werden müssen, damit wir alle vertrauensvoll mit diesen Maschinen bessere Entscheidungen treffen können.

Welche Rolle spielt Ihrer Beobachtung nach KI in den Verwaltungen?

Am Ende kommt es immer auf das Problem an, das Sie lösen wollen. Und – wie gesagt – KI ist immer zweite Wahl, wenn wir es mit klassischen Software-Lösungen nicht hinbekommen. Und das steht mir manchmal nicht genug im Vordergrund, dass sich alle Beteiligten fragen: Was ist das Problem? Wie könnten wir messen, wie es behoben wird? Und was ist dafür die beste Technologie?

Worauf sollte sich denn die Verwaltung in Puncto KI konzentrieren?

Nach außen ist das der berühmte Chatbot, der den Bürgern den Weg durch die Verwaltung weist. Das ist sicher eine Low-Level-KI, die man einsetzen kann. Ansonsten kann ich mir vorstellen, dass die KI in den Verwaltungsprozessen selbst hilfreich wäre. Passiert es nicht immer wieder, dass man sich nicht mehr so genau erinnert, in welcher Akte man einen ganz ähnlichen Bauantrag hatte mit ähnlichen Schwierigkeiten? Da könnte Smart Search helfen mit Sprachmodellen, die auch unklarere Suchanfragen verarbeiten können. Vielleicht kann man nach Klientengesprächen mit einer automatischen Diktatsoftware arbeiten, die dann auch Lücken auffüllt oder den Text in eine angemessene Protokollform bringt. Ich glaube, es würde an dieser Stelle helfen, sogenannte KI-Scouts auszubilden, also Leute, die sich mit KI auskennen und in ihrem beruflichen Alltagsleben nach Abläufen suchen, bei denen KI tatsächlich hilfreich wäre. Und dann würde man solche Prozesse identifizieren, bei denen KI viel Arbeit einsparen und viel Unterstützung bieten könnte.

Bezogen auf die öffentliche Verwaltung: Welchen Stellenwert sollte KI in der Verwaltung haben, welche Anwendungsfälle gibt es hier und wer sollte sich darum kümmern?
Stellenwert

Am Ende kommt es immer auf das Problem an, das Sie lösen wollen. Und – wie gesagt – KI ist immer zweite Wahl, wenn wir es mit klassischen Software-Lösungen nicht hinbekommen. Und das steht mir manchmal nicht genug im Vordergrund, dass sich alle Beteiligten fragen: Was ist das Problem? Wie könnten wir messen, wie es behoben wird? Und was ist dafür die beste Technologie?

Anwendungsfälle

Nach außen ist das der berühmte Chatbot, der den Bürgern den Weg durch die Verwaltung weist. Das ist sicher eine Low-Level-KI, die man einsetzen kann. Ansonsten kann ich mir vorstellen, dass die KI in den Verwaltungsprozessen selbst hilfreich wäre. Passiert es nicht immer wieder, dass man sich nicht mehr so genau erinnert, in welcher Akte man einen ganz ähnlichen Bauantrag hatte mit ähnlichen Schwierigkeiten? Da könnte Smart Search helfen mit Sprachmodellen, die auch unklarere Suchanfragen verarbeiten können. Vielleicht kann man nach Klientengesprächen mit einer automatischen Diktatsoftware arbeiten, die dann auch Lücken auffüllt oder den Text in eine angemessene Protokollform bringt.

Fachkräfte

Ich glaube, es würde an dieser Stelle helfen, sogenannte KI-Scouts auszubilden, also Leute, die sich mit KI auskennen und in ihrem beruflichen Alltagsleben nach Abläufen suchen, bei denen KI tatsächlich hilfreich wäre. Und dann würde man solche Prozesse identifizieren, bei denen KI viel Arbeit einsparen und viel Unterstützung bieten könnte.

Wie kann die Beziehung Mensch – KI in Zukunft gelingen?

Eine große Frage! Im Moment finde ich die Analogie zu Nutztieren für mich persönlich am hilfreichsten. Wir haben seit Jahrtausenden Hütehunde, wir kennen Polizeihunde, Blindenhunde. Das heißt: Wir haben Tiere, die mit einer anderen Intelligenz die Welt wahrnehmen. Zum Teil viel besser als wir, zum Teil anders als wir. Und wir haben Wege gefunden, diese Tiere so auszubilden, dass wir ihnen in durchaus sehr wichtigen sozialen Prozessen vertrauen. Eine blinde Person, die sich darauf verlässt, dass ihr Hund anzeigt, ob sie über die Straße gehen kann oder nicht, das ist ja durchaus eine gewichtige Entscheidung. Ich glaube, dass wir in den nächsten Jahrzehnten herausbekommen müssen, wie diese neue, maschinelle Weltwahrnehmung funktioniert. Nur dann können wir verstehen, wo wir uns auf sie verlassen können und wo lieber nicht. Ich bin da optimistisch, dass wir das hinbekommen werden.

(Interview: Jürgen Gressel-Hichert)

Mehr Input:

Service für alle, die jetzt zuhause arbeiten

Das aktuelle Heft als PDF zum Download

  • Cyberkriminalität: Auch Verbrecher nutzen KI
  • Brückenbau: Besser mit dem digitalen Zwilling
  • Umfrage: Unser Heft, Ihre Meinung dazu
Ja, ich will den Datareport lesen
close-link