Schwerpunkt

Große Verheißungen und mysteriöse Fehler

Die Begeisterung für die Leistungen künstlicher Intelligenz ist groß – genauso wie die Sorgen vor den Risiken einer Technik, die dem Menschen über den Kopf wachsen könnte. Was KI heute schon kann, was sie noch lernen muss und welche Risiken sie bringt, analysieren KI-Expert*innen aus dem Humboldt-Netzwerk.

  • vom 
  • Text: Thomas Reintjes und Georg Scholl (Illustrationen: Martin Rümmele)
Symbolbild für Vor- und Nachteile künstlicher Intelligenz: Ein Mensch, zwischen einer Engels- und einer Teufelsfigur, berührt mit seinen Händen einen Tablet-PC.

Podcast „KI und Wir“: Die Inhalte dieses Beitrags und vieles mehr in zehn spannenden Folgen 

Die ganze Welt steckt voller KI. Schon heute arbeitet sie nicht nur in Smartphones und Lautsprechern. Sie dosiert auch das Waschmittel in Waschmaschinen, bietet Assistenzfunktionen im Auto, sortiert Spam-E-Mails aus und übersetzt Texte. Künstlicher Intelligenz verdankt die Menschheit Durchbrüche bei der Gensequenzierung, mit der die im Kampf gegen die Coronapandemie so hilfreichen mRNA-Impfstoffe entwickelt werden konnten. In der Medizin arbeiten Mensch und KI teilweise Hand in Hand, zum Beispiel in der Radiologie beim Brustkrebs-Screening. Dort werden Befunde im Vier-Augen-Prinzip beurteilt: Die Bilder werden von zwei Personen unabhängig voneinander begutachtet. Mittlerweile übernimmt oft eine künstliche Intelligenz die Rolle der zweiten Instanz. Der Informatiker Daniel Rückert hat unter anderem mithilfe von künstlichen neuronalen Netzen die Qualität medizinischer Bildgebung entscheidend verbessert. Der Alexander von Humboldt-Professor für KI an der Technischen Universität München ist überzeugt, dass sich die Stärken der KI und die des Menschen ideal ergänzen: „Natürlich hat der Mensch den Vorteil, dass er in der Lage ist, auch die Bilder korrekt zu interpretieren, die nicht so aussehen wie die, mit denen trainiert wurde. Andererseits machen Menschen Fehler, etwa weil sie müde werden. Der Riesenvorteil von maschinellem Lernen oder KI-Modellen ist, dass sie dir immer eine Antwort geben, egal wie viele Bilder man ihnen vorsetzt. Wenn man nun Mensch und KI zusammenarbeiten lässt, kann man das Beste aus beiden Welten kombinieren und hoffentlich die jeweiligen Nachteile eliminieren.“

Ein genialer Spielzug verblüfft die Go-Gemeinde

Symbolbild: Figuren, die ein Brettspiel spielen

Doch KI kann den Menschen nicht nur unterstützen. Bei bestimmten Aufgaben macht sie ihm mittlerweile erfolgreich Konkurrenz. Ein historisches Beispiel dafür ist der Sieg einer KI beim strategisch komplexen Brettspiel Go. Im März 2016 verlor der als einer der weltbesten Go-Spieler geltende Südkoreaner Lee Sedol vier seiner fünf Partien gegen das Computerprogramm AlphaGo. Es war der Spielzug Nummer 37 in der zweiten Partie, der zu einem neuen Meilenstein der Maschinenintelligenz werden sollte. Die Spielkommentatoren konnten es nicht glauben. Es sah aus, als hätte sich jemand bei einem Online-Spiel verklickt. Ein Teil der Tragweite dieses Zuges war dem Weltklassespieler Lee Sedol in diesem Moment wohl schon bewusst. Er verließ für ein paar Minuten den Raum.

Kein Spieler von Weltrang hatte in dem Brettspiel je einen vergleichbaren Zug gespielt. Die künstliche Intelligenz von AlphaGo konnte einen solchen Zug also nie selbst gesehen haben. Der Computer hatte nicht einfach etwas wiederholt, was ihm einprogrammiert worden war, er hat sein Wissen über das Spiel intelligent angewendet.

Wie schafft ein Computer so etwas? Klassische KI basiert auf Regeln und Symbolen und funktioniert gut in Umgebungen, die vorhersagbar sind. Sie folgt Entscheidungsbäumen oder sucht eine Lösung aus einer vorgegebenen Menge an potenziellen Lösungen aus. Alles, was sie über die Welt weiß, wurde von Menschen ins System eingegeben. Moderne KI hingegen, wie sie auch in AlphaGo verwendet wird, ist grundsätzlich unserem Gehirn nachempfunden. Neuronen, die in unserem Gehirn miteinander vernetzt sind und mal feuern, mal nicht feuern, werden digital nachgebildet. Sie reagieren auf unterschiedliche Reize. „Diese digitalen Neuronen haben eines mit dem Gehirn gemeinsam: Sie stehen in Verbindung mit anderen Neuronen. Und ob sie ‚feuern‘, hängt davon ab, wie viel Input sie bekommen. Ein Neuron feuert zum nächsten gemäß einer mathematischen Formel, die versucht nachzubilden, was auch zwischen den Neuronen im Gehirn abläuft“, erklärt der Humboldtianer Christian Becker-Asano, Professor für Künstliche Intelligenz an der Hochschule der Medien, Stuttgart.

Symbolbild: Figuren, die ein Bild angucken

Doch selbst wenn künstliche Intelligenz irgendwann ähnlich funktionieren würde wie menschliche Intelligenz, wenn sie die Welt wahrnähme wie wir, würde ihr vermutlich immer noch etwas Entscheidendes fehlen: ein emotionales Verhältnis zu dem, was sie wahrnimmt. Der Humboldtianer Tobias Matzner, Professor im Bereich Medien, Algorithmen und Gesellschaft an der Universität Paderborn, erklärt den Unterschied zwischen Mensch und Maschine so: „Ein Algorithmus, der ein Bild anschaut, sieht einfach nur Reihen von Pixeln. Mehr nicht. Und diese Pixel sind für einen Algorithmus ‚gleich Bild‘. Egal, ob das Bild verrauscht ist oder ob da eine Freundin oder ein Freund drauf ist oder ein Hund oder nur etwas Verschwommenes. Bei uns löst ein Bild sofort ganz viele Assoziationen aus.“ Auch deshalb braucht KI viel mehr Beispiele als Menschen, um etwas Neues zu lernen.

Milica Gašić will deshalb die Art und Weise, wie KI lernt, menschlicher machen. Die Sofja Kovalevskaja-Preisträgerin an der Universität Düsseldorf lässt sich davon inspirieren, wie Tiere oder Kinder lernen. „Mir schwebt vor, Systeme zu bauen, die sich mit der Zeit weiterentwickeln, so wie es der Mensch auch tut. Jeden Tag sehe ich, wie meine kleine Tochter dazulernt, und es ist schon eine fantastische Fähigkeit, sich immer neue Dinge anzueignen und zu wissen, wie man sie einsetzt“, sagt Gašić. Sie will Sprachsysteme so verbessern, dass wir uns mit einer KI genauso unterhalten können wie mit einem Menschen. Bislang fehlt Maschinen mehr als nur ein eloquenterer Umgang mit Sprache. „Wir sollten nicht vergessen, was eigentlich eine menschliche Konversation ausmacht. Und das sind vor allem unsere Emotionen und die Fähigkeit, Emotionen zu erkennen und auf sie zu reagieren“, betont Gašić. Sie will herausfinden, wie das Sprachvermögen von Maschinen so verbessert werden kann, dass diese sogar in psychologischen Beratungsgesprächen eingesetzt werden könnten. Emotionales Einfühlungsvermögen spielt dabei eine Rolle. Könnte ein Roboter etwa Schmerzen empfinden, würde er vielleicht empathischer mit Menschen umgehen.


Symbolbild: Figuren mit einem medizinischen Bild
„Der Riesenvorteil von KI-Modellen in der medizinischen Bildgebung ist, dass sie dir immer eine Antwort geben, egal wie viele Bilder man ihnen vorsetzt.“ Daniel Rückert, Alexander von Humboldt-Professor für KI an der Technischen Universität München

Ein Stoppschild können Menschen auch dann noch erkennen, wenn das Bild stark verrauscht ist oder die Farben falsch sind. Künstliche Intelligenz kann aber schon von einem Aufkleber auf dem Schild oder anderen Wetter- und Licht-Verhältnissen als denen aus der Testumgebung verwirrt werden.

„Wenn dann ein Fehler passiert ist, das Auto beispielsweise am Stoppschild nicht angehalten hat, weil die KI etwas falsch klassifiziert hat, dann könnte man rein theoretisch den Speicher der Maschine analysieren. Es existieren Massen an Daten auf dem Computer, davon macht man eine Momentaufnahme: einen Schnappschuss des neuronalen Netzes genau von dem Moment, in dem die Maschine den Fehler gemacht hat. Aber dann stellen wir fest, dass es sich nur um einen Haufen Daten handelt“, beschreibt Becker-Asano das Problem. Auch einfach weitere Trainingsdaten hinzuzufügen, garantiere nicht, dass, was vorher funktionierte, dann immer noch funktioniert, unterstreicht Daniel Rückert: „Eben weil wir nicht genau wissen, was in der Blackbox vor sich geht.“

Die Blackbox transparent zu machen, wäre also für die Entwicklung von KI ein wichtiger Schritt, damit diejenigen, die KI anwenden, ihr auch vertrauen können, meint auch Tobias Matzner. Für ihn ist wichtig, dass Menschen klar ist, was mit ihren Daten passiert, wenn sie künstliche Intelligenz nutzen. Und dass ihnen erklärt wird, wie ihre Daten algorithmische Entscheidungen beeinflussen können: „Nehmen Sie an, Sie bewerben sich irgendwo. Ein Algorithmus sortiert Ihre Bewerbung aus. Dann interessiert Sie eigentlich gar nicht, wie der Algorithmus funktioniert, sondern Sie fragen sich: Was hätte denn an mir anders sein müssen, um genommen zu werden?“

Überall wimmelt
es von
KI


In vielen Bereichen unseres Lebens hat künstliche Intelligenz längst Einzug gehalten. Ob in der Medizin, in Kunst und Musik oder bei der Personalgewinnung – KI und Menschen arbeiten bereits oft Hand in Hand.

KI lernt, wie man andere diskriminiert

Symbolbild: Figur, die mit einem Handy ihr Herz sichtbar macht

Das Beispiel ist nicht aus der Luft gegriffen. In einem großen globalen Unternehmen wurde tatsächlich eine KI entwickelt, die bei der Auswahl von Bewerber*innen helfen sollte. Die Humboldt-Professorin Aimee van Wynsberghe von der Universität Bonn beschreibt einen Fall von Diskriminierung durch KI. „Zur Modellierung des Rekrutierungstools wurden Daten aus den letzten 10 Jahren benutzt. Als die Verantwortlichen dann die Lebensläufe durchgegangen sind, um Kandidaten für die Stellen auszusuchen, stellten sie fest, dass die Maschine für Leitungsfunktionen durchweg immer nur Männer vorschlug, aber nie Frauen.“ Die Erklärung: Bestehende Ungleichheiten hatten sich in den Trainingsdaten niedergeschlagen, aus denen die KI sie dann übernommen hat. Aimee van Wynsberghe schlägt vor, aus diesem Nachteil der KI Nutzen zu ziehen: „Wenn man dieses Rekrutierungstool aber nun benutzt, um Benachteiligung in der Unternehmenskultur zu untersuchen, anstatt als Grundlage dafür, neue Arbeitskräfte zu rekrutieren, dann ist es ein faszinierendes Werkzeug. Dann bringt die Technik Formen der Ungleichheit ans Licht. Und dann haben wir die Wahl: Machen wir mit diesem System der Ungleichheit weiter oder setzen wir ihm ein Ende und verändern etwas? Künstliche Intelligenz hat ein großes Potenzial für unsere Gesellschaft, aber es ist an uns zu entscheiden, wie wir sie einsetzen.“