Zum Inhalt springen
- {{#headlines}}
- {{title}} {{/headlines}}
Die ganze Welt steckt voller KI. Schon heute arbeitet sie nicht nur in Smartphones und Lautsprechern. Sie dosiert auch das Waschmittel in Waschmaschinen, bietet Assistenzfunktionen im Auto, sortiert Spam-E-Mails aus und übersetzt Texte. Künstlicher Intelligenz verdankt die Menschheit Durchbrüche bei der Gensequenzierung, mit der die im Kampf gegen die Coronapandemie so hilfreichen mRNA-Impfstoffe entwickelt werden konnten. In der Medizin arbeiten Mensch und KI teilweise Hand in Hand, zum Beispiel in der Radiologie beim Brustkrebs-Screening. Dort werden Befunde im Vier-Augen-Prinzip beurteilt: Die Bilder werden von zwei Personen unabhängig voneinander begutachtet. Mittlerweile übernimmt oft eine künstliche Intelligenz die Rolle der zweiten Instanz. Der Informatiker Daniel Rückert hat unter anderem mithilfe von künstlichen neuronalen Netzen die Qualität medizinischer Bildgebung entscheidend verbessert. Der Alexander von Humboldt-Professor für KI an der Technischen Universität München ist überzeugt, dass sich die Stärken der KI und die des Menschen ideal ergänzen: „Natürlich hat der Mensch den Vorteil, dass er in der Lage ist, auch die Bilder korrekt zu interpretieren, die nicht so aussehen wie die, mit denen trainiert wurde. Andererseits machen Menschen Fehler, etwa weil sie müde werden. Der Riesenvorteil von maschinellem Lernen oder KI-Modellen ist, dass sie dir immer eine Antwort geben, egal wie viele Bilder man ihnen vorsetzt. Wenn man nun Mensch und KI zusammenarbeiten lässt, kann man das Beste aus beiden Welten kombinieren und hoffentlich die jeweiligen Nachteile eliminieren.“
Überall wimmelt
es von KI
Ein genialer Spielzug verblüfft die Go-Gemeinde
Doch KI kann den Menschen nicht nur unterstützen. Bei bestimmten Aufgaben macht sie ihm mittlerweile erfolgreich Konkurrenz. Ein historisches Beispiel dafür ist der Sieg einer KI beim strategisch komplexen Brettspiel Go. Im März 2016 verlor der als einer der weltbesten Go-Spieler geltende Südkoreaner Lee Sedol vier seiner fünf Partien gegen das Computerprogramm AlphaGo. Es war der Spielzug Nummer 37 in der zweiten Partie, der zu einem neuen Meilenstein der Maschinenintelligenz werden sollte. Die Spielkommentatoren konnten es nicht glauben. Es sah aus, als hätte sich jemand bei einem Online-Spiel verklickt. Ein Teil der Tragweite dieses Zuges war dem Weltklassespieler Lee Sedol in diesem Moment wohl schon bewusst. Er verließ für ein paar Minuten den Raum.
Kein Spieler von Weltrang hatte in dem Brettspiel je einen vergleichbaren Zug gespielt. Die künstliche Intelligenz von AlphaGo konnte einen solchen Zug also nie selbst gesehen haben. Der Computer hatte nicht einfach etwas wiederholt, was ihm einprogrammiert worden war, er hat sein Wissen über das Spiel intelligent angewendet.
Wie schafft ein Computer so etwas? Klassische KI basiert auf Regeln und Symbolen und funktioniert gut in Umgebungen, die vorhersagbar sind. Sie folgt Entscheidungsbäumen oder sucht eine Lösung aus einer vorgegebenen Menge an potenziellen Lösungen aus. Alles, was sie über die Welt weiß, wurde von Menschen ins System eingegeben. Moderne KI hingegen, wie sie auch in AlphaGo verwendet wird, ist grundsätzlich unserem Gehirn nachempfunden. Neuronen, die in unserem Gehirn miteinander vernetzt sind und mal feuern, mal nicht feuern, werden digital nachgebildet. Sie reagieren auf unterschiedliche Reize. „Diese digitalen Neuronen haben eines mit dem Gehirn gemeinsam: Sie stehen in Verbindung mit anderen Neuronen. Und ob sie ‚feuern‘, hängt davon ab, wie viel Input sie bekommen. Ein Neuron feuert zum nächsten gemäß einer mathematischen Formel, die versucht nachzubilden, was auch zwischen den Neuronen im Gehirn abläuft“, erklärt der Humboldtianer Christian Becker-Asano, Professor für Künstliche Intelligenz an der Hochschule der Medien, Stuttgart.
Doch selbst wenn künstliche Intelligenz irgendwann ähnlich funktionieren würde wie menschliche Intelligenz, wenn sie die Welt wahrnähme wie wir, würde ihr vermutlich immer noch etwas Entscheidendes fehlen: ein emotionales Verhältnis zu dem, was sie wahrnimmt. Der Humboldtianer Tobias Matzner, Professor im Bereich Medien, Algorithmen und Gesellschaft an der Universität Paderborn, erklärt den Unterschied zwischen Mensch und Maschine so: „Ein Algorithmus, der ein Bild anschaut, sieht einfach nur Reihen von Pixeln. Mehr nicht. Und diese Pixel sind für einen Algorithmus ‚gleich Bild‘. Egal, ob das Bild verrauscht ist oder ob da eine Freundin oder ein Freund drauf ist oder ein Hund oder nur etwas Verschwommenes. Bei uns löst ein Bild sofort ganz viele Assoziationen aus.“ Auch deshalb braucht KI viel mehr Beispiele als Menschen, um etwas Neues zu lernen.
Milica Gašić will deshalb die Art und Weise, wie KI lernt, menschlicher machen. Die Sofja Kovalevskaja-Preisträgerin an der Universität Düsseldorf lässt sich davon inspirieren, wie Tiere oder Kinder lernen. „Mir schwebt vor, Systeme zu bauen, die sich mit der Zeit weiterentwickeln, so wie es der Mensch auch tut. Jeden Tag sehe ich, wie meine kleine Tochter dazulernt, und es ist schon eine fantastische Fähigkeit, sich immer neue Dinge anzueignen und zu wissen, wie man sie einsetzt“, sagt Gašić. Sie will Sprachsysteme so verbessern, dass wir uns mit einer KI genauso unterhalten können wie mit einem Menschen. Bislang fehlt Maschinen mehr als nur ein eloquenterer Umgang mit Sprache. „Wir sollten nicht vergessen, was eigentlich eine menschliche Konversation ausmacht. Und das sind vor allem unsere Emotionen und die Fähigkeit, Emotionen zu erkennen und auf sie zu reagieren“, betont Gašić. Sie will herausfinden, wie das Sprachvermögen von Maschinen so verbessert werden kann, dass diese sogar in psychologischen Beratungsgesprächen eingesetzt werden könnten. Emotionales Einfühlungsvermögen spielt dabei eine Rolle. Könnte ein Roboter etwa Schmerzen empfinden, würde er vielleicht empathischer mit Menschen umgehen.
Was geht vor sich in der Black Box KI?
Zu einem offenen Gespräch unter Menschen gehört gegenseitiges Vertrauen. Auch hier hat die KI Nachholbedarf. Nachrichten von tödlichen Unfällen selbstfahrender, von KI gesteuerter Autos oder populäre Science-Fiction-Motive wie das der nach Weltherrschaft strebenden bösen KI sorgen für Unbehagen. Um zu vertrauen, wäre es hilfreich zu verstehen, wie KI denkt, wie sie Einschätzungen und Entscheidungen trifft.
Doch das ist nicht so einfach. Die meisten modernen KI-Systeme sind Blackbox-Modelle: Sie bekommen einen Input und liefern einen Output. Sie erkennen einen Hund oder eine Katze, ein Stoppschild oder ein Tempolimit, einen Tumor oder eine seltene Krankheit. Aber wie sie das tun, bleibt ihr Geheimnis.
„Neuronale Netzwerke sind undurchschaubar“, sagt Daniel Rückert. „Wenn wir Messvorgänge automatisieren wollen, können wir dem Radiologen zeigen, wie der Computer das Volumen des Tumors anhand der Maße auf dem Bildschirm berechnet hat. Der Radiologe sieht es ja auch selbst und kann beurteilen, ob das stimmen kann oder nicht. Wir müssen nicht genau erklären, wie wir zur Abgrenzung des Tumors kommen. Problematisch wird es jedoch, wenn Sie zum Beispiel die Ergebnisse ihres KIModells benutzen wollen, um neue Hypothesen darüber aufzustellen, wie sich die Krankheit entwickeln wird oder was die Ursprünge der Krankheit sind.“
Manchmal mache es ihm Angst, sagt Christian Becker-Asano, dass sich einige in der Wissenschaft damit zufriedengeben, dass etwas funktioniert, ohne die Hintergründe zu verstehen. Das führt zu KIs, die meistens funktionieren, aber in manchen Situationen dann plötzlich nicht mehr. „Wir kommen insgesamt zu großartigen Ergebnissen bei praktischen Anwendungen, aber es passieren mysteriöse Fehler, wenn zum Beispiel Bilder Rauschanteile haben. Wir verstehen nicht, warum diese Fehler auftauchen, weil wir nicht wissen, was im Inneren des Algorithmus passiert“, sagt Becker-Asano.
Ein Stoppschild können Menschen auch dann noch erkennen, wenn das Bild stark verrauscht ist oder die Farben falsch sind. Künstliche Intelligenz kann aber schon von einem Aufkleber auf dem Schild oder anderen Wetter- und Licht-Verhältnissen als denen aus der Testumgebung verwirrt werden.
„Wenn dann ein Fehler passiert ist, das Auto beispielsweise am Stoppschild nicht angehalten hat, weil die KI etwas falsch klassifiziert hat, dann könnte man rein theoretisch den Speicher der Maschine analysieren. Es existieren Massen an Daten auf dem Computer, davon macht man eine Momentaufnahme: einen Schnappschuss des neuronalen Netzes genau von dem Moment, in dem die Maschine den Fehler gemacht hat. Aber dann stellen wir fest, dass es sich nur um einen Haufen Daten handelt“, beschreibt Becker-Asano das Problem. Auch einfach weitere Trainingsdaten hinzuzufügen, garantiere nicht, dass, was vorher funktionierte, dann immer noch funktioniert, unterstreicht Daniel Rückert: „Eben weil wir nicht genau wissen, was in der Blackbox vor sich geht.“
Die Blackbox transparent zu machen, wäre also für die Entwicklung von KI ein wichtiger Schritt, damit diejenigen, die KI anwenden, ihr auch vertrauen können, meint auch Tobias Matzner. Für ihn ist wichtig, dass Menschen klar ist, was mit ihren Daten passiert, wenn sie künstliche Intelligenz nutzen. Und dass ihnen erklärt wird, wie ihre Daten algorithmische Entscheidungen beeinflussen können: „Nehmen Sie an, Sie bewerben sich irgendwo. Ein Algorithmus sortiert Ihre Bewerbung aus. Dann interessiert Sie eigentlich gar nicht, wie der Algorithmus funktioniert, sondern Sie fragen sich: Was hätte denn an mir anders sein müssen, um genommen zu werden?“
KI lernt, wie man andere diskriminiert
Das Beispiel ist nicht aus der Luft gegriffen. In einem großen globalen Unternehmen wurde tatsächlich eine KI entwickelt, die bei der Auswahl von Bewerber*innen helfen sollte. Die Humboldt-Professorin Aimee van Wynsberghe von der Universität Bonn beschreibt einen Fall von Diskriminierung durch KI. „Zur Modellierung des Rekrutierungstools wurden Daten aus den letzten 10 Jahren benutzt. Als die Verantwortlichen dann die Lebensläufe durchgegangen sind, um Kandidaten für die Stellen auszusuchen, stellten sie fest, dass die Maschine für Leitungsfunktionen durchweg immer nur Männer vorschlug, aber nie Frauen.“ Die Erklärung: Bestehende Ungleichheiten hatten sich in den Trainingsdaten niedergeschlagen, aus denen die KI sie dann übernommen hat. Aimee van Wynsberghe schlägt vor, aus diesem Nachteil der KI Nutzen zu ziehen: „Wenn man dieses Rekrutierungstool aber nun benutzt, um Benachteiligung in der Unternehmenskultur zu untersuchen, anstatt als Grundlage dafür, neue Arbeitskräfte zu rekrutieren, dann ist es ein faszinierendes Werkzeug. Dann bringt die Technik Formen der Ungleichheit ans Licht. Und dann haben wir die Wahl: Machen wir mit diesem System der Ungleichheit weiter oder setzen wir ihm ein Ende und verändern etwas? Künstliche Intelligenz hat ein großes Potenzial für unsere Gesellschaft, aber es ist an uns zu entscheiden, wie wir sie einsetzen.“