Zum Inhalt springen
- {{#headlines}}
- {{title}} {{/headlines}}
Kontakt
Presse, Kommunikation und Marketing
Tel.: +49 228 833-144
Fax: +49 228 833-441
presse[at]avh.de
Rechtswissenschaft
Die rasanten Entwicklungen auf dem Gebiet der Künstlichen Intelligenz (KI) bereiten vielen Menschen Sorge. Neben ganz konkreten Ängsten um den eigenen Arbeitsplatz oder Fragen nach der Verantwortung bei KI-basierten Entscheidungen, löst KI auch diffuse Sorgen aus, wie zum Beispiel Gefühle von Kontrollverlust und Ausgeliefertsein. Ein Grund dafür liegt in der Intransparenz vieler KI-Systeme und -Algorithmen. Die neue Technologie erscheint als unergründliche Black Box. Sandra Wachter tut etwas dagegen. Sie erforscht, wie man KI und andere neue Techniken regulieren sowie fairer und transparenter gestalten kann. Und wie man dabei Innovation und Sicherheit in eine angemessene Balance bringen kann. Dazu berät sie Regierungen, NGOs oder die Vereinten Nationen und hat regulatorisch auch die Diskussion zum europäischen AI Act mitgeprägt.
Sandra Wachter ist promovierte Juristin mit Schwerpunkt Technikrecht und ‑regulierung und mit einer ergänzenden sozialwissenschaftlichen Ausbildung. Ihre Forschung zu ethischen und rechtlichen Implikationen neuer Technologien, insbesondere KI, ist wegweisend und bietet Lösungsansätze für praktische Probleme, die vielfach in Gesetzgebung und Unternehmensprozesse eingeflossen sind. Damit trägt sie signifikant zur Vermeidung von Diskriminierung durch KI sowie zur Wahrung von Menschenrechten, zu Datenschutz und Verbraucherschutz bei.
Sandra Wachter hat das Forschungsgebiet der erklärbaren KI mitetabliert. Ein konkretes Beispiel ihrer Arbeit ist der von ihr 2020 mitentwickelte Conditional Demographic Disparity-Test, ein öffentlich zugängliches Tool, das wie ein Alarmsystem für den KI-Bias funktioniert und auch schon von Amazon für seine Cloud-Computing-Plattform Amazon Web Services übernommen und angewendet wurde. In KI-Trainingsdaten unbewusst eingeflossene menschliche Vorurteile können zu verzerrten Daten und damit zu schädlichen Ergebnissen führen. Der Test liefert ein Maß für die Ungleichheit innerhalb eines Datensatzes und kann so Diskriminierung bei Einstellungsverfahren oder Kreditvergabe aufzeigen. Und noch mehr: Er berücksichtigt von europäischen Gerichten angewandte Fairness-Standards und bezieht die zugrunde liegenden Faktoren ein, die für die Voreingenommenheit verantwortlich sein könnten, so dass er auch Anhaltspunkte zur Optimierung von Verfahren gibt.
Als Humboldt-Professorin für Künstliche Intelligenz in Potsdam soll Sandra Wachter am Cluster „Data and AI“ des Hasso-Plattner-Instituts angedockt werden und zur Neuausrichtung des Clusters in Richtung Fairness und Erklärbarkeit von KI-Methoden beitragen. Mit ihren juristischen und technischen Kompetenzen soll sie helfen, praktikable Regulierungs- und Kontrollverfahren zu entwickeln und interdisziplinär sowohl zwischen Forschungsgebieten als auch zwischen Forschung und praktischer Anwendung vermitteln. Besonders relevant wird ihre Arbeit bei der ethischen Gestaltung von KI-Systemen im Bereich der medizinischen Anwendung. Daher ist eine enge Zusammenarbeit mit dem Cluster „Digital Health“ und dem HPI-Forschungszweig am Mount Sinai Hospital in New York, USA, geplant.
Zur Person
Nach der Promotion 2016 an der Universität Wien wechselte Sandra Wachter ins Vereinigte Königreich, zunächst an das Alan Turing Institute in London, dann 2017 an die Universität Oxford als Postdoctoral Research Fellow, 2019 als Associate Professor und 2022 als Professor of Technology and Regulation am Oxford Internet Institute. Zweimal erhielt sie einen O²RB Excellence in Impact Award, zuletzt 2021 für ihren bedeutenden internationalen Einfluss auf Recht, Politik und Unternehmenspraxis rund um den ethischen Umgang mit Künstlicher Intelligenz . Sie war unter den TOP 50 Frauen in UK Tech Rising Stars der Zeitschrift Computer Weekly, 2020 war sie Finalistin der AIconics Awards in der Kategorie Innovator des Jahres. Sie ist unter anderem Mitglied des Advisory Boards für Oxford University Press und der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ bei der vom BMBF geförderten deutschen Plattform für KI „Lernende Systeme“.
Sandra Wachter wurde für die Humboldt-Professur ausgewählt und ist derzeit in Berufungsverhandlungen mit der deutschen Universität, die sie für den Preis nominiert hat. Werden diese erfolgreich abgeschlossen, wird der Preis 2025 verliehen.