algorithmic_bias_and_fairness

Dies ist eine alte Version des Dokuments!


SS 22

Teilnehmer: Tom Sühr, Josef Pelz

Algorithmen finden längst in nahezu jeden Lebensbereich Anwendung. Insbesondere werden sie zur Entscheidungsfindung und in Empfehlungssystemen eingesetzt. Häufig werden dabei künstliche neuronale Netzwerke (NN) verwendet. Diese werden beispielsweise auf existierenden Datensätzen trainiert und angewendet um neue Datenpunkte gewissen Klassen zuzuordnen (Klassifizierung). Hierbei hat die Wahl der Datenbank, etwa die verwendeten Eigenschaften (Features) einzelner Datenpunkte, und der Aufbau/ die Architektur des NN großen Einfluss auf die Ergebnisse. Es ist daher wichtig, dass sowohl die Entwickler als auch die Nutzer dieser Systeme sich die Frage stellen: „Wie Gerecht sind diese Algorithmen?“.

Ziel des Projekts „Algorithmic Bias and Fairness“ (Algorithmische Vorurteile und Gerechtigkeit) ist es, die Relevanz dieser Frage greifbar zu machen. Zukünftige Entscheidungsträger:innen sollen einen kritischen Blick auf die schwer durchschaubare Komplexität von neuronalen Netzwerken erlangen. Als Medium der Kommunikation haben wir uns für eine interaktive Webseite entschieden. Nutzer:innen sollen anhand von Beispielen nachvollziehen wie bestehende Strukturen in Datenbanken zu Diskriminierung führen können und hinterfragen, wie sie solche Algorithmen nutzen.

  • algorithmic_bias_and_fairness.1664286401.txt.gz
  • Zuletzt geändert: 2022/09/27 15:46
  • von josef_pelz