Daten sprechen niemals “für sich selbst”, ihre Erhebung, Auswertung und Darstellung wird stets von bestehenden Machtverhältnissen beeinflusst. Daten und ihre Nutzung sind somit eine Form von Macht, durch die Hierarchien, die aufgrund von Sexismus, Rassismus, Klassismus, Ableismus und (Post-)Kolonialismus und deren Interaktionen bestehen, aufrechterhalten und verstärkt werden können.
Mit dem CDL begleiten wir Datenvorhaben, die das Ziel verfolgen, gesellschaftliche Missstände und Ungerechtigkeiten aufzudecken und zu verringern und marginalisierte Perspektiven sichtbar zu machen. Besonders wichtig ist es uns, während des gesamten Prozesses mögliche Diskriminierungen, die (Re-)Produktion von Machtasymmetrien und auch eine zukünftige missbräuchliche Nutzung der Ergebnisse aktiv zu verhindern.
Bei der Planung und Umsetzung von Datenvorhaben im CDL werden wir daher zum Beispiel darauf achten, die eigene(n) Perspektive(n), die verfügbaren Daten und die verwendeten Klassifikationen und Kategorien kritisch zu analysieren, um etwa “blinde Flecken” und Auslassungen und Verzerrungen zu erkennen. Dies zielt auch darauf ab, öffentliche Mittel verantwortungsbewusst im Sinne einer gerechten, pluralen und an Nachhaltigkeit orientierten Gesellschaft einzusetzen.
Denn auch wenn Daten und ihre Nutzung zur Lösung ökologischer Herausforderungen beitragen können, ist der Ressourcenverbrauch eines Datenvorhabens (Energieverbrauch, Hardware, etc.) nicht zu vernachlässigen, insbesondere bei der rechenintensiven Anwendung von KI-Technologien. Wir beachten daher besonders die Risiken und negativen direkten und indirekten Umweltauswirkungen, die mit der Umsetzung eines Vorhabens einhergehen und versuchen, diese zu minimieren. Überall dort, wo alternative ressourcenschonendere Wege dasselbe Ziel erreichen können, werden wir diese bevorzugen.
Fragen, die wir uns und euch im Laufe des Prozesses stellen werden:
- Wie trägt euer Datenvorhaben (direkt oder indirekt) zur Reduzierung von Ungerechtigkeit bei?
- Welche marginalisierten / benachteiligten Gruppen profitieren von eurem Datenvorhaben?
- Welche Gruppen könnten im schlimmsten Fall (wenn etwas schief geht, das Instrument falsch genutzt wird oder das Datenvorhaben fehlerhaft umgesetzt wird) durch die Ergebnisse eures Datenvorhabens von Ausschluss und Diskriminierung betroffen sein?
- Wie wird Inklusion und Diversität in der Anlegung des Vorhabens mitgedacht?
- Wie stellen wir sicher, dass die Bedarfe von betroffenen / marginalisierten Personen im Prozess berücksichtigt werden?
- In welchem Verhältnis steht der zeitliche, technische und ökologische Aufwand zur Erarbeitung zum Nutzen des Ergebnisses?