Logo
Winter 4/2019

Feministischer Algorithmus – was’n das?

Ein Interview von Kathrin Schultz mit Caroline Sinders

(aus WIR FRAUEN Heft 4/2019, Schwerpunkt: Utopien)

Caroline Sinders – Designerin für maschinelles Lernen und digitale Anthropologin – untersucht die Schnittstellen von Sprachpolitik in digitalen Räumen, Künstlicher Intelligenz und Online-Missbrauch. Geboren in Louisiana, hat Sinders die letzten Jahre in New York City verbracht. Heute wohnt sie in Berlin. Das Interview führten wir auf Englisch.

WIR FRAUEN: Du hast in den USA Interaktive Telekommunikation studiert. Warum dieses Studium?

CS: Ich wollte ein interdisziplinäres Masterstudium, das sowohl Kunst, Bildung, Technologie und Prototyping* zum Schwerpunkt hat. Mein Studiengang bestand zu 55% aus Frauen. Für meine Abschlussarbeit entwarf ich das Handyspiel „Night Witches“, basierend auf einer realen Person, Nadya Popova, eine der ersten russischen Militärpilotinnen, die 2013 verstorben ist. Die Testpersonen, aber auch meine Universität fanden das Spiel sehr interessant. Viele wussten gar nicht, wie viel Frauen außerhalb der USA im 2. Weltkrieg geleistet haben.

Du hast mit Amnesty International, Intel, IBM Watson und der Wikimedia Foundation zusammengearbeitet. Deine Agentur Convocation Design & Research konzentriert sich auf das maschinelle Lernen, das allen zugutekommt, sowie auf digitale Kommunikationsprobleme. Aktuell entwickelst du einen „feministischen Datensatz“. Was steckt dahinter?

2016 bis 2017 analysierte ich den Aufstieg der Ultrarechten in den USA. Ich erstellte ein Wörterbuch, um Hassreden im Netz aufzuspüren. Doch obwohl es heute noch Anwendung findet, fühlte ich mich am Ende wie „ausgebrannt“. Ich brauchte ein neues Projekt, um Geist und Seele zu reinigen, etwas, das den vor allem frauenfeindlichen, gewalttätigen Inhalten im Netz – statt sie nur aufzuzeigen – tatsächlich entgegenwirken könnte. Ich fragte mich: Was wäre eine sinnvolle kollektive Aktion? Feministische Datenerfassung! Aber kann das Erstellen und Speichern von Daten überhaupt feministisch sein? Am Ende stand die Idee des „feministischen Datensatzes“: Ein mehrjähriges Projekt, in dem feministische Schriften gesammelt und archiviert werden – seien es Songtexte, Podcasts, Interviews, Essays, die öffentlich gepostet werden. Künstliche Intelligenz wird von Menschen erschaffen, mein Kunstprojekt ist also eine sehr reale Möglichkeit, zu hinterfragen, was „ethisch“ in diesem Zusammenhang bedeutet, und zwar in einem spezifischen Rahmen, dem des intersektionellen Feminismus. Es ist meine Art des Protests. Die Software, die daraus entwickelt wird, soll verhindern, dass stereotype Frauenbilder durch Algorithmen weiter reproduziert werden**.

Greta Thunberg bietet das Internet die Chance, Millionen Menschen zu erreichen. Es macht sie aber auch zum Ziel von Trollen und Cybermobbing. Das kennen viele Aktivist*innen.

Ich habe mit Amnesty International Journalistinnen und Politikerinnen in Großbritannien und den USA befragt. Wir stellten fest, dass Frauen, unabhängig von ihrer politischen Ausrichtung, in gleichem Maße belästigt wurden, doch Schwarze Frauen waren am stärksten von Hate Speech betroffen. Das Internet ist für Frauen, PoC, Trans* und andere marginalisierte Gruppen insgesamt ein schwieriger Ort. Die Belästigung kann sich auch offline manifestieren. Die Weitergabe persönlicher Informationen wie Telefonnummern und Adressen kann zu ernsthaftem Offline-Schaden, z.B. Stalking, führen.

Was ist „Cyberfeminismus“?

Der Cyberfeminismus ist eine zeitgenössische Bewegung und wird in Theorie, Praxis und Kunst erforscht. Es gibt eine Menge erstaunlicher Arbeiten dazu. Ich liebe Mindy Seus bibliothekarische Sammlung cyberfeministischer Werke. Auch fallen mir sofort Donna Haraways Cyborg-Manifest oder das Xenofeminismus-Manifest ein, welche die Zusammenhänge zwischen der Automatisierung aller Lebensbereiche und uns Menschen thematisieren.

Welche Maßnahmen sollten ergriffen werden, um das Internet für alle sicherer zu machen?

Wir brauchen neue Vorschriften und besser geschützte Datenprofile für Menschen, um Online-Erfahrungen sicherer zu gestalten. Ich denke, wir müssen die meisten sozialen Netzwerke neu gestalten, da sie veraltet sind. Wir sollten uns auf einfache, bessere Datenschutzfilter konzentrieren, wie z.B. die Deaktivierungsfunktion von Kommentaren, die nicht unter vielen Klicks verborgen liegt. Es ist interessant, diese Frage in Europa zu beantworten, wo es ein allgemeines Vertrauen zu geben scheint, die Regierung würde die Menschen schützen. In den USA ist das ganz anders. Das wird sehr kontrovers diskutiert. Die Einzelnen werden selten geschützt, die Unternehmen umso mehr – dieser Schutz schmerzt die Betroffenen oft zusätzlich, da ihre Belästigung nicht erst genommen wird. Ich weiß, dass Europa nicht perfekt ist, aber Sozialfürsorge und Datenschutz, das fehlt in den USA noch viel mehr.

Wie finanzierst du deine Projekte?

Durch Stipendien, Kund*innen-Akquise und viel, viel harte Arbeit. Wenn ich keine Kunst mache, untersuche ich Online-Belästigung und wie sich Technologie (negativ) auf die Gesellschaft auswirkt. Ich liebe meine Arbeit wirklich, aber der Prozess, diese für alle verständlich zu machen, ist mitunter auch sehr mühsam. Zudem setze ich mich oft mit Schmerz und Traumata auseinander. Es kann echt schwer sein, darin nicht zu versinken.

Du bist sehr vielseitig, deine Arbeiten wurden an unterschiedlichsten Orten der Welt gezeigt: „What is this before“ – eine sehr persönliche Dokumentation über Angst und Verlust – beispielsweise im Iran. Auch #ReadYourTags hat mich sehr beeindruckt. Frei übersetzt rufst du dazu auf, alle Kleideretiketten gut zu lesen, um zu erfahren, woher unsere Kleidung kommt und zu prüfen, welch verheerende Folgen unser Konsum hat. Im Juli 2018 hast du „Feminist Data“ in Leipzig vorgestellt. Was sind deine aktuellen Pläne?

Ich hoffe, in den nächsten Jahren in Europa zu bleiben – ich habe ein mehrjähriges Visum, um hier Kunst machen zu dürfen. Im Moment schreibe ich dir aus Italien, wo ich ein Kunst- und Wissenschaftsstudium bei der Europäischen Kommission absolviere. Zugleich habe ich mehrere neue Projekte gestartet, z.B. meine Forschungsarbeiten zu Vertrauen, Technologie und Journalismus für die Harvard Universität oder meine Arbeit zur Gestaltung von Transparenz beim maschinellen Lernen für Mozilla. Alle diese Projekte, die demnächst online gehen werden, faszinieren mich zutiefst.

Keine Technologie an sich ist gut oder schlecht. Es gibt linke politische Strömungen, die große Hoffnungen auf den technologischen Fortschritt setzen, etwa bezüglich Reproduktion, Vernetzung, Arbeitszeitverkürzung, Wissenstransfer… Technische Möglichkeiten können jedoch, wie beschrieben, auch zu Ausbeutung, Überwachung und Unterdrückung vor allem benachteiligter Gruppen führen. Wie also können die technischen Möglichkeiten positiv genutzt werden?

Wir brauchen menschenrechtszentrierte Technologien, die sich auf Menschenrechtspolitik und -gesetzgebung konzentrieren, jedoch für kommerzielle Bedürfnisse von Verbraucher*innen übersetzt werden. Der Schwerpunkt liegt auf integrativer, datenschutzorientierter Technologie, die Schäden aufdeckt und abwendet. Alles auf einmal. Wir brauchen ein radikal neues Software-Design, das eben auch feministisch gedacht wird. Und wir brauchen es jetzt.

Homepage: https://carolinesinders.com/

*eine Methode der Software-Entwicklung: Einfach und kostengünstig sollen durch Testprogramme schnell ermittelt werden, ob ein Lösungsansatz funktioniert.

**Allgemein gibt ein Algorithmus eine Vorgehensweise vor, um ein Problem zu lösen. Algorithmen werden nicht nur von Maschinen, sondern auch von Menschen in „natürlicher“ Sprache formuliert und umgesetzt. In der Informatik sind Algorithmen Anwendungen, die besonders zum Sammeln und Auswerten von Daten genutzt werden. Durch die Analyse des Klick- und Suchverhaltens kann beispielsweise personalisierte Werbung platziert werden. Dies wird von Initiativen wie Algortihm Watch aus Sicht des Datenschutzes kritisiert.