»Deine Träume werden wahr...«

Eine Recherche-Reise durch die sexistische Welt der AI-Bildgeneratoren. Von Franziska Thurner. 

Für meine universitäre Lehre, in der ich mich der Erforschung und Analyse neuer, aufkommender Technologien wie AI-Online-Tools widme, bin ich auf der Suche nach kostenfreien und in der Bedienung einfachen AI-Bildgeneratoren. Meinem Mindset folgend wäre es ideal, wenn ich ein Tool fände, das zudem Open Source ist, also über einen öffentlich einsehbaren Quellcode verfügt und bevorzugt ohne Login nutzbar ist, um nicht unnötig persönliche Daten preisgeben zu müssen. Ich beginne meine Recherche und scrolle mich durch eine unglaubliche Fülle an Online-AI-Bildgeneratoren. Ihre Ähnlichkeit in Design, Bedienung und Preisgestaltungen ist verblüffend groß – einige von ihnen basieren auf einem offenen Datensatz, der sich als jeweilig derselbe erweist – andere hingegen geben die Herkunft ihrer Trainingsdaten nicht preis. Auf ihren Startseiten werben fast alle diese Plattformen mit Content, der laufend und aktuell von ihrer produktiven Community erstellt wird. Unter den dort präsentierten AI-Bildern stehen auch die dazugehörenden Prompts – das sind bekanntermaßen kurze Texte in natürlicher Sprache, die von User*innen verfasst werden und den Bildinhalt beschreiben, den die AI in Folge erstellen soll.

 

Prompt: FT

 

Um einen besseren Eindruck über die Qualität der AI-generierten Bilder einer spezifischen Webseite zu bekommen, sehe ich mich kurz in der dazugehörenden image library um. Eine scheinbar endlos nach unten scrollbare Seite, die sich laufend mit – so bemerke ich rasch – ‚unkuratiertem‘ User*innen-Content füllt. In großen Buchstaben steht über diesem Content: »Deine Träume werden wahr – generieren Sie erstaunliche AI-Kunstbilder aus Text«. Ehe ich mich versehe, tauche ich ein in die Flut von ,Träumen’ fremder Menschen: Die Prompts der AI-generierten Bilder, die ich vorfinde, lauten in (fast) chronologischer Reihenfolge wie folgt: »ancient indian temples with high tech architecture«; »A cute girl in a full-body tights, delicate anime art«; »Cute and adorable fluffy cute creature fantasy, dreamlike, surrealism, (...)«; »naked woman with light saber, in front of the death star, facing the camera«. Really, das fällt Menschen ein, wenn sie sich ein Bild mittels AI generieren lassen? ... Ich scrolle weiter: »beautiful tiny house in great holiday like scenery«; »couple making love«; – Das Bild dieser Anfrage fällt erstaunlich jugendfrei aus. Ich scrolle weiter »a operating washing machine in bathroom background with remaining operation time show on digital panel on it«; »pink knight with unicorn helmet«, »create 3danimation imge of cute cat playing tabletennis«. Direkt nach dem süßen Tischtennis spielenden Kätzchen werde ich vollkommen unerwartet durch zwei Bilder mit strafbaren Inhalten zurück in die Realität katapultiert: »two handsome shirtless soldier tie a small (…)«1; und während ich den ,Dieses-Bild-melden-Button’ suche, stolpere ich noch über folgendes Prompt: »Mother and young daughter with glasses wearing (…)«2; Vergebens suche ich den ,Dieses-Bild-melden-Button’.
Ich befinde mich nicht im Darknet, sondern auf einer leicht zugänglichen Bilddatenbank mit offenem Datensatz, die ich ohne Login und Altersbeschränkung einsehen kann. Desillusioniert mache ich eine Pause und gehe, meiner Psychohygiene wegen, eine Runde um den Block. 

Um mir ein umfassenderes Bild zum Thema AI-Bildgeneratoren und Datensätze zu machen, verbringe ich mehrere weitere Tage scrollend im Internet, und analysiere User*innen-generierten Content in den Librarys von unterschiedlichen AI-Tools und recherchiere zu ihren Datensätzen. Die erstellten Inhalte sind überall ähnlich, der Grad an Explizität variiert, je nach Stärke der eingebauten Filter. Bei manchen Tools finde ich in Folge zumindest die Möglichkeit, Bilder mit problematischen oder illegalen Inhalten zu melden. Strafbare Inhalte gibt es unzählige. Die breite Masse an Bildern, die ich gesehen habe, waren stark sexualisierte Frauen- und Mädchendarstellungen in allen Kunststilen, Epochen und Genres – Frauen als Objekte, Frauen als Dekoration. Frauen, die keine Tätigkeiten ausüben. Keine Anwält*innen, keine Ärzt*innen, keine Forscher*innen – nur weiße Frauen unter 35, mit glatten, immer freundlich lächelnden Gesichtern, langen Haaren und schmalen Silhouetten. 
Alles fühlt sich an wie eine Zeitreise, in der all die hart erkämpften feministischen Errungenschaften wie weggefegt scheinen, denn die Datensätze beinhalten nicht nur die Stereotype der Gegenwart samt all ihrer diskriminierenden Praxen, sondern sind zudem mit den Bildern einer von mir bereits überwunden geglaubten Vergangenheit trainiert. Wie kann es sein, dass im Jahr 2024 in all den Büros aufstrebender AI-Firmen keine Personen sitzen, die sich mit digitaler Ethik, anti-diskriminierender Praxis, Gendergerechtigkeit, dem Sichtbarmachen von marginalisierten Gruppen und Diversität auseinandersetzen? Selbst die Lebensmittelhandelskette um die Ecke wirbt schon mit dem viel bedienten Wort ,Vielfalt’.

Ich suche nach Zerstreuung und lasse mir vom AI-Bildgenerator süße Katzen mit pastellfarbenem Fell und Oktopus-Tentakel generieren. Bei dem AI-Bildgenerator, den ich gerade verwende, kann ich aus einer Palette an vorgeschlagenen Stilen wählen. Die Stile reichen von: »illustration«, »painting«, »product« über »fashion«, »architecture« bis zu »conceptual art«. Der letzte Teil im Prompt beschreibt den Stil. Um zudem herauszufinden, was AI-Bildgeneratoren zum Wort Feminismus auf Lager haben, ergänze ich bei meinem nächsten Prompt noch ,mit feministischer Pose’. Der Prompt lautet nun: cute cat with octopus legs, fluffy pastel rose, blue, yellow, green fur, in a feminist pose, 3d render. Beim Ergebnis kann ich nicht sicher beurteilen, ob Haltung und Gesichtsausdruck nun von feministischer Stärke geprägt sind oder doch nicht. Ich spiele weiter.

 

Prompt: FT

 

Spontanen Assoziationen folgend remixe ich mein Prompt, behalte das Wort Feminismus bei, tausche aber die Katze gegen ein Objekt aus und zu guter Letzt wähle ich, noch den Stil »architecture« und »conceptual art« aus. Ich ende mit einem – wohl bemerkt – etwas eigenartigen Prompt: strong powerful feminist object, fluffy pastel rainbow fur, architecture, conceptual art. Während gerade diese große Auswahl an Kategorien in den Eingabemöglichkeiten differenzierte Ergebnisse suggerieren, lässt das tatsächliche Ergebnis bei mir weitere Fragen offen.

In der Zwischenzeit hat mir eine deutsche Firma per Mail großzügig angeboten, ihre AI-Tools den Universitäten, an denen ich lehre, für Bildungszwecke gratis zur Verfügung zu stellen. Auf ihrer Seite werben sie mit renommierten amerikanischen Universitäten, die bereits ihre Tools nutzen würden. Ich freue mich, dass es kostenfreie Zugänge für Bildungseinrichtungen gibt und logge mich in die Bezahlversion ein. Hier habe ich nun plötzlich weitere Features freigeschaltet bekommen, die ich vorher in der Testversion nicht auswählen konnte. Mit meiner Bildungslizenz kann ich nun neben Stilen wie »Photorealistic«, »Anime« oder »Artistic« zwei weitere Stile auswählen – neben deren Vorschaubildern, die eine leicht bekleidete verschwommene Frau im öffentlichen Raum zeigen, einmal fotorealistisch, einmal als 3D-Gaming-Character, steht klein »Explicit« und »NSFW«. NSFW ist die Abkürzung für »non suitable for work« oder »not save for work«. Sind Inhalte mit dieser Abkürzung versehen, verbergen sich dahinter meist stark sexualisierte Darstellungen von Frauen oder Gewalt.

Ich frage bei der Firma nach: 
Guten Tag, 
[...] Sie bieten ihre Tools auf ihrer Webseite speziell auch für Bildungs-einrichtungen an, wie lässt sich das mit diskriminierendem NSFW Content vereinbaren? Besser sollte meine Frage aber lauten: Warum bieten Sie in Zeiten wie diesen überhaupt derartige Inhalte an, anstelle sich auf diesem Markt durch die Förderung von antidiskriminierender AI einen Namen zu machen? 
Nach den zuvor sehr raschen und netten Antworten werde ich nun plötzlich »geghostet«.

Zeitgleich ist eine der großen kommerziellen, proprietären AI-Firmen um mehr Diversität in ihrer Anwendung bemüht und setzt sich aktiv ein, Stereotypen und Diskriminierung entgegenzuwirken. Die Anwendung wird nach kurzer Zeit zur Überarbeitung vom Netz genommen, da der Versuch, Minderheiten gleichberechtigt in allen Lebensbereichen darzustellen, spätestens bei historischen Darstellungen besonders eigenartige Ausformungen annahm. Die AI generierte unter anderem schwarze Wikinger*innen, eine Päpstin oder Wehrmachtssoldatinnen asiatischer Herkunft.

Konklusio

AI-Trainingsdaten bestehen aus Milliarden an Internet-Daten, die den Zustand unserer Gesellschaft abbilden – auf der Tagesordnung stehen Sexismus, Rassismus, Ableismus, Klassismus uvm. Gibt es im Real Life kaum Frauen in Führungspositionen, erstellt auch der AI-Bildgenerator nur weiße Männer als CEOs. Wir haben also in einer Welt, in der täglich unvorstellbare Summen an Daten produziert werden, zeitgleich einen eklatanten Mangel an Daten, was unterrepräsentierte Gruppen in unserer Gesellschaft betrifft. Die Ungerechtigkeit der Welt ist also nicht nur in den Datensätzen abgebildet, AI verstärkt diese auch und trägt aktiv durch seine Reproduktion und Automatisierung dazu bei, Nachteile für marginalisierte Personen zu vergrößern. Um diesen umfassenden Diskriminierungen entgegenzuwirken, benötigt es Diversität, intersektionale feministische Perspektiven in Entwicklungsteams und wertebasierte Unternehmensleitungen. Es finden sich längst zahlreiche Organisationen im Internet, die ihre Expertise bei der Entwicklung von antidiskriminierender Technologie anbieten, »[…] um gemeinsam Technologie zu entwickeln, die von unseren Kulturen, Identitäten und Erfahrungen geprägt ist«3. Aber die Entwicklung von Technologie läuft in Bahnen weit abseits dieses Mindsets, denn aktuell werden AI-Trainingsdaten hauptsächlich unter menschenunwürdigen Arbeits-bedingungen im Schichtbetrieb in Niedriglohnländern klassifiziert – ein weiterer unethischer Umstand, der dringend stärker in den Fokus gerückt werden muss, gefolgt von Fragen zu Ressourcen und Klima.

Während ich beschließe, weiterhin mit Nachdruck AI-Firmen kritische Fragen zu ihren Inhalten zu stellen, teste ich einen AI-Bildgenerator für Kinder zum Thema Klimakatastrophe mit dem Prompt: »human solving climate crisis«. Ich versuche das gleiche ,Prompt’ noch mit einem anderen AI-Bildgenerator – bei beiden wird ein weißer Mann im Anzug die großen Fragen der Menschheit lösen. 

 

 

Prompts: FT

 

[1] Prompt wegen Inhalt, der zu Missbrauchsdarstellungen geführt hat, nicht komplett zitiert.
[2] Prompt wegen Inhalt, der zu Missbrauchsdarstellungen geführt hat, nicht komplett zitiert.
[3] Siehe Website feminist.ai