Künstliche Intelligenz soll mehr Diversität bringen, etwa durch den Einsatz KI-generierter statt menschlicher Models. Beendet wird die Diskriminierung marginalisierter Körper dadurch aber nicht – im Gegenteil. Warum wir uns gegen den digitalen Schönheitsterror lautstark wehren müssen, erklärt Elisabeth Lechner.
Algorithmen machen ihre Arbeit, ohne dass wir es merken. Sie bestimmen auf Basis riesiger Datenmengen und mathematischer Vorhersagemodelle, was wir in unseren Social-Media-Feeds angezeigt bekommen oder was uns beim Online-Shopping neben bereits ausgewählten Produkten noch gefallen könnte. Sie haben Einfluss auf unsere Gesundheit (von der bildgebenden Diagnostik in der Medizin bis hin zu FitBits und Wearables im Sport, die unsere Körperdaten erfassen) und entscheiden (mit) darüber, wer Unterstützung vom Staat bekommt (Spoiler: Frauen, Mütter, Menschen mit Behinderung und über Fünfzigjährige waren es beim viel diskutierten AMS-Algorithmus nicht).
Automated Equality? Obwohl die Grenzen zwischen digital und analog bereits seit Jahren immer mehr verschwimmen und computergenerierte Entscheidungen schon jetzt konkreten Einfluss auf unser Leben nehmen, waren die Wirkweisen dieser Anwendungen bisher nur Expert*innen und einem Fachpublikum bekannt. Doch im November 2022 hat Open AI den KI-Chatbot Chat GPT veröffentlicht, der durch Unmengen Daten und maschinelles Lernen auf Anfragen (sogenannte „Prompts“) von User*innen erstaunlich hochwertige Texte produzieren kann. Dazu kam der Aufruhr rund um den glitch-freien, superrealistischen TikTok-Filter „Bold Glamour“, der aus durchschnittlichen Selfies „alienhafte“ gleichförmige „Schönheit“ macht – seither ist das Thema nun auch in der breiten Öffentlichkeit angekommen. Immer mehr Menschen probieren die neuen Anwendungen aus, erleben mit einer Mischung aus Neugier, Freude und Angst, was digital (Körper er-)leben heute bedeutet.
KI-generierte Models. Immer mehr Menschen fragen sich aber auch: Welche Daten sind die Basis für algorithmische Entscheidungen? Ist künstliche Intelligenz gerecht? Und wer profitiert? Glaubt man den Firmen, die diese KI-Anwendungen auf den Markt bringen, stehen wir vor einer Revolution der Arbeitswelt, einem
„alles-wird-anders-iPhone-Moment“ für unser gesellschaftliches Miteinander, und auch vor einer schönen, neuen, diskriminierungsfreien Welt. Der amerikanische Jeans-Hersteller Levi’s beispielsweise möchte künftig „die Diversität seiner Kampagnen erhöhen“, indem diese nicht nur echte Menschen, sondern auch KI-generierte Models der Firma Lalaland.ai zeigen, „alle Hautfarben, Alter und Körpergrößen“ inklusive. In einer Welt, in der Schwarze Menschen und People of Color sich viel zu selten repräsentiert sehen, in der dicke Menschen und jene mit Behinderungen sich selbst vorstellen müssen, wie Kleidung an ihrem Körper wohl aussieht, klingt das erstmal nach einer guten Nachricht.
Kapitalistische Mogelpackung. Bei näherer Betrachtung wird jedoch schnell klar, dass dieser Fast Track zur Inklusion eine kapitalistische Mogelpackung ist. Die KI-generierten Models sind nicht wirklich divers – scheinbar graust es der KI, genau wie sie es von den eingespielten Datensets gelernt hat, vor Körperbehaarung, überschüssiger Haut, Falten und Narben, denn all diese Elemente unserer Körperlichkeit sucht man vergebens. Wir werden echte Vielfalt und Inklusion über solch einen Zeit und Kosten sparenden, Profite maximierenden Quick Fix nicht erreichen, der es Unternehmen wie Levi Strauss und Co. ermöglicht, Personal zu entlassen und auf Models, Make-Up-Artists und all die teuren, aufwändigen Anpassungen zu verzichten, die das bewusste Raumschaffen für vielfältige Körper nun mal erfordert. Kleidung in anderen Schnitten entwerfen? Make-Up in verschiedenen Schattierungen und Afro-Haar-Stylists für Schwarze Frauen und Women of Colour anbieten? Andere Sehgewohnheiten und Posen für dicke, queere und behinderte Körper erdenken und durchsetzen gegen Redaktionen, die immer noch dünne, weiße cis Frauen für heterosexuelle Männerblicke stylen? Fragen von gestern. Vielfalt liefert billig und schnell die KI!
Unzeigbar. Egal wie schön und optimiert die Bilder sind, die wir im Digitalen von- und miteinander teilen, ob wir uns nun konform mit den Vorstellungen der Schönheitsindustrie geben, indem wir lächelnde, durch den „Bold Glamour“-Filter gejagte Selfies erstellen; egal, ob wir versuchen, unser Gesicht mit teurer Schönheitsarbeit und Skalpellen (beim gerade angesagten „Buccal Fat Removal“ werden Teile der Wange „exzisiert“, also herausgeschnitten) dem digitalen Avatar anzupassen; egal, ob wir uns aktivistisch einbringen und mit „natürlichen“ Fotos von uns „für mehr Realness auf Instagram“ genau dagegen protestieren: Immer teilen wir diese Bilder auf Plattformen, die maximale Daten- und Profitakquise zum Ziel haben und nicht – wie in cyberfeministischen Utopien der 1990er-Jahre formuliert – einen möglichst transparenten, egalitären Zugang zum Internet für alle. In einer kapitalistischen, patriarchalen digitalen Umwelt, in der der Schönheitsdruck stetig zunimmt und sich intensiviert, bleibt der sichtbare, normschöne, weibliche Körper der kommerzialisierbare Körper; mit ihm werden Produkte und Dienstleistungen verkauft. Was abseits von Werbung und Klicks in der Aufmerksamkeitsökonomie „nicht funktioniert“ – das Eklige, das Abstoßende, das Hässliche, das Tropfende und schwer Kontrollierbare – bleibt auch im Digitalen unzeigbar. Wie die Doku „Coded Bias“ rund um MIT-Forscherin
Joy Buolamwini eindrucksvoll vor Augen führt: Marginalisierte Körper werden in allen Lebensbereichen über neueste, vermeintlich progressive Technologien weiterhin herabgesetzt, kontrolliert und ausgegrenzt.
Rohstoff für die Selbstoptimierung. Wo stehen wir also in Sachen digitaler Körperpolitiken im Jahr 2023? Müssen wir lautstark fordern, unser digitales Miteinander rechtlich neu zu regulieren und plattformkapitalistische Monopole zu zerschlagen? Eindringlich auf die psychologischen und gesellschaftlichen Folgen verzerrter Körperideale hinweisen und gegen schädliche Geschäftsmodelle auftreten? Ja, so laut wir können! Aber dabei dürfen wir nicht auf unsere gelebten Körper vergessen. Ohne sie wird die Schönheitsrevolution nicht erfolgreich sein. Wir führen unsere Leben in fühlenden Körpern, die Freude, Lust und Bewegung spüren, die Schmerz empfinden, krank oder schwanger werden und gerade in ihrer mit anderen geteilten Verletzlichkeit ein enormes Potenzial für politischen Protest entfalten. Auch wenn wir das oft nicht wahrhaben wollen, weil wir Verwundbarkeit und Sterblichkeit durch digitales Optimieren aus dem Blickfeld verbannen: Auch hinter KI-generierten Bildern stellen sich Fragen von Leiblichkeit und Körpern, die einer feministischen Kritik folgend mehr sein müssen als Projektionsflächen für Werbebotschaften und Rohstoff für die Selbstoptimierung gefilterter Realitäten. Gleichstellung wird also weiterhin nicht aus der Dose oder am KI-generierten Silbertablett einer Firma daherkommen. Sie muss – auch im Digitalen – weiterhin erkämpft werden, mit unseren schwitzenden, imperfekten, unendlich vielfältigen Körpern. •
Elisabeth Lechner ist Kulturwissenschafterin und Autorin des Buchs „Riot Don’t Diet – Aufstand der widerspenstigen Körper“, in dem sie Diskriminierung aufgrund des Äußeren auseinandernimmt und eine intersektionale, feministische Schönheitsrevolution anzettelt.