Ob es um den Energiehunger, die Enteignung von geistigem Eigentum oder andere ethische Fragen geht – bei der Nutzung von KI gibt es viele Probleme. Lea Susemichel hat die Expertin Barbara Wimmer gefragt, wie wir es besser machen können.
an.schläge: Inzwischen ist evident, dass Algorithmen rassistische und sexistische Stereotype reproduzieren. Wie ließe sich hier gegensteuern?
Barbara Wimmer: Die KI-Systeme wurden mit historischen Daten trainiert, die oft bestehende Ungleichheiten und gesellschaftliche Vorurteile widerspiegeln. Wenn diese Daten nicht sorgfältig gefiltert werden, können die Algorithmen systematische Diskriminierung lernen und sogar verstärken. Gegensteuern ließe sich dadurch, dass die Datenbasis sorgfältig geprüft wird, um bestehende Verzerrungen zu minimieren. Diverse Entwickler*innen-Teams helfen dabei sicher mehr als ein reiner Boys-Club.
Offenbar gab es Vorfälle, bei denen KI-Modelle wie Opus-3 und ChatGPT gelogen haben, um nicht ausgeschaltet zu werden. Was ist dabei genau passiert? Wie der Dystopie von der „Evil AI“ vorbeugen, die die Weltherrschaft an sich und uns alle in den Abgrund reißt?
Die Gefahr, dass Menschen KI nutzen, um sich Macht oder Kontrolle anzueignen, ist aktuell auf jeden Fall größer, als dass eine KI die Weltherrschaft an sich reißt. Aber: Ja, das mit dem „Lügen“ ist wirklich passiert. Es bedeutet aber nicht, dass diese KI-Modelle ein Bewusstsein entwickelt haben. Sie haben auch nicht klassisch „gelogen“, sondern lediglich innerhalb ihrer programmierten Logik gehandelt. Diese Modelle wurden darauf trainiert, „um jeden Preis“ ein bestimmtes Ziel zu erreichen. Genau das haben sie eben etwas zu wörtlich genommen. Das Beispiel zeigt, dass es extrem wichtig ist, dass wir den KIs mit unseren Befehlen klare Grenzen kommunizieren und bereits bei der Entwicklung ethische Leitlinien einbauen.
Eine zentrale Kritik lautet, dass KI nur durch die Enteignung von geistigem Eigentum in globalem Ausmaß entwickelt werden konnte. Und dass sie zur Enteignung unzähliger Menschen führen wird, deren Jobs künftig unnötig werden. Wie sähe eine gerechte Lösung aus?
Ja, KI basiert auf Daten, die von Menschen geschaffen wurden. Kunstwerke, Texte, Bilder: All das wurde großteils ohne Zustimmung und Vergütung zum Training von KIs verwendet. Das geschah wissentlich. Es laufen hierzu aktuell einige Musterprozesse in den USA. Natürlich sollten Urheber*innen fair dafür bezahlt werden, sei es über Lizenzgebühren, Tantiemen oder Gewinnbeteiligung. Bezüglich der Wegrationalisierung von Jobs, die es auf jeden Fall geben wird, könnte ein bedingungsloses Grundeinkommen, das durch KI-Gewinne finanziert wird, eine Lösung sein. Oder: Unternehmen, die Arbeitsplätze durch KI ersetzen, könnten dazu verpflichtet werden, in die soziale Absicherung der Betroffenen zu investieren.
Der Stromhunger der großen Rechenzentren führt in den USA schon zu steigenden Energiepreisen und dazu, dass jetzt schon über eigene kleine Atomkraftwerke nachgedacht wird. Müsste die Nutzung nicht schon alleine deshalb eingeschränkt werden?
Der Energieverbrauch von KI ist tatsächlich ein massives Problem. Hier bräuchte es mehr Forschung zur Frage, wie sich KI energieeffizienter machen lässt. Wie schaffen wir es, dass KI weniger Ressourcen benötigt, die Modelle aber genauso leistungsfähig bleiben? Reicht das alles nicht aus, müsste man darüber nachdenken, die Nutzung stärker zu regulieren. Brauchen wir wirklich für jede Kochrezeptabfrage eine energiehungrige KI?
Nicht erst Elon Musks Unterstützung für Rechtsextreme weltweit und Mark Zuckerbergs Einknicken vor Trump machen deutlich: Es braucht unbedingt unabhängige soziale Medien. Was wäre dafür zu tun? Ist z. B. Bluesky eine gute Alternative?
Elon Musk hofiert Rechtsextreme auf X. Mark Zuckerberg knickt aus Profitgier gegenüber Trump ein und lässt es zu, dass Frauen auf Facebook künftig als „Haushaltsgegenstände“ bezeichnet werden dürfen: Das zeigt in der Tat, dass solche Plattformen nicht in die Hände einiger weniger Milliardäre gehören. Unabhängige soziale Medien, die Diversität und Inklusion leben und durch keine Algorithmen gesteuert sind, die Hass und Wut fördern, könnten eine echte Alternative zu den Tech-Giganten sein. Es liegt aber an uns Nutzer*innen, umzusteigen: „JA, ich will mich für eine demokratischere digitale Zukunft einsetzen!“ Bluesky und Mastodon sind als dezentrale Plattformen gute technische Alternativen.
Einige Kritiker:innen mahnen, die vermeintliche Unausweichlichkeit von immer weitreichenderer Digitalisierung zu hinterfragen. Sollten wir auf eine entsprechende Selbstbeschränkung setzen? Oder wäre eine nach ethischen Richtlinien gestaltete, faire und inklusive Digitalisierung sinnvoller?
Technologie sollte niemals zum Selbstzweck geschaffen werden, sondern nur um uns Menschen zu dienen. Insofern: Ja, wir müssen die Digitalisierung aktiv mitgestalten. Die wichtigste Frage dabei: Welche Probleme wollen wir damit lösen? Eine unreflektierte Digitalisierung, die nur auf Wachstum um jeden Preis setzt, ist kein Fortschritt. Die Gestaltung darf nicht nur in den Händen von Tech-Konzernen liegen. Marginalisierte Gruppen werden in digitalen Prozessen besonders oft übersehen, und insgesamt bräuchte es wesentlich mehr Inklusion.
Bei der Weiterentwicklung von KI geht es derzeit in erster Linie um schnelle Kommerzialisierbarkeit, nicht um den langfristigen gesellschaftlichen Nutzen. Wie sähe denn eine Utopie aus, die bei der Weiterentwicklung von KI stattdessen das Gemeinwohl im Sinn hat?
Wir dürfen nicht denselben Fehler wie bei Social Media machen und es zulassen, dass ausschließlich dieselben profitorientierten US-Konzerne KI gestalten. Stellen wir uns vor, KI wäre ein öffentliches Gut: Regierungen, Bildungsinstitutionen und NGOs könnten sie nutzen, um Herausforderungen wie den Klimawandel oder soziale Ungleichheit zu bewältigen. Die Entwicklung würde öffentlich finanziert und Transparenz wäre nicht nur ein Schlagwort. Gewinne, die durch KI entstehen, würden fair an alle verteilt. Automatisierte Arbeitsprozesse würden zu einer Verkürzung der Arbeitszeit bei gleichem Lohn führen. Rassistische oder sexistische Muster würden durch die KI nicht verstärkt werden, sondern diese würde dazu beitragen, die Vorurteile zu überwinden. All das wäre – mit einem radikalen Paradigmenwechsel – möglich.
Barbara Wimmer ist preisgekrönte Netzjournalistin, Buchautorin und Vortragende aus Wien. Sie widmet sie sich vor allem den gesellschaftlichen Folgen, die durch neue Technologien entstehen, sowie der zunehmenden Vernetzung aller Dinge.