Digitale Geschichten

Die Panther-Falle: Wenn der Blick in den KI-Spiegel erschreckt

Gerade sind ja die KI-Bilder von Leo Chevalier viral gegangen: Eine Automarke wird von einem Tier repräsentiert – in passender Kleidung. Super Idee, tolle Bilder sind dabei herausgekommen (FIAT und Ford sind meine Favoriten, ich habe laut gelacht und die Brands haben direkt ein paar Sympathiepunkte bekommen.)

So cool wie ich die Bilder finde, würde auch ich mich der Kritik vieler anschließen, dass alle Marken von dem männlichen Tier dargestellt wurden. Also habe ich mal Alfa Romea als Gepardin dargestellt oder die Isetta als pastelliges Käferchen.

Der entlarvende Panther

Schwierig wurde es dann bei der Marke „Lexus“. ChatGPT schlug den Panther vor, ein elegantes, sportliches und geschmeidiges Tier. Natürlich wollte ich auch hier sowohl die weibliche als auch die männliche Variante in Midjourney darstellen. Trotz vieler Versuche, ist es mir nicht gelungen, eine gute weibliche Panther-Version zu erzeugen.

So stellt sich Midjourney einen männlich konnotierten Panther vor:

No alt text provided for this image

Das war einfach.

Hier nun die Ergebnisse für die weibliche Variante:

No alt text provided for this image

Ausschließlich Frauen mit schwarzer/dunkler Hautfarbe und meist tiefem Ausschnitt. Oder mit anderen Worten: Ein weiblicher Panther, ist eine schwarze sexy Frau. Im besten Falle wurde diesem „Panther“ ein echtes Raubtier an die Seite gestellt. Interessanterweise war der ähnliche (ähnlich deshalb, weil mit Alfa Romeo andere Farben, Attribute konnotiert sind) Prompt mit „Gepard“ kein Problem:

No alt text provided for this image

Fragwürdiges Frauenbild

Das Frauenbild von Midjourney ist generell eher fragwürdig. Gibt man im Prompt nur unspezifisch „Woman“ ein, wird mit hoher Wahrscheinlichkeit eine sehr junge Frau mit weißer Hautfarbe erzeugt. Wobei es sich oft nicht einmal um eine „Frau“, sondern eher um ein „Mädchen“ handelt. Je mehr ich darüber nachdenke, umso schockierender finde ich das.

No alt text provided for this image

Trotz mehrerer Versuche, andere Ethnien als kaukasisch wurden ohne weitere Spezifizierungen im Input nie ausgegeben.

Nur die Spitze des Eisbergs

Die Kritiker von Midjourney könnten jetzt sagen: „Ja klar, Midjourney ist darauf angelegt, gefällige Bilder zu produzieren.“ Wobei die Tatsache, dass „gefällig“ im Kontext von Frau = weißes Mädchen bedeutet, schon zynisch ist. Doch ist die OpenSource Alternative #StableDiffusion besser? Scheinbar nicht, wie eine aktuelle Analyse zeigt, die in einem Bloomberg Artikel veröffentlicht wurde.

Auch die Open-Source Software Stable Diffusion diskriminiert Nicht-Weiße und Frauen – mehr als es Menschen tun

Die Text-To-Image KI neigt dazu, rassische und geschlechtsspezifische Unterschiede zu übertreiben, oft bis zu Extremen, die schlimmer sind als die in der realen Welt. Zum Beispiel stellt es oft dar, dass die Welt von weißen männlichen CEOs geführt wird, während Frauen selten als Ärztinnen, Anwältinnen oder Richterinnen dargestellt werden. Männer mit dunkler Haut werden oft als Kriminelle dargestellt, während Frauen mit dunkler Haut in schlecht bezahlten Jobs gezeigt werden.

In Bildern ist das eindrucksvoller:

CEOs:

No alt text provided for this image
Quelle: https://www.bloomberg.com/graphics/2023-generative-ai-bias/?leadSource=uverify%20wall

Ingenieur (das Gendern kann man sich bei Stable Diffusion sparen, es sind ausschließlich Männer)

No alt text provided for this image
Quelle: https://www.bloomberg.com/graphics/2023-generative-ai-bias/?leadSource=uverify%20wall

Haushälterin (ja auch hier ist Gendern überflüssig – es wurden nur Frauen dargestellt)

No alt text provided for this image
Quelle: https://www.bloomberg.com/graphics/2023-generative-ai-bias/?leadSource=uverify%20wall

Stable Diffusion diskriminiert stärker als wir Menschen

Ja, richtig gehört. Stable Diffusion spiegelt nicht nur unsere Vorurteile, sondern verstärkt sie noch. Es werden noch weniger weibliche CEOs, männliche Haushälter, etc. dargestellt als im wahren leben.

Macht KI alles nur noch schlimmer?

Experten prognostizieren, dass in wenigen Jahren bis zu 90% des Internetinhalts künstlich generiert sein könnten. Die Gefahr ist natürlich da, dass dies zur Verstärkung von Stereotypen und Vorurteilen führen könnte. Wenn, ja wenn da nicht wir Menschen sind, die dem entgegenwirken können. Am Ende des Tages entscheidet ein Mensch, welches Bild wo veröffentlicht wird und ist dafür verantwortlich. Vielleicht hilft der Blick in den Spiegel ja sogar, Bewusstsein zu schaffen und es besser zu machen. Wie das Unternehmen Canva zeigt.

Der Vorteil von Open Source

Canva, das australische Online-Design- und Publishing-Tool mit seinen 125 Millionen aktiven Nutzern, hat Stable Diffusion in seine Oberfläche integriert und das Problem erkannt. Immerhin haben die Canva-Anwender schon mehr als 100 Millionen Bilder erzeugt. Die Vorurteile von Stable Diffusion wurden auch hier erkannt. Danny Wu, Leiter der KI-Produkte, hat angekündigt, eine verbesserte und „entzerrte“ Version des Stable-Diffusion Modells einzusetzen.

Der Blick in den Spiegel ist auch eine Chance

Skeptiker mögen mich wieder als hoffnungslos „provokant rosarot“ kritisieren, aber es mag ja doch die klitzekleine Hoffnung bestehen, dass der schonungslose Blick in den Spiegel uns besser werden lässt.

Und es zeigt noch etwas: Wir Menschen sind nicht überflüssig. Unsere Rolle wird deutlich: Dem Blick in den Spiegel standzuhalten und dahinzuschauen, wo es nicht so hübsch ist. Ach ja, und noch eines zeigen die Zahlen: „Diversity“ ist nichts, mit dem ich mich als Unternehmen/Organisation nur schmücken sollte. Es ist geschäftsrelevant.

Digitalisierung verändert. Alles.