Instagram-Filter schaden dem Selbstbild der Nutzer

Die hässliche Seite von Schönheitsfiltern

Networld Von Rahel Lang

Gesichtsfilter stellen oft unerreichbare Schönheitsideale dar und können sich damit negativ auf das Selbstbild der Nutzer:innen auswirken. Menschen, die als attraktiv gelten, erhalten von den Algorithmen der Plattformen offenbar eine größere Reichweite.

Wer auf den sozialen Medien Instagram, Snapchat oder Tiktok ein Foto des eigenen Gesichts hochlädt, kann dieses mit zahlreichen Filtern verändern. Die Nutzer:innen können ihrem Gesicht etwa virtuelle Hundeohren aufsetzen oder es wie eine Skulptur von Michelangelo aussehen lassen. Die ­beliebtesten Filter sind jedoch Schönheitsfilter – und diese sind bei weitem nicht so harmlos, wie sie auf den ersten Blick erscheinen.

In nur wenigen Minuten können Nut­zer:innen ein unmanipuliertes Bild ihres Gesichts in das sogenannte »Instagram-Gesicht« verwandeln. Dessen Merkmale entsprechen dem Ideal, das unter anderem von den Schönheitsikonen Kylie Jenner und Bella Hadid geprägt wurde: eine schmale Nase, volle Lippen und hohe Wangenknochen. ­Vergleichen sich Nutzer:innen dann mit Fotos, die einem solchen Schönheitsideal entsprechen, kann sich das negativ auf das Selbstbild der Nutzer:innen auswirken. Die immer unrealistischer werdenden Schönheitsideale in Ma­gazinen setzten dem Selbstbild der die Bilder Konsumierenden stärker denn je zu, so die Jugendpsychiaterin Helen Eggert gegenüber Forbes. Das qualitativ Neue an den digitalen Filtern läge jedoch darin, dass »wir nicht nur eine unrealistisch schöne Berühmtheit sehen und uns damit vergleichen, sondern mit einem Trugbild von uns selbst«. Mädchen im Teenager-Alter tragen offenbar besonders schwer daran. So sollen sich 60 Prozent der Mädchen unwohl fühlen, weil ihr tatsächliches Aussehen nicht der Online-Version entspricht. Zu diesem Ergebnis kommt die Psychologin Phillippa Diedrichs in Zusammenarbeit mit einem Projekt für mehr Selbstwertgefühl von Dove, einer Marke für Körperpflegeprodukte.

60 Prozent der Mädchen sollen sich unwohl fühlen, weil ihr tatsächliches Aussehen nicht der Online-Version entspricht.

Doch den verzweifelten Wunsch, dem eigenen digitalen Abbild so stark wie möglich zu ähneln, hegen nicht nur Teenager-Mädchen. Das Phänomen ist inzwischen so bekannt, dass es einen eigenen Begriff für diese Körperbildstörung gibt: Snapchat-Dysmorphie. Diese kann so weit gehen, dass Betroffene ihre Gesichtszüge mit kosmetischen Eingriffen so verändern wollen, dass sie zu den gefilterten Bildern passen. Das belegen auch erste Studien aus den Jahren 2019 und 2022, die den Zusammenhang zwischen Selbstwertgefühl und sozialen Medien untersucht haben. Offenbar können Menschen, die viel Zeit auf bildlastigen sozialen Medien verbringen, sich eher vorstellen, Schönheitsoperationen vornehmen zu lassen, als andere, so For­scher:innen wie Cristian Di Gesto und Lisa E. Ishii.

Gesichtsfilter können auch positive Effekte haben. Filter, die das Gesicht ­femininer oder maskuliner erscheinen lassen, können für Trans-Personen eine gute Erfahrung sein und bieten die Möglichkeit, mit der eigenen Geschlechtsidentität zu experimentieren. Zum Beispiel gibt es Filter, die einen Bart möglichst realistisch über ein Gesicht legen. Dazu muss eine Software zunächst das Gesicht auf dem Foto erkennen. Algorithmen interpretieren dafür die verschiedenen Schattierungen der von einer Kamera aufgenommenen Pixel und identifizieren damit Gesichtsmerkmale. Das Programm setzt dem Gesicht dann eine unsichtbare digitale Maske auf, die an die individu­ellen Gesichtszüge der Person angepasst ist. Mit dieser digitalen Maske lässt sich schließlich ein Bart auf das Gesicht legen.

Das funktioniert auch mit sogenannten Storys, also Bewegtbildern auf Social-Media-Plattformen. Ein KI-gestütztes Programm verarbeitet die Bewegungsdaten der Person sehr schnell und kann das Bewegtbild nahezu in Echtzeit anpassen. Gesichtsfilter gehören damit zum Anwendungsgebiet der augmented reality (erweiterten Realität), in der die analoge Realität mit ­digitalen Elementen verschmilzt.

Auch die computergestützte Schönheitsbewertung arbeitet mit automatischer Gesichtserkennung: Nut­ze­r:in­nen stellen ein Gesichtsbild bereit und die Anwendungen werten es automatisch aus, um es anschließend zu bewerten. Das australische Start-up-Unternehmen Qoves Studio gilt als die weltweit größte offene Gesichtserkennungsplattform. Die Software analysiert Porträtfotos und gibt dann mit einer Prozentzahl an, wie schön das Gesicht ist. Außerdem listet das Programm Mängel auf, die es auf dem Foto erkannt haben will, und schlägt vor, wie diese zu beheben seien.

Die Nutzer:innen erhalten etwa Empfehlungen für bestimmte Wirkstoffe in Cremes – aber auch für Schönheitsoperationen. Qoves Studio nutzt maschi­nelles Lernen, um die Gesichter zu analysieren. Das heißt, das System wurde mit einem Datensatz von Hunderttausenden Gesichtsbildern trainiert, die Menschen bereits nach ihrer Schönheit bewertetet hatten. Lädt eine Person ein neues Foto hoch, berechnet das System den Schönheitswert, indem es bestimmte Gesichtsmerkmale mit denen aus der Datenbank abgleicht.

Selbst wenn Gesichtserkennungsplattformen angeben, dass die Bewertung auf vermeintlich universellen Schönheitsregeln beruhe, können sich diskriminierende Vorurteile einschleichen. Schließlich vergleichen diese Systeme das Gesicht mit den Präferenzen der Trainingsdaten – und diese sind oftmals von bestimmten gesellschaftlichen Schönheitsvorstellungen geprägt. Zu diesem Ergebnis kommt auch Lauren Rhue von der University of Maryland. Sie hat Gesichtserkennungstools erforscht, darunter die der Plattform Face++ des chinesischen Unternehmens Megvii. Das Ergebnis: Face++ ermittelt bei ihrer Schönheitsbewertung für weiße Frauen durchschnittlich einen höheren Wert. Auch bei anderen Gesichtserkennungsplattformen sei dies der Fall, so Rhue. »Ich habe noch nie eine kultursensible Schönheits-KI gesehen«, sagte sie der MIT Technology Review. Die Technologie verstärkt offenbar ein gesellschaftliches Problem, das sich ­bereits in den Trainingsdaten widerspiegelt.

Die Videoplattform Tiktok wird ebenfalls vorgeworfen, ihre Inhalte nach vorgegebenen Schönheitsidealen zu filtern. Nutzer:innen sehen auf Tiktok ihren individuellen For-You-Feed. Das ist eine algorithmisch gesteuerte Startseite, die passende Inhalte nach den Präferenzen der Nutzer:innen und den Moderationspraktiken von Tiktok anzeigt. Im März 2020 zeigten Dokumente eines Whistleblowers, dass Tiktok-Videos von dicken und nach gängigem Schönheitsideal unattraktiven Menschen eine geringere Chance hatten, im Feed angezeigt zu werden. Dazu zählen etwa »hässliche Gesichtszüge« oder »zu viele Falten«, so steht es in den internen Dokumenten, die der Website The Intercept vor­lagen.

Chris Köver, Redakteurin von Netzpolitik.org, hat ­bereits im Dezember 2019 über diese diskriminierenden Moderationspraktiken berichtet. Sie sagt der Jungle World: »Wir haben anhand von internen Dokumenten wie der ›ugly user policy‹ ganz klar gesehen, dass Tiktok in der Vergangenheit seine Mo­de­­­ra­to­r:in­nen angehalten hat, Inhalte von Nut­ze­r:in­nen, die als ›unattraktiv‹ eingestuft wurden, im Feed zu verstecken.« Das sei wohl eine Maßnahme gewesen, um Tiktok insgesamt attraktiver für Nut­ze­r:innen zu machen und sie in der App zu halten. Wie diese Moderations­praxis derzeit gehandhabt werde, sei laut Köver unklar. Nach Angaben von Tiktoks in Peking ansässigem Mutter­un­ter­nehmen Byte Dance soll sie ­bereits zum Zeitpunkt der Veröffentlichung der ­geleakten Dokumente nicht mehr angewendet worden sein.

Es liegt außerdem nahe anzunehmen, dass der Tiktok-Algorithmus Nut­ze­r:in­nen eine größere Reichweite verschafft, wenn diese Schönheitsfilter benutzen. Köver erklärt: »Generell belohnt Tiktok Inhalte, die viele Views und Interaktionen bekommen, mit einer besseren Platzierung im Feed.« Sie könne sich deswegen gut vorstellen, dass Schönheitsfilter dafür sorgen könnten, dass Inhalte besser ankämen.

Das gleiche Phänomen ist auch auf anderen Plattformen zu finden. Sie reflektieren damit nicht nur gängige Vorstellungen von Schönheit, sondern verstärken sie auch. Wenn Empfehlungsalgorithmen Inhalte belohnen, die dem Schönheitsideal entsprechen, prägt das wiederum unsere Vorstellungen davon, was schön ist. Die Frage, was eine Gesellschaft als schön empfindet, ist demnach auch eine Frage der medialen Sichtbarkeit.

Schönheitsfilterangebote sind ein wachsendes Geschäftsfeld. Neben der Frage, inwiefern Gesichtsfilter unserer mentalen Gesundheit schaden, bestehen aber auch datenschutzrechtliche Bedenken. Unternehmen könnten biometrische Daten von Nutzer:innen erhalten, wenn diese Gesichtsfilter anwenden, so die Kritik von Daten­schutz­expert:innen. Tech-Unternehmen ­haben schon oft genug ihre Datensammelwut demonstriert. Das Geschäft mit Gesichtsfiltern könnte also auch ein Geschäft mit hochsensiblen Daten sein. In China ist es bereits ein Teil des Überwachungsapparates.