28 Tage zum perfekten Körper: die Mechanik der KI-Fakecoaches

5 Min. Lesezeit
Artikel

Auf TikTok und Instagram versprechen vollständig KI-generierte Fitnesscoaches Unmögliches. Die eigentliche Gefahr ist nicht der Betrug, sondern die psychische Belastung der Jugendlichen.

Der kostenlose KI-Newsletter
28 Tage zum perfekten Körper: die Mechanik der KI-Fakecoaches

"Verlieren Sie 18 Kilo in 28 Tagen"

Der Coach erscheint mit nacktem Oberkörper, definierten Bauchmuskeln, entschlossenem Blick. Er erklärt seine Methode, zeigt das Vorher-Nachher, schiebt einen Link zu seiner kostenpflichtigen App nach. Er existiert nicht. Weder seine Muskeln noch seine Stimme noch die versprochene Verwandlung. Es ist ein KI-generierter Avatar, und er hat soeben einige Sekunden Aufmerksamkeit aus dem Feed einer 14-Jährigen abgegriffen.

Am 7. Mai 2026 dokumentierte eine von AOL aufgegriffene BBC-Recherche Dutzende solcher Anzeigen auf TikTok und Instagram. Die Versprechen: 40 Pfund (18 Kilo) in 28 Tagen verlieren, in einem Monat 20 Jahre jünger aussehen, in wenigen Wochen den Körper formen. Alles erfunden, außer der Kreditkartennummer, die am Ende verlangt wird.

Die Mechanik: warum es skaliert

Wer als menschlicher Fitnesscoach durchstarten möchte, muss trainieren, filmen, schneiden, posten. Das kostet Zeit, ermüdet, stößt an Grenzen. Ein KI-Avatar dagegen produziert Dutzende Videos pro Tag, ohne Pausen, ohne Schweiß. Es genügt eine Prompt-Bibliothek, ein standardisiertes Vorher-Nachher-Skript und eine Pipeline für Videogenerierung.

Das Geschäftsmodell ist einfach: virale Videos am Anfang des Funnels, Fitness-App mit Monatsabo am Ende. Je perfekter der Avatarkörper, desto glaubwürdiger die Botschaft, desto höher die Conversion. Die Logik kennt jede Werberbranche, nur dass hier der Rohstoff (der menschliche Coach) durch ein digital beliebig vervielfältigbares Asset ersetzt wurde.

Diese Industrialisierung hat bereits prominente Beispiele. Aitana Lopez, ein Fitnessavatar einer Barcelonaer Agentur, sammelt mehrere Hunderttausend Instagram-Follower ein und rechnet Markenkooperationen ab. Niemand hat je für ihre Existenz geschwitzt.

Die eigentliche Gefahr ist nicht der Betrug

Man könnte das 30-Euro-Abo als überschaubaren Schaden abtun. Damit verfehlt man die eigentliche Geschichte. Die finanziellen Kosten sind nebensächlich. Die psychischen Kosten landen auf Schultern, die nicht den Werbetreibenden gehören.

David Fairlamb, seit dreißig Jahren Fitnesscoach, fasst es im BBC-Beitrag trocken zusammen: "It's so wrong. It's so misleading. And it's so worrying for younger kids." Zur 28-Tage-Verwandlung sagt er: "That just doesn't happen. You've got no chance."

Das Problem reicht weit über den enttäuschten Kunden hinaus. Es zieht in die Zimmer der Jugendlichen ein, die scrollen.

In Frankreich ist die Lage bereits alarmierend, bevor man überhaupt von KI spricht. Santé publique France weist darauf hin, dass in der Adoleszenz jedes vierte Mädchen und jeder fünfte Junge mildere Formen einer Essstörung zeigt. Zwischen 2009 und 2021 haben sich die Essattacken bei 10- bis 19-Jährigen mehr als verdoppelt (12% auf 26,3%). Essstörungen sind heute die zweithäufigste Ursache vorzeitiger Sterblichkeit bei 15- bis 24-Jährigen, gleich nach den Verkehrsunfällen.

KI-Fitness als Beschleuniger

Auf diesem Boden wirkt KI-Fitness wie ein Beschleuniger. Eine Metaanalyse von 2024 auf Basis von 83 Studien und 55.440 Teilnehmenden zeigt, dass sozialer Vergleich im Netz und Körperunzufriedenheit eng verknüpft sind: Je mehr Scrollen, desto stärker die Ablehnung des eigenen Körpers. Genauer gesagt, wer Ernährungs- und Fitnesskonten folgt anstelle von Unterhaltungskonten, weist mehr Symptome gestörten Essverhaltens auf.

Der KI-Avatar treibt diese Logik auf die Spitze: Er schläft nie, isst nie, ermüdet nie, und sein Körper bleibt pixelgenau perfekt. Die scrollende Jugendliche vergleicht sich nicht mehr mit einem trainierenden Menschen, sondern mit einem visuellen Objekt, das auf maximale Anziehung zugeschnitten ist. Das ist die Falle. Nicht die kostenpflichtige App dahinter.

Warum nichts gestoppt wird

Die regulatorische Lage ähnelt dem, was Andy Miah, KI-Experte an der Universität Salford, einen "wild west" nennt. Die britische Advertising Standards Authority hat innerhalb eines Jahres rund 300 Beschwerden über KI-generierte Anzeigen erhalten, Tendenz steigend, doch das ist angesichts des Volumens ein Tropfen auf den heißen Stein.

Bei den Plattformen heißt es: TikTok hat eigenen Angaben zufolge mehr als 1,3 Milliarden KI-Videos gekennzeichnet. Die Kennzeichnung beruht jedoch auf Selbstauskunft der Creators, und ein Fakecoach hat genau null Interesse, sich zu outen.

Die europäischen Regelwerke, die das Thema abdecken sollten, greifen konstruktionsbedingt nicht. Der AI Act, dessen Artikel 50 am 2. August 2026 in Kraft tritt, verlangt die Kennzeichnung von Deepfakes. Allerdings zielt der Artikel auf Inhalte, die real existierende Personen zeigen. Ein vollständig erfundener Fitnessavatar fällt nicht darunter. Der Digital Services Act wiederum schließt Influencer-Marketing aus seiner engen Werbedefinition aus: Bezahlt eine Marke einen Avatar, um eine App zu pushen, ist das laut Text keine "Werbung".

Drei Reflexe, bis die Regulierung nachzieht

Damit steht die Leserschaft in der ersten Reihe. Einige Reflexe helfen, einen KI-Avatar in unter drei Sekunden zu erkennen. Zuerst die Augen: Ein Avatar blinzelt unsauber, zu oft oder gar nicht, und sein Blick rutscht manchmal aus der Achse. Dann die Hände: Die Videogenerierung stolpert noch über die Finger, die ineinander verschwimmen oder einer zu viel sind. Schließlich die Stimme: Ein Mensch, der beim Sport spricht, hechelt, ringt nach Luft, bricht den Rhythmus. Ein Fitnessavatar liefert sein Skript mit konstanter Intensität ab, selbst mitten im Squat.

Keines dieser Signale ist hundertprozentig zuverlässig, und die Modelle verbessern sich rasant. Bis die Regulierung der Industrie hinterherkommt, bleibt nur das. Der Rest folgt einer alten Regel, die seit der Erfindung der Bildretusche nicht gealtert ist: Klingt das Versprechen zu schön, um wahr zu sein, ist es das auch. Neu ist allein, dass nun auch der Coach selbst nicht mehr wahr ist.

Behandelte Themen:

GesundheitMetaAnalyse

Häufig gestellte Fragen

Wie erkennt man einen KI-generierten Fitnesscoach?
Drei einfache Signale: die Augen (auffälliges Blinzeln, abdriftender Blick), die Hände (verschmelzende Finger oder ein Finger zu viel) und die Stimme (gleichbleibende Tonlage selbst bei voller Belastung, keine Atempausen). Keines ist hundertprozentig sicher, zusammen entlarven sie aber die meisten heutigen Avatare.
Warum greift der AI Act bei KI-Fitnessavataren nicht?
Artikel 50 des AI Act, der am 2. August 2026 in Kraft tritt, bezieht sich auf Deepfakes realer, existierender Personen. Ein vollständig erfundener Fitnesscoach fällt nicht darunter. Auch der Digital Services Act schließt Influencer-Marketing aus seiner engen Werbedefinition aus.
Welcher Zusammenhang besteht zwischen sozialen Medien und Essstörungen bei Jugendlichen?
Eine Metaanalyse von 2024 mit 55.440 Teilnehmenden zeigt, dass sozialer Vergleich im Netz und Körperunzufriedenheit stark zusammenhängen. Wer Fitness- und Ernährungsaccounts folgt statt Unterhaltungskonten, weist mehr Symptome gestörten Essverhaltens auf.
Wie viele Jugendliche sind in Frankreich von Essstörungen betroffen?
Laut Santé publique France zeigen jedes vierte Mädchen und jeder fünfte Junge in der Adoleszenz mildere Formen gestörten Essverhaltens. Die Zahl der Essattacken bei 10- bis 19-Jährigen hat sich zwischen 2009 und 2021 mehr als verdoppelt (12% auf 26,3%). Essstörungen sind heute die zweithäufigste Ursache vorzeitiger Sterblichkeit bei 15- bis 24-Jährigen.
Der kostenlose KI-Newsletter