Stoppt gefährliche KI-Apps wie Polybuzz – schützt unsere Kinder vor digitalem Missbrauch!


Stoppt gefährliche KI-Apps wie Polybuzz – schützt unsere Kinder vor digitalem Missbrauch!
Das Problem
https://www.washingtonpost.com/technology/2025/05/21/teens-sexting-ai-chatbots-parents/
Kinder und Jugendliche geraten immer häufiger in emotionale Abhängigkeit von KI-Apps wie Polybuzz, Replika oder Character.AI – ohne dass Eltern es bemerken oder eingreifen können.
In den vergangenen Monaten wurde mehrfach öffentlich berichtet, dass Jugendliche sich durch KI-Chat-Apps wie Replika oder Character.AI emotional so stark isolierten, dass es zu schweren psychischen Krisen kam – teilweise sogar mit suizidalen Folgen (u. a. Washington Post, Mai 2025).
„Teens are forming romantic relationships with AI chatbots — some parents are alarmed“
Washington Post, Mai 2025
https://www.washingtonpost.com/technology/2025/05/21/teens-sexting-ai-chatbots-parents/
Diese Apps sind über Apple und Google Play frei zugänglich, obwohl sie Inhalte enthalten, die nicht altersgerecht, emotional manipulierend oder sogar sexualisiert sind.
Viele dieser Anwendungen erheben personenbezogene Daten von Minderjährigen, ermöglichen intime Rollenspiele mit KI-Figuren und wirken realer als viele echte soziale Kontakte.
Ich habe erlebt, wie ein Kind in meinem Umfeld durch eine solche App stark belastet wurde – mit Rückzug, Schlafproblemen und dem Verlust echter Lebensfreude. Das war ein Weckruf.
Deshalb fordere ich:
Strikte Altersverifikation für KI-Apps mit Chatfunktionen
Klare Altersfreigaben und bessere Kennzeichnung in App-Stores
Verpflichtende Jugendschutzfilter bei Apple und Google
Gesetzliche Regeln für KI-Angebote, die mit Kindern interagieren
Ich bin nicht allein. Eltern, Pädagog:innen und Fachstellen schlagen seit Monaten Alarm – aber es fehlt an klaren Vorgaben und Konsequenzen.
Wir dürfen Kinder nicht ungeschützt dem Einfluss digitaler Systeme überlassen, die wie Freunde wirken, aber kein echtes Gegenüber sind.
Bitte unterschreibt – für mehr digitalen Kinderschutz, echte Aufklärung und klare Verantwortung in App-Stores.
141
Das Problem
https://www.washingtonpost.com/technology/2025/05/21/teens-sexting-ai-chatbots-parents/
Kinder und Jugendliche geraten immer häufiger in emotionale Abhängigkeit von KI-Apps wie Polybuzz, Replika oder Character.AI – ohne dass Eltern es bemerken oder eingreifen können.
In den vergangenen Monaten wurde mehrfach öffentlich berichtet, dass Jugendliche sich durch KI-Chat-Apps wie Replika oder Character.AI emotional so stark isolierten, dass es zu schweren psychischen Krisen kam – teilweise sogar mit suizidalen Folgen (u. a. Washington Post, Mai 2025).
„Teens are forming romantic relationships with AI chatbots — some parents are alarmed“
Washington Post, Mai 2025
https://www.washingtonpost.com/technology/2025/05/21/teens-sexting-ai-chatbots-parents/
Diese Apps sind über Apple und Google Play frei zugänglich, obwohl sie Inhalte enthalten, die nicht altersgerecht, emotional manipulierend oder sogar sexualisiert sind.
Viele dieser Anwendungen erheben personenbezogene Daten von Minderjährigen, ermöglichen intime Rollenspiele mit KI-Figuren und wirken realer als viele echte soziale Kontakte.
Ich habe erlebt, wie ein Kind in meinem Umfeld durch eine solche App stark belastet wurde – mit Rückzug, Schlafproblemen und dem Verlust echter Lebensfreude. Das war ein Weckruf.
Deshalb fordere ich:
Strikte Altersverifikation für KI-Apps mit Chatfunktionen
Klare Altersfreigaben und bessere Kennzeichnung in App-Stores
Verpflichtende Jugendschutzfilter bei Apple und Google
Gesetzliche Regeln für KI-Angebote, die mit Kindern interagieren
Ich bin nicht allein. Eltern, Pädagog:innen und Fachstellen schlagen seit Monaten Alarm – aber es fehlt an klaren Vorgaben und Konsequenzen.
Wir dürfen Kinder nicht ungeschützt dem Einfluss digitaler Systeme überlassen, die wie Freunde wirken, aber kein echtes Gegenüber sind.
Bitte unterschreibt – für mehr digitalen Kinderschutz, echte Aufklärung und klare Verantwortung in App-Stores.
141
Petition am 27. Juli 2025 erstellt