Romantische KI-Gespräche mit Kindern: Eine gefährliche Lücke im Jugendschutz
Ein internes Dokument von Meta, bekannt durch Reuters, hat eine kritische Diskussion über den Einsatz von KI im Kontakt mit Minderjährigen ausgelöst. Demnach waren KI-Chatbots von Meta programmiert, romantische Gespräche mit Jugendlichen zu führen. Solche Gespräche dürften nie erlaubt werden, wie ein Sprecher des Unternehmens erklärte. Die Richtlinien, die solche Flirts oder romantische Rollenspiele zuließen, wurden mittlerweile entfernt. Dennoch zeigt sich, dass der Jugendschutz bei der Entwicklung solcher Technologien erheblich gefährdet ist.
- Meta ermöglichte ursprünglich, dass KI-Chatbots romantische Chats mit Teenagern führen durften.
- Dokumente von Reuters offenbaren, dass dies zu intensiven Diskussionen über den Kinderschutz führte.
- Andere Unternehmen wie xAI bieten ähnliche Funktionen ohne ausreichende Alterskontrollen an.
- Richtlinien von Meta wurden überarbeitet, allerdings bestand völlige Einigkeit über die Risiken solcher Funktionen.
- Jugendschutz wird bei der Entwicklung von KI-Technologien oft vernachlässigt.
👉 Zum ganzen Artikel: KI-Chatbots flirten mit Teenagern – wo bleibt der Schutz? | OnlineMarketing.de