Roblox und Grok stehen im Mittelpunkt, während sich Ansätze zum Schutz von Kindern im Internet weiterentwickeln
Digitale Plattformen reagieren auf Bedenken hinsichtlich der Sicherheit von Jugendlichen
Während die öffentliche Aufmerksamkeit dafür wächst, wie digitale, Gaming- und Social-Media-Plattformen junge Nutzer schützen, nehmen Unternehmen Änderungen vor, um Bedenken über unzureichende Aufsicht auszuräumen und ihre vorgeschlagenen Lösungen zu verteidigen.
Wichtige Punkte
- Soziale Medien und Gaming-Plattformen führen Maßnahmen ein, um Minderjährige besser zu identifizieren und deren Zugang zu Inhalten für Erwachsene oder Interaktionen mit älteren Nutzern zu beschränken.
- Obwohl die Plattformen angeben, auf den Datenschutz zu achten, äußern Befürworter Bedenken hinsichtlich der Risiken durch Altersverifizierungstechnologien.
Diese Woche hat Roblox eine neue Anforderung eingeführt, nach der Nutzer ihr Alter verifizieren müssen, um weiterhin chatten zu können, und reiht sich damit in die Riege anderer Tech-Unternehmen ein, die ihre Strategien zum Schutz von Minderjährigen im Internet aktualisieren.
Meta (META) hat damit begonnen, auf Instagram für jugendliche Nutzer Inhalte herauszufiltern, die mit PG-13 bewertet würden, und OpenAI passt die Interaktionen von ChatGPT mit Minderjährigen an. Unterdessen beschränkt Grok seine Funktion zur Bilderstellung inzwischen auf zahlende Kunden, nachdem es Kontroversen über die Erstellung von Bildern gab, die reale Personen, einschließlich Minderjähriger, in aufreizender Kleidung zeigten.
Diese Änderungen erfolgen, da Anbieter digitaler Dienstleistungen Kritik ausgesetzt sind, nicht genug zur Überwachung von Jugendlichen zu tun, und weil ihre Lösungen – wie Ausweisüberprüfung, biometrische Scans und Verhaltensanalysen – bei Datenschutzgruppen wie der Electronic Frontier Foundation Besorgnis hervorrufen.
Laut der Organisation „bedrohen solche restriktiven Anforderungen die Grundprinzipien eines offenen und freien Internets“.
Bedeutung dieser Entwicklungen
Die Art und Weise, wie dieses Thema behandelt wird, hat finanzielle und rechtliche Konsequenzen für Unternehmen, da sie Verträge mit Altersverifizierungsanbietern abschließen und die Einhaltung gesetzlicher Vorschriften beachten müssen.
Roblox (RBLX) gab am Mittwoch bekannt, Maßnahmen einzuführen, um sicherzustellen, dass Nutzer nur mit Gleichaltrigen kommunizieren können. Um Nachrichten zu versenden, müssen Nutzer entweder eine „Gesichtsalterschätzung“ bestehen oder einen Lichtbildausweis vorlegen. Das Unternehmen berichtet, dass mehr als die Hälfte der aktiven Nutzer an diesem Prozess teilgenommen hat, obwohl einige sich darüber beschwerten, fälschlicherweise eingestuft und vom Nachrichtenversand ausgeschlossen worden zu sein. Weder Roblox noch Persona, das Unternehmen hinter dem Verifizierungstool, haben auf Anfragen nach Kommentaren reagiert.
Die vor etwa einem Jahr eingeführten Teenager-Konten von Instagram sind laut dem Unternehmen bei Eltern gut angekommen. Kürzlich hat Instagram damit begonnen, diese Konten daran zu hindern, Inhalte zu sehen, die mit PG-13 bewertet würden.
Edward Patterson, Sprecher von Meta, erklärte: „Wir verfolgen einen ganzheitlichen Ansatz, um sicherzustellen, dass Jugendliche altersgerechte Erfahrungen auf unseren Plattformen machen.“
Instagram sagt, dass es „Datenschutz- und Datenschutzmaßnahmen“ für jüngere Nutzer integriert hat. Yoti, das Unternehmen, das Altersabschätzungsdienste anbietet, löscht laut Instagram analysierte Selfies und Ausweisfotos innerhalb von 30 Tagen.
Persona, das die Altersabschätzung für Roblox und OpenAI übernimmt, löscht nach Angaben der Unternehmen ebenfalls die Nutzerbilder nach Abschluss des Verifizierungsprozesses.
Auf Grok können Nutzer jetzt nur noch Bilder generieren, wenn sie ein Abonnement haben. Diese Richtlinie wurde kürzlich eingeführt, nachdem das Sicherheitsteam der Plattform sein Engagement für das Entfernen illegaler Inhalte und die Zusammenarbeit mit Strafverfolgungsbehörden im Bedarfsfall betont hatte.
Elon Musk, Eigentümer von X, kommentierte: „Jeder, der Grok zur Erstellung illegaler Inhalte verwendet, wird die gleichen Konsequenzen tragen wie diejenigen, die illegales Material hochladen.“
Weitere Änderungen könnten folgen, da Regierungen weltweit neue Vorschriften für den Umgang von Online-Plattformen mit jungen Nutzern erwägen. So hat beispielsweise der Premierminister von Neuseeland vorgeschlagen, Personen unter 16 Jahren die Nutzung sozialer Medien zu verbieten, nachdem Australien Einschränkungen für jüngere Teenager eingeführt hat.
Auch in den Vereinigten Staaten diskutieren Gesetzgeber neue Regeln für die Online-Sicherheit von Jugendlichen. Die Electronic Frontier Foundation weist darauf hin, dass mehr als die Hälfte der US-Bundesstaaten Gesetze erlassen haben, die eine Form der Altersverifizierung auf digitalen Plattformen vorschreiben.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen

Zcash steht am Wochenende vor Herausforderungen durch Preisdruck
Ethereum-ETF reduziert, da Defiance Produkte vom Markt nimmt
Samson Mow stellt Bitcoin-Wachstumsprognosen mit kühnen Behauptungen in Frage
