Discord hat angekündigt, dass ab Anfang März alle mehr als 200 Millionen monatlich aktiven Nutzer weltweit standardmäßig in einen eingeschränkten Modus für Jugendliche versetzt werden, sofern sie ihr Alter nicht per Gesichtserkennung oder amtlichem Ausweis verifizieren. Die neue Richtlinie der Plattform, als jugendgerechte Standardeinstellungen beschrieben, bedeutet, dass nicht verifizierte Konten erheblichen Einschränkungen unterliegen werden, darunter die Unkenntlichmachung sensibler Inhalte, gesperrter Zugang zu altersbeschränkten Kanälen und Servern sowie die Umleitung von Direktnachrichten unbekannter Nutzer in einen separaten Anfrageordner. Die weltweite Einführung stellt eines der umfassendsten Altersverifikationsmandate dar, die jemals von einer großen sozialen Plattform verhängt worden sind.
Nutzer, die vollen Zugang wiederherstellen möchten, sind angehalten, einen einmaligen Verifikationsprozess durchzuführen, entweder mittels Gesichtsaltersschätzung, bei der Video-Selfies direkt auf dem Gerät des Nutzers verarbeitet werden, oder durch Einreichen eines amtlichen Ausweisdokuments bei einem der Partner von Discord. Discord erklärte, dass Video-Selfies für die Gesichtsschätzung das Gerät des Nutzers nie verlassen und Ausweisdokumente kurz nach Abschluss des Verifikationsprozesses gelöscht werden. Savannah Badalich, Leiterin der Produktpolitik bei Discord, erklärte, die Einführung baue auf der bestehenden Sicherheitsarchitektur der Plattform auf und ziele darauf ab, ein sichereres Erlebnis für Nutzer ab 13 Jahren zu schaffen.
Die Ankündigung hat erheblichen Widerstand von Datenschützern und Nutzern ausgelöst, die es ablehnen, biometrische Daten oder amtliche Ausweise an die Plattform zu übermitteln. Die Bedenken werden durch einen Sicherheitsvorfall im Oktober 2025 verstärkt, als Hacker einen von Discord für altersbezogene Einsprüche genutzten Drittanbieter kompromittierten und dabei möglicherweise Ausweisfotos von rund 70.000 Nutzern offenlegten. Kritiker argumentieren, dass die Forderung nach Gesichtsscans oder Ausweisdokumenten eine Überwachungsinfrastruktur schaffe und der vorangegangene Vorfall belege, dass Discord die Sicherheit solch sensibler Daten nicht gewährleisten könne.
Discords Schritt erfolgt angesichts wachsenden regulatorischen Drucks auf Social-Media-Unternehmen zum Schutz Minderjähriger. Australien hat 2025 ein Gesetz verabschiedet, das soziale Medien für Nutzer unter 16 Jahren verbietet, und mehrere US-Bundesstaaten haben ähnliche Altersverifikationsanforderungen erlassen oder vorgeschlagen. Auch die Verordnung über digitale Dienste der Europäischen Union schreibt verstärkte Schutzmaßnahmen für Minderjährige auf großen Plattformen vor. Discord steht besonders in der Kritik, weil die Plattform bei Jugendlichen für Gaming und soziale Kontakte beliebt ist und es in der Vergangenheit Vorfälle gab, bei denen Minderjährige in unzureichend moderierten Servern unangemessenen Inhalten ausgesetzt waren.
Die Plattform wird zudem ein internes Altersinferenzsystem einsetzen, das im Hintergrund läuft und den Altersstatus von Konten bestimmt, um die Notwendigkeit wiederholter manueller Verifikationen zu verringern. Weitere Verifikationsmethoden über Gesichtsschätzung und Ausweisvorlage hinaus sollen künftig folgen. Branchenanalysten merkten an, dass zwar die Absicht, Minderjährige zu schützen, berechtigt sei, die Umsetzung jedoch schwierige Fragen über den Zielkonflikt zwischen Kinderschutz und Nutzerdatenschutz aufwerfe, dem sich jede große Plattform angesichts weltweit verschärfter regulatorischer Anforderungen zunehmend stellen werde.
Kommentare