Tehnologie

Discord e acuzată că nu protejează utilizatorii tineri: Ce măsuri ia compania, ce este Teen Safety Assist

Un raport recent a constatat că compania Discord nu reușește să protejeze utilizatorii tineri. Astfel, Discord introduce noi măsuri de protecție pentru a proteja utilizatorii tineri.

Recent, compania a anunțat Teen Safety Assist. Lansarea va avea loc în următoarele săptămâni și constă în două funcții: alerte automate și filtre de conținut.

Discord ia măsuri

În continuare, atunci când un utilizator cu care un adolescent nu a discutat înainte trimite un mesaj direct, Discord va afișa o alertă de siguranță dacă sistemele automate ale platformei suspectează că siguranța adolescentului ar putea fi în pericol. Solicitarea îl va împinge pe tânăr să-și reconsidere dacă dorește să răspundă la mesaj și îi va indica funcția de blocare și sfaturile de siguranță aferente.

În mod implicit, Discord va estompa automat și imaginile potențial sensibile de la prietenii unui adolescent. Tinerii pot dezactiva funcția printr-o opțiune din meniul de setări al Discord. Între timp, adulții pot activa filtrele pentru ei înșiși, dacă doresc protecții suplimentare.

Introducerea Teen Safety Assist vine pe fondul unui control sporit al eforturilor Discord de a limita răspândirea materialelor de abuz sexual asupra copiilor (CSAM) și de a proteja utilizatorii tineri de adulții prădători. În iunie, NBC News a identificat 35 de cazuri pe o perioadă de șase ani în care adulții ar fi folosit platforma pentru a răpi sau agresa sexual minori. Rețeaua a găsit, de asemenea, 165 de cazuri în care autoritățile acuzau adulți pentru că au împărtășit CSAM prin Discord sau ar fi folosit platforma pentru a-i stârni pe tinerii utilizatori să trimită imagini sexuale cu ei înșiși.

În urma raportului, Discord a interzis serverele de întâlniri pentru adolescenți și și-a schimbat politicile de siguranță pentru a interzice partajarea CSAM generată de AI. De asemenea, a anunțat noi reguli care interzic în mod explicit orice alt tip de text sau conținut media care pun în pericol copiii. În același timp, compania a introdus Family Center, un tablou de bord pentru părinți și tutori pentru a urmări ceea ce fac adolescenții pe Discord.

„Adolescenții sunt încă în proces de a învăța despre ei înșiși și despre ce înseamnă să fii online, iar noile noastre funcții de siguranță sunt înrădăcinate în a le oferi un mediu sigur pe platformă, pentru a le oferi modalități de a învăța și de a crește într-un mod sigur și adecvat vârstei lor”, a spus Savannah Badalich, director senior de politici la Discord.

„Aceste cele mai noi funcții fac parte dintr-un efort continuu, de mai mulți ani, de a evolua și de a avansa în mod continuu în siguranța pe Discord”.