Sidney (Reuters).

Dans un rapport, le commissaire à la sécurité électronique (commissaire à la sécurité) a déclaré que YouTube, avec Apple, ne suivait pas le nombre de plaintes des utilisateurs qu'il reçoit concernant l'apparence de matériel d'abus sexuel sur ses enfants sur ses plateformes et ne pouvait pas indiquer combien de temps ils prennent pour répondre auxdites plaintes.

Le gouvernement australien a décidé la semaine dernière d'inclure YouTube dans son pionnier mondial des réseaux sociaux pour les adolescents, après la recommandation d'Esafety pour révoquer l'exemption prévue du site vidéo appartenant à Alphabet, Google

« Lorsqu'ils sont autorisés à agir seuls, ces entreprises ne privilégient pas la protection des enfants et, apparemment, ils donnent des yeux sur les crimes qui se produisent dans leurs services », a déclaré le commissaire de la sécurité électronique, Julie Inman Grant, dans un communiqué.

« Aucune autre industrie axée sur les consommateurs ne recevrait une licence pour opérer si elle autorisait des crimes aussi atroces contre les enfants dans leurs installations ou leurs services. »

Google a précédemment déclaré que le matériel abusif ne se déroule pas sur ses plateformes et qu'il utilise une variété de techniques de l'industrie standard pour identifier et éliminer ledit contenu. Objectif – propriétaire de Facebook, Instagram et Threads, trois des plus grandes plateformes avec plus de 3 milliards d'utilisateurs dans le monde – indique qu'il interdit les vidéos explicites.

Le commissaire à la sécurité électronique, un bureau créé pour protéger les internautes, a exigé Apple, Discord, Google, Meta, Microsoft, Skype, Snap et WhatsApp pour signaler les mesures qu'ils prennent pour aborder l'exploitation des enfants et les abus en Australie.

Jusqu'à présent, le rapport sur leurs réponses a révélé une «série de lacunes de sécurité dans ses services qui augmentent le risque de matériel et d'activité d'exploitation sexuelle et d'abus des enfants dans les services».

Les lacunes de sécurité comprenaient les échecs de détection et de prévenir les émissions en direct des liens matériels ou de blocs vers le contenu connu de la maltraitance des enfants, ainsi que des mécanismes inappropriés à signaler.

Il a également été indiqué que les plateformes n'utilisaient pas la technologie de «snack de hachage» dans toutes les parties de leurs services pour identifier les images d'abus sexuels sur les enfants qui les comparaient à une base de données. Google a précédemment déclaré que ses mesures contre les abus comprenaient le hash-macking et la technologie de l'intelligence artificielle.

Le régulateur australien a déclaré que certains fournisseurs n'avaient pas amélioré ces lacunes de sécurité dans leurs services, bien qu'ils aient été avertis les années précédentes.

« Dans le cas de Google Apple et des services YouTube, ils n'ont même pas répondu à nos questions sur le nombre de rapports d'utilisateurs qu'ils ont reçus sur les abus sexuels sur les enfants dans leurs services ou les détails sur le nombre d'employés qu'ils ont dans leurs équipes de confiance et de sécurité », a déclaré Inman Grant.

A lire également