Le contenu de la violence envers les enfants généré par l'IA se propage rapidement, prévient le chien de garde britannique
-
L'Internet Watch Foundation (IWF) met en garde contre la propagation rapide du matériel d'abus pédosexuels généré par l'IA (CSAM), avec plus de 20 000 images trouvées sur un seul forum darkweb en un mois.
-
Les générateurs d'images d'IA avancés sont capables de créer des répliques humaines réalistes, et malgré les restrictions mises en œuvre par les plates-formes basées sur le cloud, les passionnés trouvent des moyens de contourner ces mesures.
-
L'IWF suit le CSAM généré par l'IA de vraies victimes d'abus, y compris des images manipulées de célébrités et d'enfants célèbres.
-
La prolifération du CSAM généré par l'IA pourrait détourner les ressources des forces de l'ordre de la détection et de l'élimination des abus réels.
-
L'IWF appelle à une collaboration internationale, proposant des modifications aux lois, à la formation et à la surveillance réglementaire des modèles d'IA, et exhorte les développeurs d'IA à interdire la création de matériel de maltraitance des enfants.
-
L'IWF exhorte le Premier ministre britannique à aborder cette question lors du sommet mondial sur la sécurité de l'IA.
-
Les efforts suggérés pour lutter contre l'abus de l'IA comprennent l'utilisation des politiques KYC pour identifier les criminels, l'adoption de lois pour augmenter les sanctions en cas de pornographie juvénile générée par l'IA et l'accent mis sur son illégalité en vertu de la loi fédérale.
La société de surveillance de l'internet, basée au Royaume-Uni, Internet Watch Foundation (IWF), a publié un rapport mettant en garde contre la propagation rapide du matériel d'abus sexuels sur les enfants (CSAM) généré par l'IA. Le rapport révèle que plus de 20 000 images CSAM générées par l'IA ont été trouvées sur un seul forum darkweb en un mois seulement, ce qui soulève des inquiétudes quant au fait qu'Internet pourrait être submergé par un tel contenu.
Au fur et à mesure que les générateurs d'images d'IA génératifs deviennent plus avancés, ils sont capables de créer des répliques réalistes d'êtres humains. Les plates-formes basées sur le cloud comme Midjourney, Runway, Stable Diffusion et Dall-E d'OpenAI ont mis en place des restrictions pour empêcher leurs outils d'être utilisés pour créer du contenu abusif, mais les amateurs d'IA trouvent des moyens de contourner ces mesures. L'IWF suit maintenant les cas de CSAM généré par l'IA de vraies victimes d'abus sexuels, y compris des images de célébrités et d'enfants célèbres manipulés pour apparaître comme victimes d'abus.
La prolifération du CSAM vivant généré par l'IA pourrait détourner les ressources des forces de l'ordre de la détection et de la suppression des abus réels. L'IWF appelle à une collaboration internationale pour lutter contre le CSAM, en proposant des modifications des lois, une formation aux forces de l'ordre et une surveillance réglementaire pour les modèles d'IA. Ils recommandent également aux développeurs d'IA d'interdire l'utiliser leur IA pour créer du matériel de maltraitance des enfants et de donner la priorité à la suppression de ce matériel de leurs modèles.
L'IWF exhorte le Premier ministre britannique à aborder cette question lors du sommet mondial sur la sécurité de l'IA en novembre. Les efforts visant à lutter contre l'abus de l'IA comprennent des suggestions visant à utiliser les politiques KYC pour identifier les criminels utilisant des modèles d'IA, à adopter des lois pour augmenter les sanctions pour la vente et la possession de pornographie juvénile générée par l'IA, et à souligner que la pornographie juvénile est illégale en vertu de la loi fédérale.