Intelligence Artificielle pour piéger les enfants

Lorsqu’on utilise la technologie de manière abusive, le National Center for Missing and Exploited Children (Centre national pour les enfants disparus et exploités), une ONG américaine, met en garde contre l’utilisation de l’intelligence artificielle (IA) générative par les prédateurs sexuels ciblant les mineurs.

Ces individus utilisent des outils de génération d’images et de textes pour atteindre leurs objectifs.
Sur certains forums, des scripts décrivant des profils permettant de gagner plus facilement la confiance des mineurs se multiplient. Les fausses images générées par l’IA dépeignant des actes de violence sexuelle sur des enfants se propagent également, ainsi que des conseils pour échapper à la modération des IA génératives, le cas échéant, selon Bloomberg, le mercredi 24 mai.

Diffusions légales d’images

Bien que certaines de ces pratiques immorales ne soient pas nécessairement illégales pour le moment, elles ont pour conséquence d’aggraver la diffusion d’images pédopornographiques et d’augmenter les risques d’attraper les enfants dans les pièges des pédocriminels.
Le problème réside dans le fait que les utilisateurs de l’IA, qu’elle soit gratuite ou payante, sont difficiles à contrôler.

Cependant, des mesures de précaution ont été mises en place. Les entreprises développant des IA génératives d’images ont pris des mesures de sécurité pour empêcher les utilisateurs de générer des images violentes ou sexuelles avec leurs outils.
Elles bloquent les mots-clés afin d’éviter la génération de ce type de contenu, comme l’ont fait Stable Diffusion ou Dall-E.IA et predateur sexuel

Contournement des outils de modération

Cependant, il est facile de contourner ces outils de modération en utilisant d’autres expressions que les mots interdits ou en utilisant d’autres langues que l’anglais. Ces astuces sont partagées sur des forums, selon Avi Jager, un responsable d’ActiveFence, une start-up spécialisée dans la modération de contenu, interrogé par des journalistes.
De plus, certaines IA ne limitent tout simplement pas leurs instructions. Les ONG qui défendent les droits des enfants craignent qu’à l’avenir, l’utilisation de ces outils ne provoque une inondation de ce type de contenu en ligne.

Il devient donc difficile de distinguer les contenus générés par l’IA des vraies images d’agressions sexuelles sur des enfants. Cela risque de faire perdre un temps précieux aux forces de l’ordre qui essaient de faire la différence.

Scripts pour piéger les enfants

De plus, l’IA permettrait aux prédateurs sexuels de multiplier leurs tentatives de se rapprocher de leurs potentielles victimes. Selon la directrice juridique du National Center for Missing and Exploited Children, Yiotas Souras, certains prédateurs se partagent des scripts générés par l’IA. Ces scripts décrivent des personnages fictifs visant à gagner la confiance des mineurs pour mieux les piéger. Et cela ne fait que commencer, déclare-t-elle.

Crainte sur l’utilisation future de l’IA

Au Royaume-Uni, il existe une préoccupation grandissante. Adam Dodge, fondateur d’EndTab, un groupe britannique engagé dans la lutte contre les agressions sexuelles facilitées par la technologie, partage également des craintes quant à l’utilisation future de l’IA pour cibler les mineurs à grande échelle. Interrogé par The Times le 21 mai, il souligne que ces outils d’IA peuvent être extrêmement persuasifs. Il exprime son alarme en expliquant : “Si je crée un clone IA d’un prédateur (…) et que je forme ce bot à identifier et à communiquer avec des enfants vulnérables en ligne à grande échelle (…), ce bot pourrait alors cibler 10 000 enfants simultanément”.

De leur côté, l’ONG américaine déclare être en discussion avec des législateurs afin d’évaluer comment de nouvelles réglementations pourraient limiter l’utilisation dangereuse de l’IA qui propage des images pédopornographiques et met en danger les mineurs. Selon Bloomberg, aux États-Unis, la simple génération de ce type de contenu ne serait pas nécessairement illégale. Des plaintes ont également été déposées concernant des images d’agressions sexuelles sur des enfants générées artificiellement.

Source : Bloomberg

 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.