Une mère et sa fille de 14 ans réclament davantage de protection pour les victimes d’images de nu générées par intelligence artificielle (IA) après que des images de la jeune femme et d’autres de ses camarades de classe générées avec cette technologie aient circulé dans un lycée de Nouveau pull.
Pendant ce temps, à l’autre bout du pays, Les autorités enquêtent sur un incident impliquant une adolescente qui aurait utilisé l’IA pour créer et diffuser des images similaires d’autres étudianteségalement adolescents, issus d’un lycée de la banlieue de Seattledans l’État de Washington.
Des cas inquiétants ont une fois de plus mis en lumière du matériel explicite d’IA générative qui touche massivement les femmes et les mineurs et qui prolifère en ligne à un rythme sans précédent. Selon une analyse de la chercheuse indépendante Genevieve Oh consultée par Associated Press, Plus de 143 000 nouvelles vidéos manipulées numériquement ont été mises en ligne cette année, dépassant toutes les années précédentes réunies..
Désespéré d’une solution, Les familles affectées font pression sur les législateurs pour qu’ils mettent en œuvre de solides garanties pour les victimesdont les images sont manipulées à l’aide de nouveaux modèles d’IA ou de la pléthore d’applications et de sites Web qui annoncent ouvertement leurs services. Les défenseurs et certains experts juridiques réclament également des réglementations fédérales qui pourraient fournir des protections uniformes dans tout le pays. et qu’ils envoient un message fort aux auteurs actuels et futurs.
« Nous nous sommes battus pour nos enfants », a déclaré Dorota Mani, dont la fille était l’une des victimes à Westfield, une banlieue du New Jersey à l’extérieur de New York. « Ne sont pas républicains et ils ne le sont pas démocrates. Ne se soucient pas. Ils veulent juste être aimés et protégés.».
Le problème des vidéos deepfake n’est pas nouveau, mais les experts affirment qu’il s’aggrave à mesure que la technologie permettant de les produire devient plus disponible et plus facile à utiliser. Cette année, le Les chercheurs ont mis en garde contre l’explosion de matériaux provenant de abus sexuel sur enfant produit avec une IA générative qui utilise des représentations de victimes réelles ou de personnages virtuels. En juin, le FBI a averti qu’il continuait de recevoir des rapports de victimes, tant mineures que adultes, dont les photographies ou les vidéos étaient utilisées pour créer du contenu explicite partagé en ligne.
Plusieurs États ont adopté leurs propres lois au fil des années pour tenter de lutter contre ce problème, mais leur portée varie.soit. Texas, Minnesota et New York Ils ont adopté cette année une loi qui criminalise la pornographie faux profond non consensuel, adhésion Virginie, Géorgie et Hawaii qui avait déjà des lois approuvées. Certains États, comme Californie et Illinoisont seulement donné aux victimes la possibilité de poursuivre leurs agresseurs en dommages-intérêts devant un tribunal civil, ce que New York et le Minnesota autorisent également.
Certains autres États envisagent d’adopter leur propre législation, notamment le New Jersey, où un projet de loi visant à interdire la pornographie deepfake et à imposer des sanctions est actuellement en cours d’élaboration.qu’il s’agisse de peines de prison, d’amende ou les deux, pour ceux qui le diffusent.