Instagram se remplit d’images pédopornographiques créées avec l’intelligence artificielle

Le intelligences artificielles génératives ils sont l’avenir inévitable qui nous attend, parce qu’ils sont pratiques et rapides, parce qu’ils ont derrière eux des intérêts de plusieurs milliards et parce qu’ils peuvent gonfler l’ego de chacun. Il est clair que beaucoup les utiliseront à des fins néfastes, comme créer du spam plus réaliste, créer des contrefaçons impliquant de vraies personnes et créer des images interdites, telles que celles à caractère pédopornographique.

Comme le rapporte Forbes, le le réseau social Instagram en particulier a été assiégé par des images de ce genrepublié sans aucun contrôle par Meta, la société qui le gère.

Le rapport détaille également le type de commentaires publiés par ces personnes, qui fréquentent notamment Instagram et TikTok, où ce sont souvent les mineurs eux-mêmes, ou leurs parents, qui créent involontairement l’offre de chasse aux likes.

De nombreuses agences ont mené des combats acharnés contre la pédophilie en lignemais avec l’intelligence artificielle, la situation pourrait certainement devenir incontrôlable, compte tenu de la facilité avec laquelle ce contenu peut être créé.

Les pédophiles et ceux qui leur donnent les outils

Le pire, c’est que cette tendance naît de la cupidité des entreprises mêmes qui gèrent l’IA, car ils ont volontairement utilisé du matériel CSAM (Child Sexual Abuse Material) pour former leurs modèles. Par exemple, une étude remontant à décembre 2023 a découvert la présence de ce type d’images dans les jeux de données de Stable Diffusion, l’une des IA génératrices d’images les plus utilisées. Google lui-même a admis les utiliser pour son IA.

Les entreprises ont délibérément entraîné leur IA à la pédopornographie

Bref, on ne peut pas s’étonner que les pédophiles ont trouvé le moyen d’exploiter eux-mêmes tout ce matériel. Pour aggraver la situation, il existe également un grand vide juridique, car certains des documents découverts par Forbes sont considérés comme légaux, étant donné que les images sont fausses et que les mineurs représentés ne sont pas complètement nus.

Je veux dire, ils le sont de toute façon images sexuellement suggestivessont probablement basés sur des images réelles, attirent l’attention et les commentaires des pédophiles, mais personne ne fixe de limites concrètes. Meta et ByteDance ont supprimé les comptes rapportés par Forbes, ce qui revient un peu à balayer la poussière sous le tapis, sachant qu’on ne peut pas s’attendre à un reportage journalistique pour chaque compte de ce type qui apparaît en ligne.

NEXT Samsung oled et qled 2024 : l’intelligence artificielle fait le show