L’intelligence artificielle (grâce à la formation humaine) triche et trompe. Tous les risques et dangers

L’intelligence artificielle (grâce à la formation humaine) triche et trompe. Tous les risques et dangers
L’intelligence artificielle (grâce à la formation humaine) triche et trompe. Tous les risques et dangers


“Je ne dors pas la nuit quand je pense aux risques et au manque de règles.” Sam Altman, le père de ChatGPT, l’a déclaré en février dernier. L’une des nombreuses voix qui sonnent l’alarme depuis des mois sur l’intelligence artificielle et son éventuelle imprévisibilité découle, selon certains, de l’utilisation de la technologie. En janvier, l’institut de technologie du Massachusetts […]

POUR CONTINUER LA LECTURE

SOUTENEZ-NOUS

1€ POUR LE PREMIER MOIS


Déjà abonné ?

CONTINUE DE LIRE

“Je ne dors pas la nuit quand je pense aux risques et au manque de règles.” Sam Altman, le père de ChatGPT, l’a déclaré en février dernier. L’une des nombreuses voix qui sonnent l’alarme depuis des mois sur l’intelligence artificielle et son éventuelle imprévisibilité découle, selon certains, de l’utilisation de la technologie. En janvier, le Massachusetts Institute of Technology avait souligné la difficulté de‘intelligence artificielle pour remplacer les humains, en raison des coûts élevés de développement et de gestion des algorithmes. L’institut publie désormais des données de recherche publiées dans la revue Motifsqui souligne comment la technologie, « grâce » à la formation humaine, a progressé au point de créer Une IA qui peut se comporter comme les humainsbluffant pour atteindre leurs objectifs.

Le rapport examine l’utilisation de l’IA dans des contextes spécifiques, tels que les jeux en ligne. Il l’a fait en étudiant Cicéronune intelligence artificielle présentée en 2022 par Meta et capable de vaincre les humains dans une version en ligne de Diplomatie, un jeu de stratégie militaire populaire dans lequel les joueurs négocient des alliances pour concourir pour le contrôle de l’Europe. Les chercheurs de Meta ont déclaré avoir formé Cicéron sur un sous-ensemble « véridique » de son ensemble de données, afin que l’IA se comporte honnêtement. Mais les chercheurs du MIT soutiennent que l’IA a agi différemment, en bluffant et en utilisant la tromperie de manière préméditée, pour gagner ses parties.

Peter Park, auteur de l’étude du MIT, a déclaré dans une note officielle : « Comme les capacités trompeuses des systèmes d’intelligence artificielle deviennent plus avancés, les dangers qu’ils font peser sur la société deviendront de plus en plus graves« . Mais pas seulement Meta, l’étude a également analysé AlphaStar, une intelligence artificielle développée par Google DeepMind pour le jeu vidéo StarCraft II.

L’IA, selon les experts, est devenue si habile à effectuer des mouvements trompeurs qu’elle a vaincu 99,8 % des joueurs humains. Enfin, ChatGpt : Park et ses associés ont « incité » le célèbre chatbot à se comporter comme un délit d’initié pour vendre des actions boursières, faisant remonter les tendances du marché et les valeurs inexactes. Pour le MIT, une solution au problème peut venir de réglementations et d’organismes internationaux conçus pour surveiller tous les logiciels d’IA destinés au public.

J’étudie

NEXT Ce Land Rover Evoque n’a jamais coûté aussi peu cher : loin d’être low-cost, on ne paie même pas si peu pour les petites voitures