De 25 grands noms de la recherche un appel contre les risques de l’IA – Frontiers

De 25 grands noms de la recherche un appel contre les risques de l’IA – Frontiers
De 25 grands noms de la recherche un appel contre les risques de l’IA – Frontiers

Les intelligences artificielles se développent très rapidement et il est urgent de gouverner ce développement pour éviter qu’elles ne deviennent ingérables et dangereuses ; c’est pourquoi les gouvernements et les grandes entreprises doivent investir beaucoup plus pour trouver des contre-mesures efficaces aux dangers allant de l’instabilité sociale à la manipulation de masse, en passant par les guerres menées avec des machines autonomes. L’appel a été lancé dans la revue Science par 25 des plus grands experts mondiaux en IA des États-Unis, de Chine, d’Europe et du Royaume-Uni, dirigés par Yoshua Bengio, de l’Université canadienne de Montréal. Ils le font dans une lettre publiée dans la revue Science à la veille du sommet international sur la sécurité de l’IA prévu à Séoul les 21 et 22 mai.

Selon les 25 signataires de l’appel, il est désormais urgent de mettre en place « une réglementation rigoureuse de la part des gouvernements, et non des codes de conduite volontaires rédigés par l’industrie ». Pour l’informaticien Stuart Russell, de l’Université de Californie à Berkeley et l’un des signataires de la lettre, « il est temps de prendre au sérieux les systèmes avancés d’intelligence artificielle : ce ne sont pas des jouets. Augmenter leurs capacités avant de comprendre comment les rendre sûrs est une nécessité. absolument imprudent. »

La recherche dans le domaine de l’IA progresse très rapidement, à tel point que d’ici quelques années pourraient surgir des scénarios inquiétants dans des domaines délicats comme la stabilité sociale, la surveillance omniprésente, la manipulation de masse, la cybercriminalité à grande échelle, au point de faciliter les systèmes de guerre automatisée. Selon les signataires de l’article, il est donc impératif que les dirigeants politiques et les grandes entreprises passent des paroles aux actes. augmenter concrètement les investissements dans la sécurité, aujourd’hui quasiment inexistants, et imposer des réglementations sérieuses.

Le premier point énoncé dans le document est la mise en place d’une organisation efficace d’experts capables d’agir rapidement contre l’IA. À titre de comparaison, soulignent-ils, l’Institut américain pour la sécurité de l’IA dispose d’un budget annuel de 10 millions de dollars, tandis que celui de la FDA en dispose de 6,7 milliards. Des politiques d’évaluation des risques beaucoup plus rigoureuses devraient alors être imposées, avec des conséquences concrètes et, contrairement à ce qui se passe aujourd’hui, nous ne devrions pas nous appuyer sur des évaluations volontaires des modèles d’IA.

Les experts appellent également les grandes entreprises d’IA à donner la priorité à la sécurité, démontrant que leurs systèmes ne peuvent pas causer de dommages, et estiment qu’il est urgent de mettre en place des politiques qui entrent automatiquement en vigueur lorsque l’IA atteint certains jalons de capacité. Des mécanismes donc capables de se resserrer ou de se desserrer en fonction des capacités réelles atteintes par les algorithmes. “Les entreprises”, a conclu Russell, “se plaindront qu’il est trop difficile de respecter les réglementations, que ‘la réglementation étouffe l’innovation’. C’est ridicule. Il y a plus de réglementations sur les sandwicheries que sur les entreprises d’IA.”

Reproduction réservée © Copyright ANSA

NEXT L’inflation en Italie stable à 0,8%, parmi les plus faibles d’Europe – QuiFinanza