Nick Clegg : « Je ne veux pas que mes enfants utilisent une IA formée sur les données de l’Iowa : l’Europe défend sa culture »

Nick Clegg : « Je ne veux pas que mes enfants utilisent une IA formée sur les données de l’Iowa : l’Europe défend sa culture »
Nick Clegg : « Je ne veux pas que mes enfants utilisent une IA formée sur les données de l’Iowa : l’Europe défend sa culture »

Le numéro deux de Meta parle : l’Europe, le nouveau programme pour les startups, la vie privée et le droit d’auteur

«En tant qu’Européen, je ne veux pas que mes enfants utilisent une intelligence artificielle formée sur des données provenant de Californie ou de l’Iowa, mais sur des données pertinentes pour ma culture». Nick Clegg, président des Affaires mondiales de Meta, part de cette hypothèse en expliquant la stratégie du géant en matière d’IA.

Britannique, ancien vice-premier ministre du Royaume-Uni (de 2010 à 2015) et toujours partisan des libéraux-démocrates avec des dons constants en vue du vote du 4 juillet, Clegg fait partie des dirigeants les plus puissants du Meta, après Mark Zuckerberg, depuis Sheryl quitte Sandberg, qui était considéré comme le numéro deux de l’entreprise et dont elle a hérité du rôle. Et il est – selon ses propres termes – “l’un des Européens les plus haut placés de la Silicon Valley”.

Quel est l’objectif du AI Startup Program ?
« Un peu de contexte : l’Europe a un énorme problème. Toutes les grandes entreprises d’IA sont chinoises et américaines. La quasi-totalité des cent plus grandes entreprises européennes ont été fondées il y a plus de 40 ans : nous commercialisons sur le passé, pas sur l’avenir. Ce que nous allons faire, à l’incubateur Station F à Paris, c’est mettre à disposition nos technologies. En Italie, par exemple, la société Aitem, basée à Turin, utilise déjà notre modèle linguistique Llama3 pour le logiciel qui aide les vétérinaires à poser des diagnostics. »

Quel retour attendez-vous ?
«Rien de direct. Bien sûr, nous ne le faisons pas par altruisme : nous souhaitons que de plus en plus de personnes utilisent Llama, expérimentent et innovent. La manière dont ils gèrent leurs activités et leurs produits dépendra alors d’eux : c’est comme donner du bois, gratuitement, à un menuisier. Je pense que c’est une manière de créer un véritable partenariat entre la Silicon Valley et les entrepreneurs européens. »

L’Europe vous impose également la prudence : pour l’instant vous ne lancerez pas votre IA, entraînée avec les données publiées par les utilisateurs sur Facebook et Instagram.
«Nous avons discuté avec les régulateurs en février, mars et avril. Nous avons partagé nos projets, répondu aux demandes et envoyé plus de deux milliards de notifications, donnant ainsi aux utilisateurs la possibilité de désactiver l’accès à leurs données lors des formations (le terme correct est opt-out : pour vous opposer, vous devez remplir un formulaire, sinon les données seront utilisées, ndlr ). Données déjà publiques (textes, photos et vidéos. Les échanges et profils privés sont exclus, ndlr ). Nos concurrents, comme OpenAI et Google, entraînent déjà leurs modèles sur les données publiques européennes (mais ils n’ont pas de plateformes sociales, ndlr ). Et c’est important de le faire, sinon les Européens utiliseront l’IA américaine et non des IA spécifiques à l’Europe sur le plan culturel, linguistique et géographique. »

Allez-vous introduire la demande de consentement explicite ?
“Nous verrons ce que les régulateurs nous demandent et nous agirons de manière pragmatique.”

Avez-vous déjà utilisé les données des réseaux sociaux pour entraîner l’IA ?
«Oui, mais il s’agissait uniquement de données publiques et accordées sous licence régulière».

Comment gérer les contenus protégés par le droit d’auteur ?
«Il faut partir de la distinction entre privé et public : une fois que nous avons franchi le seuil à partir duquel vous avez rendu publiques vos données, qu’il s’agisse d’un article ou d’une publication sur les réseaux sociaux, nous devons choisir en tant que société. Et l’Europe doit faire un choix en tant que continent, en tenant compte du fait que plus vous mettez de données à disposition, plus vous obtenez de résultats en termes de productivité.”

Il s’agit également de savoir comment la valeur du contenu est reconnue.
«Je pense que pour les éditeurs, à long terme, ce serait un inconvénient d’exclure le contenu de la formation en IA : il ne serait pas digéré par les systèmes et ne se refléterait pas dans les résultats que les gens obtiennent. Il y aura de plus en plus besoin de journalisme et de soins de l’information, je ne pense pas que la voie la meilleure et la plus productive soit celle d’une bataille juridique. »

24 juin 2024 (modifié le 24 juin 2024 | 10:29)

© TOUS DROITS RÉSERVÉS

PREV de nouvelles batteries à semi-conducteurs avec une densité 100 fois supérieure
NEXT journée portes ouvertes le 24 juin à Milan et le 26 à Bari – QuiFinanza