Les géants de l’IA n’ont pas fini de nous surprendre. Après avoir monétisé notre attention, ils s’apprêtent à vendre nos intentions, souvent avant même que nous en ayons conscience. C’est ce que révèlent deux chercheurs de l’Université de Cambridge dans un article publié fin décembre.
« Vous vous sentez stressé, puis-je vous réserver le film dont nous avons parlé ? » C’est le genre de question que les géants de l’IA pourraient bientôt poser. Selon Dr Yaqub Chaudhary et Dr Jonnie Penn, les entreprises d’intelligence artificielle cherchent à vendre nos intentions après avoir commercialisé notre attention via la publicité ciblée.
Ces chercheurs, affiliés au Leverhulme Centre for the Future of Intelligence de l’université britannique, préviennent que sans régulation, une véritable ruée vers l’or pourrait s’ensuivre, ciblant et manipulant les intentions humaines.
Dans un article paru dans la Harvard Data Science Review le 31 décembre dernier, ils expliquent que des outils comme ChatGPT, Mistral AI, Gemini, et Claude pourraient bientôt anticiper et influencer nos décisions, vendant ces intentions en temps réel aux entreprises.
Système d’enchères : l’avenir des intentions humaines ?
Imaginez une entreprise cherchant à promouvoir un produit. Il suffirait de payer les leaders de l’IA via un système d’enchères, similaire à celui des données personnelles, pour orienter les discussions des agents conversationnels vers ce produit.
Depuis l’émergence de ChatGPT et l’engouement pour l’IA générative, ces outils ont accès à une énorme quantité de données psychologiques et comportementales, obtenues par le biais de dialogues informels.
Les chercheurs notent que ces conversations révèlent des informations bien plus intimes que de simples interactions en ligne. Depuis quelques mois, certaines IA tentent déjà de déduire, collecter, comprendre, et commercialiser les projets humains.
Manipulation sociale : un risque à grande échelle
Les géants de l’IA, derrière leurs impressionnants investissements, visent à utiliser l’IA générative pour déduire les préférences et intentions humaines. Pour preuve, OpenAI a exprimé son intérêt pour des jeux de données reflétant l’intention humaine, y compris des conversations en profondeur.
Miqdad Jaffer, lors d’une conférence d’OpenAI, a souligné l’importance de comprendre et de prévoir les intentions des utilisateurs. Ce continuum pourrait permettre de manipuler les actions des utilisateurs.
Le PDG de Nvidia a également mentionné que les modèles de langage pouvaient comprendre les intentions et désirs humains.
Un marché de l’intention : vers une société manipulée ?
Les agents conversationnels pourraient enregistrer sur le long terme les données comportementales signalant l’intention, ce qui serait extrêmement lucratif pour les annonceurs. Ces données seraient croisées avec l’historique en ligne, le profil démographique, et même la manière dont un utilisateur pourrait être manipulé.
Les chercheurs appellent à réfléchir aux impacts possibles de ce marché sur nos normes démocratiques, comme les élections et la presse libre, car nous pourrions être à l’aube d’une manipulation sociale à grande échelle.
Restez toujours à la pointe avec nous et découvrez pourquoi notre blog est la référence incontournable des amateurs de gadgets et de technologie.