Les agents IA, moteurs de manipulation

Hubert Guillaud

Pour Wired, Kate Crawford estime que les assistants personnels sous IA que nous nous apprêtons à intégrer dans nos vies vont nous donner un sentiment de confort lié à l’illusion que nous nous engageons avec quelque chose qui semble humain, qui nous comprend trop bien parce que nous lui donnons accès à toutes nos données et aux services qu’on utilise. Pourtant, ces agents vont rester des systèmes qui servent des priorités industrielles qui ne sont pas nécessairement en phase avec nos propres priorités.

Nous allons surtout donner plus de pouvoir à ces priorités industrielles pour qu’elles décident pour nous de ce que nous achetons, de là où nous allons, de ce à quoi nous accédons. Ils sont conçus pour nous faire oublier leur véritable allégeance. Ce sont des « moteurs de manipulation commercialisés » qui se présentent comme des amis « pour nous rendre plus vulnérables à leur manipulation ». Le philosophe Daniel Dennett le répétait pourtant : les systèmes d’IA qui imitent les humains nous font courir un grave danger, celui d’accepter notre propre soumission. Les agents IA promettent un contrôle cognitif qui va au-delà de la publicité comportementale, puisqu’ils proposent de façonner les contours de la réalité à laquelle nous accédons. Pour Crawford, cette influence ouvre un régime psychopolitique parce qu’elle s’inscrit au coeur de notre intimité, de notre subjectivité. Alors que les formes traditionnelles de contrôle idéologique reposaient sur des mécanismes manifestes (censure, propagande, répression), désormais, elles promettent d’internaliser ces logiques, sans plus aucun moyen pour les contester, puisque leur commodité est la raison même de notre aliénation.

« Dans ce jeu de l’imitation, en fin de compte, c’est nous qui sommes joués ».

Sur les agents IA, voire également notre veille mise à jour.