OpenAI a annoncé un financement « pouvant atteindre 2 millions de dollars » pour des études sur la sécurité et le bien-être liés à l’IA. À première vue, cela peut sembler généreux, expliquent les chercheurs J. Nathan Matias et Avriel Epps dans une tribune pour Tech Policy Press, mais à l’instar d’autres géants de la tech mis en cause pour l’impact de leurs produits sur la santé mentale, il ne s’agit que d’un « grantwashing ». Cette pratique courante consiste à allouer des sommes dérisoires à la recherche sous couvert de générosité, est souvent vouée à l’échec en raison de la rétention d’informations et de ressources par les entreprises. L’entreprise distribue des bourses, mais continue à pratiquer la rétention d’information empêchant les chercheurs d’accéder aux données ou orientant les jeunes chercheurs vers des recherches limitées voire trop orientées dans l’intérêt des entreprises.
« Le grantwashing nuit à la sécurité des technologies, comme l’a récemment souligné la revue Science. Il introduit de l’incertitude et des débats dans des domaines où les entreprises cherchent à se dégager de toute responsabilité, et cette incertitude donne une apparence de rigueur scientifique. Ces études sous-financées produisent inévitablement des résultats non concluants, obligeant d’autres chercheurs à redoubler d’efforts pour corriger les idées fausses qui en résultent. » Sans compter que la pratique sape également la crédibilité des scientifiques qui acceptent ces émoluments qui les marquent comme étant à la solde des entreprises.
En interne, les dirigeants apaisent les employés engagés par des mesures symboliques qui semblent avoir un impact. Les scientifiques externes acceptent l’argent, obtiennent des résultats non concluants et perdent la confiance du public.
« Le problème est que nous avons un besoin urgent de recherches scientifiques plus approfondies et plus rapides sur la sécurité des technologies ». Et les chercheurs d’en appeler à s’inspirer du projet Génome Humain, qui, dans les années 90 a alloué 3 à 5 % de son budget annuel de recherche à une « enquête éthique, juridique et sociale » indépendante sur la génomique.
« Si OpenAI et d’autres entreprises d’IA consacraient 3 à 5 % de leurs budgets annuels de recherche à une science de la sécurité véritablement indépendante, les scientifiques pourraient s’engager à trouver de véritables réponses aux questions concernant les risques les plus importants que leurs produits peuvent engendrer ».
Mais en l’état, « la politique de grantwashing d’OpenAI est la stratégie idéale pour nous empêcher de trouver les réponses pendant des années ».
Stream "Ça (dys)fonctionne"
- ↪ Augmentation Washing
- ↪ Doit-on refuser d’utiliser l’IA ?
- ↪ Annotateurs de données d’élite
- ↪ Comment la livraison bouleverse le modèle économique de la restauration
- ↪ Mieux comprendre l’efficacité des mesures d’atténuation des risques de l’IA
- ↪ Drop, laisse tomber les données
- ↪ Amnesty : une boîte à outils pour l’analyse des algorithmes publics
- ↪ De la mainmise des entreprises sur le savoir
- ↪ Travailleurs d’intimité
- ↪ Hubris ingénieuriale