« L’éthique de l’IA, à l’image de l’IA, ne peut se réduire à une application de règles et de principes, elle doit se confronter aux situations vécues », rappellent les chercheurs Carlo Andrea Tassinari, Sara De Martino et Yann Ferguson dans un article de recherche sur les limites de la moralisation des machines. Les chercheurs observent les questionnements éthiques que posent des développements concrets de l’IA et montrent qu’ils sont très éloignés des enjeux universalistes et moraux que l’on retrouve le plus souvent dans les préconisations éthiques. Ils sont au contraire situés et discutés.
Comme le soulignaient déjà Antoinette Rouvroy et Manuel Zacklad dans leur article sur l’éthique située, c’est la possibilité de contester les décisions des machines qui est seule à même d’assurer leur robustesse et leur légitimité. La valeur morale n’est pas tant immanente que située et nécessite un public pour la discuter. « Une démarche éthique doit s’assurer de contribuer à la puissance d’agir des communautés concernées, c’est-à-dire garantir les modalités de leur participation aux décisions techniques qui sont aussi toujours des décisions politiques – qui les concernent », comme le dit Joëlle Zask à la suite de John Dewey. « La transcription ou l’enregistrement de la réalité sociale sous forme de données numériques ne la purge bien évidemment pas des inégalités mais les « naturalise », faisant passer les données pour des « faits » en faisant oublier que les « faits » sont toujours produits, et que les données ne traduisent jamais que les « effets » des rapports de force et des phénomènes de domination », rappellent Rouvroy et Zacklad. Les problèmes de qualité des données et d’explicabilité sont inhérents au fonctionnement de l’IA et n’ont pas de correctifs. Quant aux valeurs, les décisions à fort impact humain et social ne peuvent être réduites à des principes sous-traités à des dispositifs. Pour Rouvroy et Zacklad, l’éthique ne devrait pas viser pas à atténuer l’impact d’une technologie, mais consiste à remettre en cause les présupposés de scientificité qui justifient le recours à la technologie, par et avec le public.
Stream "Ça (dys)fonctionne"
- ↪ Pour une démocratie algorithmique
- ↪ De l’impact de la désinformation sur l’IA
- ↪ Avons-nous besoin d’un nouveau Twitter ?
- ↪ Mobiliser le devoir de vigilance
- ↪ O tempora, o mores
- ↪ Luttes américaines
- ↪ Hackathon IA générative, 5-6 février
- ↪ Le paradoxe des prévisions
- ↪ De l’influence des milliardaires
- ↪ Pour une souveraineté numérique non-alignée