L’Open Data Institute publie une série de recommandations pour des pratiques de données responsables pour le développement de l’IA. Au menu, améliorer la transparence des données d’entraînements (en adoptant les outils dédiés et qui existent déjà et en regardant comment les adapter aux non spécialistes), moderniser le régime de propriété intellectuelle (en évitant de rechercher une solution universelle – la musique n’est pas la recherche scientifique -; en créant des compensations financières à l’utilisation pour l’IA, en imaginant des couches de consentements et en se défiant d’une IA dépendant de licences qui la réserverait uniquement aux plus puissants acteurs) ; améliorer le respect des droits dans toute la chaîne logistique de l’IA (en élargissant l’accès aux données par ceux qui sont concernés et impliqués, notamment les travailleurs) ; élargir l’accès aux données (en renforçant les répertoires communs et en imaginant des solutions pour ouvrir l’accès aux données du secteur privé) ; permettre aux citoyens d’avoir leur mot à dire dans le partage et l’utilisation des données pour l’IA (notamment en renforçant le contrôle réglementaire par les citoyens).
Stream "Ça (dys)fonctionne"
- ↪ « Nous avons une compréhension expérientielle des algorithmes »
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le biais anti-humain : des préférences des IA pour les contenus IA
- ↪ Le coût caché de l’IA c’est la vérification
- ↪ Une histoire des rapports de l’Etat au logiciel libre
- ↪ Résister à l’empire des Gafams
- ↪ Une bulle… de pouvoir
- ↪ Le produit toxique des Big Tech ne sont pas les réseaux sociaux…
- ↪ Palantir, l’entreprise métapolitique