Bruxelles propose de réviser le RGPD pour faciliter l’entraînement des modèles d’IA, en considérant désormais l’utilisation de données personnelles pour l’entraînement d’une IA comme un « intérêt légitime », explique Jérôme Marin dans CaféTech. Autre changement majeur : une redéfinition plus restrictive de la notion de « donnée personnelle ». Une information ne serait plus considérée comme telle si l’entreprise qui la collecte n’est pas en mesure d’identifier la personne concernée. Son utilisation échapperait alors au RGPD.
Bruxelles propose également d’assouplir la « protection renforcée » des données sensibles. Celle-ci ne s’appliquerait plus que lorsqu’elles « révèlent directement » l’origine raciale ou ethnique, les opinions politiques, l’état de santé ou l’orientation sexuelle.
Stream "Ça (dys)fonctionne"
- ↪ Comment devenir un problème algorithmique ?
- ↪ « On est tous en passe de devenir des livreurs Deliveroo »
- ↪ Les réseaux sociaux dans la tourmente
- ↪ Cosplay forensique
- ↪ L’IA ne réforme pas les institutions démocratiques, elle les détruit
- ↪ L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts
- ↪ World Monitor
- ↪ « Nous avons une compréhension expérientielle des algorithmes »
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité