Bruxelles propose de réviser le RGPD pour faciliter l’entraînement des modèles d’IA, en considérant désormais l’utilisation de données personnelles pour l’entraînement d’une IA comme un « intérêt légitime », explique Jérôme Marin dans CaféTech. Autre changement majeur : une redéfinition plus restrictive de la notion de « donnée personnelle ». Une information ne serait plus considérée comme telle si l’entreprise qui la collecte n’est pas en mesure d’identifier la personne concernée. Son utilisation échapperait alors au RGPD.
Bruxelles propose également d’assouplir la « protection renforcée » des données sensibles. Celle-ci ne s’appliquerait plus que lorsqu’elles « révèlent directement » l’origine raciale ou ethnique, les opinions politiques, l’état de santé ou l’orientation sexuelle.
Stream "Ça (dys)fonctionne"
- ↪ L’IA, ce piège de la responsabilité
- ↪ L’allocation de droits n’est pas un problème d’ingénierie
- ↪ Les villes seront-elles les nouveaux régulateurs de la Tech ?
- ↪ ChatGPT, une solution pandémique ?
- ↪ L’Etat dans le nuage
- ↪ La productivité de l’IA au travail est toujours incertaine
- ↪ Recherches financées par les entreprises : un semblant de générosité
- ↪ Augmentation Washing
- ↪ Doit-on refuser d’utiliser l’IA ?
- ↪ Annotateurs de données d’élite