LinkedIn a discrètement permis à ses utilisateurs de former des modèles d’IA génératifs sans demander explicitement leur consentement, ce qui suscite des inquiétudes quant à la confidentialité des données sur la plateforme. Selon un rapport de 404MédiaLinkedIn a modifié sa politique de confidentialité, précisant que les données des utilisateurs peuvent être utilisées pour former des modèles d’IA. La plateforme a depuis mis à jour sa politique, permettant désormais aux utilisateurs de refuser cette pratique.
La politique mise à jour de LinkedIn révèle l’utilisation des données personnelles dans le cadre de la formation à l’IA
Le politique mise à jour LinkedIn indique que LinkedIn peut utiliser des données personnelles pour « améliorer, développer et fournir des produits et services », ainsi que pour former des modèles d’IA. L’IA générative est utilisée pour des fonctionnalités telles que les assistants d’écriture, mais LinkedIn affirme qu’elle utilise des technologies améliorant la confidentialité pour rédiger des informations personnelles. Les utilisateurs qui préfèrent ne pas participer peuvent se désinscrire en accédant à la section «« Confidentialité des données » onglet dans les paramètres de leur compte, en désactivant l’option «Données pour l’amélioration de l’IA générative« basculer.
Toutefois, la désactivation de cette option empêchera uniquement LinkedIn d’utiliser vos données pour de futurs entraînements de modèles. Les données déjà utilisées ne sont pas affectées. En outre, LinkedIn précise que les utilisateurs de l’UE, de l’EEE ou de la Suisse ne sont pas inclus dans l’entraînement des modèles d’IA.
Si vous êtes préoccupé par d’autres outils d’apprentissage automatique utilisés pour la personnalisation et la modération, LinkedIn demande aux utilisateurs de remplir un « formulaire d’objection au traitement des données »« de refuser également ces utilisations.
La décision d’adhésion silencieuse de LinkedIn fait écho à des actions similaires de Meta, qui a récemment admis avoir collecté des données d’utilisateurs non privées pour la formation de l’IA remontant à 2007.
Le changement de LinkedIn intervient à un moment où d’autres acteurs technologiques majeurs, comme OpenAIsont également confrontés à des réactions négatives pour des pratiques similaires. Cette tendance à inscrire discrètement les utilisateurs à des formations d’IA sans notifications claires et visibles crée un sentiment de malaise.
Mira Murati, directrice technique d’OpenAI, déclare que Sora a été formé sur des données accessibles au public et sous licence pic.twitter.com/rf7pZ0ZX00
— Tsarathoustra (@tsarnick) 13 mars 2024
Il ne s’agit pas seulement de savoir comment les données sont utilisées par l’IA, mais aussi de savoir qui décide et dans quelle mesure cette décision est éclairée. L’industrie technologique est depuis longtemps critiquée pour son fonctionnement dans l’ombre en matière de collecte de données, et la poussée croissante en faveur de l’IA générative ne fait qu’amplifier ces inquiétudes.
Les machines peuvent-elles oublier vos données personnelles ?
Un autre problème clé est que le fait de refuser n’affecte que l’utilisation future des données personnelles. Toutes les données qui ont déjà été introduites dans les modèles d’IA restent dans le système, et ce manque de contrôle rétroactif peut laisser de nombreux utilisateurs avec le sentiment d’impuissance. L’industrie parle également de «désapprentissage de la machine« Pour éviter que cela ne se produise, supprimez les données alimentées dans les modèles d’IA.
Le fait que LinkedIn utilise des « technologies améliorant la confidentialité » pour anonymiser les données est quelque peu rassurant, mais cela ne résout pas le problème plus profond : la nécessité de normes de confidentialité plus proactives et centrées sur l’utilisateur.
En fin de compte, cette situation met en évidence la nécessité d’une réglementation plus stricte et plus claire qui redonne le contrôle aux utilisateurs. L’idée que les entreprises technologiques puissent utiliser nos données personnelles sans consentement explicite ne convient pas à une époque où la vie privée est de plus en plus précieuse.
Crédits de l’image en vedette : Kerem Gülen/Idéogramme