Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
Subscribe
No Result
View All Result
Dataconomy FR
No Result
View All Result

LinkedIn utilise vos données personnelles pour former l’IA, mais qui ne le fait pas ?

byKerem Gülen
septembre 19, 2024
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

LinkedIn a discrètement permis à ses utilisateurs de former des modèles d’IA génératifs sans demander explicitement leur consentement, ce qui suscite des inquiétudes quant à la confidentialité des données sur la plateforme. Selon un rapport de 404MédiaLinkedIn a modifié sa politique de confidentialité, précisant que les données des utilisateurs peuvent être utilisées pour former des modèles d’IA. La plateforme a depuis mis à jour sa politique, permettant désormais aux utilisateurs de refuser cette pratique.

La politique mise à jour de LinkedIn révèle l’utilisation des données personnelles dans le cadre de la formation à l’IA

Le politique mise à jour LinkedIn indique que LinkedIn peut utiliser des données personnelles pour « améliorer, développer et fournir des produits et services », ainsi que pour former des modèles d’IA. L’IA générative est utilisée pour des fonctionnalités telles que les assistants d’écriture, mais LinkedIn affirme qu’elle utilise des technologies améliorant la confidentialité pour rédiger des informations personnelles. Les utilisateurs qui préfèrent ne pas participer peuvent se désinscrire en accédant à la section «« Confidentialité des données » onglet dans les paramètres de leur compte, en désactivant l’option «Données pour l’amélioration de l’IA générative«  basculer.

Toutefois, la désactivation de cette option empêchera uniquement LinkedIn d’utiliser vos données pour de futurs entraînements de modèles. Les données déjà utilisées ne sont pas affectées. En outre, LinkedIn précise que les utilisateurs de l’UE, de l’EEE ou de la Suisse ne sont pas inclus dans l’entraînement des modèles d’IA.

Si vous êtes préoccupé par d’autres outils d’apprentissage automatique utilisés pour la personnalisation et la modération, LinkedIn demande aux utilisateurs de remplir un « formulaire d’objection au traitement des données »«  de refuser également ces utilisations.

La décision d’adhésion silencieuse de LinkedIn fait écho à des actions similaires de Meta, qui a récemment admis avoir collecté des données d’utilisateurs non privées pour la formation de l’IA remontant à 2007.

Le changement de LinkedIn intervient à un moment où d’autres acteurs technologiques majeurs, comme OpenAIsont également confrontés à des réactions négatives pour des pratiques similaires. Cette tendance à inscrire discrètement les utilisateurs à des formations d’IA sans notifications claires et visibles crée un sentiment de malaise.

Mira Murati, directrice technique d’OpenAI, déclare que Sora a été formé sur des données accessibles au public et sous licence pic.twitter.com/rf7pZ0ZX00

— Tsarathoustra (@tsarnick) 13 mars 2024

Il ne s’agit pas seulement de savoir comment les données sont utilisées par l’IA, mais aussi de savoir qui décide et dans quelle mesure cette décision est éclairée. L’industrie technologique est depuis longtemps critiquée pour son fonctionnement dans l’ombre en matière de collecte de données, et la poussée croissante en faveur de l’IA générative ne fait qu’amplifier ces inquiétudes.

Les machines peuvent-elles oublier vos données personnelles ?

Un autre problème clé est que le fait de refuser n’affecte que l’utilisation future des données personnelles. Toutes les données qui ont déjà été introduites dans les modèles d’IA restent dans le système, et ce manque de contrôle rétroactif peut laisser de nombreux utilisateurs avec le sentiment d’impuissance. L’industrie parle également de «désapprentissage de la machine« Pour éviter que cela ne se produise, supprimez les données alimentées dans les modèles d’IA.

Le fait que LinkedIn utilise des « technologies améliorant la confidentialité » pour anonymiser les données est quelque peu rassurant, mais cela ne résout pas le problème plus profond : la nécessité de normes de confidentialité plus proactives et centrées sur l’utilisateur.

En fin de compte, cette situation met en évidence la nécessité d’une réglementation plus stricte et plus claire qui redonne le contrôle aux utilisateurs. L’idée que les entreprises technologiques puissent utiliser nos données personnelles sans consentement explicite ne convient pas à une époque où la vie privée est de plus en plus précieuse.

L’utilisation des données personnelles par LinkedIn pour former des modèles d’IA peut sembler invasive, mais elle devient une pratique courante dans tout le secteur. Des géants des réseaux sociaux aux moteurs de recherche, de nombreuses plateformes exploitent les données des utilisateurs pour alimenter les avancées de l’IA. La véritable question ne concerne pas seulement LinkedIn : elle concerne également la mesure dans laquelle nous sommes prêts à accepter cela comme la nouvelle norme.


Crédits de l’image en vedette : Kerem Gülen/Idéogramme

Tags: En vedetteLinkedIn

Related Posts

Adobe lance Object Mask basé sur l'IA pour Premiere Pro

Adobe lance Object Mask basé sur l'IA pour Premiere Pro

janvier 20, 2026
Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

Le co-fondateur de Signal lance le service d'IA axé sur la confidentialité Confer

janvier 20, 2026
Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

Anthropic s'associe à Teach For All pour former 100 000 éducateurs dans le monde

janvier 20, 2026
Cibles OpenAI "adoption pratique" pour la stratégie 2026

Cibles OpenAI "adoption pratique" pour la stratégie 2026

janvier 20, 2026
Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

Allégation : NVIDIA a donné le feu vert au téléchargement de livres piratés pour la formation en IA

janvier 20, 2026
La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

La mère de l'un des enfants d'Elon Musk poursuit xAI pour deepfakes sexuels à Grok

janvier 16, 2026

Recent Posts

  • Analyste Forrester : l’IA n’a pas réussi à faire avancer la productivité mondiale
  • Sequoia Capital rejoint le tour de table de 350 milliards de dollars d'Anthropic
  • TCL détiendra 51 % de la marque de téléviseurs Bravia de Sony
  • Adobe lance Object Mask basé sur l'IA pour Premiere Pro
  • Netflix passe à une offre entièrement en espèces pour Warner Bros. Discovery

Recent Comments

Aucun commentaire à afficher.
Dataconomy FR

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Home
  • Sample Page

Follow Us

  • Home
  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.