Apple Intelligence est-elle sûre ou non ? Les avis divergent fortement selon les autorités et les parties prenantes.
Apple travaille dur pour équilibrer l’innovation et la confidentialité alors qu’elle se prépare à introduire plusieurs nouveaux programmes d’intelligence artificielle (IA). L’entreprise améliore ses fonctionnalités d’IA avec des mises à jour et un partenariat pour apporter ChatGPT d’OpenAI aux appareils Apple. Il y a aussi des rumeurs à propos d’un Intégration de Google Gemini Cela se produira au quatrième trimestre. Dans le même temps, Apple met l’accent sur de nouveaux systèmes conçus pour préserver la confidentialité et la sécurité des données des utilisateurs.
« Nous sommes ravis de nous associer à Apple pour proposer ChatGPT à ses utilisateurs d’une nouvelle manière. Apple partage notre engagement en matière de sécurité et d’innovation, et ce partenariat s’inscrit dans la mission d’OpenAI de rendre l’IA avancée accessible à tous. En collaboration avec Apple, nous facilitons aux utilisateurs l’accès à ce que l’IA peut offrir. » déclaré Sam Altman, le PDG d’OpenAI.
Apple Intelligence est-elle en sécurité : la firme de Cupertino semble confiante
Connue pour sa priorité accordée à la confidentialité et à la sécurité des utilisateurs, Apple s’efforce de maintenir sa réputation tout en participant au domaine concurrentiel de l’IA. Elle établit des directives qui diffèrent des pratiques habituelles de ChatGPT et développe un nouveau système cloud pour gérer certaines demandes d’IA. Cependant, le projet d’intégrer ChatGPT directement dans les appareils avec une prochaine mise à jour du système d’exploitation pourrait potentiellement modifier cet équilibre pour Apple.
Apple a annoncé que les utilisateurs pourront bientôt accéder à ChatGPT via leurs appareils sans avoir besoin de créer un compte séparé. Ce chatbot OpenAI populaire sera disponible gratuitement via l’assistant vocal Siri d’Apple, qui devrait recevoir une mise à jour, ou via des outils d’écriture sur leurs appareils.

Pour assurer la sécurité des utilisateurs, Apple a également introduit de nouvelles mesures de confidentialité qui imposent des normes plus strictes pour l’intégration de ChatGPT par rapport aux politiques de confidentialité typiques d’OpenAI. Ces mises à jour font partie des efforts déployés par Apple pour maintenir sa réputation de priorité accordée à la confidentialité et à la sécurité des utilisateurs.
En plus de ces mises à jour de confidentialité, Apple a dévoilé Cloud privéun nouveau système d’intelligence cloud conçu pour le traitement privé de l’IA. Ce système étend la « sécurité et la confidentialité de pointe » des appareils Apple au cloud. Il est important de noter que les données personnelles de l’utilisateur envoyées à ce système restent accessibles uniquement à l’utilisateur, sans aucun accès accordé à Apple ou à toute autre partie.
Selon un porte-parole d’Apple, Apple a veillé à ce qu’OpenAI ne puisse pas lier l’identité des utilisateurs à leurs demandes en masquant les adresses IP.
« Des protections de confidentialité sont intégrées pour les utilisateurs qui accèdent à ChatGPT : leurs adresses IP sont masquées et OpenAI ne stocke pas les demandes. Les politiques d’utilisation des données de ChatGPT s’appliquent aux utilisateurs qui choisissent de connecter leur compte. »
-Pomme
Apple Intelligence n’est pas sûre selon Elon Musk
Elon Musk, propriétaire de Tesla et X, et critique connu d’OpenAI, a a soulevé d’importantes inquiétudes concernant la nouvelle intégration de ChatGPT par AppleAprès l’annonce d’Apple la semaine dernière, Musk a menacé d’interdire les appareils Apple dans ses entreprises, déclarant : « C’est une violation inacceptable de la sécurité. »
Auparavant, en mars, Musk a déposé une plainte contre OpenAIalléguant que l’entreprise s’était écartée de sa mission initiale de développer l’IA au profit de l’humanité. Bien qu’il ait par la suite abandonné la plainte, ses inquiétudes concernant les pratiques d’OpenAI ont persisté.

Apple Intelligence est en sécurité selon Mira Murati
En réponse aux préoccupations en matière de confidentialité, Apple a décrit de nouvelles règles pour l’intégration de ChatGPT, différentes des politiques habituelles d’OpenAI. Notamment, les requêtes effectuées sur ChatGPT via des appareils Apple ne seront pas stockées par OpenAI.
Lors du dîner organisé par Fortune à l’occasion du MPW mardi soir, Mira Murati, la directrice technique d’OpenAI, a répondu aux allégations d’Elon Musk. S’adressant au public, elle a déclaré : « C’est son opinion. Évidemment, je ne le pense pas. Nous nous soucions profondément de la confidentialité de nos utilisateurs et de la sécurité de nos produits. »

Apple Intelligence n’est pas sûr selon l’UE
La société américaine a révélé que les utilisateurs d’iPhone dans l’UE n’auront pas accès aux nouvelles fonctionnalités telles qu’Apple Intelligence, les améliorations apportées à la Fonction de partage d’écran SharePlay et mise en miroir iPhone. Ces fonctionnalités, dont la sortie est prévue plus tard cette année, ne seront pas disponibles dans l’UE en raison de la nouvelle loi sur les marchés numériques (DMA), qui a introduit des exigences réglementaires plus strictes.
L’un des principaux problèmes est l’exigence d’interopérabilité du DMA, qui, selon Apple, entre en conflit avec son engagement en matière de confidentialité et de sécurité. L’interopérabilité impose que des fonctions essentielles comme l’envoi de SMS, les appels, la messagerie vocale et le partage d’images et de vidéos fonctionnent de manière transparente sur différents opérateurs et appareils concurrents.

Verdict final
Craig Federighi, vice-président senior de l’ingénierie logicielle d’Apple, a Souligné que le cloud privé d’Apple étend la sécurité de pointe de l’iPhone au cloud, garantissant que les données des utilisateurs ne sont utilisées que pour répondre aux demandes et ne sont jamais stockées ou accessibles par quiconque, y compris Apple. Cette architecture vise à équilibrer de puissantes capacités d’IA avec de solides protections de confidentialité, que des experts indépendants peuvent vérifier pour plus de transparence.
Michelle Bachelet, Haut-Commissaire des Nations Unies aux droits de l’homme, a souligné le Il est urgent d’instaurer un moratoire sur les systèmes d’IA qui présentent de graves risques pour les droits de l’homme, jusqu’à ce que des garanties adéquates soient mises en place. Elle prévient que les technologies d’IA, y compris celles utilisées par Apple, doivent être développées et mises en œuvre dans un strict respect de la vie privée et des droits de l’homme afin d’éviter toute utilisation abusive et toute discrimination.
La Brookings Institution a discuté Les implications plus larges de l’IA sur la vie privée, notant que l’IA amplifie la capacité d’utiliser les informations personnelles d’une manière qui peut porter atteinte aux intérêts de la vie privée. L’institution appelle à une législation complète sur la vie privée pour protéger contre les effets négatifs de l’IA, soulignant la nécessité d’une plus grande transparence et d’un plus grand contrôle sur les données personnelles utilisées dans les systèmes d’IA.
En fin de compte, nous sommes des participants actifs dans le monde technologique, naviguant à travers diverses avancées et innovations. Même si nous ne pouvons jamais être entièrement sûrs de ce qui est réellement sûr, il est toujours sage de rester vigilant et prudent concernant nos données personnelles. La question de savoir si Apple Intelligence est sûre ou non dépend en fin de compte des points de vue et du niveau de confort de chacun. Il est donc essentiel que chaque personne reste informée, comprenne les mesures de confidentialité en place et prenne sa propre décision concernant l’utilisation de ces technologies. Il vous incombe la responsabilité de décider ce qui vous semble sûr et approprié pour la sécurité de vos données personnelles.
Crédits de l’image en vedette : Pomme