OpenAI a révélé deux nouveaux modèles de raisonnement pour son outil Chatgpt plus tôt cette semaine, affirmant qu’ils peuvent «penser avec des images». Les modèles O3 et O4-Mini peuvent interpréter et manipuler des images, récupérant des informations pour améliorer la sortie.
Les modèles ont déclenché une tendance virale parmi les utilisateurs experts, qui ont découvert qu’ils pouvaient géolorer des photos avec des entrées supplémentaires limitées. Le modèle O3en particulier, semble compétent pour identifier les emplacements des images, même avec des obstructions.
Il peut modifier les images en recadrant ou en zoomant pour extraire des informations, en répondant avec des coordonnées géographiques précises et le nom du lieu. Cette capacité fonctionne avec des images extérieures et intérieures.
Des experts, dont le professeur agrégé de Wharton, Ethan Mollick, ont confirmé que le modèle ne tire pas simplement des informations géotaguées à partir de photos mais utilise plutôt son propre raisonnement. Cependant, comme tout modèle d’IA, il est sujet à des réponses incorrectes, en particulier avec des indices limités.
La capacité de géolocalisation du modèle a soulevé des préoccupations concernant une mauvaise utilisation potentielle, car elle rend le processus sans effort pour toute personne ayant accès. Sans obstacles pour empêcher une utilisation non autorisée, la détermination de l’emplacement de quelqu’un pourrait devenir un risque de confidentialité important.
Certains exemples des capacités du modèle ont été partagés sur les réseaux sociaux, les utilisateurs démontrant sa capacité à identifier les emplacements. En tant qu’utilisateur x Jason Barnes commun«Bien. Dire que c’était à AZ aurait pu être trop important.
Bien que la géolocalisation ait été une activité de niche parmi les experts, la dernière mise à jour de Chatgpt le rend accessible à un public plus large, ce qui soulève des préoccupations concernant l’utilisation responsable.