Jon McCormack, chef du logiciel de caméra d’Apple, et Megan Nash, chef de produit iPhone, dans un BW Businessworld entretiena expliqué le développement pluriannuel de la caméra frontale Center Stage dans l’iPhone 17 et l’iPhone Air, créée pour répondre aux difficultés des utilisateurs lors de la capture de selfies. Le nouveau système de caméra répond à l’observation par Apple de « frictions dans l’expérience de capture ». Le responsable du logiciel de caméra, Jon McCormack, a détaillé les comportements des utilisateurs qui indiquaient cette friction. « Nous voyons des perches à selfie ; nous voyons des gens passer à la caméra ultra-large 0,5 fois ; nous voyons des gens faire pivoter l’iPhone à l’horizontale ; et nous voyons même des gens remettre l’iPhone à la personne la plus grande du groupe pour obtenir cette extension maximale du bras », a déclaré McCormack. Ces solutions de contournement indiquaient que les utilisateurs compensaient activement les limitations de cadrage de la caméra. Pour résoudre ce problème, l’objectif d’Apple était de construire une caméra intelligente qui élimine le besoin de tels ajustements. Le projet était motivé par une question formulée par McCormack : « … et si la caméra pouvait simplement comprendre ce que vous essayez de capturer et ensuite effectuer ces ajustements pour vous ? » Cette philosophie visait à transférer la responsabilité de la composition de l’utilisateur vers l’appareil, permettant à la technologie d’automatiser le processus de cadrage en fonction de l’intention de l’utilisateur. Les dirigeants ont confirmé que cet effort était « en préparation depuis des années », sa mise en œuvre dépendant de la récente maturation technologique. McCormack remarqué que la puissance de traitement et la conception industrielle requises n’étaient disponibles que maintenant. « Nous voulions le faire depuis un moment, et ce n’est que la première année que nous pouvons réellement y parvenir », a-t-il déclaré, notant que des barrières techniques antérieures empêchaient une version antérieure.
Apple met fin aux programmes de réparation gratuits pour les AirPods Pro et iPhone 12
Un élément clé de la nouvelle caméra est l’intégration prévue entre le capteur et le silicium d’Apple. Megan Nash, chef de produit iPhone, a expliqué que cela nécessitait une prospective architecturale à long terme. « Des années à l’avance, nous réfléchissions à la manière dont cette nouvelle caméra frontale aurait besoin de l’interface de caméra Apple haute vitesse », a déclaré Nash. Elle a précisé que les puces A19 et A19 Pro « utilisent ACI pour transférer efficacement les données entre le capteur d’image et la puce », une conception nécessaire pour traiter le grand volume de données du nouveau capteur. Le système est également conçu pour améliorer la qualité de l’image finale. Nash a souligné qu’en gardant l’iPhone en orientation portrait, l’appareil photo garantit que « les yeux des sujets regarderont toujours au bon endroit ». Cela résout un problème courant avec les selfies de paysages où le contact visuel avec l’objectif est souvent mal aligné, ce qui donne un regard moins direct sur la photo. Les capacités vidéo sont également améliorées. McCormack a défini l’objectif d’Apple concernant l’appareil photo comme étant de le rendre « invisible », ce qui est atteint lorsque des fonctionnalités complexes telles que la stabilisation deviennent des comportements par défaut. « Nous y sommes parvenus en utilisant la grande région de surbalayage du capteur pour permettre cette incroyable stabilité », a-t-il déclaré. Ce matériel permet d’activer automatiquement le mode Action pour les vidéos selfie. « Le champ de vision plus large et le capteur haute résolution nous permettent d’utiliser le mode Action automatiquement… Vous n’avez même jamais besoin de l’allumer, vous pouvez donc marcher, faire du vélo ou courir et savoir que votre vidéo sera géniale. »





