iPhone 12 : ses capteurs compresseraient directement les photo et vidéo sans vider la batterie

2020-08-06 21:29:33

Les capteurs photo/vidéo des iPhone 12 pourraient bénéficier d’une invention d’Apple décrite dans un brevet : ces composants pourraient inclure le silicium nécessaire pour réaliser eux-même le traitement d’image. Ce serait en effet plus efficace pour économiser l’énergie et les performances et donc maximiser l’autonomie.

Un nouveau brevet Apple propose une nouvelle méthode de traitement des photos et vidéo censé réduire la consommation des iPhone, et donc augmenter leur autonomie. Pour l’heure, sur tous les smartphones, le signal des capteurs est transmis tel quel au SoC qui s’assure ensuite du traitement d’image pour générer une photo ou une vidéo compressée que l’on peut lire et partager. Sur la plupart des puces, cette tâche est confiée à un composant dédié, mais cela mobilise souvent également le processeur.

Apple imagine des capteurs photos capables de compresser directement l’image
Le résultat ? Si vous avez l’habitude de prendre des vidéos avec votre smartphone, vous le connaissez : la batterie fond comme neige au soleil. Nombre d’utilisateurs le savent et évitent de prendre autant de vidéos qu’ils ne le voudraient pour cette raison. Dans son brevet, Apple cherche à simplifier ce traitement d’image, en concentrant ses efforts sur le capteur photo.

L’idée est que des capteurs spéciaux devraient réaliser ce traitement de manière bien plus efficiente que des coeurs ou DSP plus génériques. Apple explique : « les capteurs traditionnels s’appuient sur des capteurs d’image à fréquence d’horloge pour acquérir l’information visuelle d’une scène. Chaque image correspond à des données enregistrées qui sont en général post-traitées d’une manière ou d’une autre – dans de nombreuses caméras traditionnelles, chaque page de données contient l’information sur tous les pixels ».

La firme poursuit : « Le fait de transmettre toutes ces données sur les pixels augmente le risque de redondance, et cette redondance augmente en général lorsque la quantité de contenu dynamique d’une scène augmente. Alors que les capteurs d’image proposent une définition spatiale et temporelle toujours plus haute, la quantité de données pour chaque image devrait également augmenter« . Comprenez : plus la définition des smartphones augmente, plus les images et vidéos sont complexes à traiter.

Ce qui a un aussi effet sur l’autonomie : « les images plus lourdes en données requièrent du matériel additionnel avec une capacité accrue, ce qui a tendance à augmenter la complexité, le coût et/ou la consommation d’énergie« . Le nouveau dispositif proposé par Apple est un « capteur d’événements qui indique les changements de pixels« , plutôt que d’envoyer toutes les données brutes du capteur au SoC. En clair, Apple propose que ses capteurs « compressent » directement les images lors de la prise de vue.

Le tout grâce à des capteurs d’un genre nouveau qui ne captent réellement que la différence entre deux images. Le fait de ne garder que les pixels qui changent est un principe de compression éprouvé – c’est ainsi que les formats JPG, HEIF, et MPEG fonctionnent. En gros, si vous prenez un plan fixe pour une interview, par exemple, seuls les pixels qui bougent (la bouche, les mains…) donneront lieu à une transmission de données.

Lire également : iPhone 12 – Apple confirme que le lancement est reporté de quelques semaines

Ces nouveaux dispositifs pourraient se trouver dans des prochains smartphones Apple. Peut-être même dès les iPhone 12. Ce qui serait au passage raccord avec leurs capacités batterie prévues en forte diminution cette année.


Older Post