Login
Adresse email
Mot de passe
Confirmez votre Mot de passe

Lense

Google explique comment fonctionne le mode astrophotographie des Pixel 4

Réaliser des images d’astrophotographie nécessite un matériel lourd, encombrant et un savoir faire relativement technique au niveau de la post-production. Déjà les résultats produits par le mode Night Sight dans le le Pixel 3 produisaient des résultats satisfaisants. Google explique dans un billet de blog comme le mode Night Sight va encore plus loin avec le Pixel 4.

Lancé l’an dernier dans le cadre de l’application Google Camera App pour le Pixel 3, le mode Night Sight permet aux photographes utilisant un smartphone de prendre de belles photos à main levée dans des environnements si sombres que le mode classique de l’appareil photo produirait des images bruitées et sous ex-posées.

Dans un précédent article de blog, l’équipe de Google a décrit comment Night Sight est capable de le faire. La version de cette année repousse les limites en permettant des expositions jusqu’à 4 minutes sur Pixel 4, et 1 minute sur Pixel 3 et 3a. La dernière version permet de prendre des photos nettes et claires des étoiles dans le ciel nocturne ou des paysages nocturnes sans aucune lumière artificielle.

Pour exposer correctement une image il y a trois possibilités. En jouant avec la sensibilité du capteur, on peut artificiellement sur exposer une image mais l’augmentation du signal créé un bruit numérique qui brouille les détails et rend l’image illisible. L’ouverture permet bien sur de faire entrer de la lumière mais généralement les smartphones n’ont pas des optiques très lumineuses et enfin le temps de pose permet d’exposer la surface sensible le plus possible mais en allongeant ce dernier on risque de créer un flou qui rend l’image illisible.

Pour surmonter ce problème, Night Sight divise l’exposition en une séquence de plusieurs images avec des temps d’exposition plus courts et, par conséquent, moins de flou de mouvement. Les images sont d’abord alignées, compensant à la fois le tremblement de la caméra et le mouvement dans la scène, puis la moyenne est calculée, en traitant soigneusement les cas où un alignement parfait n’est pas possible. Bien que les images individuelles puissent être assez granuleuses, l’image combinée, dont la moyenne est calculée, semble beaucoup plus nette.

Pour réaliser des images d’astrophotographies dans lesquelles les étoiles restent nettes et paraissent être des points lumineux, les ingénieurs de Google ont estimé que le temps d’exposition par image ne devrait pas dépasser 16 secondes. Cependant, pour des questions d’ordre pratique et d’impatience du photographe, selon Google, l’application est limitée à un maximum de 15 clichés par vue de 16 secondes. Mais d’autres problématiques rentrent en ligne de compte, notamment le traitement de pixels chauds dû au traitement résiduel du signale sur le capteur. En comparant les pixels voisins ainsi que les autres images prises de la même scène, l’IA de Google va corriger les pixels aberrants tout en laissant l’information première lisible.

Par ailleurs, pour viser avec l’écran du smartphone dans un environnement sombre et dans lequel donc il est impossible d’avoir une information qui permettrait de cadrer, l’application Night Sight utilise une astuce intéressante. Pour aider à cadrer la scène dans une lumière extrêmement faible, Night Sight affiche un « visée post-obturation ». Après avoir appuyé sur le déclencheur, chaque prise de vue avec un temps de pose long s’affiche à l’écran dès qu’elle a été prise. Avec des temps d’exposition allant jusqu’à 16 secondes, ces images ont recueilli près de 250 fois plus de lumière que les images habituellement affichées par le viseur ( 66 millisecondes ) , ce qui permet au photographe de voir facilement les détails de sa composition dès que la première image a été prise. La composition peut ensuite être ajustée en déplaçant le téléphone pendant que l’exposition se poursuit. Une fois que la composition est correcte, la prise de vue initiale peut être arrêtée, et une deuxième prise de vue peut être prise là avec la composition souhaitée.

La problématique avec l’autofocus est la même. Dans un environnement très sombre le bruit est trop important et l’absence de détail si forte que l’AF ne sait pas sur quoi il doit faire le point. L’application Nigh Sight du Pixel 4 utilise un mode de « focus post-obturation ». Une fois que l’utilisateur a appuyé sur le déclencheur, l’appareil capture deux prises de vues autofocus avec des temps d’exposition allant jusqu’à une seconde, suffisamment longs pour détecter les détails de l’image même en faible lumière. Ces montures ne sont utilisées que pour la mise au point de l’objectif et ne contribuent pas directement à l’image finale. Et si le résultat n’est pas suffisant l’application fait directement la mise au point à l’infini.

Pour finir, l’application Night Sight corrige la tonalité du ciel de façon sélective et de manière à ce que seule la partie du ciel soit retravaillée. Google utilise l’apprentissage profond pour détecter quelles régions d’une image représentent le ciel. Un réseau neuronal convolutionnel sur le smartphone, formé sur plus de 100 000 images étiquetées manuellement en traçant les contours des régions du ciel, identifie chaque pixel d’une photographie comme « ciel » ou « pas ciel ».  La détection du ciel permet également d’effectuer une réduction du bruit spécifique, d’augmenter sélectivement le contraste ou de mettre en évidence ce qui va le caractériser comme tels : nuages, dégradés de couleur ou encore Voie lactée.

En guise de conclusion l’article rappelle quelques limitations de l’application et offre quelques astuces pour améliorer ses prises de vue. En regardant les images présentées par Google on ne peut que constater une chose : les résultats sont remarquables.

Le Google Pixel 4 est disponible au prix de 769 €.

Source : Google

commentaire

Ajouter le vôtre

Laissez un commentaire

Laissez un commentaire

Devenir Lenser