Avec le Pixel 3, Google a franchi un cap photo cette année
SMARTPHONE•Boosté par l'intelligence artificielle, il voit presque dans le noir et repousse les limites de la physique avec un capteur unique...Philippe Berry
Lors de la sortie du Pixel 3, fin octobre, notre testeur avait été particulièrement impressionné par sa qualité photo. Depuis, Google a lancé le mode nocturne « Night sight », et on profite de cette fin d’année pour faire le bilan des forces et des faiblesses de la « computational photography », la photo assistée par l’intelligence artificielle.
Premières impressions : Niveau de détails bluffant, mode HDR parfois trop agressif
Gratte-ciel, foule, panneaux clignotants de Times Square… Le Pixel 3 rend justice à la jungle urbaine de New York. L’orage passé, on aperçoit même la flèche du World One Trade Center éclairée par le soleil couchant, 4 kilomètres plus loin. Dommage que le mode « HDR » (contrastes dynamiques) soit parfois un brin agressif en automatique, avec des couleurs saturées et un rendu pas toujours très naturel.
Notre fidèle appareil photo bridge venant de rendre l’âme, le Pixel 3 est mis à l’épreuve du terrain lors des incendies à Los Angeles en novembre. Le HDR permet cette fois de capturer l’éclairage dramatique du monstre de fumée vu du ciel et depuis les hauteurs de Mullholland Highway.
« A ses débuts, le HDR (« High dynamic range », ou contrastes dynamiques) combinait trois photos. Le Pixel 3 prend jusqu’à 15 clichés avec une exposition différente, et les combine en une seule image pixel par pixel », explique Isaac Reynolds, product manager chez Google en charge de la photo des Pixel.
Dans la ville fantôme de Paradise, la luminosité est réduite par l’épaisse fumée, mais le capteur révèle sa polyvalence avec une mise au point éclair et un niveau de détail élevé, suffisant pour faire la une de 20 Minutes le 15 novembre, avec l’image symbole d’un drapeau américain encore debout.
Alors que la nuit tombe, la qualité de l’image se dégrade fatalement, surtout pour les portraits, comme celui d’Elizabeth, une survivante, qui serre son chien Bear dans ses bras (ces photos ont été prises avant la disponibilité de Night Sight).
Mode portrait : Une bonne simulation du flou malgré quelques ratés
Contrairement à presque tous ses concurrents, le Pixel 3 n’embarque pas deux ou trois capteurs à l’arrière La profondeur de champ est donc simulée, avec un effet de flou (« bokeh » pour les puristes) logiciel. Selon Isaac Reynolds, la présence d’un second capteur « n’est pas nécessaire » car les algorithmes sont désormais capables d’isoler le sujet de l’arrière-plan. Dans la pratique, le résultat est souvent convaincant, sauf quand la scène inclut de nombreuses lignes parallèles (barrière, grillage etc). Dans ce type de situation, un second capteur comme celui de l’iPhone XS reste supérieur.
En mode selfie, le Pixel 3 offre un rendu plutôt naturel, sans excessivement lisser la peau, et le grand-angle permet de tenir facilement à quatre ou cinq.
La sorcellerie du mode « Night Sight »
Une mise à jour logicielle permet aux trois générations de Pixel de profiter du mode « Night Sight ». Comme avec le mode HDR, l’appareil prend une douzaine de photos, avec une exposition qui veut varier entre 1/15 et 1 seconde pour chacune. Du coup, le résultat offre l’équivalent d’un temps de pause de 4 ou 5 secondes sans avoir besoin d’un trépied. Les algorithmes se chargent de corriger les tremblements et d’effacer les effets de « ghosting » quand un sujet bouge. Physique oblige, il faut quand même un peu de lumière, mais dans la pénombre presque absolue, les résultats sont surnaturels, surtout avec un sujet immobile.
Dans l’exemple ci-dessus, on distingue chaque frange de la couverture, et le coussin, qui semble presque gris à l’oeil nu dans le noir, est bien jaune. « On utilise le machine learning pour analyser la scène et identifier la couleur des objets », précise Reynolds. Traduction : le téléphone devine en utilisant une des photos ayant laissé entrer le plus de lumière que le coussin a l’air jaune foncé, et ensuite, l’analyse de millions d’objets et de photos de couleurs différentes permet d’extrapoler le rendu. La photographie mobile, à coups de filtres et de vision nocturne, est-elle en train de devenir « fake ? » « Par une certaine mesure, la photo a toujours été fake, avec des films un peu plus bleus ou jaunes et un zoom qui voit bien plus loin que l’oeil humain », argue Reynolds.
Un zoom encore trop limité
Avec un seul capteur, le Pixel 3 n’a pas de zoom optique, mais Google s’inspire de l’astrophotographie avec son « super res zoom ». « En prenant plusieurs photos, chaque micro-mouvement permet de mettre en évidence des détails supplémentaires et de constituer une photo de plus haute résolution », explique Isaac Reynolds. Selon lui, le résultat est supérieur à celui d’un zoom numérique (quand on zoome simplement à l’écran) et se rapproche de la qualité d’un zoom optique x2 (avec second capteur).
Dans la pratique, l’amélioration ne saute pas vraiment aux yeux, même si les poils du chien et les détails de sa veste sont légèrement plus nets. Du coup, on rêve d’un smartphone ultime, qui combinerait les progrès de plusieurs capteurs et les avancées algorithmiques de Google. « Rien n’est exclu, mais pour l’instant, nous nous concentrons sur un unique capteur car c’est plus facile d’optimiser le traitement », répond le product manager.
Bilan : On se rapproche du « point & shoot » ultime
Au final, la force du Pixel 3 est sa simplicité pour l’utilisateur. On appuie sur le bouton, et la magie des algorithmes fait le reste, même dans des conditions extrêmes. Soyons clairs, pour les photographes professionnels, même s’il peut ponctuellement dépanner, un smartphone ne remplacera jamais un appareil réflexe avec plusieurs objectifs. Mais pour le grand public, l’adage n’a jamais été aussi vrai : le meilleur appareil photo est celui qu’on a dans sa poche.