mercredi 26 septembre 2007

Rencontre exceptionnelle avec Dave Story, vice-Président du département de développement du design interactif chez Adobe (VP of Engineering Interactive Design pour être précis) et une quarantaine de privilégiés du Club Photoshop


 

Adobe, avec lequel le Club Photoshop entretient des relation quasi d’amitié, en toute indépendance toutefois, a donc fait un cadeau inouï au Club de Paris : la primeur d’une rencontre exceptionnelle, le mercredi 26 septembre 2007, avec Dave Story, l’un des principaux acteurs-décideurs de l’avenir de nos solutions chéries.

La presse n’a pu l’écouter que le lendemain ! Cela se déroulait en leurs nouveaux locaux, avenue Kléber.

 

Cette rencontre exceptionnelle s'est déroulée dans les nouveaux locaux d'Adobe, avenue Kléber
Dave Story a commencé par brosser un historique des grandes évolutions du traitement de l’image via Photoshop. Rappelez-vous : cela a commencé par les niveaux et les courbes, puis le tampon, puis les couches, puis l’outil correcteur et enfin Camera Raw et l’aboutissement logique au format universel DNG. Tout en se présentant, Dave a ensuite tenté de présenter les grands axes d’étude développés par Adobe, qu’il a regroupé en quatre points réunissables en un slogan traduisible par : comment rapprocher l’image de l’imaginaire (« Our Goal: Closing the gap between the image and imagination »).
Le premier axe de recherche se concentre sur le traitement d’image avec pour objectif bien évidemment la qualité, la notion de post-production systématique de l’image (ce n’est plus l’appareil photographique qui fera tout !), et la tentative de détection de contour ou de formes (détection de sourires ou d’objets par exemple). En cela, j’oserai dire qu’Adobe n’est pas le seul, car les fabricants d’appareils proposent déjà des solutions pratiques autour de ce dernier point, et Nikon prône cette notion de continuité logicielle depuis toujours.
Dave Story brosse un historique de l'évolution du traitement d'image vu par Adobe.
Le second axe envisage l’étude de l’image proprement dite, son analyse en quelque sorte. Les solutions logiques des ordinateurs devraient acquérir une vision humaine et non l’inverse (« Computers/Software viewing / images like a human, not a machine »). Adobe souhaite aussi simplifier la recherche d’image et également, « comprendre » l’image, bref son signal ou ce qu’elle représente et non une simple juxtaposition de pixels qui fait penser à… (« Deal with meaning, not pixels »). Là, on va très loin, et je me réjouis de voir les fruits des recherches jadis exposées au Salon Mondial Imagina avant qu’il ne dévie sur le business 3D au premier degré.
Le troisième axe étudie le point de vue de l’utilisateur. Peut-on encore simplifier l’obtention de la bonne (parfaite ?) image photographique ? Peut-on encore simplifier les technologies à mettre en œuvre afin de rapprocher l’image obtenue de celle espérée, ou imaginée, ou « visualisée » (perçue) ? Ici, les concepts s’opposent un peu, entre « tous photographes », notion qui fait bondir nombre de confrères, et l’idée complexe d’une « capture-matériau » apte à la génération d’une véritable écriture numérique, sujet qui m’est cher (j’ai aussi une casquette universitaire).
Le dernier axe, sur lequel Dave Story s’est très peu étendu théoriquement, est le travail « hardware-software » d’accélération graphique afin de rendre totalement fluide toute navigation d’images. Cela va d’ailleurs être l’objet de sa première présentation.
Dave Story expose les quatre axes de recherches image chez Adobe
Négligemment ou presque, Dave Story ouvre sur son Photoshop lancé sur un ordinateur portable IBM (qui n’avait pas l’air pourtant d’être le proto du siècle), une photographie supérieure à 3 GigaPixels en acquisition… Oui, vous avez bien lu ; du genre 79000 pixels sur 50000 ! Qu’on se rassure, Adobe n’a pas trouvé l’appareil capable d’un tel exploit, mais a simplement juxtaposé un très grand nombre de prises de vues au téléobjectif (car faut vraiment accumuler beaucoup de détails) qu’ils ont ensuite réuni avec les technologies maison du type Photomerge. Petit conseil au passage, de Dave Story lui-même : photographiez de haut en bas, en partant du haut gauche puis en cumulant les rangées en se décalant vers la droite. Ainsi le soleil ne produira pas d’effets d’escalier, car une telle « prise de vues » peut prendre une vingtaine de minutes dans son intégralité ! C’est elle qui est représentée dans l’illustration ci-dessous (le siège d’Adobe pour l’anecdote).
Dave Story nous demande d'imaginer...
Dave Story va ensuite zoomer avec une facilité déconcertante dans l’image, découvrant ainsi des détails inimaginables, des petits personnages cachés ci et là, des plaques minéralogiques lisibles, etc. La mécanique mise en jeu ressemble étrangement aux procédés tuilaires apparus dans les années 90 notamment en France avec Live Picture, qui permettait à l’époque de travailler sur des images de 4 Go sur un Mac II CI équipé de quelques centaines de Mo de RAM ! Même Macromedia, aujourd’hui intégré dans Adobe, avait tenté de lancer XRes un peu plus tard, avec un succès nul…. C’était trop tôt probablement, mais aujourd’hui, on rêve et Adobe a vraiment l’air de vouloir imposer de nouveau ces technologies. Ce qui est vraiment moderne est le principe de gestion de la mémoire qui anticipe le chargement des tuiles (continuons à les appeler comme ça) et les efface dès qu’elles s’éloignent d’un retour éventuellement rapide de l’utilisateur. La démo était sur ce point bluffante.
Dave Story nous fait rêver sur des formats d'images...
La recherche suivante présentée était également ingénieuse. L’idée est de considérer l’appareil photo comme un simple outil d’acquisition d’information, soit une sorte de capteur analyseur d’informations de formes et de qualité couleur. J’aime beaucoup personnellement cette vision de l’évolution. Dave Story place alors une accumulation de lentilles complexes (19 exactement) devant l’appareil, divisant ainsi en autant de scènes et de points de vue légèrement différents la réalité à enregistrer. Ne me parlez pas ici d’in-objectivité, s’il vous plait ; nous avons deux yeux, n’est-ce pas, pas un simple « objectif » !
Et si dix-neuf images valaient mieux qu'une !
Un post traitement permet ensuite de réunir le tout en une image ayant la particularité d’être composée d’informations géométriques de type 3D. Un filtre Photoshop spécialement développé permet alors de visualiser ce format d’image (d’ailleurs non révélé) et en autorise quelques modifications d’angle de prise de vue, sur quelques degrés seulement, mais suffisamment pour afficher un détail qui aurait pu malencontreusement passer derrière un objet de premier plan. Bref, ce principe peut permettre, dans un premier temps, d’affiner légèrement le « point de vue ».
Dave Story explique son procédé à 19 lentilles.
Toujours sur son même ordinateur « d’aujourd’hui », Dave Story a ensuite prouvé qu’il lui était maintenant simple de modifier, à la brosse cette même image et de moduler ainsi « à sa guise » les nettetés et les flous… Tout devient alors possible, puisque que nous sommes dans un espace 3D. Et même des mise au point « planes », jusqu’a lors réalisables uniquement à la chambre photographique en respectant les lois de Scheimpflug, sont ici simulables et représentables… Un must, même si certains dans la salle m’ont avoué avoir été plus impressionné par la soirée Club Photoshop consacrée à DxO, où ceux-ci avaient réussi à recréer de la netteté par des calculs complexes d’inversion de cercles de confusions (il fallait venir aussi…). Luc Marin, à l’époque directeur chez DxO, était d’ailleurs présent.
Denis-Pierre Guidot, notre ingénieur avant vente préféré de chez Adobe, étudie « l'objet » avec intérêt.
Dave Story a également souhaité attirer notre attention sur le « Journal de l’historique » déjà présent dans tous les Photoshop CS3. Il a semble-t-il insisté sur l’intérêt de l’usage de cette facilité, qui permet d’enregistrer les modifications dans les Métadonnées, si possible « De manière détaillée », dans le but d’usage postérieurs intéressants… Pensait-il à un futur usage de type 3D ou à autre chose ? J’avoue ne pas avoir tout compris.
Un filtre Photoshop permettait de modifier les plans de netteté, via une simple brosse sensible à la pression...
Enfin, Dave Story a présenté un groupe de recherches autour de la « vérité » ou tout du moins de l’intégrité de l’image. Il a utilisé pour cela un filtre triple nommé « Image Forensics » et démontré deux de ses aspects : le « Clone Scanner » et le « CFA Detector ». Dave Story a toutefois précisé qu’ils n’étaient pas encore suffisamment fiables pour être exploitables industriellement aujourd’hui, mais qu’il y croyait beaucoup.
Dave Story conseille l'usage du Journal de l'historique.
Non dénué d’humour (allusion aux bourrelets présidentiels avec un « special thank’s » pour les service de communication de l’Elysée qui n’ont pas arrêté de citer Photoshop…), Dave s’est appuyé sur la pauvre photo événementielle où un photojournaliste avait cru bon de rajouter un peu de fumée pour démontrer les fonctions automatiques de détection de « copie locale » (Clone Scanner). Certes, cette retouche était visible à l’œil, c’est pourquoi Dave en a réalisée une autre devant nous, bien faite celle-là. Ce filtre s’appuie sur la comparaison entre des zones de l’images suspectement identiques. L’outil tampon est donc démasqué. Mais qu’en est-il d’outils plus modernes comme l’Outil correcteur de tons directs ? Personne n’a eu le temps de poser la question.
Le futur filtre de flicage d'image ?
L’autre partie de la recherche est bien plus complexe. Elle tient compte des trouvailles récentes en matière de détection des contours (exemple d’une application récente permettant une anamorphose intelligente d’image, utilisant les mêmes recherches). Elle les couple avec une étude profonde du signal brut de l’image et compare sous ce critère chaque pixel adjacent. Sans pouvoir dire ce qu’il y avait avant, ou le pourquoi de la retouche ou substitution, le procédé permet juste de préciser que l’image a été modifiée par rapport à son original. Ce procédé supporterait les recadrages, les extraits, les redimentionnements… Si l’outil devient fiable, gageons qu’il deviendra une outil fondamental pour les juristes ou les recherches policières ou militaires. Mais qu’en sera-t-il si l’image devient finalement le résultat d’une écriture composite d’ingrédients « images », comme évoqué plus haut ? Décidément, l’avenir s’annonce riche en évolutions de tout types, et nous obligera assurément à de nombreuses remise en cause… Toutefois, dans l’état actuel, il est encore nécessaire de demander à Photoshop une analyse zone par zone pour cette analyse complexe.
Détection automatique de clonage
La rencontre s’est terminée par quelques réponses à des questions portant sur les recherches sur la fidélité des couleurs (« nous y travaillons », a répondu Dave, en citant le module impression de Photoshop 3 déjà très avancé) et sur le DNG au regard du format Tiff, notamment vu sous l’angle de l’archivage. Cette interrogation était le prolongement de la précédente réunion du Club Photoshop de Paris.
Détection automatique de falsification d'image.
Dave Story a l’air très convaincant dans l’avenir annoncé — et libre — du format DNG initié par Adobe, et que les quelques « tracasseries » liées au fait que certains fabricants essaient de cripter des informations dans leur Raw respectifs finiront par disparaître tant elles sont d’après lui futiles, voire même dangereuses même pour l’utilisateur restant confiant dans la marque. Car, qui dit qu’une clé dencryptage, généralement liée aussi au calculateur qui permet son codage, sera décryptable dans quelques années ? Hum, vrai…
Merci en tous cas, à lui comme à Adobe, pour avoir permis une telle rencontre que nous espérons pouvoir renouveler.

Philippe Chaudré
responsable du Club Photoshop de Paris
Dave Story démontre l'intérêt du Dng, basé sur le format Tiff, utilisant la compression Jpeg 2000 non destructive, et fort loin du... HDPhoto ou quelque chose comme ça...

Aucun commentaire:

Enregistrer un commentaire