Nous ne sommes pas préparés à cela

Nos croyances sur la capture de la réalité par les photos sont sur le point de partir en fumée.

Une explosion sur le côté d’un vieux bâtiment en briques. Une bicyclette accidentée dans un carrefour. Un cafard dans une boîte de plats à emporter. Il a fallu moins de 10 secondes pour créer chacune de ces images avec l’outil Reimagine de l’éditeur magique du Pixel 9. Elles sont nettes. Elles sont en couleur. Elles sont d’une grande fidélité. Il n’y a pas de flou d’arrière-plan suspect, pas d’artefacts. Ces photographies sont extraordinairement convaincantes, et pourtant, elles sont toutes fausses.

Source : Sarah Jeong, The Verge, 22 août 2024

Quiconque achète un Pixel 9 – le dernier modèle du téléphone phare de Google, disponible à partir de cette semaine – aura accès à l’interface utilisateur la plus facile et la plus fluide pour produire des tromperies de haut niveau, intégrée directement dans son appareil mobile. Il est pratiquement certain que cela deviendra la norme, des fonctionnalités similaires étant déjà disponibles sur des appareils concurrents et devant être déployées sur d’autres dans un avenir proche. Lorsqu’un smartphone « fonctionne », c’est généralement une bonne chose ; dans le cas présent, c’est tout le problème qui se pose.

La photographie est utilisée au service de la tromperie depuis . (Pensez aux photos d’esprits de l’époque victorienne, à l’infâme photo du monstre du Loch Ness, ou aux purges photographiques de Staline sur ses camarades purgés par l IRL) Mais il serait fallacieux de dire que les photographies n’ont jamais été considérées comme des preuves fiables. Tous ceux qui lisent cet article en 2024 ont grandi à une époque où une photographie était, par défaut, une représentation de la vérité. Une scène mise en scène avec des effets cinématographiques, une manipulation de photo numérique ou, plus récemment, un « deepfake », étaient des tromperies potentielles à prendre en compte, mais il s’agissait de cas extrêmes dans le domaine du possible. Il fallait des connaissances et des outils spécialisés pour saboter la confiance intuitive dans une photographie. Le faux était l’exception, pas la règle.

Si je dis  » place Tiananmen », il est fort probable que vous imaginiez la même photographie que moi. Il en va de même pour Abu Ghraib ou la fille au napalm. Ces images ont défini les guerres et les révolutions ; elles ont incarné la vérité à un degré qu’il est impossible de l’exprimer ainsi autrement. Il n’y avait aucune raison d’expliquer pourquoi ces photos sont importantes, pourquoi elles sont si cruciales, pourquoi nous leur accordons tant de valeur. Notre confiance dans la photographie était si profonde que lorsque nous passions du temps à discuter de la véracité des images, il était plus important d’insister sur le fait qu’il était possible que les photographies soient parfois fausses.

Tout cela est sur le point de basculer – l’idée par défaut à propos d’une photo est sur le point de devenir qu’elle est truquée, parce que la création de fausses photos réalistes et crédibles est maintenant triviale. Nous ne sommes pas préparés à ce qui se passera ensuite.

A real photo of a stream.

Une vraie photo d’un ruisseau.

Edited with Google’s Magic Editor.

Modifiée avec Magic Editor de Google.

A real photo of a person in a living room (with their face obscured).

Photo réelle d’une personne dans un salon (dont le visage est masqué).

Edited with Google’s Magic Editor.

Modifiée avec Magic Editor de Google.

Personne sur Terre aujourd’hui n’a jamais vécu dans un monde où les photographies n’étaient pas le pivot du consensus social – depuis que nous existons, les photographies prouvent que quelque chose s’est passé. Considérez toutes les façons dont la véracité supposée d’une photographie a, par le passé, validé la vérité de vos expériences. La bosse préexistante dans l’aile de votre voiture de location. La fuite dans votre plafond. L’arrivée d’un colis. Un cafard réel, non généré par l’IA, dans votre plat à emporter. Lorsque des incendies de forêt empiètent sur votre quartier résidentiel, comment communiquer à vos amis et connaissances l’épaisseur de la fumée à l’extérieur ?

Jusqu’à présent, il incombait à ceux qui niaient la véracité d’une photo de prouver ce qu’ils avançaient. L’adepte de la terre plate est en décalage avec le consensus social, non pas parce qu’il ne comprend pas l’astrophysique – après tout, combien d’entre nous comprennent réellement l’astrophysique ? – mais parce qu’il doit s’engager dans une série de justifications de plus en plus élaborées pour expliquer pourquoi certaines photographies et vidéos ne sont pas réelles. Ils doivent inventer une vaste conspiration d’État pour expliquer la production constante de photographies satellites qui capturent la courbure de la Terre. Ils doivent créer une scène sonore pour l’alunissage de 1969.

Nous avons pris pour acquis que la charge de la preuve leur incombait. À l’ère du Pixel 9, nous devrions peut-être commencer à réviser notre astrophysique.

La plupart du temps, l’image moyenne créée par ces outils d’IA sera, en soi, assez inoffensive – un arbre supplémentaire en toile de fond, un alligator dans une pizzeria, un costume ridicule intercalé au-dessus d’un chat. Dans l’ensemble, ce déluge bouleverse entièrement la façon dont nous traitons le concept de la photo, ce qui a en soi des répercussions considérables. Considérons, par exemple, que la dernière décennie a été marquée par un bouleversement social extraordinaire aux États-Unis, déclenché par des vidéos floues de brutalité policière. Là où les autorités masquaient ou dissimulaient la réalité, ces vidéos disaient la vérité.

Le cri persistant des Trumpistes « Fake News ! » présageait le début de cette ère de conneries sans limites, dans laquelle l’impact de la vérité sera étouffé par l’avalanche de mensonges. Le prochain Abu Ghraib sera enseveli sous une mer de tabac à priser sur les crimes de guerre générés par l’IA. Le prochain George Floyd passera inaperçu et ne sera pas vengé.

A real photo of an empty street.

Une vraie photo d’une rue vide.

Edited with Google’s Magic Editor.

Modifiée avec Magic Editor de Google.

A real photo inside a New York City subway station.

Une vraie photo à l’intérieur d’une station de métro de New York.

Edited with Google’s Magic Editor.

Modifiée avec Magic Editor de Google.

Vous pouvez déjà voir la forme de ce qui va suivre. Dans le procès de Kyle Rittenhouse, la défense a affirmé que le zoom par pincement d’Apple manipulait les photos, persuadant avec succès le juge d’imposer la charge de la preuve à l’accusation, qui devait démontrer que les séquences zoomées sur l’iPhone n’ étaient pas manipulées par l’intelligence artificielle. Plus récemment, Donald Trump a prétendu à tort qu’une photo d’un rassemblement de Kamala Harris très fréquenté avait été générée par l’IA – une affirmation qui n’a été possible que parce que les gens ont été capables de la croire.

Même avant l’apparition de l’IA, les médias avaient adopté une attitude défensive, examinant minutieusement les détails et la provenance de chaque image, à la recherche d’un contexte trompeur ou d’une photo manipulée. Après tout, chaque événement majeur s’accompagne d’un assaut de désinformation. Mais le changement de paradigme qui s’annonce implique quelque chose de bien plus fondamental que le travail constant de suspicion que l’on appelle parfois la culture numérique.

Google comprend parfaitement ce qu’il fait à la photographie en tant qu’institution – dans une interview accordée à Wired, le chef de produit du groupe pour l’appareil photo Pixel a décrit l’outil d’édition comme « vous aidant à créer le moment dont vous vous souvenez, qui est authentique à votre mémoire et au contexte plus large, mais qui n’est peut-être pas authentique à une milliseconde particulière ». Dans ce monde, une photo cesse d’être un complément aux souvenirs faillibles de l’homme pour en être le miroir. Et comme les photographies ne sont plus que des hallucinations rendues manifestes, les affaires les plus stupides se transformeront en une bataille judiciaire sur la réputation des témoins et l’existence de preuves corroborantes.

Cette érosion du consensus social a commencé avant le Pixel 9, et elle ne sera pas portée par le Pixel 9 seul. Pourtant, les nouvelles capacités d’IA du téléphone sont à noter non seulement parce que la barrière à l’entrée est si faible, mais aussi parce que les mesures de protection que nous avons rencontrées étaient étonnamment anémiques. La norme de filigrane d’image IA proposée par l’industrie est embourbée dans les normes habituelles, et le propre système de filigrane IA de Google, tant vanté, n’était nulle part en vue lorsque The Verge a essayé l’éditeur magique du Pixel 9. Les photos modifiées avec l’outil Reimagine se voient simplement ajouter une ligne de métadonnées amovibles. (La fragilité inhérente à ce type de métadonnées était censée être résolue par l’invention par Google du filigrane SynthID théoriquement inamovible) Google nous a dit que les résultats de Pixel Studio – un pur générateur d’invites qui est plus proche de DALL-E – seront marqués d’un filigrane SynthID ; ironiquement, nous avons trouvé que les capacités de l’outil Reimagine de Magic Editor, qui modifie des photos existantes, étaient beaucoup plus alarmantes.

Examples of famous photographs, digitally altered to demonstrate the implications of AI photography.

Image : Cath Virginia / The Verge, Neil Armstrong, Dorothea Lange, Joe Rosenthal

Google affirme que le Pixel 9 ne sera pas une usine à tromperies sans entraves, mais sur le fond ce n’est pas rassurant. « Nous concevons nos outils d’IA générative pour qu’ils respectent l’intention des invites de l’utilisateur, ce qui signifie qu’ils peuvent créer du contenu susceptible d’offenser lorsque l’utilisateur le leur demande », a déclaré Alex Moriconi, responsable de la communication chez Google, à The Verge dans un courriel. « Cela dit, tout n’est pas permis. Nous avons des règles et des conditions d’utilisation claires sur les types de contenu que nous autorisons et n’autorisons pas, et nous mettons en place des garde-fous pour éviter les abus. Parfois, certaines invites peuvent remettre en cause ces garde-fous et nous nous engageons à améliorer et à affiner en permanence les mesures de protection que nous avons mises en place

Les règles sont celles auxquelles on peut s’attendre : par exemple, il est interdit d’utiliser les services de Google pour faciliter l’appel aux crimes ou inciter à la violence. Certaines tentatives ont abouti au message d’erreur générique suivant : « Magic Editor ne peut pas terminer cette modification. Essayez de taper autre chose. » (Vous pouvez cependant voir tout au long de cet article plusieurs invites inquiétantes qui ont fonctionné). Mais en fin de compte, la modération de contenu standard ne sauvera pas la photographie de sa disparition progressive en tant que preuve de la vérité.

Nous avons brièvement vécu à une époque où la photographie était un raccourci vers la réalité, vers la connaissance des choses, vers un flagrant délit. C’était un outil extraordinairement utile pour naviguer dans le monde qui nous entoure. Aujourd’hui, nous sautons à pieds joints dans un avenir où la réalité est tout simplement moins facile à connaître. La bibliothèque perdue d’Alexandrie aurait pu tenir sur la carte microSD de ma Nintendo Switch, et pourtant la pointe de la technologie est un téléphone portable qui crache des tromperies en guise de petite fonction bonus amusante.

Nous sommes foutus.

Publications similaires