Site icon Paristownnews.com

comment Adobe, Leica and Nikon veulent garantir la véracité des images

comment Adobe, Leica and Nikon veulent garantir la véracité des images

By integrating CAI image authentication technology directly into the M11 and Z9, Leica and Nikon are the first “hardware” to fight fake news. Mais il faut que cette technologie ne se limite pas aux appareils professionnels.

La déferlante d’images (fixe et animées) a un revers dont nous faisons tous les frais : la désinformation. La retouche et le trucage des images exist depuis les débuts de l’ère argentique et il n’a pas fallu attendre la guerre en Ukraine ou les cortèges antivaccins pour voire circuler des faux. Mais les platformes – et l’ère! – numérique accentuent leur impact. Et en tant que “responsible” de la plupart des retouches avec son logiciel phare Photoshop, l’éditeur américain de logiciels de création a une responsabilité particulier quil begin à prendre avec sa Content Authenticity Initiative. Une platforme qui profite aujourd’hui de ses premières briques matérielles dans des caboitsés photo signés Leica et Nikon.

La Content Authenticity Initiative (ou CAI) est un projet qui ne tombe pas du ciel. C’est en 2019, avec le soutien du New York Times et de Twitter, qu’Adobe annonce la réation du projet. Based on a metadata coupling system and a certified digital signature system, CAI is a complete image verification chain. Or rather, la CAI defines une chaîne complète, pour l’heure, il manque encore des composantes. Et parmi elles, celle du matériel était capitale.

The CAI already has more than 800 partners allant des concepteurs de puces, aux éditeurs softwares jusqu’aux aux appareils des médias et acteurs des médias.

These are the Japanese Nikon and the German Leica who are the premier manufacturers to make the effort to integrate CAI in their housing. “Leur” au singulier, car cela ne concerne pour l’heure qu’un seul appareil par marque : le M11 for Leica, et le Z9 for Nikon. Deux boîtes qui n’ont pas été choisis au hasard, parce qu’ils ciblent tous les deux (à leur façon), un public de photojournalistes, de reporters de terrain. Maillons essentiels de la production de contenu d’information, ce sont eux qui, les premiers, ont besoin de montrer patte blanche et de prouver la véracité de leurs témoignages.

Déjà présente physiquement dans les smartphones de 2021

The Snapdragon 888 is the first chip in history to take charge of the CAI technology.

Trois ans après la constitution du projet, on peut se rejoyir que la technologie arrives enfin dans le “dur”, dans les appareils. Les cycles matériel n’ayant rien à voir avec ceux du logiciel, et considerant les barrières addnelles qu’ont represented the pandemic, les pénuries, et aujourd’hui les incertitudes géopolitiques, on peut considerar que ce fut même assez rapide dans le monde très conservateur de la photo.

Lyre all: Snapdragon 888: Spectra 580 imaging processor is a revolution (December 2020)

Un monde moins conservateur était prêt depuis la fin de l’année 2020: celui des puces de smartphones. Or more precisely, Qualcomm’s top-of-the-range chip of the era, the Snapdragon 888. Image processing specialist with its Spectra image processors and smartphone SoC champion, Qualcomm integrated the hardware requirements incredibly early in its puce… mais leaving à la charge des intégrateurs (les constructeurs de smartphones) et de leurs partenaires softwares le soin de s’parer de la technologie. Ce qui, à notre connaissance, n’a pas encore était fait à l’heure actuelle.

A technology to democratize en masse

The CAI must be integrated in the appareils afin d’apporter une couche de sécurité dans la production et l’édition des métadonnées.

Sur le Papier, il peut sembler logicique that the reporters soient les premiers équipées d’un méchanisme permissant de verificar leurs images. Mais la réalité des “fake news” et de leur diffusion font que dans les faits, c’est dans les mains des appareils destiné au grand public que ces technology sont les plus importantes. Il a certes eu quelques histoires de photographies retouchées par quelques photojournalistes, la plupart du temps des stringers d’agents. Mais ce sont des cas isolés qui ont mené, très rapidement, à des prises de conscience et des actions technologiques. Ainsi, l’AFP disposes d’un logiciel qui verifié automatique les modifications opérées aux images. Si un petit supplément d’exposition est toléré, la duplication ou l’effacement de contenu sont des interdictions absolues, et sont nowreis automatically réperées.

A contrario, les contenus d’information capturés par le grand public, qu’ils s’agissent de civilians ukrainiens, de partisans de Bachar el Assad ou de propagandistes du Kremlin, n’ont aucun garde-fou technique. Ce alors que ce sont ceux qui en auraitan le plus besoin, vu le nombre de recyclings d’images, de retouches, de montages qui circulent sur les réseaus sociaux… qui alimentaire et font dorévant reagir les rédations du monde entier dans la minute.

Même constat du côte des appareils photo grand public. If we are used to seeing reporters from “rich” countries equipped with high-end Sony, Nikon, Canon, Leica or Fujifilm cameras, the reality is that in many countries, freelancers, freelancers, citizen journalists and others Official “stringers” are often equipped with entry-level boxes. Et répos de ces technologies. Qu’il convient, pourtant, de démocratiser en masse.

Les briques manquantes d’un système (forcément) imparfait

On l’a vu, pour la CAI fonctionne un jour et représente un vrai bouclier de protection contre les fausses images, il faut déjà que son adoption non seulement s’accélère, mais surtout qu’elle s’étende à tous les appareils. De toutes les gammes, appareils photo comme smartphones. Ensuite, il convient d’en fait un standard reconnu par tous les softwares d’édition d’image, afin que rien ne passe entre les mailles du filet. La solidité d’une chaîne de confiance est égale à la résistance de son maillon le plus faible.

En sus, il convient non seulement de communicate à destination du grand public, mais aussi de lui donner des tools numérique pour valider une information. Telle une plateforme commune de verificación des images qui pourra vous dire, d’un simple glisser-déposer de votre PC/smartphone, si l’image que vous voyez est bien l’originale. Let’s hope that the technicians, engineers and the few journalists who work on the subject are aware of the need to create this tool for the public. Un public qui doute de plus en plus et à tendance à vouloir (et c’est positiv!) à veriverir lui-même. But to verify, il faut les bons tools.

Aussi bonne et blindée techniquement – ​​​​la question de sa falsification se posera rapidement – ​​​​la CAI sera un guarantor technology de l’integrity de la photo. Mais il restera impossibile de dire si les soldats que vous voyez sur Telle image sont bel et bien des Ukrainiens soutenant M. Poutine ou des Russes déguisés avec de l’équipement capturé. Mais on saura au moins que l’image a été prize tel jour, à tel endroit et qu’elle n’a pas été altéré ou qu’elle a été éditée par tel logiciel qui a été telle et telle opération. Et dans le chaos de la course à la verificación de l’information, ce seront déjà des validations bienvenues pour entrenar à restorer la confiance. Et il est cocasse que le dispositif de protection soit porté par le premier responsable de ces manipulations!

Source by [author_name]

Exit mobile version