A travers son projet Capture, l’activiste Paolo Cirio sensibilise aux dangers de la reconnaissance faciale. Annonciatrice des supposés effets de l’article 24 de la loi « sécurité globale », la durée de sa campagne choc n’aura été que de quelques heures.
Se flouter. Pour apparaître autrement. Pour réapparaître multiple. Ou disparaître par intermittence. L’enjeu est au cœur des pratiques récentes de l’image. Les artistes, depuis toujours, œuvrent à l’intérieur du champ défini par les techniques de visualisation. Ils les tordent, les détournent, les font muter. Ce labeur n’a rien de poétique. Il est esthétique. Et l’esthétique est toujours politique. Qu’il s’agisse d’une « esthétisation de la politique » pour Walter Benjamin dans L’œuvre d’art à l’époque de sa reproductibilité technique (1935) ou d’une « esthétique de la politique » selon Jacques Rancière (Le Partage du sensible, 2000), les deux domaines s’imbriquent.
{"type":"Pave-Haut2-Desktop"}
Reconnaissance faciale et visages floutés
Capture, c’est son nom, commence par une cinquantaine d’affiches collées dans les rues de Paris. Montrant des gros plans de visages de policiers, celles-ci passent relativement inaperçues. Jusqu’à l’activation de la deuxième étape du projet, correspondant à la mise en ligne d’un site internet, capture-police.com. Sur celui-ci, Paolo Cirio, artiste italien et professeur invité pour l’année au Fresnoy – Studio National des arts contemporains, lieu de formation, de production et d’exposition à Tourcoing dédié aux pratiques audiovisuelles et numériques, publie 1000 photographies publiques de policiers français, prises durant des manifestations ou récupérées auprès de la presse. Traitées avec un logiciel de reconnaissance faciale afin d’isoler les visages, le projet final en répertorie 4 000 différents au total. Encadrées d’un rectangle rouge avant d’être mis en ligne sur le site, l’internaute était ensuite appelé à renseigner le nom des policiers qu’il pourrait être amené à y reconnaître.
Moins de six heures après sa mise en ligne, le contenu du site était supprimé, la page d’accueil se contentant depuis de renvoyer à une pétition lancée par l’artiste, « Ban Facial Recognition Europe » pour l’interdiction de la reconnaissance faciale en Europe. Entre-temps, un tweet daté du 1er octobre aura eu raison du projet : celui du ministre de l’Intérieur Gérald Darmanin.
Paolo Cirio : Insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger. Je demande la déprogrammation de « l’exposition » et le retrait des photos de son site, sous peine de saisir les juridictions compétentes.
— Gérald DARMANIN (@GDarmanin) October 1, 2020
Dénonçant une « insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger » tout en demandant, sous peine de poursuites judiciaires, le retrait des photographies du site. Dans la foulée, c’est également la troisième étape du projet qui était tuée dans l’œuf, qui aurait dû se dérouler au Fresnoy à Tourcoing, la ville dont le ministre de l’Intérieur était maire jusqu’au début du mois de septembre. Soit la présentation, dans l’espace physique et dans le cadre de l’exposition annuelle Panorama 22. Les Sentinelles, d’une dizaine de ces photographies mises bout à bout pour former une fresque murale – à l’ouverture de l’exposition le 15 octobre, elle aura déjà été recouverte.
Défendre l’autonomie de sa programmation artistique
Sur son site, l’artiste mentionne depuis lors Capture en lui apposant la mention « (censuré) ». Pour lui, engagé de longue date pour alerter sur l’absence de régulations concernant l’usage de la reconnaissance faciale et de l’intelligence artificielle dans l’espace public, le projet visait à exposer l’asymétrie de leur usage. En retournant l’identification contre ceux qui en détiennent l’usage, il visait donc à mettre en avant leur danger inhérent, pour chacun et pour tous – y compris pour les autorités qui souhaitent en faire usage.
Dans un communiqué du 2 octobre retweeté par le syndicat des forces de l’ordre puis par l’artiste qui apposera en commentaire le mot « censure », Alain Fleischer, directeur du Fresnoy, exprimait ne pouvoir « en aucun cas adhérer à [cette] démarche« , dont la partie en ligne « a changé la nature de l’intervention au Fresnoy« , tout en affirmant que les artistes et les collaborateurs « resteront ouverts et attentifs au débat, d’ailleurs souhaité par Paolo Cirio« .
De leur côté, cinquante-six artistes, étudiant·es, chercheur·es participant à l’exposition Panorama 22 y allaient de leur propre lettre ouverte, se disant « scandalisé·es par l’appel à censure et l’entreprise d’intimidation » et par le « consentement immédiat » qui s’en est suivi, tout en s’inquiétant d’une part du « penchant autoritaire d’un membre du gouvernement qui refuse tout débat public« , et de l’autre, de l’incapacité de l’institution de « défendre l’autonomie de sa programmation artistique« .
Dans le sillage de la loi Sécurité globale, adoptée en première écriture à l’Assemblée nationale le 20 octobre, dont l’article 24, le plus controversé, restreindrait la possibilité de filmer et de diffuser les images des forces de l’ordre, Capture marque également un cap par rapport à l’autonomie de la sphère de l’art, ses acteurs et ses institutions, dont le contexte n’est plus à l’abri de l’ingérence.
De manière plus générale, les nouvelles technologies, parce qu’elles sont d’emblée poreuses, d’emblée sociales, d’emblée politiques, amènent également à remettre sur le tapis la question de l’autonomie artistique selon les axes de la technique et de l’esthétique, de l’art et de la praxis.
Les nouvelles technologies au cœur du processus : pixels, algorithmes et 3D
Au cours des dernières années, subrepticement, l’invisible est venu étendre son règne. Désormais, il borde le visible par ce qui est moins une nuit qu’une nuée : une nuée de pixels. Il le dédouble, et la plupart du temps, on ne sait plus où regarder, ni même de qui se méfier. On n’y voit plus rien, car au sein de l’encodage du réel, l’œil humain erre sans ne rien parvenir à fixer. Et pourtant, au sein de cet invisible que ne décodent que les machines, le même partage demeure. Il est tout aussi excluant, renforçant le pouvoir arbitraire des uns au détriment des autres. La question demeure, bien que la réponse manque : qui regarde et qui est regardé, qui montre et qui est montré ?
Les tactiques de résistance, alors, de disparition ou de floutage, se doivent de muter à leur tour. Les outils, face à cet invisible, machinique ou algorithmique, nous n’en disposons pas encore. Déjà, les alertes pleuvent, les esprits s’aiguisent.
Ainsi, parmi les listes de lecture compilées dans le sillage du meurtre de George Floyd afin d’éveiller les consciences sur les injustices raciales systémiques, figurait presque invariablement le livre Algorithms of Oppression (Les Algorithmes de l’oppression, 2018) de la chercheuse Safiya Umoja Noble. Les moteurs de recherche, Google au premier plan, sont racistes et sexistes, démontrait-elle, ils reproduisent le biais de leurs créateurs qui se solidifient au fil de l’usage que nous en faisons, n’y voyant jusqu’ici que du feu. « Nous sommes presque tous illettrés face aux algorithmes« , affirmait l’autrice lors d’une interview au sujet de son essai. Or une fois éveillé·es au danger, comment agir ? Comment se rendre le sujet, et non seulement l’objet, de ces nouvelles technologies de capture qui informent à notre insu le réel, celui-là même dans lequel nous nous mouvons, nous, en pleine visibilité et matérialité ? Comment faire en sorte de ne plus être identifié, désigné, nommé ou stéréotypé par quelqu’un d’autre ?
La riposte pourrait bel et bien provenir des artistes. Pas uniquement parce que la représentation, et à ce titre également la disparition, la distorsion et le floutage, les concerne depuis toujours. Mais également, plus spécifiquement ici, parce que les grandes multinationales de la Sillicon Valley leur ouvrent les bras. Elles les accueillent en résidence, plébiscitent leur capacité à détourner les outils de leur fonction initiale, à penser hors du moule, célébrant la créativité en espérant accroître leur innovation, et leurs parts de marché. Les artistes, donc, ont la possibilité de devenir « lettrés », de maîtriser ces nouveaux langages. Mais la seconde raison, et la plus essentielle, car s’il est vrai que les hacktivistes ne les ont pas attendus pour agir eux-aussi, réside dans la spécificité même de leur domaine.
Certes, le philosophe Alexander Galloway écrivait déjà en 2016 qu’il n’y a plus, ou si peu, de différence entre le travail que les artistes mènent « sur » et « à l’intérieur » du digital. Et dans les faits, la frontière est floue, lorsque l’artiste programme, collabore avec des scientifiques, élit comme lieu pour son œuvre, une URL.
>> A lire aussi : Les expositions virtuelles de la plateforme New Scenario à découvrir sans attendre
Visages alternatifs et intelligence artificielle
Seulement, un élément distingue son intervention quel que soit son sujet et la forme qu’elle prend : dès lors qu’elle s’inscrit dans le contexte de l’art, son autonomie est en règle générale préservée. La spécificité des artistes, la voilà : ils concilient l’accès et la protection. Ils opèrent derrière une vitre conceptuelle nommée art. Du moins, ce fut jusqu’à très récemment le cas. Parmi les projets d’artistes portant sur les nouveaux modes de partage du visible, Facial Weaponization Suite reste encore l’un des plus connus. Entre 2011 et 2014, Zach Blas développe un projet censé opposer à la reconnaissance faciale son « armement », au sens où un visage armé serait un visage qui se floute lui-même.
Lors de workshops de fabrication de « masques collectifs », l’artiste produit en modélisation 3D une série de plusieurs types de visages alternatifs à enfiler : tous sont d’une mollesse informe, et qu’ils soient rose, noirs, bleus ou marron, semblent le produit de la solidification d’une pâte visqueuse déformée, comme si quelqu’un venait de la propulser de toutes ses forces à travers la pièce.
En réalité, la forme de chacune des séries qui composent le projet ont été obtenues en agrégeant les données biométriques faciales disponibles concernant un ensemble de personnes censées être reconnues comme un groupe. Pour chacune de ses séries de masques, Zach Blas reprend les données des profils types suivants : homme queer, femme voilée, personne racisé·e, migrant flashé à la frontière mexicaine. Par l’absurde, il démontre l’impossibilité de réduire un individu à un profil par ses simples caractéristiques physiques qu’il dote les traqués d’un moyen d’y échapper – dérisoire certes, mais qui en appelle d’autres.
En les revêtant, ces masques mous, chacun redevient flou pour l’œil de la machine, dans la longue lignée de masques contestataires et prolongeant notamment l’effigie Guy Fawkes arborée par les Anonymous.
De septembre 2019 à février 2020, Trevor Paglen et Kate Crawford, respectivement artiste et chercheuse, dévoilent Training Humans à la Fondation Prada à Milan, première exposition photographique d’ampleur consacrée aux techniques « d’entraînement » des systèmes d’intelligence artificielle, qui se nourrissent de catégories pas si neutres que ça. Ils y présentaient un nouveau projet, ImageNet Roulette, décliné en installation et en site internet. Entraîné à la reconnaissance faciale à partir des catégories d’ImageNet, immense bibliothèque d’images collectées par des chercheurs des universités de Princeton et de Stanford depuis 2009, un programme décrypte chaque visage qu’on lui présente.
A partir d’un selfie (uploadé depuis un ordinateur) ou d’une captation en temps réel (dans l’espace de l’exposition), le programme émet un jugement sans appel : schizophrène, veuf·ve, hôtesse de l’air, fumeur·e, call girl, somnambule… Volontairement grotesque, le projet, dont le site ne fut qu’expérience temporaire, révélait les biais de données, flirtant avec le jugement moral, inhérents à ce type de système qui réactualise les dangers de la phrénologie (étude du caractère d’après la forme externe du crâne) ou de l’eugénisme. Le projet faisait rire jaune, mais rire néanmoins, tout en poussant ImageNet à revoir une grande partie de ses catégories.
L’autonomie artistique serait-elle (trop) soluble dans le numérique ?
Le plus souvent lue à l’aune de la notion d’avant-garde et de ses tensions, au début du siècle dernier, avec la culture de masse naissante, selon des frictions formulées par les théoriciens de l’Ecole de Frankfort (voir notamment Peter Bürger, Théorie de l’Avant-Garde, 1974), l’artiste et théoricienne Hito Steyerl proposait déjà, dans son article Duty Free Art, De l’art en duty-free de doter l’autonomie d’une nouvelle définition.
Soit un art « sans finalité« , qui ne serait attaché à ne « performer, représenter, enseigner ni incarner aucune valeur » pas plus qu’il ne serait « tributaire de qui que ce soit« , tout en se gardant de « servir une cause ou un maître » ou de n’être « qu’un moyen de représenter une culture, une nation, une monnaie ou quoi que ce soit d’autre« .
La question se reformule alors en des termes très simples : à qui profitent les projets d’artistes attachés à dénoncer des dangers qui concernent tout un·e chacun·e, en solidarité avec les exclus du partage de la visibilité et de la représentation ? Et inversement, à qui profite le retrait de leurs œuvres et leur exclusion du débat public ? A tous, ou à quelques-uns uniquement ?
>> A lire aussi : Loin d’un monde de l’art figé, les programmes éducatifs alternatifs prospèrent
{"type":"Banniere-Basse"}