{"id":7659,"date":"2025-12-02T10:44:43","date_gmt":"2025-12-02T09:44:43","guid":{"rendered":"https:\/\/imagessecondes.fr\/?p=7659"},"modified":"2025-12-08T14:37:05","modified_gmt":"2025-12-08T13:37:05","slug":"pillet","status":"publish","type":"post","link":"https:\/\/imagessecondes.fr\/index.php\/2025\/12\/pillet\/","title":{"rendered":"Visualiser le trou noir M87"},"content":{"rendered":"\n<h1 class=\"wp-block-heading has-text-align-center has-vivid-red-color has-text-color has-link-color wp-elements-27db6fbfbc064b3d5ef95a13e775ef07\" style=\"font-size:30px\"><strong>Nina Pillet<\/strong><\/h1>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-black-color has-text-color has-link-color wp-elements-c32a7e06b4280cec339f64ba7d11ca89\" style=\"font-size:30px\"><strong><strong>Visualiser le trou noir M87&nbsp;: Persistance des images-outils dans l\u2019image-preuve<\/strong><\/strong><\/h1>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"687\" height=\"218\" src=\"http:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019.png\" alt=\"4 images du trou noir, les 5, 6, 10 et 11 avril.\" class=\"wp-image-7664\" srcset=\"https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019.png 687w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-300x95.png 300w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-680x216.png 680w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-280x89.png 280w\" sizes=\"(max-width: 687px) 100vw, 687px\" \/><\/figure>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p><strong>R\u00e9sum\u00e9<\/strong><br>Cet article d\u00e9crit la construction de l\u2019image du trou noir M87 comme reposant sur trois pratiques d\u2019imagerie distinctes, impliquant chacune des rapports diff\u00e9rents \u00e0 l\u2019objectivit\u00e9, selon le mod\u00e8le dress\u00e9 par Lorraine Daston et Peter Galison. Il y sera d\u00e9montr\u00e9 que l\u2019assemblage in\u00e9dit de ces pratiques d\u2019imageries repose sur un quatri\u00e8me type sous-jacent&nbsp;: la fabrique d\u2019images op\u00e9rationnelles, ayant permis l\u2019entrainement des algorithmes et des \u00e9quipes scientifiques et l\u2019imbrication finale des trois pratiques d\u2019imagerie d\u00e9j\u00e0 identifi\u00e9e&nbsp;; ce qui permettrait l\u2019\u00e9dification d\u2019une forme singuli\u00e8re d\u2019objectivit\u00e9, qualifi\u00e9e d\u2019op\u00e9rationnelle.<\/p>\n\n\n\n<p><strong>Mots-cl\u00e9s<\/strong><br>objectivit\u00e9, images op\u00e9rationnelles, astronomie<\/p>\n\n\n\n<p><strong>R\u00e9f\u00e9rence \u00e9lectronique pour citer cet article<\/strong><br>Nina Pillet, \u00ab&nbsp;Visualiser le trou noir M87&nbsp;: Persistance des images-outils dans l\u2019image-preuve&nbsp;\u00bb,&nbsp;<em>Images secondes<\/em>&nbsp;[En ligne], 05&nbsp;|&nbsp;2025. URL&nbsp;:&nbsp;<a href=\"http:\/\/imagessecondes.fr\/index.php\/2024\/12\/valeurs-de-la-crise-une-lecture-du-projet-dadaptation-du-capital-de-s-m-eisenstein\/\">http:\/\/imagessecondes.fr\/index.php\/2025\/12\/pillet\/<\/a><\/p>\n\n\n\n<p><strong><a href=\"http:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/12\/IS5-PILLET.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">\u2261 Version pdf \u00e0 t\u00e9l\u00e9charger<\/a><\/strong><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"280\" height=\"163\" src=\"http:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.1-M87-EHTC-2019.jpg\" alt=\"Un trou noir : un anneau orang\u00e9 iridescent dans le noir.\" class=\"wp-image-7662\"\/><figcaption class=\"wp-element-caption\"><strong>Figure 1. <\/strong>M87, EHTC, 2019<\/figcaption><\/figure>\n\n\n\n<p>En 2019, l\u2019<em>Even Horizon Telescope Collaboration<\/em><sup data-fn=\"4286074e-67bd-455e-9a82-5b59319dbdab\" class=\"fn\"><a href=\"#4286074e-67bd-455e-9a82-5b59319dbdab\" id=\"4286074e-67bd-455e-9a82-5b59319dbdab-link\">1<\/a><\/sup> (EHTC) publie l\u2019image in\u00e9dite d\u2019un trou noir, <em>M87<\/em>. Dans son allocution de pr\u00e9sentation de cette image \u00e0 Harvard<sup data-fn=\"edbf275c-9b5c-4c6b-b72e-40b38e5ebf43\" class=\"fn\"><a href=\"#edbf275c-9b5c-4c6b-b72e-40b38e5ebf43\" id=\"edbf275c-9b5c-4c6b-b72e-40b38e5ebf43-link\">2<\/a><\/sup>, Peter Galison (chercheur principal \u00e0 la <em>Black Hole Initiative<\/em> ayant particip\u00e9 \u00e0 l&rsquo;\u00e9laboration du projet de l\u2019EHTC en tant qu\u2019historien et philosophe de la science) la d\u00e9crit comme le r\u00e9sultat de la combinaison des trois r\u00e9gimes de vertus \u00e9pist\u00e9miques qu\u2019il a identifi\u00e9 avec Lorraine Daston<sup data-fn=\"88ee8fbf-bd61-43ee-90e4-434c8fff0f41\" class=\"fn\"><a href=\"#88ee8fbf-bd61-43ee-90e4-434c8fff0f41\" id=\"88ee8fbf-bd61-43ee-90e4-434c8fff0f41-link\">3<\/a><\/sup>. Ces vertus \u00e9pist\u00e9miques, li\u00e9es \u00e0 la production et \u00e0 la s\u00e9lection d&rsquo;images dans le domaine scientifique, se sont d\u00e9velopp\u00e9es au cours de plusieurs si\u00e8cles sous trois formes qui se compl\u00e9mentent \u00e0 mesure qu\u2019elles apparaissent. Chacune de ces vertus vient avec une pratique d\u2019image singuli\u00e8re, et formule ainsi une certaine id\u00e9e de l\u2019objectivit\u00e9. La <em>v\u00e9rit\u00e9-d\u2019apr\u00e8s-nature<\/em> &#8211; particuli\u00e8rement importante au XVIII<sup>\u00e8me<\/sup> si\u00e8cle avec la fabrication d\u2019atlas &#8211; est d\u00e9crite comme une vue \u00ab&nbsp;\u00e0 quatre yeux&nbsp;\u00bb, car elle combine le regard de l\u2019artiste et du scientifique et cherche \u00e0 produire des objets types en op\u00e9rant des s\u00e9lections et des synth\u00e8ses. Les images qu\u2019elle produit sont raisonn\u00e9es<em> <\/em>et universelles. L&rsquo;<em>objectivit\u00e9 m\u00e9canique<\/em>&nbsp; se caract\u00e9rise par la volont\u00e9 de minimiser l\u2019intervention humaine dans les processus d\u2019imagerie scientifique, via l\u2019utilisation d\u2019outils m\u00e9caniques, telle la photographie, utilis\u00e9e pour limiter l&rsquo;intervention des observateurs. Ce type d\u2019objectivit\u00e9 proc\u00e8de par transfert automatis\u00e9 et produit des images m\u00e9caniques ne repr\u00e9sentant que l\u2019objet particulier&nbsp;b\u00e9n\u00e9ficiant de ce transfert. \u00c0 partir des ann\u00e9es 1930, le <em>jugement exerc\u00e9<\/em> ne repose plus sur la suppression de l\u2019observateur permise par la copie m\u00e9canique de l\u2019objet, mais plut\u00f4t sur l&rsquo;exercice d&rsquo;une expertise acquise gr\u00e2ce \u00e0 la formation des scientifiques \u00e0 l&rsquo;interpr\u00e9tation et \u00e0 la s\u00e9lection d&rsquo;images produites \u00e0 l&rsquo;aide d&rsquo;instruments. Elle proc\u00e8de par reconnaissance des formes et produit des images via l\u2019interpr\u00e9tation de donn\u00e9es.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Puisque ces vertus \u00e9pist\u00e9miques \u00e9manent toutes de la production et de la s\u00e9lection d&rsquo;images et qu\u2019<em>M87<\/em> est d\u00e9crite par Galison comme s\u2019\u00e9tant form\u00e9e par la combinaison de ces trois formes de pratiques, se pressent d\u00e9j\u00e0 que cette image finale n\u2019a pas \u00e9t\u00e9 la seule \u00e0 avoir \u00e9t\u00e9 produite dans ce processus d\u2019imagerie. En effet, l\u2019EHTC a certes mis en r\u00e9seau huit radiot\u00e9lescopes, agissant ensemble comme un t\u00e9lescope informatique g\u00e9ant, mais ce capteur n\u2019a pas permis une observation enti\u00e8rement accomplie du trou noir supermassif situ\u00e9 au c\u0153ur de la galaxie Messier 87<em>,<\/em> \u00e0 55 millions d\u2019ann\u00e9es-lumi\u00e8re de la Terre. Les donn\u00e9es sont trou\u00e9es, et les traduire en image va n\u00e9cessiter de simuler de larges portions de la visualisation finale via l\u2019incorporation de donn\u00e9es synth\u00e9tiques. Ces donn\u00e9es synth\u00e9tiques, transform\u00e9es en portions d\u2019images probables, viennent permettre l\u2019accomplissement de la visualisation d\u2019M87 dont les donn\u00e9es observationnelles seraient autrement irrepr\u00e9sentables puisque discontinues et ajour\u00e9es. Ainsi, le probl\u00e8me qu\u2019entendra traiter cet article sera celui de savoir comment s\u2019est construite l\u2019objectivit\u00e9 de cette visualisation scientifique o\u00f9 l\u2019observation instrumentale n\u2019a pas suffi \u00e0 \u00ab&nbsp;faire image&nbsp;\u00bb. Autrement dit, l\u2019enjeu sera d\u2019abord d\u2019expliciter comment l\u2019\u00e9mergence d\u2019<em>M87<\/em> repose en effet sur l\u2019imbrication des trois pratiques d\u2019imagerie d\u00e9crites par Daston &amp; Galison, puis de d\u00e9montrer qu&rsquo;entre ces trois pratiques on peut d\u00e9celer l&rsquo;intervention sous-jacente d\u2019une quatri\u00e8me forme : la pratique de l\u2019imagerie op\u00e9rationnelle.&nbsp;<\/p>\n\n\n\n<p>Seront ici caract\u00e9ris\u00e9es comme op\u00e9rationnelles les images dont la t\u00e2che fut de soutenir la visualisation des donn\u00e9es recueillies sur la base du transfert instrumental et automatis\u00e9 &#8211; mais lacunaire &#8211; de l\u2019EHT. Ces images op\u00e9rationnelles seront ici entendues \u00e0 la fa\u00e7on dont le th\u00e9oricien des m\u00e9dia Jussi Parikka les d\u00e9crit. Elles sont \u00ab&nbsp;constitu\u00e9es de couches successives, de cha\u00eenes r\u00e9cursives et techniques, d\u2019emboitement de pratiques, de personnes, de formations, d\u2019instruments juridiques et financiers et de bien d&rsquo;autres aspects.&nbsp;\u00bb<sup data-fn=\"2ec63182-b39b-4bf0-bfca-8a89091f38e6\" class=\"fn\"><a href=\"#2ec63182-b39b-4bf0-bfca-8a89091f38e6\" id=\"2ec63182-b39b-4bf0-bfca-8a89091f38e6-link\">4<\/a><\/sup>, et cet article entendra affirmer qu\u2019une part des pratiques d\u2019imagerie de l\u2019EHTC a consist\u00e9 \u00e0 produire \u00ab&nbsp;des images qui d\u00e9clenchent des calculs qui produisent d\u2019autres images (non-photographiques) \u00bb<sup data-fn=\"854fca23-e5da-4d99-b5c0-712155ee3ea8\" class=\"fn\"><a href=\"#854fca23-e5da-4d99-b5c0-712155ee3ea8\" id=\"854fca23-e5da-4d99-b5c0-712155ee3ea8-link\">5<\/a><\/sup>. Aux c\u00f4t\u00e9s de Parikka, nous consid\u00e9rerons que l\u2019observation du ciel en g\u00e9n\u00e9ral, et d\u2019un trou noir en particulier, est une pratique propice de la production d\u2019images op\u00e9rationnelles, en cela \u00ab&nbsp;qu\u2019il [le ciel] \u00e9chappe en grand partie \u00e0 la vision humaine et fait l&rsquo;objet de calculs constants, dont certains peuvent revenir sous la forme d&rsquo;images&nbsp;\u00bb<sup data-fn=\"97b0ce50-d7b6-4598-b261-133f0537dbd7\" class=\"fn\"><a href=\"#97b0ce50-d7b6-4598-b261-133f0537dbd7\" id=\"97b0ce50-d7b6-4598-b261-133f0537dbd7-link\">6<\/a><\/sup>. Ainsi, l\u2019article d\u00e9montrera que \u00ab&nbsp;l\u2019Event Horizon Telescope appara\u00eet non seulement comme un projet scientifique astronomique, mais aussi comme un moyen de repenser les images&nbsp;\u00bb<sup data-fn=\"5cdb030e-f8b8-441d-a980-78abd395c220\" class=\"fn\"><a href=\"#5cdb030e-f8b8-441d-a980-78abd395c220\" id=\"5cdb030e-f8b8-441d-a980-78abd395c220-link\">7<\/a><\/sup>, en cela que le projet d\u00e9licat de visualisation d\u2019M87 repose sur la rare imbrication de quatre formes diff\u00e9rentes de pratique d\u2019imagerie.&nbsp;<\/p>\n\n\n\n<p>L\u2019objectif de cet article sera dans un premier temps de d\u00e9crire le dispositif d\u2019interf\u00e9rom\u00e9trie ayant permis &#8211; sur la base d\u2019un transfert automatis\u00e9 &#8211; la saisie des donn\u00e9es observationnelles (1). Puis, il sera d\u00e9montr\u00e9 comment diff\u00e9rents mod\u00e8les g\u00e9n\u00e9ratifs d\u2019images op\u00e9rationnelles et le <em>jugement exerc\u00e9<\/em> de l\u2019\u00e9quipe d\u2019imagerie ont permis la production des \u00e9chantillons synth\u00e9tiques permettant de soutenir l\u2019\u00e9mergence de ces donn\u00e9es observationnelles (2). Il s\u2019agira ensuite de montrer comment ces portions synth\u00e9tiques furent ins\u00e9r\u00e9es dans l\u2019image finale par le geste de la synth\u00e8se formant ainsi une image raisonn\u00e9e de type <em>v\u00e9rit\u00e9-d\u2019apr\u00e8s-nature <\/em>(3). Ce qui permettra de conclure que cet assemblage in\u00e9dit fonctionne comme l\u2019\u00e9dification d\u2019une forme singuli\u00e8re d\u2019objectivit\u00e9, qualifi\u00e9e d\u2019op\u00e9rationnelle.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-0a0507ca80f1418cce8c2093c6722e51\" style=\"font-size:30px\"><strong>Saisie des donn\u00e9es observationnelles&nbsp;: la Terre comme entit\u00e9 voyante &nbsp;<\/strong><\/h2>\n\n\n\n<p>Il existe un pr\u00e9suppos\u00e9 \u00e0 la base de toutes recherches en astronomie&nbsp;:<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>L\u2019astronomie&nbsp;n\u2019est pas une science exp\u00e9rimentale au sens de la physique de laboratoire. Il est impossible de mener une exp\u00e9rience sur des objets astronomiques, c\u2019est-\u00e0-dire de modifier certains param\u00e8tres bien d\u00e9finis en les contr\u00f4lant pour \u00e9tudier leur influence sp\u00e9cifique sur le probl\u00e8me \u00e0 \u00e9tudier. Le cosmos ne nous est accessible que par l\u2019observation passive, et cette observation se fait d\u2019un point unique \u00e0 l\u2019\u00e9chelle de l\u2019Univers.<sup data-fn=\"714af214-446b-494a-ac0f-15057e608cd7\" class=\"fn\"><a href=\"#714af214-446b-494a-ac0f-15057e608cd7\" id=\"714af214-446b-494a-ac0f-15057e608cd7-link\">8<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>Cette observation passive et situ\u00e9e est le lieu de formation d\u2019une imagerie vitale, d\u00e9cisive et constitutive de cette science. Du fait m\u00eame de l\u2019impraticabilit\u00e9 de son terrain de recherche, l\u2019astronomie d\u00e9pend r\u00e9solument de repr\u00e9sentations. \u00c0 la difficult\u00e9 propre \u00e0 l\u2019astronomie en g\u00e9n\u00e9rale, il faut ajouter celle de la physique relativiste en particulier. Formul\u00e9e en 1915 par Albert Einstein, la relativit\u00e9 g\u00e9n\u00e9rale a \u00e9tabli une rupture \u00e9pist\u00e9mologique avec les conceptions newtoniennes. En intensifiant les \u00e9quations de cette th\u00e9orie de la gravitation, on arrive \u00e0 la cr\u00e9ation th\u00e9orique de singularit\u00e9s gravitationnelles. Il en existe deux types&nbsp;: l\u2019une est explosive, nous visons dedans, et elle serait la cause de la r\u00e9organisation de notre univers en syst\u00e8me expansif, c\u2019est le <em>Big Bang<\/em> ; l\u2019autre, implosive, est le trou noir. Ce sont ces deux points de gravit\u00e9 infinie et oppos\u00e9s qui sont donc privil\u00e9gi\u00e9s dans l\u2019\u00e9tude de la gravitation, car ils en sont les manifestations les plus tangibles et exub\u00e9rantes. Or, le <em>Big Bang<\/em> est un d\u00e9fi lanc\u00e9 \u00e0 la physique instrumentale. C\u2019est qu\u2019on ne peut jamais lui \u00e9chapper. Cette appartenance par contenance intrins\u00e8que an\u00e9antit la possibilit\u00e9 d\u2019un regard p\u00e9riph\u00e9rique. Le trou noir, lui, offre \u00e0 la physique instrumentale un avantage consid\u00e9rable&nbsp;: il est ponctuel et localisable. Il fascine donc l\u2019astronomie en lui-m\u00eame en tant que machine gravitationnelle et optique d\u00e9routante, mais aussi en ce qu\u2019il nous permettra de comprendre, en miroir, des origines m\u00eames du cosmos. Et puisqu\u2019\u00ab&nbsp;il n\u2019est souvent pas possible de fabriquer les choses sans le repr\u00e9senter visuellement&nbsp;\u00bb<sup data-fn=\"4c8330a4-a304-45b8-a2f5-d65febd4502e\" class=\"fn\"><a href=\"#4c8330a4-a304-45b8-a2f5-d65febd4502e\" id=\"4c8330a4-a304-45b8-a2f5-d65febd4502e-link\">9<\/a><\/sup>, former l\u2019image d\u2019un trou noir devient n\u00e9cessaire. Comme le souligne Heino Falcke, responsable scientifique de l\u2019EHTC, \u00ab&nbsp;des images de ce type peuvent potentiellement \u00eatre utilis\u00e9es pour tester ou limiter les th\u00e9ories de la gravit\u00e9&nbsp;\u00bb<sup data-fn=\"cd65e4af-a2dc-4975-9d4a-19b21668a409\" class=\"fn\"><a href=\"#cd65e4af-a2dc-4975-9d4a-19b21668a409\" id=\"cd65e4af-a2dc-4975-9d4a-19b21668a409-link\">10<\/a><\/sup>. Mais si le trou noir est g\u00e9n\u00e9reux en gravit\u00e9, il est avare en photons : la lumi\u00e8re est pi\u00e9g\u00e9e par l&rsquo;infinie densit\u00e9 gravitationnelle du centre, le trou noir ne rayonne pas. Toutefois, une r\u00e9gion limitrophe est tout \u00e0 fait radieuse&nbsp;: l\u2019horizon des \u00e9v\u00e8nements (le cercle orange de la Fig.1). Une fois pass\u00e9 cet horizon, les photons devraient d\u00e9passer la vitesse de la lumi\u00e8re pour s\u2019acquitter de l\u2019attraction gravitationnelle intense du trou noir et ne pas \u00eatre engloutis. En tant que dernier endroit observable, c\u2019est donc cet anneau qu\u2019il s\u2019agira de mesurer.<\/p>\n\n\n\n<p>Comme le pr\u00e9cise Katie Bouman, docteure au MIT dans un laboratoire d\u00e9di\u00e9 \u00e0 l\u2019interpr\u00e9tation d\u2019images par ordinateurs et membre du groupe d\u2019imagerie de l\u2019EHTC, \u00ab&nbsp;prendre cette image d\u00e9pendra d\u2019une \u00e9quipe scientifique internationale, d\u2019un t\u00e9lescope de la taille de la Terre, et d\u2019un algorithme qui assemble l\u2019image finale \u00bb<sup data-fn=\"f208b20b-5b31-46c6-a9a0-f3666c3b522e\" class=\"fn\"><a href=\"#f208b20b-5b31-46c6-a9a0-f3666c3b522e\" id=\"f208b20b-5b31-46c6-a9a0-f3666c3b522e-link\">11<\/a><\/sup>. Car si l\u2019horizon des \u00e9v\u00e9nements est lumineux, sa distance rend son observation assur\u00e9ment complexe. Bouman explicite&nbsp;:&nbsp;<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>Si nous voulons apercevoir le trou noir M87, il nous faudrait un t\u00e9lescope dot\u00e9 d\u2019un miroir d\u2019environ 13&nbsp;000 km, soit la taille de la Terre. Comme cela est impossible, nous faisons la meilleure chose qui s\u2019offre \u00e0 nous ensuite : nous connectons des t\u00e9lescopes autour du globe pour qu\u2019ils agissent comme un t\u00e9lescope informatique g\u00e9ant. C\u2019est un peu comme transformer la Terre en une boule \u00e0 facette. Chaque fragment de miroir collecte des donn\u00e9es que nous assemblerons ensuite pour fabriquer l\u2019image finale. Mais, puisque le r\u00e9seau de t\u00e9lescope ne comprend que huit foyers d\u2019observations, il faut imaginer avoir retir\u00e9 la plupart des fragments de miroirs de la boule \u00e0 facette. Mais bien que nous ne collections la lumi\u00e8re qu\u2019en certains endroits, la Terre tourne, et nous pouvons obtenir d\u2019autres points de mesures. En d\u2019autres termes, quand la Terre tourne, les miroirs changent de place et nous pouvons ainsi observer diff\u00e9rentes parties de l\u2019objet observ\u00e9, et donc de l\u2019image.<sup data-fn=\"cb4e3b35-76bc-4a22-b4f5-664552dc92a9\" class=\"fn\"><a href=\"#cb4e3b35-76bc-4a22-b4f5-664552dc92a9\" id=\"cb4e3b35-76bc-4a22-b4f5-664552dc92a9-link\">12<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>Ainsi, l\u2019observation de l\u2019horizon des \u00e9v\u00e9nements n\u00e9cessite d\u2019assembler plusieurs types de r\u00e9seaux techniques autonomes. Il s\u2019agit d\u2019abord de relier les antennes des diff\u00e9rents observatoires par interf\u00e9rom\u00e9trie<sup data-fn=\"be956b23-01e9-4dc2-b346-36a7f11fec1b\" class=\"fn\"><a href=\"#be956b23-01e9-4dc2-b346-36a7f11fec1b\" id=\"be956b23-01e9-4dc2-b346-36a7f11fec1b-link\">13<\/a><\/sup>, puis de faire reposer ce premier r\u00e9seau sur un ensemble d\u2019horloges atomiques charg\u00e9es de d\u00e9clencher simultan\u00e9ment les observations sur chaque site et de marquer les mesures de coordonn\u00e9es temporelles pr\u00e9cises&nbsp;; en amont, ces deux ensembles sont monitor\u00e9s par celui de stations m\u00e9t\u00e9orologiques charg\u00e9es de d\u00e9finir si le r\u00e9seau d\u2019antennes b\u00e9n\u00e9ficie de conditions favorables \u00e0 la captation des ondes millim\u00e9triques \u00e9mises par l\u2019anneau (ondes pouvant se perdre dans les nuages) ; le tout reposant sur des syst\u00e8mes de communication et de positionnement satellitaires reliant les machines et les membres de cette \u00e9quipe internationale, ainsi que sur des r\u00e9seaux de transports assurant le d\u00e9placement des agents et des disques durs ayant collect\u00e9s les donn\u00e9es. C\u2019est ce qui conduit le th\u00e9oricien des m\u00e9dias John Durham Peters \u00e0 constater que \u00ab&nbsp;<em>M87<\/em> repose probablement sur le r\u00e9seau le plus complexe jamais r\u00e9alis\u00e9 pour prendre une image&nbsp;\u00bb<sup data-fn=\"c5eeef9e-4648-4450-8290-9bd111e66b1a\" class=\"fn\"><a href=\"#c5eeef9e-4648-4450-8290-9bd111e66b1a\" id=\"c5eeef9e-4648-4450-8290-9bd111e66b1a-link\">14<\/a><\/sup>, ou du moins, pour collecter des donn\u00e9es.&nbsp;<\/p>\n\n\n\n<p>Avant m\u00eame de permettre une quelconque op\u00e9ration heuristique que ce soit, ce r\u00e9seau aura d\u2019abord \u00e9tablit la plan\u00e8te comme <em>foyer d\u2019observation<\/em>. Comme le pr\u00e9cise \u00e0 nouveau Peters : \u00ab Ici, la Terre se transforme en yeux, [elle] n&rsquo;est plus une simple image<em> \u00e0 voir<\/em>, comme dans la c\u00e9l\u00e8bre image de <em>La<\/em> <em>Bille Bleue<\/em> de 1972, mais c&rsquo;est elle <em>qui voit <\/em>\u00bb<sup data-fn=\"e75d18ca-d85f-4b44-b3cb-a6a586291a96\" class=\"fn\"><a href=\"#e75d18ca-d85f-4b44-b3cb-a6a586291a96\" id=\"e75d18ca-d85f-4b44-b3cb-a6a586291a96-link\">15<\/a><\/sup>. En effet, <em>M87<\/em> est&nbsp; souvent consid\u00e9r\u00e9e comme l\u2019envers de la photographie du <em>Lever de Terre<\/em>. Galison l\u2019exprime en ces termes, lorsqu\u2019il compare <em>M87<\/em> \u00e0 l\u2019image du <em>Lever de Terre <\/em>:&nbsp;\u00ab [<em>M87<\/em>] a eu le m\u00eame type d&rsquo;effet iconique. Elle nous a donn\u00e9 une sorte de reconfiguration, de recalibrage de la taille et de l&rsquo;\u00e9chelle de la Terre&nbsp;\u00bb<sup data-fn=\"320ac3bd-1c37-44f2-b29a-549c27d02346\" class=\"fn\"><a href=\"#320ac3bd-1c37-44f2-b29a-549c27d02346\" id=\"320ac3bd-1c37-44f2-b29a-549c27d02346-link\">16<\/a><\/sup>. Permettant \u00e0 la Terre de ne plus se constituer comme <em>objet<\/em> <em>\u00e0 voir <\/em>mais comme <em>fa\u00e7on<\/em> <em>de voir<\/em>, l\u2019EHT reconfigure en effet le regard et r\u00e9v\u00e8le l\u2019agentivit\u00e9 de la Terre non pas comme <em>foyer<\/em> <em>\u00e0 voir<\/em>, mais comme <em>foyer d\u2019observation<\/em>, sorte d&rsquo;entit\u00e9 voyante ou de <em>camera obscura planetae<\/em> \u00e0 l\u2019int\u00e9rieure de laquelle se forment des images. En s\u2019appuyant sur l\u2019interf\u00e9rom\u00e9trie \u00e0 tr\u00e8s longue base comme m\u00e9thode de formation d\u2019image, sur le mouvement inh\u00e9rent \u00e0 son orbite et sur la taille de son diam\u00e8tre, la Terre formule ainsi sa premi\u00e8re <em>vue fantomatique<\/em><sup data-fn=\"a151a9b1-cc76-4c95-9ecd-3ccee8fa5115\" class=\"fn\"><a href=\"#a151a9b1-cc76-4c95-9ecd-3ccee8fa5115\" id=\"a151a9b1-cc76-4c95-9ecd-3ccee8fa5115-link\">17<\/a><\/sup>. Ce terme &#8211; apparut pour caract\u00e9riser les formes que peuvent prendre les images op\u00e9rationnelles dans la pens\u00e9e du th\u00e9oricien des images et r\u00e9alisateur Harun Farocki &#8211; renvoie \u00ab&nbsp;\u00e0 la capacit\u00e9 des images produites par les machines \u00e0 d\u00e9passer l\u2019\u00e9chelle humaine, en rendant compte d\u2019\u00e9v\u00e9nements qui \u00e9chappent \u00e0 la sensibilit\u00e9 humaine&nbsp;\u00bb<sup data-fn=\"01e395e2-bedd-422c-b2b7-9171361a36b2\" class=\"fn\"><a href=\"#01e395e2-bedd-422c-b2b7-9171361a36b2\" id=\"01e395e2-bedd-422c-b2b7-9171361a36b2-link\">18<\/a><\/sup>. Cette visualisation \u00e9chappe donc \u00e0 la sensibilit\u00e9 humaine en deux points : premi\u00e8rement, parce qu&rsquo;elle n&rsquo;est permise que par l\u2019exploitation des propri\u00e9t\u00e9s g\u00e9ophysique de la Terre ; deuxi\u00e8mement, puisque la longueur d\u2019onde radio dans laquelle le ph\u00e9nom\u00e8ne rayonne ne saurait \u00eatre perceptible \u00e0 l&rsquo;oeil humain sans sa traduction en donn\u00e9es (l\u2019interf\u00e9rom\u00e9trie) et sa retraduction en image. Comme le souligne d\u2019ailleurs Emilie Skulberg dans sa th\u00e8se de doctorat en philosophie<sup data-fn=\"4f65a2f5-2b05-413f-af62-18c2a35d1b54\" class=\"fn\"><a href=\"#4f65a2f5-2b05-413f-af62-18c2a35d1b54\" id=\"4f65a2f5-2b05-413f-af62-18c2a35d1b54-link\">19<\/a><\/sup>, ce n\u2019est pas tant du c\u00f4t\u00e9 de la repr\u00e9sentation de son contenu qu\u2019<em>M87<\/em> fut comment\u00e9e que par celui des conditions de visibilit\u00e9 qu\u2019elle d\u00e9couvre et par l\u2019assemblage technologique et m\u00e9diatique in\u00e9dit qu\u2019elle sous-entend. La r\u00e9ception de cette image \u2013 dont la r\u00e9solution d\u00e9\u00e7oit le grand public habitu\u00e9 \u00e0 des simulations en haute r\u00e9solution<sup data-fn=\"d92ce228-21cf-4c4a-8498-f2fd1e15d903\" class=\"fn\"><a href=\"#d92ce228-21cf-4c4a-8498-f2fd1e15d903\" id=\"d92ce228-21cf-4c4a-8498-f2fd1e15d903-link\">20<\/a><\/sup> \u2013, indique qu\u2019elle fut plus largement consid\u00e9r\u00e9e parce qu\u2019elle propose une nouvelle fa\u00e7on d\u2019imager les trous noirs en g\u00e9n\u00e9ral, qu\u2019en cela qu\u2019elle d\u00e9couvre un corps astral en particulier. L\u2019image r\u00e9v\u00e8le d\u2019abord non pas un objet \u00e0 \u00e9tudier, mais un <em>point de vue<\/em>. C\u2019est la formulation d\u2019un nouveau type de <em>vue fantomatique<\/em>, d&rsquo;un nouveau mode de collecte de donn\u00e9es, d\u2019une nouvelle fabrique du regard<sup data-fn=\"8006f60d-3c79-4382-b39d-8b8202382b40\" class=\"fn\"><a href=\"#8006f60d-3c79-4382-b39d-8b8202382b40\" id=\"8006f60d-3c79-4382-b39d-8b8202382b40-link\">21<\/a><\/sup> qui interpelle, plus largement que l\u2019objet repr\u00e9sent\u00e9. En ce sens, comme le souligne Monique Sicard, historienne de la photographie, \u00ab&nbsp;peu importe que l\u2019image mime ou non son objet, qu\u2019elle soit ou non parfaitement \u2018\u2018exacte\u2019\u2019, elle est un \u2018\u2018mod\u00e8le\u2019\u2019 dont le processus de fabrication est plus important que la forme&nbsp;\u00bb<sup data-fn=\"db7f731a-6070-4c31-9cd7-0a7d25926593\" class=\"fn\"><a href=\"#db7f731a-6070-4c31-9cd7-0a7d25926593\" id=\"db7f731a-6070-4c31-9cd7-0a7d25926593-link\">22<\/a><\/sup>, une \u00ab&nbsp;image [qui] illustre les performances des instruments de visualisation en tant que tels&nbsp;\u00bb<sup data-fn=\"39fd307d-a7a0-499a-8b0b-bab163005529\" class=\"fn\"><a href=\"#39fd307d-a7a0-499a-8b0b-bab163005529\" id=\"39fd307d-a7a0-499a-8b0b-bab163005529-link\">23<\/a><\/sup>. Ce qui semble ici le plus importer, c\u2019est qu&rsquo;un dispositif ait pu cr\u00e9er un lien sensible entre l&rsquo;humanit\u00e9 et les trous noirs. Ce lien-l\u00e0 forme la part d&rsquo;<em>objectivit\u00e9 m\u00e9canique <\/em>de l\u2019image d\u00e9crit par Daston &amp; Galison, en cela qu\u2019M87 b\u00e9n\u00e9ficie d\u00e9sormais d\u2019une m\u00e9thode de transfert automatis\u00e9 de donn\u00e9es observationnelles, limitant donc l\u2019intervention humaine.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-11e9f12122a4174a6e89291b4a2f9004\" style=\"font-size:30px\"><strong>Entrainement au processus d\u2019imagerie&nbsp;: les images-outils&nbsp;<\/strong><\/h2>\n\n\n\n<p>Mais cette nouvelle <em>fa\u00e7on<\/em> <em>de voir<\/em> ne permet pas encore une nouvelle <em>fa\u00e7on<\/em> <em>de savoir<\/em>&nbsp;: les donn\u00e9es observationnelles d\u00e9voilent les portions d\u2019angles morts de l\u2019EHT et \u00e9tablir leur fonction heuristique va n\u00e9cessiter la cr\u00e9ation d\u2019artefacts. Comme le souligne le directeur fondateur de l\u2019EHTC Shep Doeleman<sup data-fn=\"dca9e402-21ed-42e4-bc8a-bbefd7e7192c\" class=\"fn\"><a href=\"#dca9e402-21ed-42e4-bc8a-bbefd7e7192c\" id=\"dca9e402-21ed-42e4-bc8a-bbefd7e7192c-link\">24<\/a><\/sup>, ces observations n\u2019ont en effet pas fourni suffisamment de donn\u00e9es pour l\u2019imagerie. La collecte de ces ondes millim\u00e9triques n\u2019a pas permis d\u2019assurer un transfert m\u00e9canique parfaitement accompli d\u2019M87 en image. La visualisation demeure en latence dans les interstices asym\u00e9triques du r\u00e9seau de t\u00e9lescopes et concevoir ces interstices correspond \u00e0 devoir r\u00e9soudre le probl\u00e8me \u00e9pist\u00e9mologique d\u2019imager un objet jamais <em>vu <\/em>\u00e0 partir de mesures observationnelles incompl\u00e8tes. En d\u2019autres termes, le transfert automatis\u00e9 de donn\u00e9es<em> <\/em>ne suffit pas \u00e0 formuler la visualisation d\u2019M87 ; la seule pratique de l&rsquo;observation instrumentale qui induit un rapport d\u2019<em>objectivit\u00e9 m\u00e9canique<\/em> avec le trou noir ne peut faire image.<\/p>\n\n\n\n<p>Dans sa th\u00e8se de doctorat en sciences informatiques (th\u00e8se qui se concentre sur l\u2019application du <em>machine learning<\/em> \u00e0 la production d\u2019image), Bouman introduit ce probl\u00e8me en ces termes : \u00ab&nbsp;comme nous n&rsquo;avons jamais vu de trous noirs auparavant, nous ne savons pas exactement \u00e0 quoi devrait ressembler leur visualisation, ni ce que nous devrions supposer au sujet de leur structure \u00bb<sup data-fn=\"428582b5-e483-4342-b28f-1385d194a5aa\" class=\"fn\"><a href=\"#428582b5-e483-4342-b28f-1385d194a5aa\" id=\"428582b5-e483-4342-b28f-1385d194a5aa-link\">25<\/a><\/sup>. Dans ces conditions, produire des donn\u00e9es synth\u00e9tiques permettant de cr\u00e9er un lien coh\u00e9rent autour des donn\u00e9es observationnelles \u00e9parses devient une op\u00e9ration \u00e9pist\u00e9mologiquement d\u00e9licate et potentiellement infinie (puisqu\u2019on pourrait produire une infinit\u00e9 de donn\u00e9es synth\u00e9tiques en accord avec les mesures de l\u2019EHT). Le groupe d\u2019imagerie va alors complexifier &#8211; et en quelque sorte inverser &#8211; les m\u00e9thodes actuelles de g\u00e9n\u00e9ration d\u2019images propos\u00e9es par le <em>deep learning <\/em>en g\u00e9n\u00e9ral et par les <em>Generative Adversarial Model<\/em> en particulier. Falcke le pr\u00e9cise :<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>Le <em>deep learning<\/em> est une approche qui n\u00e9cessite des lots de donn\u00e9es suffisamment importants pour entra\u00eener l&rsquo;algorithme. Or, dans le cas trait\u00e9 ici, les donn\u00e9es observationnelles sont limit\u00e9es.<sup data-fn=\"b1af3ca4-6069-48b3-99c5-fa0d514814f9\" class=\"fn\"><a href=\"#b1af3ca4-6069-48b3-99c5-fa0d514814f9\" id=\"b1af3ca4-6069-48b3-99c5-fa0d514814f9-link\">26<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>En effet, il s\u2019agit d\u00e9j\u00e0 de produire des \u00e9chantillons probables \u00e0 partir de donn\u00e9es concr\u00e8tes (mais rares), \u00e0 d\u00e9faut de pouvoir entrainer une machine \u00e0 produire des images probables sur la base d\u2019\u00e9chantillons concrets et abondants. C\u2019est ce qu\u2019on nomme un <em>inverse problem<\/em>, un cas de figure dans lequel, plut\u00f4t que de partir d\u2019un mod\u00e8le pr\u00e9dictif pour augurer des effets observables, la d\u00e9marche consiste \u00e0 concevoir un mod\u00e8le g\u00e9n\u00e9ratif pouvant expliquer des effets d\u00e9j\u00e0 partiellement observ\u00e9s. Dans le cas d\u2019imagerie qui nous occupe ici, ce mod\u00e8le doit donc permettre d\u2019expliquer les donn\u00e9es collect\u00e9es par le r\u00e9seau de t\u00e9lescope avec suffisamment de finesse pour pouvoir g\u00e9n\u00e9rer les donn\u00e9es manquantes. R\u00e9soudre un <em>inverse problem<\/em> n\u00e9cessite d\u2019ajouter des <em>priors<\/em> (param\u00e8tres pr\u00e9alables) permettant de r\u00e9duire l&rsquo;espace des possibilit\u00e9s de fa\u00e7on \u00e0 aboutir \u00e0 un nombre restreint de solutions. Ces <em>priors<\/em> doivent donc ici rendre compte des connaissances <em>a priori <\/em>sur les trous noirs, tout en laissant un certain degr\u00e9 d\u2019incertitude. Le probl\u00e8me que pose la reconstruction d\u2019<em>M87<\/em> se formule en ces termes&nbsp;: avant d\u2019injecter des informations quant \u00e0 l\u2019aspect des trous noirs dans leurs mod\u00e8les g\u00e9n\u00e9ratifs, le groupe d\u2019imagerie doit trouver un dosage subtil pour \u00e9viter un raisonnement tautologique, car introduire trop d\u2019informations fausserait le processus, de sorte qu\u2019il finirait pr\u00e9cis\u00e9ment par voir ce \u00e0 quoi il s\u2019attendait.<sup data-fn=\"4182fc57-878e-4f62-9611-bb6573ed200a\" class=\"fn\"><a href=\"#4182fc57-878e-4f62-9611-bb6573ed200a\" id=\"4182fc57-878e-4f62-9611-bb6573ed200a-link\">27<\/a><\/sup><\/p>\n\n\n\n<p>L\u2019enjeu sera donc d\u2019\u00e9viter de biaiser d\u2019embl\u00e9e les promesses heuristiques de l\u2019image en y reproduisant des pr\u00e9dictions th\u00e9oriques. Ici, la culture visuelle du groupe d\u2019imagerie devient une potentielle source d\u2019illusions, car tous les membres de l\u2019EHTC ont d\u00e9j\u00e0 vu des simulations de trous noirs (qu\u2019il s\u2019agisse de simulations issues de l\u2019industrie de la recherche, ou de l\u2019industrie culturelle, comme celle du film). Cette culture visuelle peut ici intervenir, m\u00eame inconsciemment, dans le processus de reconstruction. Ainsi, pr\u00e9venir le mod\u00e8le g\u00e9n\u00e9ratif de montrer ce que celles et ceux qui le con\u00e7oivent <em>pr\u00e9<\/em>con\u00e7oivent revient \u00e0 produire des <em>priors<\/em> avec une m\u00e9thode sans m\u00e9moire. Souhaitant \u00e9viter toute forme de <em>re<\/em>connaissance&nbsp;qui valoriserait la trace de pr\u00e9conceptions, l\u2019amn\u00e9sie devient cruciale. En effet, la m\u00e9moire, en tant qu\u2019ing\u00e9nieux syst\u00e8me de traitement de l\u2019information, permet de <em>re<\/em>conna\u00eetre&nbsp;; or, dans le cas \u00e9tudi\u00e9, la <em>re<\/em>connaissance serait pr\u00e9cis\u00e9ment la fa\u00e7on de faire s\u2019effondrer l\u2019image sous le poids interne de ses pr\u00e9suppos\u00e9s, et d\u2019engloutir tout le processus d\u2019imagerie dans une tautologie. L\u2019oubli, en tant que ce qui pr\u00e9serve la capacit\u00e9 \u00e0 apprendre, est le moteur de la cr\u00e9ation de solutions originales, et permettra ici de connaitre sans <em>re<\/em>connaitre. Comme forme d\u00e9g\u00e9n\u00e9r\u00e9e de la m\u00e9moire, l\u2019oubli permettra en quelque sorte non pas une g\u00e9n\u00e9ration mais une d\u00e9g\u00e9n\u00e9ration des images, pouvant alors perdre certaines de leurs caract\u00e9ristiques originelles pr\u00e9dicatives. Ainsi, dans ce processus de fabrication d\u2019artefacts, c\u2019est la partialit\u00e9 de chaque membre du groupe d\u2019imagerie qui devient suspecte<sup data-fn=\"2c354fca-75ee-48d9-8a02-71de0a62f1d3\" class=\"fn\"><a href=\"#2c354fca-75ee-48d9-8a02-71de0a62f1d3\" id=\"2c354fca-75ee-48d9-8a02-71de0a62f1d3-link\">28<\/a><\/sup>, ainsi que celle des mod\u00e8les g\u00e9n\u00e9ratifs d\u2019imagerie eux-m\u00eames, habitu\u00e9s \u00e0 produire des images par l\u2019apprentissage et la <em>re<\/em>connaissance. Maintenir une certaine objectivit\u00e9 dans la reconstitution d\u2019<em>M87<\/em> n\u00e9cessite une m\u00e9fiance \u00e0 l\u2019\u00e9gard du sujet humain et algorithmique.<\/p>\n\n\n\n<p>D\u00e9construire ainsi la fabrique de son regard et de sa machine impose une phase dite d\u2019<em>entrainement \u00e0 l\u2019imagerie<\/em>. Sans encore utiliser les donn\u00e9es observationnelles de l\u2019EHT, le groupe d\u2019imagerie<em> <\/em>s\u2019est exerc\u00e9 \u00e0 reconstruire les images d\u2019objets inconnus via diff\u00e9rentes m\u00e9thodes algorithmiques. Galison d\u00e9crit ainsi les m\u00e9thodes d\u00e9velopp\u00e9es dans ces hackathons :&nbsp;<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>L&rsquo;une des premi\u00e8res m\u00e9thodes utilis\u00e9es a \u00e9t\u00e9 une sorte de socio-\u00e9pist\u00e9mologie. Elle consistait \u00e0 former quatre groupes qui ne se parlaient pas et qui utilisaient en interne toutes les comp\u00e9tences qu&rsquo;ils pouvaient rassembler pour obtenir une bonne image. Nous avons distribu\u00e9 un m\u00eame ensemble de donn\u00e9es synth\u00e9tiques \u00e0 chacun des groupes et nous leur avons demand\u00e9 de produire ce qu&rsquo;ils voyaient. [\u2026] Certaines [images] ont commenc\u00e9 \u00e0 s&rsquo;effondrer, d&rsquo;autres sont rest\u00e9es nettes. [\u2026] Nous nous sommes ensuite r\u00e9unis pour voir si les r\u00e9sultats correspondaient bien. Nous avons r\u00e9p\u00e9t\u00e9 l&rsquo;exp\u00e9rience encore et encore. [\u2026] On leur donnait d&rsquo;autres d\u00e9fis pour les amener \u00e0 affiner ce qu&rsquo;ils supposaient afin qu&rsquo;ils am\u00e9liorent leurs rendus.<sup data-fn=\"ee248e56-90d7-4c26-a1b6-d782623bc1ef\" class=\"fn\"><a href=\"#ee248e56-90d7-4c26-a1b6-d782623bc1ef\" id=\"ee248e56-90d7-4c26-a1b6-d782623bc1ef-link\">29<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>Ainsi, pour \u00e9viter ce que Galison nomme le reflet de Narcisse<sup data-fn=\"d7a079ba-3932-48c2-b6d6-a3dffa3409d5\" class=\"fn\"><a href=\"#d7a079ba-3932-48c2-b6d6-a3dffa3409d5\" id=\"d7a079ba-3932-48c2-b6d6-a3dffa3409d5-link\">30<\/a><\/sup> (soit le fait de voir son propre reflet dans l\u2019image g\u00e9n\u00e9r\u00e9e), la r\u00e9duction du groupe d\u2019imagerie en sous-\u00e9quipes et l\u2019interdiction des communications inter-\u00e9quipes constituent une m\u00e9thode r\u00e9duisant drastiquement le nombre d\u2019influences r\u00e9ciproques possibles, comme le souligne ici Bouman&nbsp;:&nbsp;<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>Si je vois l&rsquo;image d&rsquo;une autre \u00e9quipe, je peux commencer \u00e0 essayer de pousser mes algorithmes d&rsquo;imagerie, m\u00eame inconsciemment, dans une direction qui favoriserait ce type d&rsquo;image.<sup data-fn=\"7868e6c4-1f51-4729-8870-da6bad3ee0f8\" class=\"fn\"><a href=\"#7868e6c4-1f51-4729-8870-da6bad3ee0f8\" id=\"7868e6c4-1f51-4729-8870-da6bad3ee0f8-link\">31<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>La seconde m\u00e9thode d\u00e9ploy\u00e9e consiste \u00e0 imposer aux \u00e9quipes de travailler \u00e0 partir d\u2019algorithmes diff\u00e9rents. Chaque \u00e9quipe se sp\u00e9cialise ainsi dans un mod\u00e8le g\u00e9n\u00e9ratif et reconstruit au mieux l\u2019image qu\u2019on lui propose sous forme de donn\u00e9es brouill\u00e9es. La pertinence de chaque m\u00e9thode est \u00e9valu\u00e9e et les algorithmes s\u2019affinent ainsi \u00e0 chacune des reconstitutions. Puis, les \u00e9quipes s\u2019entrainent \u00e0 un processus inverse consistant non pas \u00e0 produire des images sur la base de donn\u00e9es similaires, mais \u00e0 produire la m\u00eame image \u00e0 partir de donn\u00e9es diff\u00e9rentes. Ainsi, si toutes les \u00e9quipes formulent la m\u00eame image sur la base d\u2019\u00e9chantillons tr\u00e8s divers tels des selfies post\u00e9s sur les r\u00e9seaux sociaux, des images astronomiques ou des images de bonhomme de neige, les \u00e9quipes seront assur\u00e9es d\u2019avoir demand\u00e9 \u00e0 leurs mod\u00e8les la bonne formule de reconstitution. Dans ces hackathons, n\u2019importe quelle image est ainsi susceptible de devenir une image d\u2019entrainement.<\/p>\n\n\n\n<p>Le cas le plus embl\u00e9matique est peut-\u00eatre celui de la reconstitution de l\u2019image de <em>Frosty the Snowman<\/em>,<em> bonhomme de neige de la culture populaire am\u00e9ricaine, \u00e0 partir de donn\u00e9es <\/em>brouill\u00e9es<em>.<\/em><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"593\" height=\"687\" src=\"http:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.2-Frosty-Bouman-2017-p.164.png\" alt=\"D\u00e9clinaisons de la m\u00eame image d'un bonhomme de neige.\" class=\"wp-image-7663\" srcset=\"https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.2-Frosty-Bouman-2017-p.164.png 593w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.2-Frosty-Bouman-2017-p.164-259x300.png 259w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.2-Frosty-Bouman-2017-p.164-280x324.png 280w\" sizes=\"(max-width: 593px) 100vw, 593px\" \/><figcaption class=\"wp-element-caption\"><strong>Figure 2.<\/strong> <em>Frosty The Snowman<\/em>, EHTC, 2019<\/figcaption><\/figure>\n\n\n\n<p>Comme le pr\u00e9cise Galison :&nbsp;<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>L&rsquo;id\u00e9e d&rsquo;essayer de cr\u00e9er une image du trou noir \u00e9tait de ne pas supposer que l&rsquo;on savait \u00e0 quoi il allait ressembler. Certes, il n&rsquo;allait probablement pas ressembler \u00e0 <em>Frosty the Snowman<\/em>, mais il fallait \u00eatre pr\u00eat \u00e0 imager quelque chose qui ne ressemblerait pas \u00e0 ce \u00e0 quoi on s&rsquo;attendait.<sup data-fn=\"3448af5f-aa9a-4de1-afe0-80ec01d155f7\" class=\"fn\"><a href=\"#3448af5f-aa9a-4de1-afe0-80ec01d155f7\" id=\"3448af5f-aa9a-4de1-afe0-80ec01d155f7-link\">32<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>L\u2019EHTC consid\u00e8re ces premi\u00e8res reconstructions comme des images de brouillon en cela qu\u2019elles permettent de d\u00e9velopper des m\u00e9thodes d\u2019imagerie plus fines. Ces m\u00e9thodes se fortifient \u00e0 mesure que des rectifications y sont apport\u00e9es&nbsp;: les \u00e9quipes corrigent l\u2019effondrement de certaines images (le fait que certains algorithmes d\u2019aboutissement pas en visualisation) et la cr\u00e9ation d\u2019artefacts \u00e0 l\u2019int\u00e9rieur d\u2019autres. Ces images de brouillon deviennent une part de la m\u00e9thodologie employ\u00e9e pour se rassurer sur l\u2019objectivit\u00e9 du processus d\u2019imagerie et elles impliquent un processus de cr\u00e9ation similaire \u00e0 celui des <em>images op\u00e9rationnelles<\/em>. Comme le d\u00e9crit Parikka cit\u00e9 plus haut, ces images \u2013 constitu\u00e9es de couches algorithmiques successives, d\u2019allers-retours entre \u00e9quipes et emboitement de m\u00e9thodes de visualisation \u2013 n\u2019existent que pour \u00ab&nbsp;d\u00e9clencher des calculs qui produiront d\u2019autres images&nbsp;\u00bb<sup data-fn=\"ad3bdf5c-dc81-47ad-a506-cc73ee491900\" class=\"fn\"><a href=\"#ad3bdf5c-dc81-47ad-a506-cc73ee491900\" id=\"ad3bdf5c-dc81-47ad-a506-cc73ee491900-link\">33<\/a><\/sup>, \u00e0 savoir ici, la visualisation finale <em>M87<\/em>. Elles sont des exemples de repr\u00e9sentation non pas d\u2019objets trouv\u00e9s, mais d\u2019objets en train <em>de faire <\/em>et de<em> se faire<\/em>. Elles repr\u00e9sentent la <em>science en action<\/em><sup data-fn=\"63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82\" class=\"fn\"><a href=\"#63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82\" id=\"63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82-link\">34<\/a><\/sup>. Ces images non-publi\u00e9es servent \u00e0 former le groupe au probl\u00e8me d\u2019imagerie que pose un <em>inverse problem<\/em> et trouvent en cela une correspondance avec la th\u00e9orie de l\u2019image-outils d\u00e9velopp\u00e9e par Daston &amp; Galison, puisqu\u2019\u00ab&nbsp;il est peut-\u00eatre possible d\u2019identifier dans les images-outils une nouvelle forme de collection d\u2019images, qui aurait rejet\u00e9 l\u2019id\u00e9al de fid\u00e9lit\u00e9 en faveur de la juste manufacture&nbsp;\u00bb<sup data-fn=\"6af9a963-f068-45f9-ac0a-829eedefd4c7\" class=\"fn\"><a href=\"#6af9a963-f068-45f9-ac0a-829eedefd4c7\" id=\"6af9a963-f068-45f9-ac0a-829eedefd4c7-link\">35<\/a><\/sup>. Ces collections d\u2019images-outils (celles des reconstitutions de Frosty en Fig.2) \u00e9tablissent la juste manufacture de l\u2019image publi\u00e9e \u00e0 venir. Ce changement de paradigme du r\u00f4le de l\u2019image, o\u00f9 <em>Frosty<\/em> n\u2019est pas un objet \u00e0 voir, mais un outil d\u2019entrainement \u00e0 l\u2019imagerie, c\u2019est \u00ab&nbsp;l\u2019\u00e9volution de l\u2019image-repr\u00e9sentation \u00e0 l\u2019image-processus&nbsp;\u00bb<sup data-fn=\"6d47e294-0e32-4ec1-bc15-240c51adb5e6\" class=\"fn\"><a href=\"#6d47e294-0e32-4ec1-bc15-240c51adb5e6\" id=\"6d47e294-0e32-4ec1-bc15-240c51adb5e6-link\">36<\/a><\/sup>. Dans le glissement de l\u2019image-repr\u00e9sentation vers l\u2019image-processus, le passage d\u2019un r\u00e9gime \u00e9pist\u00e9mique vers un autre s\u2019op\u00e8re \u00e9galement : la r\u00e9introduction de l\u2019interpr\u00e9tation humaine (ici avec les \u00e9quipes d\u2019entrainement \u00e0 l\u2019imagerie) est ici nec\u00e9ssaire pour soutenir la visualisation des donn\u00e9es collect\u00e9es par le transfert automatis\u00e9 de l\u2019EHT. Ainsi, \u00ab&nbsp;l\u2019interpr\u00e9tation exerc\u00e9e cessa d\u2019\u00eatre un vice pour devenir le compl\u00e9ment privil\u00e9gi\u00e9 de l\u2019objectivit\u00e9 m\u00e9canique&nbsp;\u00bb<sup data-fn=\"13af276a-7f10-4119-a0bf-24eb8e96dd6b\" class=\"fn\"><a href=\"#13af276a-7f10-4119-a0bf-24eb8e96dd6b\" id=\"13af276a-7f10-4119-a0bf-24eb8e96dd6b-link\">37<\/a><\/sup>. Les donn\u00e9es collect\u00e9es par l\u2019EHT n\u2019ont pas suffi \u00e0 produire \u00e0 elles seules l\u2019image du trou noir, et nous rappellent en cela que \u00ab&nbsp;l\u2019objectivit\u00e9 m\u00e9canique ne parvinrent jamais \u00e0 s\u2019abstraire enti\u00e8rement du processus de fabrication des images&nbsp;\u00bb<sup data-fn=\"d68bc54c-7d71-46c1-8f19-885acf71606a\" class=\"fn\"><a href=\"#d68bc54c-7d71-46c1-8f19-885acf71606a\" id=\"d68bc54c-7d71-46c1-8f19-885acf71606a-link\">38<\/a><\/sup>. Ainsi, c\u2019est bien par le <em>jugement exerc\u00e9<\/em> des \u00e9quipes d\u2019imagerie et la manipulation r\u00e9p\u00e9t\u00e9e d\u2019images de brouillon que progresse la construction d\u2019<em>M87<\/em>.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-ce1fce7a2bb1e555586bcdab438c2905\" style=\"font-size:30px\"><strong>Visualisation d\u2019M87&nbsp;: image moyenne d\u2019images moyennes<\/strong><\/h2>\n\n\n\n<p>Entrain\u00e9, le groupe d\u2019imagerie proc\u00e8de ensuite \u00e0 la reconstruction d\u00e9licate d\u2019<em>M87<\/em>. Une multitude d\u2019images seront \u00e0 nouveau produites en maintenant l\u2019interdiction des \u00e9quipes de communiquer.&nbsp;<\/p>\n\n\n\n<p>Les \u00e9quipes utilisent les m\u00eames m\u00e9thodes que celles qu\u2019elles ont affin\u00e9es en entrainement et d\u00e9butent donc par g\u00e9n\u00e9rer les donn\u00e9es synth\u00e9tiques qui formeront le lien autour des mesures observationnelles ajour\u00e9es. Chaque membre g\u00e9n\u00e8re une image par jour sur la base de cette hybridation entre les donn\u00e9es observationnelles et synth\u00e9tiques, image ensuite compar\u00e9e aux autres produites au sein de l\u2019\u00e9quipe. Apr\u00e8s avoir \u00e9cart\u00e9 les essais les moins convaincants, chaque \u00e9quipe formule une image moyenne.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Lorsque ces images moyennes sont mises en commun \u00e0 l\u2019\u00e9chelle inter-\u00e9quipe, chaque groupe cherche \u00e0 invalider les m\u00e9thodes des autres. En effet, \u00e0 d\u00e9faut de pouvoir utiliser les m\u00e9thodes actuelles de g\u00e9n\u00e9ration d\u2019images propos\u00e9es par les <em>Generative Adversarial Mode<\/em> (faute de lots de donn\u00e9es suffisantes \u00e0 l\u2019entrainement de l\u2019algorithme), il semble que ce sont les quatre sous-\u00e9quipes qui incarnent, sur le plan humain et \u00e9pist\u00e9mique, les paradigmes du protocole d\u2019un r\u00e9seau antagoniste g\u00e9n\u00e9ratif. On pourrait en effet consid\u00e9rer les quatre \u00e9quipes comme autant de r\u00e9seaux de neurones (ici humaines) plac\u00e9es en comp\u00e9tition et en opposition en vue de la cr\u00e9ation d\u2019une image probable r\u00e9aliste, comme dans un r\u00e9seau antagoniste g\u00e9n\u00e9ratif.&nbsp;<\/p>\n\n\n\n<p>Comme le pr\u00e9cise Galison, l\u2019id\u00e9e est de tester par cette m\u00e9thode la robustesse des visualisations&nbsp;propos\u00e9es :<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>Nous avons essay\u00e9 de modifier des \u00e9l\u00e9ments de toutes sortes, de fa\u00e7on \u00e0 voir si nous obtenions toujours l&rsquo;anneau et l&rsquo;ombre. Je ne sais pas combien de param\u00e8tres nous avons test\u00e9s dans cette recherche, mais certainement des dizaines de milliers, peut-\u00eatre des centaines de milliers.<sup data-fn=\"246ca128-4723-415f-aee5-c41f97cb581c\" class=\"fn\"><a href=\"#246ca128-4723-415f-aee5-c41f97cb581c\" id=\"246ca128-4723-415f-aee5-c41f97cb581c-link\">39<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>Si les images ne s\u2019effondrent pas dans ce processus d\u2019examen, c\u2019est que les donn\u00e9es synth\u00e9tiques ont r\u00e9ussi \u00e0 soutenir l\u2019\u00e9mergence des donn\u00e9es observationnelles avec coh\u00e9rence et r\u00e9silience, autrement dit, c\u2019est que les diff\u00e9rentes m\u00e9thodes d\u2019imagerie et les <em>priors<\/em> inject\u00e9s ont produit la m\u00eame qualit\u00e9 d&rsquo;ajustement aux donn\u00e9es. En r\u00e9p\u00e9tant l\u2019op\u00e9ration de nombreuses fois, les \u00e9quipes finissent par observer que les images convaincantes sont de plus en plus similaires. Il n\u2019y a alors plus de raison de favoriser une image plut\u00f4t qu\u2019une autre, et l\u2019on tire une image moyenne par jour inter-\u00e9quipe.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"687\" height=\"218\" src=\"http:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019.png\" alt=\"4 images du trou noir, les 5, 6, 10 et 11 avril.\" class=\"wp-image-7664\" srcset=\"https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019.png 687w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-300x95.png 300w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-680x216.png 680w, https:\/\/imagessecondes.fr\/wp-content\/uploads\/2025\/10\/Fig.3-The-Averaged-Image-From-Each-Day-EHTC-2019-280x89.png 280w\" sizes=\"(max-width: 687px) 100vw, 687px\" \/><figcaption class=\"wp-element-caption\"><strong>Figure 3. <\/strong><em>The Averaged Image From Each Day<\/em>, EHTC, 2019.<\/figcaption><\/figure>\n\n\n\n<p>Ce processus potentiellement infini de production d\u2019image moyenne \u00e0 partir d\u2019images moyennes, de proche en proche, prit fin non par fatalit\u00e9 mais par le <em>jugement exerc\u00e9<\/em>. Comme l\u2019explique Galison&nbsp;:&nbsp;<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\" style=\"font-size:15px\">\n<p>Je pense que nous avons essay\u00e9 de fausser l&rsquo;image de toutes les mani\u00e8res possibles et imaginables et nous avons continu\u00e9 \u00e0 la pousser jusqu&rsquo;\u00e0 ce que nous soyons satisfaits de toutes ces variations de param\u00e8tres. [\u2026] Contrairement \u00e0 une preuve d\u00e9ductive, une exp\u00e9rience ne se termine pas par une analyse exhaustive. \u00c0 un moment donn\u00e9, on s\u2019est dit <em>ceteris paribus<\/em> [\u2026] car nous \u00e9tions suffisamment convaincus.<sup data-fn=\"7a0d5de4-b268-488e-b8c3-403337afadea\" class=\"fn\"><a href=\"#7a0d5de4-b268-488e-b8c3-403337afadea\" id=\"7a0d5de4-b268-488e-b8c3-403337afadea-link\">40<\/a><\/sup><\/p>\n<\/blockquote>\n\n\n\n<p>Cette m\u00e9thode d\u2019imagerie rompt avec l\u2019id\u00e9al d\u2019<em>objectivit\u00e9 m\u00e9canique<\/em>, suffisant \u00e0 lui seul \u00e0 \u00e9tablir un lien ferme et d\u00e9finitif avec l\u2019objet \u00e9tudi\u00e9. L\u2019image <em>M87<\/em> est ainsi hybride \u00e0 bien des \u00e9gards, mais c\u2019est bien par le concours de phases d\u2019entrainement \u00e0 l\u2019imagerie et de la production d\u2019images op\u00e9rationnelles \u2013 dispos\u00e9es \u00e0 calculer d\u2019autres images, \u00e0 affiner les algorithmes et donc \u00e0 imbriquer les donn\u00e9es observationnelles aux donn\u00e9es cr\u00e9\u00e9es \u2013 que son hybridit\u00e9 se consolide. Cette hybridation s\u2019observe donc \u00e0 la fois dans l\u2019h\u00e9t\u00e9rog\u00e9n\u00e9it\u00e9 des donn\u00e9es qu\u2019elle accueille (synth\u00e9tiques et observationnelles) et \u00e9galement en tant qu\u2019elle est l\u2019image moyenne d\u2019images de brouillon probables<em>.&nbsp;<\/em><\/p>\n\n\n\n<p>Ainsi, l\u2019image finale, raisonn\u00e9e, r\u00e9v\u00e8le de la vertu \u00e9pist\u00e9mique dite de <em>v\u00e9rit\u00e9-d\u2019apr\u00e8s-nature <\/em>en cela que les \u00e9quipes l&rsquo;ont formul\u00e9e en cherchant une image type sur la base de s\u00e9lections et de synth\u00e8ses d\u2019autres images. <em>M87<\/em> est en cela une vue r\u00e9solument fantomatique, une vue de nulle part et de partout, la vue moyenne du processus pr\u00e9sidant \u00e0 sa fabrication. Elle ajoute ceci d\u2019original \u00e0 la terminologie de l\u2019image op\u00e9rationnelle (ou \u00e0 celle employ\u00e9e par Daston &amp; Galison) que si l\u2019image-outil est souvent caract\u00e9ris\u00e9e par sa non-publication et ne n\u00e9cessitant pas d\u2019\u00eatre rendue visible pour op\u00e9rer, ici, la persistance des images-outils dans l\u2019image-preuve \u2013 d\u00e9crite par Daston &amp; Galison comme pr\u00e9sidant \u00e0 la figuration finale de l\u2019objet consid\u00e9r\u00e9<sup data-fn=\"1d9f3e63-15ed-42ba-91fa-3329f5cae921\" class=\"fn\"><a href=\"#1d9f3e63-15ed-42ba-91fa-3329f5cae921\" id=\"1d9f3e63-15ed-42ba-91fa-3329f5cae921-link\">41<\/a><\/sup> \u2013 est essentielle. L\u2019indiff\u00e9renciation dans la mat\u00e9rialit\u00e9 m\u00eame de l\u2019image <em>M87<\/em> entre ce qui rel\u00e8ve de la trace compos\u00e9e et de la trace observ\u00e9e confirme l\u2019impuissance de ce type d\u2019hybridation \u00e0 distinguer la part op\u00e9rative de la part heuristique du r\u00e9sultat final. Les images-outils, ici enti\u00e8rement int\u00e9gr\u00e9es au processus de monstration, permettent \u00e0 l\u2019image-preuve l\u2019appui de sa d\u00e9monstration.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-e345e487daff53eb43a47237db6c71f7\" style=\"font-size:30px\"><strong>Conclusion : vers une objectivit\u00e9 op\u00e9rationnelle&nbsp;<\/strong><\/h2>\n\n\n\n<p>Ainsi, l&rsquo;utilisation d&rsquo;une s\u00e9rie d&rsquo;approches visant \u00e0 \u00e9viter des pr\u00e9suppos\u00e9s dans la production de l&rsquo;image et la v\u00e9rification de la validit\u00e9 du processus d&rsquo;imagerie, favorisa l\u2019implication des trois formes de vertus \u00e9pist\u00e9miques d\u00e9crites plus haut, \u00e0 diff\u00e9rents niveaux et moments de la cr\u00e9ation d\u2019<em>M87. <\/em>L\u2019image finale, raisonn\u00e9e et universelle, ayant \u00e9t\u00e9 permise \u00e0 la fois par le concours d\u2019un <em>transfert automatis\u00e9, <\/em>du <em>jugement exerc\u00e9<\/em>, et proc\u00e9dant par la s\u00e9lection et la synth\u00e8se typique de la <em>v\u00e9rit\u00e9-d\u2019apr\u00e8s-nature<\/em>, figure bien les trois types de vertus \u00e9pist\u00e9miques. Elle incarne une vision collective, machinique et humaine, et pr\u00e9sente \u00e0 la fois un objet particulier (M87) et un objet-type (un trou noir), une <em>v\u00e9rit\u00e9-d\u2019apr\u00e8s-<\/em>nature, puisqu\u2019en effet, dans l\u2019\u00e9tape finale de formation de cette image allant au-del\u00e0 de la reproduction par transfert, \u00ab&nbsp;l\u2019objectivit\u00e9 recherch\u00e9e n\u2019\u00e9tait pas la forme m\u00e9canique caract\u00e9ris\u00e9e par une attitude non-interventionniste \u00e0 l\u2019\u00e9gard des donn\u00e9es visuelles&nbsp;\u00bb<sup data-fn=\"58a5568f-7033-478f-9133-109b9a858f53\" class=\"fn\"><a href=\"#58a5568f-7033-478f-9133-109b9a858f53\" id=\"58a5568f-7033-478f-9133-109b9a858f53-link\">42<\/a><\/sup>, puisque sans intervention et manipulations des donn\u00e9es observationnelles, l\u2019image n\u2019aurait pu apparaitre. C\u2019est ce que la th\u00e9oricienne des m\u00e9dias Aud Sissel Hoel nomme l\u2019objectivit\u00e9 op\u00e9rationnelle<sup data-fn=\"2d78653a-e01e-4d67-9006-2b81b5a8f59e\" class=\"fn\"><a href=\"#2d78653a-e01e-4d67-9006-2b81b5a8f59e\" id=\"2d78653a-e01e-4d67-9006-2b81b5a8f59e-link\">43<\/a><\/sup>, fond\u00e9e sur l\u2019interventionnisme des astronomes d\u00e9veloppant des m\u00e9thodes d\u2019imagerie pour visualiser des objets autrement inobservables. Selon Hoel, cette objectivit\u00e9 op\u00e9rationnelle s\u2019exprime en deux temps d\u2019intervention. Premi\u00e8rement, au niveau de l\u2019acquisition des donn\u00e9es via l\u2019utilisation de capteurs non-humains et plus-qu\u2019humains sensibles \u00e0 des fr\u00e9quences et r\u00e9gimes scopiques proprement inhumains et produisant par essence des <em>vues fantomatiques<\/em> ; et deuxi\u00e8mement, au niveau de l\u2019analyse des donn\u00e9es, \u00e0 la fois dans leurs interpr\u00e9tations et dans les \u00e9tapes successives de manipulation qui permettent de r\u00e9v\u00e9ler et de visualiser leurs informations. Dans le cas \u00e9tudi\u00e9 ici, l\u2019objectivit\u00e9 op\u00e9rationnelle serait donc cette forme d\u2019objectivit\u00e9 \u00e9mergeant sp\u00e9cifiquement quand l\u2019\u00e9limination de la suspecte m\u00e9diation humaine ne peut plus \u00eatre remplac\u00e9e exclusivement par le transfert automatis\u00e9 de l\u2019objet observ\u00e9 (comme d\u00e9montr\u00e9 avec l\u2019EHT, qui \u00e9tablit une observation lacunaire d\u2019M87), mais doit s\u2019\u00e9laborer par le concours r\u00e9p\u00e9t\u00e9 d\u2019images op\u00e9rationnelles permettant l\u2019entrainement des logiciels et des agents \u00e0 la construction de l\u2019objet. L\u2019image d\u2019M87 sugg\u00e8re ainsi peut-\u00eatre un tournant vers une objectivit\u00e9 op\u00e9rationnelle, supposant l\u2019implication de la participation de l\u2019humain \u00e0 l\u2019analyse, en renfort aux productions de donn\u00e9es via des instruments automatis\u00e9s. Cette objectivit\u00e9 op\u00e9rationnelle serait cette forme d\u2019objectiv\u00e9 pratiqu\u00e9e \u00e0 l\u2019endroit o\u00f9 se m\u00ealent et se consolident les trois vertus \u00e9pist\u00e9miques et pratiques d&rsquo;imagerie d\u00e9crites par Daston &amp; Galison.Ainsi, cet article aura montr\u00e9 comment l\u2019\u00e9mergence d\u2019<em>M87<\/em> repose sur l\u2019imbrication de trois pratiques d\u2019imagerie et qu\u2019\u00e0 l\u2019endroit o\u00f9 ces pratiques se sont fortifi\u00e9es au contact les unes des autres, c\u2019est celle de l\u2019imagerie op\u00e9rationnelle qui s\u2019est r\u00e9v\u00e9l\u00e9e. Il a \u00e9t\u00e9 d\u00e9montr\u00e9 que c\u2019est bien au moment de la production d\u2019images d\u2019entrainement \u2013 images qui ont \u00ab&nbsp;d\u00e9clench\u00e9 des calculs qui produisent d\u2019autres images&nbsp;\u00bb<sup data-fn=\"20dad6cd-5598-4abc-bc12-7a5496cb7af4\" class=\"fn\"><a href=\"#20dad6cd-5598-4abc-bc12-7a5496cb7af4\" id=\"20dad6cd-5598-4abc-bc12-7a5496cb7af4-link\">44<\/a><\/sup> \u2013, que les trois formes d\u2019objectivit\u00e9 ont pu s\u2019assembler et r\u00e9v\u00e9ler M87. De plus, ce cas d\u2019\u00e9tude aura permis d\u2019entamer une r\u00e9flexion sur l\u2019objectivit\u00e9 op\u00e9rationnelle \u2013 incluant explicitement de nombreuses manipulations et interventions dans les pratiques d\u2019imagerie \u2013, et de montrer que ce sont les op\u00e9rations d\u00e9clench\u00e9es par les images d\u2019entrainement qui ont ici constitu\u00e9 la part heuristique de l&rsquo;image.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-c27fcda2aa993e58e867b8f37565ba5f\" style=\"font-size:30px\"><strong>Bibliographie<\/strong><\/h2>\n\n\n\n<p>Katherine Bouman, He Sun, \u00ab&nbsp;Deep Probabilistic Imaging: Uncertainty Quantification and Multi-modal Solution Characterization for Computational Imaging&nbsp;\u00bb, <em>EHT Collaboration<\/em>, Caltech, 2020. En ligne : <a href=\"https:\/\/arxiv.org\/abs\/2010.14462\">https:\/\/arxiv.org\/abs\/2010.14462<\/a><\/p>\n\n\n\n<p>Katherine Bouman<em>, <\/em>\u201cHow to Take a Picture of a Black Hole?\u201d, <em>TED Talks<\/em>, 2016 [en ligne, consult\u00e9 le 22.04.2024&nbsp;: <a href=\"https:\/\/www.youtube.com\/watch?v=BIvezCVcsYs\">https:\/\/www.youtube.com\/watch?v=BIvezCVcsYs<\/a>].<\/p>\n\n\n\n<p>Katherine Bouman, <em>Extreme Imaging via Physical Model Inversion: Seeing Around Corners and Imaging Black Hole<\/em>, Departement of Electrical Engineering and Computer Science, PhD Thesis, MIT, 2017.<\/p>\n\n\n\n<p>Heino Falcke &amp; al. \u201cDeep Horizon : A machine learning network that recovers accreting black hole parameters\u201d, <em>Astronomy &amp; Astrophisics<\/em>, 2020.<\/p>\n\n\n\n<p>Harun Farocki, \u201cPhantom Images\u201d, <em>Public<\/em>, 1 janvier 2004, n\u00b029.&nbsp;<\/p>\n\n\n\n<p>Lorraine Daston et Peter Galison, <em>Objectivit\u00e9<\/em>, Dijon, Les Presses du R\u00e9el, 2012.&nbsp;<\/p>\n\n\n\n<p>Doeleman &amp; al., \u201cEvent horizon-scale structure in the supermassive black hole candidate at the Galactic Center\u201d, <em>Nature<\/em>, 2008. Een ligne : <a href=\"https:\/\/www.nature.com\/articles\/nature07245\">https:\/\/www.nature.com\/articles\/nature07245<\/a>]<\/p>\n\n\n\n<p>Peter Galison, <em>Philosophy of the Shadow<\/em>, Havard CMSA, 2019. En ligne, consult\u00e9 le 14.04.2024 : <a href=\"https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ\">https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ<\/a><\/p>\n\n\n\n<p>Peter Galison, \u201cImages scatter into data \u2013 Iconoclasm and the Scientific Image\u201d, entretien dans le cadre du cycle <em>BEYOND MATTER? \u2013 A Revival of Clashes between Materiality and Representation,<\/em> ZKM Karlsruhe, 2021. En ligne&nbsp;: <a href=\"https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ\">https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ<\/a>].&nbsp;<\/p>\n\n\n\n<p>Peter Galison, <em>Black Hole&nbsp;: the Edge of All We Know<\/em>, Netflix Production, 2020.<\/p>\n\n\n\n<p>Aud Sissel Hoel, \u00ab&nbsp;Operative Images. Inroads to a New Paradigm of Media Theory&nbsp;\u00bb dans <em>Operative Images. Inroads to a New Paradigm of Media Theory<\/em>, De Gruyter, 2018.<\/p>\n\n\n\n<p>Aud Sissel Hoel, \u201cOperational Objectivity: From Human Computer to Digital Twins\u201d, <em>Photographs from Outer Space. A Female Archeology of Image Data<\/em>, International conference 11-13 December, University of Milan, 2023.<\/p>\n\n\n\n<p>Bruno Latour, La science en action, Paris, La D\u00e9couverte, 1989.<\/p>\n\n\n\n<p>Laurent Nottale, <em>L\u2019Univers et la lumi\u00e8re, Cosmologie classique et mirages<\/em> <em>gravitationnels<\/em>, Flammarion, Paris, 1994.<\/p>\n\n\n\n<p>Jussi Parikka, <em>Operational Images. From the Visual to the Invisual<\/em>, 2023.<\/p>\n\n\n\n<p>John Durham Peters, \u00ab Can You Take a Picture of a Black Hole? \u00bb, <em>Radical Futures Symposium<\/em>, University of Connecticut, 2021<em>. <\/em>En ligne : https:\/\/www.youtube.com\/ watch?v=jbT7ba6_l0E&amp;t=308s<\/p>\n\n\n\n<p>Monique Sicard, <em>La Fabrique du regard : images de science et appareils de vision<\/em>, XV-XX si\u00e8cle, Paris, Odile Jacob, 1998.<\/p>\n\n\n\n<p>Emilie Skulberg, <em>The Event Horizon as a vanishing point: A history of the first image of a black hole shadow from observation<\/em>, PhD Thesis, University of Cambridge, 2021.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n<ol class=\"wp-block-footnotes\"><li id=\"4286074e-67bd-455e-9a82-5b59319dbdab\">Ci-apr\u00e8s EHTC quand il s\u2019agit de d\u00e9signer la collaboration, et EHT, quand il s\u2019agit de d\u00e9signer le r\u00e9seau de t\u00e9lescopes ayant proc\u00e9d\u00e9 \u00e0 la saisie des donn\u00e9es. <a href=\"#4286074e-67bd-455e-9a82-5b59319dbdab-link\" aria-label=\"Aller \u00e0 la note de bas de page 1\">\u21a9\ufe0e<\/a><\/li><li id=\"edbf275c-9b5c-4c6b-b72e-40b38e5ebf43\">Peter Galison, <em>Philosophy of the Shadow<\/em>, Havard CMSA, 2019 [en ligne, consult\u00e9 le 14.04.2024 : <a href=\"https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ\">https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ<\/a>]. <a href=\"#edbf275c-9b5c-4c6b-b72e-40b38e5ebf43-link\" aria-label=\"Aller \u00e0 la note de bas de page 2\">\u21a9\ufe0e<\/a><\/li><li id=\"88ee8fbf-bd61-43ee-90e4-434c8fff0f41\">Lorraine Daston &amp; Peter Galison, <em>Objectivit\u00e9<\/em>, Dijon, Les Presses du r\u00e9el, 2012. <a href=\"#88ee8fbf-bd61-43ee-90e4-434c8fff0f41-link\" aria-label=\"Aller \u00e0 la note de bas de page 3\">\u21a9\ufe0e<\/a><\/li><li id=\"2ec63182-b39b-4bf0-bfca-8a89091f38e6\">Jussi Parikka, <em>Operational Images. From the Visual to the Invisual<\/em>, 2023, p.217. Je traduis. <a href=\"#2ec63182-b39b-4bf0-bfca-8a89091f38e6-link\" aria-label=\"Aller \u00e0 la note de bas de page 4\">\u21a9\ufe0e<\/a><\/li><li id=\"854fca23-e5da-4d99-b5c0-712155ee3ea8\"><em>Op. cit., <\/em>p.211. Je traduis. <a href=\"#854fca23-e5da-4d99-b5c0-712155ee3ea8-link\" aria-label=\"Aller \u00e0 la note de bas de page 5\">\u21a9\ufe0e<\/a><\/li><li id=\"97b0ce50-d7b6-4598-b261-133f0537dbd7\"><sup>\u00a0<\/sup><em>Ibid.<\/em> <a href=\"#97b0ce50-d7b6-4598-b261-133f0537dbd7-link\" aria-label=\"Aller \u00e0 la note de bas de page 6\">\u21a9\ufe0e<\/a><\/li><li id=\"5cdb030e-f8b8-441d-a980-78abd395c220\"><em>Op. cit., <\/em>p. 212. Je traduis. <a href=\"#5cdb030e-f8b8-441d-a980-78abd395c220-link\" aria-label=\"Aller \u00e0 la note de bas de page 7\">\u21a9\ufe0e<\/a><\/li><li id=\"714af214-446b-494a-ac0f-15057e608cd7\">Laurent Nottale, <em>L\u2019Univers et la lumi\u00e8re, Cosmologie classique et mirages<\/em> <em>gravitationnels<\/em>, Flammarion, Paris, 1994, p.11. <a href=\"#714af214-446b-494a-ac0f-15057e608cd7-link\" aria-label=\"Aller \u00e0 la note de bas de page 8\">\u21a9\ufe0e<\/a><\/li><li id=\"4c8330a4-a304-45b8-a2f5-d65febd4502e\">Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em>, p.461. <a href=\"#4c8330a4-a304-45b8-a2f5-d65febd4502e-link\" aria-label=\"Aller \u00e0 la note de bas de page 9\">\u21a9\ufe0e<\/a><\/li><li id=\"cd65e4af-a2dc-4975-9d4a-19b21668a409\">Heino Falcke &amp; al. \u201cDeep Horizon : A machine learning network that recovers accreting black hole parameters\u201d, <em>Astronomy &amp; Astrophisics<\/em>, 2020, p.1. Je traduis. <a href=\"#cd65e4af-a2dc-4975-9d4a-19b21668a409-link\" aria-label=\"Aller \u00e0 la note de bas de page 10\">\u21a9\ufe0e<\/a><\/li><li id=\"f208b20b-5b31-46c6-a9a0-f3666c3b522e\">Katherine Bouman<em>, <\/em>\u201cHow to Take a Picture of a Black Hole?\u201d, <em>TED Talks<\/em>, 2016 [en ligne, consult\u00e9 le 22.04.2024\u00a0: https:\/\/www.youtube.com\/watch?v=BIvezCVcsYs].\u00a0 Je traduis. <a href=\"#f208b20b-5b31-46c6-a9a0-f3666c3b522e-link\" aria-label=\"Aller \u00e0 la note de bas de page 11\">\u21a9\ufe0e<\/a><\/li><li id=\"cb4e3b35-76bc-4a22-b4f5-664552dc92a9\"><em>Ibid.<\/em> <a href=\"#cb4e3b35-76bc-4a22-b4f5-664552dc92a9-link\" aria-label=\"Aller \u00e0 la note de bas de page 12\">\u21a9\ufe0e<\/a><\/li><li id=\"be956b23-01e9-4dc2-b346-36a7f11fec1b\">Le proc\u00e9d\u00e9 d\u2019interf\u00e9rom\u00e9trie \u00e0 tr\u00e8s longue base (<em>Very Large Baseline Interferotmetry<\/em>) est utilis\u00e9 en astronomie pour effectuer les mesures de radiosources lointaines\u00a0en reliant les antennes d\u2019observatoire diff\u00e9rents. Ces mesures disjointes sont ensuite rassembl\u00e9es et corr\u00e9l\u00e9es afin de produire une image r\u00e9sultante. <a href=\"#be956b23-01e9-4dc2-b346-36a7f11fec1b-link\" aria-label=\"Aller \u00e0 la note de bas de page 13\">\u21a9\ufe0e<\/a><\/li><li id=\"c5eeef9e-4648-4450-8290-9bd111e66b1a\">John Durham Peters,<em> <\/em>\u201cCan You Take a Picture of a Black Hole\u00a0?\u201d,<em> Radical Futures<\/em> <em>Symposium, <\/em>University of Connecticut Humanities Institute, Digital Humanities and Media Studies [en ligne, consult\u00e9 le 22.04.2024 : https:\/\/www.youtube.com\/watch?v=jbT7ba6_l0E&amp;t=313s]. Je traduis. <a href=\"#c5eeef9e-4648-4450-8290-9bd111e66b1a-link\" aria-label=\"Aller \u00e0 la note de bas de page 14\">\u21a9\ufe0e<\/a><\/li><li id=\"e75d18ca-d85f-4b44-b3cb-a6a586291a96\"><em>Ibid.<\/em> <a href=\"#e75d18ca-d85f-4b44-b3cb-a6a586291a96-link\" aria-label=\"Aller \u00e0 la note de bas de page 15\">\u21a9\ufe0e<\/a><\/li><li id=\"320ac3bd-1c37-44f2-b29a-549c27d02346\">Peter Galison, \u201cImages scatter into data \u2013 Iconoclasm and the Scientific Image\u201d, entretien dans le cadre du cycle <em>BEYOND MATTER? \u2013 A Revival of Clashes between Materiality and Representation,<\/em> ZKM Karlsruhe, 2021 [en ligne, consult\u00e9 le 20.04.2024\u00a0: <a href=\"https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ\">https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ<\/a>]. Je traduis. <a href=\"#320ac3bd-1c37-44f2-b29a-549c27d02346-link\" aria-label=\"Aller \u00e0 la note de bas de page 16\">\u21a9\ufe0e<\/a><\/li><li id=\"a151a9b1-cc76-4c95-9ecd-3ccee8fa5115\">Harun Farocki, \u201cPhantom Images\u201d, <em>Public<\/em>, 1 janvier 2004, n\u00b029. <a href=\"#a151a9b1-cc76-4c95-9ecd-3ccee8fa5115-link\" aria-label=\"Aller \u00e0 la note de bas de page 17\">\u21a9\ufe0e<\/a><\/li><li id=\"01e395e2-bedd-422c-b2b7-9171361a36b2\">Aud Sissel Hoel, \u00ab\u00a0Operative Images. Inroads to a New Paradigm of Media Theory\u00a0\u00bb dans <em>Operative Images. Inroads to a New Paradigm of Media Theory<\/em>, De Gruyter, 2018, p.13. Je traduis. <a href=\"#01e395e2-bedd-422c-b2b7-9171361a36b2-link\" aria-label=\"Aller \u00e0 la note de bas de page 18\">\u21a9\ufe0e<\/a><\/li><li id=\"4f65a2f5-2b05-413f-af62-18c2a35d1b54\">Emilie Skulberg, <em>The Event Horizon as a Vanishing Point: A history of the First Image of a Black Hole Shadow from Observation<\/em>, PhD Thesis, University of Cambridge, 2021, p.205 et suivantes. <a href=\"#4f65a2f5-2b05-413f-af62-18c2a35d1b54-link\" aria-label=\"Aller \u00e0 la note de bas de page 19\">\u21a9\ufe0e<\/a><\/li><li id=\"d92ce228-21cf-4c4a-8498-f2fd1e15d903\">Les internautes ont \u00e9tabli des comparaisons humoristiques entre <em>M87<\/em> et, notamment, des images m\u00e9dicales de col de d\u2019ut\u00e9rus, de bagels, ou commentant la photo avec humour \u00ab\u00a0Vu sur Amazon [trou noir d\u2019<em>Interstellar<\/em>], d\u00e9livr\u00e9 [image d\u2019<em>M87*<\/em>]\u00a0\u00bb au vu de la faible r\u00e9solution de l\u2019image scientifique. <em>Cf.<\/em> Emilie Skulberg, <em>op.cit<\/em>. <a href=\"#d92ce228-21cf-4c4a-8498-f2fd1e15d903-link\" aria-label=\"Aller \u00e0 la note de bas de page 20\">\u21a9\ufe0e<\/a><\/li><li id=\"8006f60d-3c79-4382-b39d-8b8202382b40\">Monique Sicard, <em>La Fabrique du regard<\/em>, Paris, Odile Jacob, 1998. <a href=\"#8006f60d-3c79-4382-b39d-8b8202382b40-link\" aria-label=\"Aller \u00e0 la note de bas de page 21\">\u21a9\ufe0e<\/a><\/li><li id=\"db7f731a-6070-4c31-9cd7-0a7d25926593\">Monique Sicard, <em>op.cit.,<\/em> p.237. <a href=\"#db7f731a-6070-4c31-9cd7-0a7d25926593-link\" aria-label=\"Aller \u00e0 la note de bas de page 22\">\u21a9\ufe0e<\/a><\/li><li id=\"39fd307d-a7a0-499a-8b0b-bab163005529\">Lorraine Daston &amp; Peter Galison, <em>op.cit.,<\/em> p.455. <a href=\"#39fd307d-a7a0-499a-8b0b-bab163005529-link\" aria-label=\"Aller \u00e0 la note de bas de page 23\">\u21a9\ufe0e<\/a><\/li><li id=\"dca9e402-21ed-42e4-bc8a-bbefd7e7192c\">Doeleman &amp; al., \u201cEvent horizon-scale structure in the supermassive black hole candidate at the Galactic Center\u201d, <em>Nature<\/em>, 2008 [en ligne, consult\u00e9 le 11 avril 2024 : <a href=\"https:\/\/www.nature.com\/articles\/nature07245\">https:\/\/www.nature.com\/articles\/nature07245<\/a>]. <a href=\"#dca9e402-21ed-42e4-bc8a-bbefd7e7192c-link\" aria-label=\"Aller \u00e0 la note de bas de page 24\">\u21a9\ufe0e<\/a><\/li><li id=\"428582b5-e483-4342-b28f-1385d194a5aa\">Katherine Bouman, <em>Extreme Imaging via Physical Model Inversion: Seeing Around Corners and Imaging Black Hole<\/em>, Departement of Electrical Engineering and Computer Science, PhD Thesis, MIT, 2017, p.86. Je traduis. <a href=\"#428582b5-e483-4342-b28f-1385d194a5aa-link\" aria-label=\"Aller \u00e0 la note de bas de page 25\">\u21a9\ufe0e<\/a><\/li><li id=\"b1af3ca4-6069-48b3-99c5-fa0d514814f9\">Heino Falcke &amp; al, <em>op.cit.<\/em>, p.2. <a href=\"#b1af3ca4-6069-48b3-99c5-fa0d514814f9-link\" aria-label=\"Aller \u00e0 la note de bas de page 26\">\u21a9\ufe0e<\/a><\/li><li id=\"4182fc57-878e-4f62-9611-bb6573ed200a\">Katie Bouman, \u00ab\u00a0si nos algorithmes s\u2019appuient trop sur les \u00e9quations d\u2019Einstein, nous ne finirons que par voir ce que nous esp\u00e9rons voir. [\u2026] Il nous faut une fa\u00e7on de dire \u00e0 nos algorithmes \u00e0 quoi les images ressemblent sans trop imposer de caract\u00e9ristiques.\u00bb,<em> <\/em>\u201cHow to Take a Picture of a Black Hole?\u201d, <em>op.cit.<\/em> <a href=\"#4182fc57-878e-4f62-9611-bb6573ed200a-link\" aria-label=\"Aller \u00e0 la note de bas de page 27\">\u21a9\ufe0e<\/a><\/li><li id=\"2c354fca-75ee-48d9-8a02-71de0a62f1d3\">Dans le film documentaire r\u00e9alis\u00e9 par Peter Galison, <em>Black Hole\u00a0: the Edge of All We Know<\/em>, Netflix Production, 2020, on peut notamment entendre diff\u00e9rents membres de l\u2019EHTC exprimer leurs doutes quant \u00e0 leur objectivit\u00e9 [vers 1h19]\u00a0: \u00ab Nous voyons l&rsquo;anneau, mais il faut \u00eatre tr\u00e8s sceptique. Vous savez, j\u2019adorerais le voir, et c\u2019est pr\u00e9cis\u00e9ment ce qui me rend tr\u00e8s m\u00e9fiant envers moi-m\u00eame et envers ce que je vois\u00a0\u00bb\u00a0; \u00ab\u00a0Nous devrions vraiment faire attention \u00e0 ce que nous pensons voir\u00a0\u00bb\u00a0; \u00ab\u00a0Nous essayons d\u2019\u00eatre tr\u00e8s prudents \u00e0 ce sujet. Le pire serait de dire que nous avons vu l&rsquo;ombre d&rsquo;un trou noir et de d\u00e9couvrir plus tard qu&rsquo;il s&rsquo;agissait d&rsquo;un artefact d&rsquo;imagerie.\u00a0\u00bb <a href=\"#2c354fca-75ee-48d9-8a02-71de0a62f1d3-link\" aria-label=\"Aller \u00e0 la note de bas de page 28\">\u21a9\ufe0e<\/a><\/li><li id=\"ee248e56-90d7-4c26-a1b6-d782623bc1ef\">Peter Galison, <em>Philosophy of the Shadow<\/em>, <em>op.cit<\/em>. <a href=\"#ee248e56-90d7-4c26-a1b6-d782623bc1ef-link\" aria-label=\"Aller \u00e0 la note de bas de page 29\">\u21a9\ufe0e<\/a><\/li><li id=\"d7a079ba-3932-48c2-b6d6-a3dffa3409d5\"><em>Ibid.<\/em> <a href=\"#d7a079ba-3932-48c2-b6d6-a3dffa3409d5-link\" aria-label=\"Aller \u00e0 la note de bas de page 30\">\u21a9\ufe0e<\/a><\/li><li id=\"7868e6c4-1f51-4729-8870-da6bad3ee0f8\">Katie Bouman, dans <em>Black Hole: the Edge of All We Know, op.cit. <\/em>[vers 1h20]. <a href=\"#7868e6c4-1f51-4729-8870-da6bad3ee0f8-link\" aria-label=\"Aller \u00e0 la note de bas de page 31\">\u21a9\ufe0e<\/a><\/li><li id=\"3448af5f-aa9a-4de1-afe0-80ec01d155f7\">Peter Galison, <em>Philosophy of the Shadow, op.cit.<\/em> <a href=\"#3448af5f-aa9a-4de1-afe0-80ec01d155f7-link\" aria-label=\"Aller \u00e0 la note de bas de page 32\">\u21a9\ufe0e<\/a><\/li><li id=\"ad3bdf5c-dc81-47ad-a506-cc73ee491900\">Jussi Parikka, <em>ibid.<\/em> <a href=\"#ad3bdf5c-dc81-47ad-a506-cc73ee491900-link\" aria-label=\"Aller \u00e0 la note de bas de page 33\">\u21a9\ufe0e<\/a><\/li><li id=\"63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82\">Bruno Latour, <em>La Science en action<\/em>, Paris, La D\u00e9couverte, 1989. <a href=\"#63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82-link\" aria-label=\"Aller \u00e0 la note de bas de page 34\">\u21a9\ufe0e<\/a><\/li><li id=\"6af9a963-f068-45f9-ac0a-829eedefd4c7\">Lorraine Daston &amp; Peter Galison, <em>op.cit<\/em>., p.474. <a href=\"#6af9a963-f068-45f9-ac0a-829eedefd4c7-link\" aria-label=\"Aller \u00e0 la note de bas de page 35\">\u21a9\ufe0e<\/a><\/li><li id=\"6d47e294-0e32-4ec1-bc15-240c51adb5e6\"><sup>\u00a0<\/sup><em>Ibid<\/em>, p.440. <a href=\"#6d47e294-0e32-4ec1-bc15-240c51adb5e6-link\" aria-label=\"Aller \u00e0 la note de bas de page 36\">\u21a9\ufe0e<\/a><\/li><li id=\"13af276a-7f10-4119-a0bf-24eb8e96dd6b\"><em>Ibid<\/em>, p.462. <a href=\"#13af276a-7f10-4119-a0bf-24eb8e96dd6b-link\" aria-label=\"Aller \u00e0 la note de bas de page 37\">\u21a9\ufe0e<\/a><\/li><li id=\"d68bc54c-7d71-46c1-8f19-885acf71606a\"><em>Ibid<\/em>, p.417. <a href=\"#d68bc54c-7d71-46c1-8f19-885acf71606a-link\" aria-label=\"Aller \u00e0 la note de bas de page 38\">\u21a9\ufe0e<\/a><\/li><li id=\"246ca128-4723-415f-aee5-c41f97cb581c\">Peter Galison<em>, op. cit.<\/em> <a href=\"#246ca128-4723-415f-aee5-c41f97cb581c-link\" aria-label=\"Aller \u00e0 la note de bas de page 39\">\u21a9\ufe0e<\/a><\/li><li id=\"7a0d5de4-b268-488e-b8c3-403337afadea\"><sup>\u00a0<\/sup><em>Ibid.<\/em> <a href=\"#7a0d5de4-b268-488e-b8c3-403337afadea-link\" aria-label=\"Aller \u00e0 la note de bas de page 40\">\u21a9\ufe0e<\/a><\/li><li id=\"1d9f3e63-15ed-42ba-91fa-3329f5cae921\">Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em>, p. 446. <a href=\"#1d9f3e63-15ed-42ba-91fa-3329f5cae921-link\" aria-label=\"Aller \u00e0 la note de bas de page 41\">\u21a9\ufe0e<\/a><\/li><li id=\"58a5568f-7033-478f-9133-109b9a858f53\">Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em> p.466. <a href=\"#58a5568f-7033-478f-9133-109b9a858f53-link\" aria-label=\"Aller \u00e0 la note de bas de page 42\">\u21a9\ufe0e<\/a><\/li><li id=\"2d78653a-e01e-4d67-9006-2b81b5a8f59e\">Aud Sissel Hoel, \u201cOperational Objectivity: From Human Computer to Digital Twins\u201d, <em>Photographs from Outer Space. A Female Archeology of Image Data<\/em>, International conference 11-13 December, University of Milan, 2023. <a href=\"#2d78653a-e01e-4d67-9006-2b81b5a8f59e-link\" aria-label=\"Aller \u00e0 la note de bas de page 43\">\u21a9\ufe0e<\/a><\/li><li id=\"20dad6cd-5598-4abc-bc12-7a5496cb7af4\">Jussi Parikka, <em>op. cit.<\/em> <a href=\"#20dad6cd-5598-4abc-bc12-7a5496cb7af4-link\" aria-label=\"Aller \u00e0 la note de bas de page 44\">\u21a9\ufe0e<\/a><\/li><\/ol>","protected":false},"excerpt":{"rendered":"<p>Cet article d\u00e9crit la construction de l\u2019image du trou noir M87 comme reposant sur trois pratiques d\u2019imagerie distinctes, impliquant chacune des rapports diff\u00e9rents \u00e0 l\u2019objectivit\u00e9. Il y sera d\u00e9montr\u00e9 que l\u2019assemblage in\u00e9dit de ces pratiques d\u2019imageries repose sur un quatri\u00e8me type sous-jacent\u00a0: la fabrique d\u2019images op\u00e9rationnelles.<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"_jetpack_memberships_contains_paid_content":false,"footnotes":"[{\"content\":\"Ci-apr\u00e8s EHTC quand il s\u2019agit de d\u00e9signer la collaboration, et EHT, quand il s\u2019agit de d\u00e9signer le r\u00e9seau de t\u00e9lescopes ayant proc\u00e9d\u00e9 \u00e0 la saisie des donn\u00e9es.\",\"id\":\"4286074e-67bd-455e-9a82-5b59319dbdab\"},{\"content\":\"Peter Galison, <em>Philosophy of the Shadow<\/em>, Havard CMSA, 2019 [en ligne, consult\u00e9 le 14.04.2024 : <a href=\\\"https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ\\\">https:\/\/www.youtube.com\/watch?v=BofWFoiKARQ<\/a>].\",\"id\":\"edbf275c-9b5c-4c6b-b72e-40b38e5ebf43\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>Objectivit\u00e9<\/em>, Dijon, Les Presses du r\u00e9el, 2012.\",\"id\":\"88ee8fbf-bd61-43ee-90e4-434c8fff0f41\"},{\"content\":\"Jussi Parikka, <em>Operational Images. From the Visual to the Invisual<\/em>, 2023, p.217. Je traduis.\",\"id\":\"2ec63182-b39b-4bf0-bfca-8a89091f38e6\"},{\"content\":\"<em>Op. cit., <\/em>p.211. Je traduis.\",\"id\":\"854fca23-e5da-4d99-b5c0-712155ee3ea8\"},{\"content\":\"<sup>\u00a0<\/sup><em>Ibid.<\/em>\",\"id\":\"97b0ce50-d7b6-4598-b261-133f0537dbd7\"},{\"content\":\"<em>Op. cit., <\/em>p. 212. Je traduis.\",\"id\":\"5cdb030e-f8b8-441d-a980-78abd395c220\"},{\"content\":\"Laurent Nottale, <em>L\u2019Univers et la lumi\u00e8re, Cosmologie classique et mirages<\/em> <em>gravitationnels<\/em>, Flammarion, Paris, 1994, p.11.\",\"id\":\"714af214-446b-494a-ac0f-15057e608cd7\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em>, p.461.\",\"id\":\"4c8330a4-a304-45b8-a2f5-d65febd4502e\"},{\"content\":\"Heino Falcke &amp; al. \u201cDeep Horizon : A machine learning network that recovers accreting black hole parameters\u201d, <em>Astronomy &amp; Astrophisics<\/em>, 2020, p.1. Je traduis.\",\"id\":\"cd65e4af-a2dc-4975-9d4a-19b21668a409\"},{\"content\":\"Katherine Bouman<em>, <\/em>\u201cHow to Take a Picture of a Black Hole?\u201d, <em>TED Talks<\/em>, 2016 [en ligne, consult\u00e9 le 22.04.2024\u00a0: https:\/\/www.youtube.com\/watch?v=BIvezCVcsYs].\u00a0 Je traduis.\",\"id\":\"f208b20b-5b31-46c6-a9a0-f3666c3b522e\"},{\"content\":\"<em>Ibid.<\/em>\",\"id\":\"cb4e3b35-76bc-4a22-b4f5-664552dc92a9\"},{\"content\":\"Le proc\u00e9d\u00e9 d\u2019interf\u00e9rom\u00e9trie \u00e0 tr\u00e8s longue base (<em>Very Large Baseline Interferotmetry<\/em>) est utilis\u00e9 en astronomie pour effectuer les mesures de radiosources lointaines\u00a0en reliant les antennes d\u2019observatoire diff\u00e9rents. Ces mesures disjointes sont ensuite rassembl\u00e9es et corr\u00e9l\u00e9es afin de produire une image r\u00e9sultante.\",\"id\":\"be956b23-01e9-4dc2-b346-36a7f11fec1b\"},{\"content\":\"John Durham Peters,<em> <\/em>\u201cCan You Take a Picture of a Black Hole\u00a0?\u201d,<em> Radical Futures<\/em> <em>Symposium, <\/em>University of Connecticut Humanities Institute, Digital Humanities and Media Studies [en ligne, consult\u00e9 le 22.04.2024 : https:\/\/www.youtube.com\/watch?v=jbT7ba6_l0E&amp;t=313s]. Je traduis.\",\"id\":\"c5eeef9e-4648-4450-8290-9bd111e66b1a\"},{\"content\":\"<em>Ibid.<\/em>\",\"id\":\"e75d18ca-d85f-4b44-b3cb-a6a586291a96\"},{\"content\":\"Peter Galison, \u201cImages scatter into data \u2013 Iconoclasm and the Scientific Image\u201d, entretien dans le cadre du cycle <em>BEYOND MATTER? \u2013 A Revival of Clashes between Materiality and Representation,<\/em> ZKM Karlsruhe, 2021 [en ligne, consult\u00e9 le 20.04.2024\u00a0: <a href=\\\"https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ\\\">https:\/\/www.youtube.com\/watch?v=feOm6StmwUQ<\/a>]. Je traduis.\",\"id\":\"320ac3bd-1c37-44f2-b29a-549c27d02346\"},{\"content\":\"Harun Farocki, \u201cPhantom Images\u201d, <em>Public<\/em>, 1 janvier 2004, n\u00b029.\",\"id\":\"a151a9b1-cc76-4c95-9ecd-3ccee8fa5115\"},{\"content\":\"Aud Sissel Hoel, \u00ab\u00a0Operative Images. Inroads to a New Paradigm of Media Theory\u00a0\u00bb dans <em>Operative Images. Inroads to a New Paradigm of Media Theory<\/em>, De Gruyter, 2018, p.13. Je traduis.\",\"id\":\"01e395e2-bedd-422c-b2b7-9171361a36b2\"},{\"content\":\"Emilie Skulberg, <em>The Event Horizon as a Vanishing Point: A history of the First Image of a Black Hole Shadow from Observation<\/em>, PhD Thesis, University of Cambridge, 2021, p.205 et suivantes.\",\"id\":\"4f65a2f5-2b05-413f-af62-18c2a35d1b54\"},{\"content\":\"Les internautes ont \u00e9tabli des comparaisons humoristiques entre <em>M87<\/em> et, notamment, des images m\u00e9dicales de col de d\u2019ut\u00e9rus, de bagels, ou commentant la photo avec humour \u00ab\u00a0Vu sur Amazon [trou noir d\u2019<em>Interstellar<\/em>], d\u00e9livr\u00e9 [image d\u2019<em>M87*<\/em>]\u00a0\u00bb au vu de la faible r\u00e9solution de l\u2019image scientifique. <em>Cf.<\/em> Emilie Skulberg, <em>op.cit<\/em>.\",\"id\":\"d92ce228-21cf-4c4a-8498-f2fd1e15d903\"},{\"content\":\"Monique Sicard, <em>La Fabrique du regard<\/em>, Paris, Odile Jacob, 1998.\",\"id\":\"8006f60d-3c79-4382-b39d-8b8202382b40\"},{\"content\":\"Monique Sicard, <em>op.cit.,<\/em> p.237.\",\"id\":\"db7f731a-6070-4c31-9cd7-0a7d25926593\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>op.cit.,<\/em> p.455.\",\"id\":\"39fd307d-a7a0-499a-8b0b-bab163005529\"},{\"content\":\"Doeleman &amp; al., \u201cEvent horizon-scale structure in the supermassive black hole candidate at the Galactic Center\u201d, <em>Nature<\/em>, 2008 [en ligne, consult\u00e9 le 11 avril 2024 : <a href=\\\"https:\/\/www.nature.com\/articles\/nature07245\\\">https:\/\/www.nature.com\/articles\/nature07245<\/a>].\",\"id\":\"dca9e402-21ed-42e4-bc8a-bbefd7e7192c\"},{\"content\":\"Katherine Bouman, <em>Extreme Imaging via Physical Model Inversion: Seeing Around Corners and Imaging Black Hole<\/em>, Departement of Electrical Engineering and Computer Science, PhD Thesis, MIT, 2017, p.86. Je traduis.\",\"id\":\"428582b5-e483-4342-b28f-1385d194a5aa\"},{\"content\":\"Heino Falcke &amp; al, <em>op.cit.<\/em>, p.2.\",\"id\":\"b1af3ca4-6069-48b3-99c5-fa0d514814f9\"},{\"content\":\"Katie Bouman, \u00ab\u00a0si nos algorithmes s\u2019appuient trop sur les \u00e9quations d\u2019Einstein, nous ne finirons que par voir ce que nous esp\u00e9rons voir. [\u2026] Il nous faut une fa\u00e7on de dire \u00e0 nos algorithmes \u00e0 quoi les images ressemblent sans trop imposer de caract\u00e9ristiques.\u00bb,<em> <\/em>\u201cHow to Take a Picture of a Black Hole?\u201d, <em>op.cit.<\/em>\",\"id\":\"4182fc57-878e-4f62-9611-bb6573ed200a\"},{\"content\":\"Dans le film documentaire r\u00e9alis\u00e9 par Peter Galison, <em>Black Hole\u00a0: the Edge of All We Know<\/em>, Netflix Production, 2020, on peut notamment entendre diff\u00e9rents membres de l\u2019EHTC exprimer leurs doutes quant \u00e0 leur objectivit\u00e9 [vers 1h19]\u00a0: \u00ab Nous voyons l'anneau, mais il faut \u00eatre tr\u00e8s sceptique. Vous savez, j\u2019adorerais le voir, et c\u2019est pr\u00e9cis\u00e9ment ce qui me rend tr\u00e8s m\u00e9fiant envers moi-m\u00eame et envers ce que je vois\u00a0\u00bb\u00a0; \u00ab\u00a0Nous devrions vraiment faire attention \u00e0 ce que nous pensons voir\u00a0\u00bb\u00a0; \u00ab\u00a0Nous essayons d\u2019\u00eatre tr\u00e8s prudents \u00e0 ce sujet. Le pire serait de dire que nous avons vu l'ombre d'un trou noir et de d\u00e9couvrir plus tard qu'il s'agissait d'un artefact d'imagerie.\u00a0\u00bb\",\"id\":\"2c354fca-75ee-48d9-8a02-71de0a62f1d3\"},{\"content\":\"Peter Galison, <em>Philosophy of the Shadow<\/em>, <em>op.cit<\/em>.\",\"id\":\"ee248e56-90d7-4c26-a1b6-d782623bc1ef\"},{\"content\":\"<em>Ibid.<\/em>\",\"id\":\"d7a079ba-3932-48c2-b6d6-a3dffa3409d5\"},{\"content\":\"Katie Bouman, dans <em>Black Hole: the Edge of All We Know, op.cit. <\/em>[vers 1h20].\",\"id\":\"7868e6c4-1f51-4729-8870-da6bad3ee0f8\"},{\"content\":\"Peter Galison, <em>Philosophy of the Shadow, op.cit.<\/em>\",\"id\":\"3448af5f-aa9a-4de1-afe0-80ec01d155f7\"},{\"content\":\"Jussi Parikka, <em>ibid.<\/em>\",\"id\":\"ad3bdf5c-dc81-47ad-a506-cc73ee491900\"},{\"content\":\"Bruno Latour, <em>La Science en action<\/em>, Paris, La D\u00e9couverte, 1989.\",\"id\":\"63a00365-6aa4-4c61-a8b1-a5ef5f2b2c82\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>op.cit<\/em>., p.474.\",\"id\":\"6af9a963-f068-45f9-ac0a-829eedefd4c7\"},{\"content\":\"<sup>\u00a0<\/sup><em>Ibid<\/em>, p.440.\",\"id\":\"6d47e294-0e32-4ec1-bc15-240c51adb5e6\"},{\"content\":\"<em>Ibid<\/em>, p.462.\",\"id\":\"13af276a-7f10-4119-a0bf-24eb8e96dd6b\"},{\"content\":\"<em>Ibid<\/em>, p.417.\",\"id\":\"d68bc54c-7d71-46c1-8f19-885acf71606a\"},{\"content\":\"Peter Galison<em>, op. cit.<\/em>\",\"id\":\"246ca128-4723-415f-aee5-c41f97cb581c\"},{\"content\":\"<sup>\u00a0<\/sup><em>Ibid.<\/em>\",\"id\":\"7a0d5de4-b268-488e-b8c3-403337afadea\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em>, p. 446.\",\"id\":\"1d9f3e63-15ed-42ba-91fa-3329f5cae921\"},{\"content\":\"Lorraine Daston &amp; Peter Galison, <em>op.cit.<\/em> p.466.\",\"id\":\"58a5568f-7033-478f-9133-109b9a858f53\"},{\"content\":\"Aud Sissel Hoel, \u201cOperational Objectivity: From Human Computer to Digital Twins\u201d, <em>Photographs from Outer Space. A Female Archeology of Image Data<\/em>, International conference 11-13 December, University of Milan, 2023.\",\"id\":\"2d78653a-e01e-4d67-9006-2b81b5a8f59e\"},{\"content\":\"Jussi Parikka, <em>op. cit.<\/em>\",\"id\":\"20dad6cd-5598-4abc-bc12-7a5496cb7af4\"}]"},"categories":[267],"tags":[286,274,285],"class_list":["post-7659","post","type-post","status-publish","format-standard","hentry","category-images-operationnelles","tag-astronomie","tag-images-operationnelles","tag-objectivite"],"jetpack_featured_media_url":"","jetpack_shortlink":"https:\/\/wp.me\/s9TfUI-pillet","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/posts\/7659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/comments?post=7659"}],"version-history":[{"count":57,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/posts\/7659\/revisions"}],"predecessor-version":[{"id":7827,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/posts\/7659\/revisions\/7827"}],"wp:attachment":[{"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/media?parent=7659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/categories?post=7659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/imagessecondes.fr\/index.php\/wp-json\/wp\/v2\/tags?post=7659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}