Ils nettoient Internet en ce moment même

Brownstone Institute – 30 octobre 2024

Par Jeffrey A. Tucker , Debbie Lerman

Les cas de censure se multiplient au point de devenir la norme. Malgré les poursuites judiciaires en cours et l’attention accrue du public, les réseaux sociaux traditionnels se sont montrés plus féroces que jamais ces derniers mois. Les podcasteurs savent avec certitude ce qui sera immédiatement supprimé et débattent entre eux du contenu dans les zones grises. Certains, comme Brownstone, ont abandonné YouTube au profit de Rumble, sacrifiant de vastes audiences ne serait-ce que pour voir leur contenu survivre et voir la lumière du jour. 

Il ne s’agit pas toujours d’être censuré ou non. Les algorithmes actuels incluent une série d’outils qui affectent la recherche et la trouvabilité. Par exemple, l’interview de Joe Rogan avec Donald Trump a été vue 34 millions de fois avant que YouTube et Google ne modifient leurs moteurs de recherche pour la rendre difficile à découvrir, tout en présidant à un dysfonctionnement technique qui a empêché de nombreuses personnes de la visionner. Face à cela, Rogan s’est rendu sur la plateforme X pour publier les trois heures. 

Naviguer dans ce maquis de censure et de quasi-censure fait désormais partie du modèle économique des médias alternatifs. 

Ce ne sont là que les gros titres. Derrière les gros titres se cachent des événements techniques qui affectent fondamentalement la capacité de tout historien à regarder en arrière et à raconter ce qui se passe. Incroyable, le service Archive.org, qui existe depuis 1994, a cessé de prendre des images de contenu sur toutes les plateformes. Pour la première fois en 30 ans, nous avons parcouru une longue période de temps – du 8 au 10 octobre – depuis que ce service a chroniqué la vie d’Internet en temps réel. 

Au moment où j’écris ces lignes, nous n’avons aucun moyen de vérifier le contenu publié pendant les trois semaines d’octobre précédant les élections les plus controversées et les plus importantes de notre vie. Il ne s’agit pas ici de partisanerie ou de discrimination idéologique. Aucun site Web sur Internet n’est archivé de manière à être accessible aux utilisateurs. En fait, toute la mémoire de notre principal système d’information n’est qu’un grand trou noir à l’heure actuelle. 

Les problèmes sur Archive.org ont commencé le 8 octobre 2024, lorsque le service a été soudainement frappé par une attaque par déni de service massive (DDOS) qui a non seulement mis hors service le service, mais a également introduit un niveau de défaillance qui l’a presque complètement anéanti. Fonctionnant 24 heures sur 24, Archive.org est revenu en tant que service en lecture seule, là où il est aujourd’hui. Cependant, vous ne pouvez lire que le contenu publié avant l’attaque. Le service n’a pas encore repris l’affichage public de la mise en miroir de sites sur Internet. 

En d’autres termes, la seule source sur l’ensemble du Web qui reproduit le contenu en temps réel a été désactivée. Pour la première fois depuis l’invention du navigateur Web lui-même, les chercheurs se sont vus privés de la possibilité de comparer le contenu passé avec le contenu futur, une fonction essentielle des chercheurs qui étudient les actions des gouvernements et des entreprises. 

C’est grâce à ce service, par exemple, que les chercheurs de Brownstone ont pu découvrir précisément ce que le CDC avait dit à propos du plexiglas, des systèmes de filtration, des bulletins de vote par correspondance et des moratoires sur les locations. Ce contenu a ensuite été supprimé de l’Internet en direct, de sorte que l’accès aux copies d’archives était le seul moyen de savoir et de vérifier ce qui était vrai. Il en a été de même avec l’Organisation mondiale de la santé et son dénigrement de l’immunité naturelle, qui a été modifié par la suite. Nous avons pu documenter les changements de définitions uniquement grâce à cet outil, qui est désormais désactivé. 

Cela signifie que n’importe quel site Web peut publier n’importe quoi aujourd’hui et le supprimer demain sans laisser de trace de ce qu’il a publié, à moins qu’un utilisateur, quelque part, n’ait pris une capture d’écran. Même dans ce cas, il n’existe aucun moyen de vérifier l’authenticité du contenu. L’approche standard consistant à savoir qui a dit quoi et quand a disparu. Autrement dit, l’ensemble d’Internet est déjà censuré en temps réel, de sorte que pendant ces semaines cruciales, où de vastes pans du public s’attendent à des actes répréhensibles, n’importe qui dans le secteur de l’information peut s’en tirer sans se faire prendre. 

Nous savons ce que vous pensez. Cette attaque DDoS n’était sûrement pas une coïncidence. Le moment était tout simplement trop parfait. Et c’est peut-être le cas. Nous ne le savons tout simplement pas. Archive.org soupçonne-t-il quelque chose de ce genre ? Voici ce qu’ils disent :

La semaine dernière, en plus d’une attaque DDoS et de la divulgation des adresses e-mail et des mots de passe cryptés des usagers, le JavaScript du site Web des Archives Internet a été dégradé, ce qui nous a amenés à fermer le site pour y accéder et améliorer notre sécurité. Les données stockées dans les Archives Internet sont en sécurité et nous travaillons à la reprise des services en toute sécurité. Cette nouvelle réalité exige une attention accrue à la cybersécurité et nous réagissons. Nous nous excusons pour l’impact de l’indisponibilité de ces services de bibliothèque.

État profond ? Comme pour toutes ces choses, il n’y a aucun moyen de le savoir, mais l’effort visant à détruire la capacité d’Internet à avoir un historique vérifié s’inscrit parfaitement dans le modèle de distribution d’informations entre les parties prenantes, qui a clairement été priorisé au niveau mondial. La Déclaration sur l’avenir d’Internet le dit très clairement : Internet devrait être « gouverné par une approche multipartite, dans laquelle les gouvernements et les autorités compétentes s’associent aux universitaires, à la société civile, au secteur privé, à la communauté technique et à d’autres ». Toutes ces parties prenantes bénéficient de la possibilité d’agir en ligne sans laisser de traces.

Un bibliothécaire d’Archive.org a écrit que « pendant que la Wayback Machine était en mode lecture seule, l’exploration et l’archivage du Web se sont poursuivis. Ces documents seront disponibles via la Wayback Machine à mesure que les services seront sécurisés. »

Quand ? Nous ne le savons pas. Avant les élections ? Dans cinq ans ? Il y a peut-être des raisons techniques, mais il semblerait que si l’exploration du Web se poursuit en coulisses, comme le suggère la note, elle pourrait également être disponible en mode lecture seule maintenant. Ce n’est pas le cas.

Il est inquiétant de constater que cet effacement de la mémoire Internet se produit à plusieurs endroits. Pendant de nombreuses années, Google proposait une version en cache du lien que vous recherchiez juste en dessous de la version en direct. Ils disposent désormais de suffisamment d’espace serveur pour le permettre, mais non : ce service a désormais complètement disparu. En fait, le service de cache de Google a officiellement pris fin une semaine ou deux seulement avant le crash d’Archive.org, fin septembre 2024.

Ainsi, les deux outils disponibles pour rechercher des pages en cache sur Internet ont disparu à quelques semaines d’intervalle et quelques semaines seulement après l’élection du 5 novembre.

D’autres tendances inquiétantes transforment également les résultats de recherche sur Internet en listes contrôlées par l’IA et contenant des récits approuvés par les autorités. Autrefois, le classement des résultats de recherche sur Internet était régi par le comportement des utilisateurs, les liens, les citations, etc. Il s’agissait de mesures plus ou moins organiques, basées sur une agrégation de données indiquant l’utilité d’un résultat de recherche pour les internautes. En termes simples, plus les gens trouvaient un résultat de recherche utile, plus il était bien classé. Google utilise désormais des mesures très différentes pour classer les résultats de recherche, notamment ce qu’il considère comme des « sources fiables » et d’autres déterminations opaques et subjectives.

De plus, le service le plus utilisé qui classait autrefois les sites Web en fonction du trafic n’existe plus. Ce service s’appelait Alexa. La société qui l’avait créé était indépendante. Puis, un jour de 1999, Amazon l’a racheté. Cela semblait encourageant, car Amazon était riche. Cette acquisition semblait codifier l’outil que tout le monde utilisait comme une sorte de mesure du statut sur le Web. Il était courant à l’époque de prendre note d’un article quelque part sur le Web, puis de le rechercher sur Alexa pour voir sa portée. Si c’était important, on le remarquait, mais si ce n’était pas le cas, personne ne s’en souciait particulièrement.

C’est ainsi qu’a fonctionné toute une génération de techniciens web. Le système a fonctionné aussi bien qu’on pouvait l’espérer.

En 2014, des années après avoir acquis Alexa, le service de classement des utilisateurs, Amazon a fait une chose étrange. Elle a lancé son assistant domestique (et son appareil de surveillance) portant le même nom. Tout à coup, tout le monde en avait chez soi et pouvait tout savoir en disant « Dis Alexa ». Il y avait quelque chose d’étrange à ce qu’Amazon nomme son nouveau produit d’après une entreprise sans rapport avec le sien, qu’elle avait acquise des années plus tôt. Il y a sans doute eu une certaine confusion causée par le chevauchement des noms.

Voici ce qui s’est passé ensuite. En 2022, Amazon a activement supprimé l’outil de classement Web. Il ne l’a pas vendu. Il n’a pas augmenté les prix. Il n’a rien fait avec. Il l’a soudainement fait disparaître complètement. 

Personne n’a pu comprendre pourquoi. C’était la norme de l’industrie, et soudain, elle a disparu. Pas vendue, juste balayée. Personne ne pouvait plus déterminer le classement des sites Web en fonction du trafic sans payer des prix très élevés pour des produits propriétaires difficiles à utiliser.

Toutes ces données, qui peuvent sembler sans rapport entre elles lorsqu’elles sont considérées individuellement, font en réalité partie d’une longue trajectoire qui a déplacé notre paysage informationnel vers un territoire méconnaissable. Les événements de la Covid de 2020-2023, avec leurs efforts massifs de censure et de propagande à l’échelle mondiale, ont considérablement accéléré ces tendances. 

On se demande si quelqu’un se souviendra de ce qu’était le site autrefois. Le piratage et la destruction d’Archive.org le soulignent : il n’y aura plus de mémoire. 

Au moment où j’écris ces lignes, trois semaines de contenu Web n’ont pas été archivées. Ce qui nous manque et ce qui a changé est une énigme. Et nous n’avons aucune idée de la date à laquelle le service reviendra. Il est tout à fait possible qu’il ne revienne pas, que la seule véritable histoire à laquelle nous puissions nous référer soit celle d’avant le 8 octobre 2024, date à laquelle tout a changé. 

L’Internet a été créé pour être libre et démocratique. Il faudra des efforts herculéens pour rétablir cette vision, car quelque chose d’autre la remplace rapidement.



Publié sous une licence Creative Commons Attribution 4.0 International.
Pour les réimpressions, veuillez définir le lien canonique vers l’article et l’auteur d’origine du Brownstone Institute .

Auteurs

  • Jeffrey A TuckerJeffrey A. TuckerJeffrey Tucker est le fondateur, l’auteur et le président du Brownstone Institute. Il est également chroniqueur économique senior pour Epoch Times, auteur de 10 livres, dont Life After Lockdown , et de plusieurs milliers d’articles dans la presse spécialisée et populaire. Il intervient fréquemment sur des sujets d’économie, de technologie, de philosophie sociale et de culture.Voir tous les articles  
  • Debbie LermanDebbie Lerman, lauréate de la bourse Brownstone 2023, est titulaire d’un diplôme d’anglais de Harvard. Elle est rédactrice scientifique à la retraite et artiste en exercice à Philadelphie, en Pennsylvanie.Voir tous les articles