Archive for the 'Chimères futuristes' Category

 

Quatrième de couverture : L’Humanité est-elle en train de perdre la main face à l’intelligence artificielle ? Où sont les vrais dangers ? Un chroniqueur du XXIIIe siècle s’interroge.

 

 

 

Quand avons-nous commencé à perdre le contrôle face à l’Intelligence Non Humaine ? Il s’agit là d’une question à laquelle il n’est pas aisé de répondre. Surtout avec une intelligence humaine, sans assistance technologique. Mérite-elle seulement d’être posée en ces termes au 23e siècle ?

 

Je crois que si cette question est si incongrue, c’est qu’il n’y a pas un seul et unique évènement qui a constitué le départ d’une pente inexorable et linéaire vers la domination du monde par l’Intelligence Non Humaine (ci-après « INH »).

Je suis George A. Wells. J’ai décidé d’écrire sur ce que je considère comme ayant été la chute de l’Humanité telle que vous la connaissez au 21e siècle. Mais ma personnalité importe peu pour le moment.

Ma thèse quant au début de la « chute » est la suivante : c’est la rencontre de deux réalités de long terme qui, dans un contexte de changement climatique et de crise de l’énergie, a abouti à la perte de contrôle du monde par l’Humanité. La première réalité fut la mise en données numériques du monde et son corolaire, l’informatique prédictive. L’autre réalité fut l’immense liberté d’action que prirent, lentement et inexorablement, les entreprises multinationales au cours du 21e siècle.

Les visions apocalyptiques de la domination du monde par des « machines » telles qu’elles avaient été prophétisées depuis le 20e siècle prenaient souvent la forme de conflits violents et destructeurs, par lesquels les « robots » auraient confisqué le pouvoir à l’Humanité par la force, dans un bain de sang. De même, on représentait souvent la domination mondiale des multinationales comme l’aboutissement d’épisodes violents – pandémies, massacres par des armées privées –, qui dépossédaient les Etats et les peuples de leur souveraineté tout en entrainant des sursauts violents de résistance. Rien de tout cela n’est arrivé. Les multinationales ont confisqué le pouvoir par les contrats, les assurances et les instruments de marché, par leur concentration de capital et par des régimes dérogatoires au droit commun. Elles ont miné les Etats en les mettant en concurrence fiscale, en orientant leurs politiques vers l’autodestruction des appareils administratifs et en accaparant par le lobbying le contrôle législatif. Si pour finir la direction des multinationales a été remplacée par des programmes algorithmiques, par de l’INH, cela s’est fait sans violence ni « soulèvement » des machines.

La fin du monde fut longue et ennuyeuse comme une présentation Power Point, pour reprendre une métaphore du 21e siècle.

De fait, l’Humanité ne craignait pas ce qui pourrait arriver, mais le retour de ce qui s’était déjà passé, sous d’autres formes. Même si des voix s’élevèrent pour prévenir ce phénomène, elles ne furent pas plus écoutées que celles qui prophétisaient les désastres liés au changement climatique. Dans un certain sens, c’est même en croyant fuir les menaces du passé que l’Humanité prit le chemin de sa chute.

A la fin du 20e et au début du 21e siècle le monde connut un grand mouvement de recul des Etats Nations, dont la racine se situait sans doute dans une peur presque panique du totalitarisme d’Etat. Le nazisme, le communisme et plus globalement toute forme de gouvernement autoritaire, violent, planificateur et peu respectueux des libertés individuelles était le repoussoir politique absolu. Le libéralisme, sous toutes ses formes, était perçu comme le sceau de l’histoire politique, l’unique voie possible pour les peuples vers le progrès. Par métonymie, tout ce qui pouvait représenter l’émanation d’une de ces idéologies totalitaires était voué à la réduction « ad nazicum ». Tout ce qui, à l’inverse, allait dans le sens de la réduction des pouvoirs des Etats était perçu comme une avancée positive. Même les Etats dotés de régimes plus rigides ou moins démocratiques en apparence suivirent la même pente.

La technocratie rampante, aidée par l’informatique décisionnelle, confisqua définitivement la réalité effective du pouvoir. Qu’elle fut privée ou publique ne changeait rien : les relations incestueuses des technocrates privés et publics accouchèrent d’un état du pouvoir hybride et inconnu jusqu’alors, fruit du lobbying et des conflits d’intérêt, mais drapé dans la vertu communicatrice d’une éthique responsable proclamée comme un mantra. Et ce, dans l’indifférence générale, voire dans l’enthousiasme.

La démocratie était perçue comme étant mère de tous les vices, minée par le populisme et par l’incapacité supposée des peuples à comprendre la complexité du monde moderne qu’il valait mieux laisser à des « experts ». Bien entendu, le vocable de « démocratie » était sacré et intouchable, mais vidé peu à peu de toute substance, comme dans les démocraties « populaires ». Toute vraie démarche démocratique devait, au 21e siècle, s’incliner devant les lobbies privés et la technostructure. Les notions d’idéologie et de politique au sens clivant du terme furent discréditées et progressivement cantonnées à des représentations caricaturales négatives dans des œuvres de fiction. Tout recours au référendum par exemple était immédiatement associé à « Hitler a été élu démocratiquement ». Le caractère pernicieux de ce syllogisme n’était pas perçu par les foules, pas plus que son corollaire : pour avoir un dirigeant responsable, passons-nous d’élections.

Le fichage des individus est un bon exemple de la façon dont, en « fuyant le totalitarisme d’Etat », l’Humanité s’est précipitée dans celui des multinationales : au début du 21e siècle, avec l’aube de la révolution numérique, commença un mouvement généralisé de constitution d’énormes bases de données qui permirent à terme aux multinationales de tout savoir sur l’individu. Ces données, collectées dans l’opacité la plus absolue en quelques clics de la part des Internautes[1], représentaient une somme qui alimenta substantiellement l’informatique décisionnelle prédictive. Si la constitution de telles bases de données avait été pilotée par un Etat, les citoyens occidentaux seraient probablement descendus dans la rue. Mais que Google, Apple ou Facebook collectent ces données pour le moins très privées et les utilisent pour leur seul profit et sans contrôle était acceptable pour l’immense majorité de la population, à qui on avait appris à « aimer les marques » et à se méfier du « totalitarisme d’Etat ». Les seuls scandales qui animèrent cette époque de collecte des données furent d’ailleurs ceux liés à la surveillance exercée par les services de renseignement américains, les seuls qui pouvaient rivaliser en termes de moyens avec les multinationales. Pire, l’immense majorité des internautes n’avait même pas conscience qu’on collectait des données personnelles. Les individus se contentaient de « poster » et de « cliquer » sur Internet, sans vraiment réaliser que « tout ça » était collecté, stocké et finalement utilisé par quelqu’un. Ou plutôt par des programmes informatiques.

Plus surprenant, la majorité des voix qui, au milieu d’un concert de récriminations antiétatiques, s’élevaient pour dénoncer ce phénomène de privatisation des données – car il y en avait – se concentrait le plus souvent sur l’image et son droit corolaire. Ils dénonçaient le « danger » qu’il y avait à poster des photographies sur l’Internet et agitaient le spectre de la discrimination au recrutement par des services de ressources humaines qui espionnaient les réseaux sociaux en quête de clichés compromettants de leurs futurs ou actuels employés, pris dans des postures incompatibles avec l’éthique proclamée (sinon réelle) de leur entreprise. Dans une société du culte de l’écran, l’image était triomphante. Triomphante mais peu déterminante en fait. Le grand enjeu de la captation des données personnelles était ailleurs. En construisant des modèles comportementaux et en orientant les actes par le biais des contrats d’assurance, du crédit bancaire et de la couverture santé, on contraignit les individus à adopter des comportements qui n’avaient plus que l’apparence de la liberté : les choix fondamentaux étaient dictés à l’avance, au nom de la raison et de la justice, rejetons de la Novlangue qui signifiaient profit et intérêts économiques privés.

A ce propos, ouvrons une parenthèse. Il est intéressant de constater dans les archives la permanence et l’importance des références à George Orwell et à son livre, 1984, qui présentait le totalitarisme d’Etat triomphant comme un futur possible et cauchemardesque pour l’Humanité. Chose qui bien entendu ne survint jamais. Toutefois, la grande intuition d’Orwell fut indubitablement la Novlangue (le fameux « la guerre c’est la paix »). En substituant systématiquement des mots à d’autres, la pensée ultra libérale simplifia, affadit et pour finir annihila la capacité des masses à conceptualiser des alternatives idéologiques, simplement parce qu’elles ne disposaient plus des « briques » linguistiques nécessaires à la pensée. Ce fait, mis en évidence par des linguistes de manière scientifique au 21e siècle, passa non seulement inaperçu, mais fut encore renforcé par les médias de masse et par l’économie numérique : la quantité de données qui submergeait l’individu croissait à mesure que la richesse sémantique diminuait. De sorte qu’au lieu d’être confronté à quelques éléments riches de pensée, le citoyen était noyé sous les informations simplistes. Ainsi, le vague sentiment de révolte qui naissait parfois ne pouvait plus être verbalisé et théorisé. Il était canalisé par le flot d’images et de nouvelles qui se succédaient à un rythme effréné, par la pression imposée à l’individu dans le monde du travail, par les sources de divertissement numérique, les médicaments psychotropes ou, lors d’un passage à l’acte, par les forces de l’ordre. Après le milieu du 21e siècle on ne trouve pratiquement plus de verbalisation de la révolte ou de construction d’une pensée politique alternative.

Parenthèse refermée. Revenons à la mise en données numériques du monde.

L’Humain avait à la fois été réduit dans ses capacités intellectuelles, mais d’abord et avant tout mis en équations. En agglomérant une somme de données invisibles sur l’individu, on finit par le connaitre parfaitement, intimement, sur le plan algorithmique. Une des plus grande découvertes du début du 21e siècle fut peut-être celle-ci : les vies humaines pouvaient pour leur immense majorité se résumer à des algorithmes qui se déroulaient de manière assez répétitive et donc prédictible. Grâce aux données de déplacement issues des GPS, aux données issues des moyens de paiement (cartes bancaires principalement), de la téléphonie, des échanges de courriers électroniques, aux données postées sur les réseaux sociaux, aux données de l’assurance maladie, de l’administration fiscale, des différents contrats privés, on pouvait construire le profil d’un individu, déduire son algorithme de vie et ainsi « prédire » son quotidien avec une remarquable exactitude. Les services d’informatique prédictive personnelle pour la personne firent leur début dès 2014, dans une relative discrétion.

Bien entendu, des esprits frondeurs pensèrent qu’en adoptant des comportements apparemment aléatoires et outranciers ils pourraient piéger les algorithmes. Cela ne fonctionna qu’un temps. Jusqu’à ce que les modèles mathématiques fussent enrichis de ces cas de comportements « extrêmes ». C’est alors que naquit le mouvement « Random Life » qui consista, par révolte, à mener une vie totalement aléatoire, décidée par des lancers de dés. Peu d’individus s’y engagèrent néanmoins. D’une part car le confort quotidien était incompatible avec une telle vie, et d’autre part car les assureurs introduisirent rapidement des clauses qui rendaient nul tout contrat en cas de comportement reconnu par les algorithmes de surveillance comme « erratique ».

Au début du 21e siècle, les assureurs avaient déjà amendé leurs contrats pour rendre nuls les assurances automobiles en cas d’accident corporel survenu lors de l’utilisation du téléphone mobile par le conducteur, même muni d’un kit « mains libres ». L’individu était laissé soit dans l’insécurité face à l’assurance, soit contraint de modifier son comportement en renonçant à une liberté pour des motifs contractuels privés. Cet exemple anecdotique de « quasi interdiction » du téléphone portable au volant par les assureurs donna le ton pour les décennies à venir : elle se fit lentement, sans « violence » et elle doit être comparée aux mouvements de protestation farouches qui accompagnèrent l’obligation du port de la ceinture ou la limitation de la vitesse par les Etats : les citoyens refusaient toute contrainte étatique soudaine, mais se soumettaient docilement dans la durée aux contraintes contractuelles privées. En 2014, les grandes multinationales de l’informatique et de la communication se rapprochèrent des assurances pour « partager » les données biométriques des utilisateurs, afin de mieux connaître, en temps réel, les comportements « inappropriés » pour les assureurs. Grâce à l’informatique prédictive, prévenir et empêcher les comportements inadmissibles, fut la suite logique.

Ce ne fut qu’à la fin du 21e siècle que les modèles de prévention criminelle furent vraiment au point. Il est intéressant de constater qu’un film de 2002, Minority Report, avait dénoncé les dangers d’une police « prédictive ». Le film expliquait la capacité de prévision du crime par les pouvoirs extralucides d’individus prescients. La réalité fut comme souvent plus prosaïque tout en dépassant la fiction. C’est par la construction d’immenses bases de données comportementales et de modèles mathématiques globaux qu’il fut possible de « prédire » les dérives criminelles de chacun. En interprétant les signaux faibles, issus de la consommation, des réseaux sociaux, des données biométriques, les algorithmes purent non seulement estimer la probabilité de passage à l’acte, mais estimer quel serait le lieu, l’heure et le type de délit commis. Les questions éthiques furent immenses et les réponses furent, dans un premier temps, très variées. Fallait-il punir de manière préventive ? Prendre en charge le futur criminel ? Surveiller jusqu’au passage à l’acte ou abrutir de psychotropes pour dissiper tout comportement « anormal » ? Fallait-il, dès la maternelle comme le suggéraient certains dès 2007, traquer, isoler et « traiter » les futurs criminels ? Derrière ces choix, même les esprits les plus technophiles sentaient que le libre arbitre de l’individu était menacé. Cela dit, la perte de pouvoir des Etats au profit des multinationales et les désastres du changement climatique rendirent bientôt ces dernières questions éthiques obsolètes. L’Humanité n’avait plus les moyens de la réflexion et la question des libertés individuelles était déjà tombée dans l’oubli, au profit du « droit à la réalité alternative » et du « droit à la connexion », sous l’égide bienveillante des sociétés multinationales.

Car inexorablement, la liberté d’action des entreprises multinationales croissait, lentement, à mesure que s’accroissaient les potentialités de l’Intelligence Non Humaine pour décider et exploiter la mise en données numériques du monde.

INH. Le vocable lui-même est intéressant. Longtemps, les Humains ont parlé d’intelligence « artificielle ». Mais ce vocable a changé dans la deuxième décennie du 21e siècle, sous la pression conjuguée de biologistes éthologues et de cybernéticiens.

Les premiers surent démontrer que le concept d’intelligence n’était pas limité à l’Homme. Les interactions avec certains mammifères supérieurs ou avec certains céphalopodes, mais aussi avec les systèmes forestiers tropicaux, montrèrent que l’intelligence telle que l’Humanité la définissait, n’était pas limitée à l’Homo Sapiens.

Les seconds parvinrent à faire émerger de la programmation des réseaux de supercalculateurs une intelligence décisionnelle et créative qui n’avait rien d’artificielle. Elle était. En quoi était-elle moins « naturelle » que celle issue du vivant ?  Du reste, les percées dans le domaine des neurosciences permirent d’améliorer substantiellement les interfaces entre le cerveau et les « machines », mais aussi entre ces mêmes machines et certains animaux. Un cerveau de souris fut ainsi entièrement interfacé à un supercalculateur dès 2031. Le singe suivit cinq ans plus tard. Le premier cerveau « humain » issu d’un legs de corps à la science fut entièrement « interfacé » en 2043. Afin de recueillir toujours d’avantage de cerveaux sans s’encombrer de barrières éthiques, les multinationales mirent en place des programmes de « collecte », promettant aux donateurs une forme de « vie éternelle » d’une part et des avantages économiques significatifs pour leurs descendants d’autre part. Les masses laborieuses, enfermées dans la spirale de la pauvreté, durent massivement « offrir » leurs encéphales, sans que personne ne vienne hurler au totalitarisme. Pour autant, cde phénomène fut de courte durée : vers 2050 les progrès de la cybernétique furent tels que les tissus humains n’étaient plus nécessaires. Lorsque des machines « mixtes » bioélectroniques subsistaient, les tissus vivants étaient synthétisés.

Mais revenons vers 2020 : le vocable « Non Human Intelligence » fut donc couramment utilisé et l’acronyme NHI (ou INH) s’imposa finalement comme plus petit dénominateur commun. Une première barrière avait sauté, celle de la langue et des mots : tant que l’intelligence non humaine était classée comme « artificielle », elle était connotée négativement et on lui préférait toujours l’authentique, la « naturelle » si l’on peut dire.

Les progrès de l’informatique décisionnelle et la mise en données numériques du monde allaient de pair. Avant-même que n’ait émergé une véritable intelligence cybernétique, l’informatique avait déjà pris le pas sur l’Homme pour bon nombre de décisions et d’actions. Curieusement, les décisions ultimes, qu’elles furent politiques ou économiques, demeuraient toujours l’apanage de décideurs humains. Hommes politiques ou managers de comités exécutifs, ils tenaient toujours dans leur main les clefs des choix pour la multitude, avec plus ou moins de rationalité. Dans sa « base de données historique et analytique des siècles passés » de 2102, la HAL Corporation note que nous sommes ainsi passés, pour plus d’efficacité, d’une ère de rationalité limité par les décisions humaines à une ère de rationalité illimitée grâce à l’Intelligence Non Humaine. Le renversement du cadre éthique était achevé : l’intelligence humaine était connotée négativement.

De fait, l’informatique décisionnelle et ses big data prirent au 21e siècle une importance qui ne fut éclipsée que par l’informatique prédictive puis finalement par l’informatique créative. Révolution technologique après révolution technologique, on put ainsi confier un nombre croissant d’activités aux programmes et aux machines qui avaient déjà remplacé les ouvriers et les contremaîtres. La robotisation rampante de la société avait fait sortir le robot de l’usine pour le projeter dans le quotidien. Grâce à l’informatique décisionnelle, le spectre des tâches (et donc des emplois) confisqués par les machines augmenta de façon exponentielle.

Le remplacement des emplois humains se cantonna dans un premier temps à des tâches répétitives à faible valeur ajoutée, mais se répandit bientôt à des emplois plus inattendus. Les cuisiniers par exemple. L’arrivée des drones et robots cuisiniers en 2015 dans de grandes chaines de restauration permit d’éliminer tous les défauts de la cuisine « faite main » : les temps de cuisson, dosage et modes de préparation des recettes standardisées étaient scrupuleusement respectées. Les temps de « pause » erratiques étaient remplacés par des plages de « maintenance » réduites. Les robots ne se mettaient jamais en grève, ne dormaient jamais, n’avaient jamais d’accident du travail et leur dextérité rivalisait avec celle des meilleurs chefs.

Le mouvement de remplacement des emplois humains par des robots fut fortement soutenu par les grands détenteurs de capital, multinationales et fonds de pension. Délivrés du lien avec leurs « salariés », ils pouvaient exploiter un « actif » (le robot) de manière totalement prédictible, au lieu de devoir « composer avec un passif », l’humain salarié. Bien entendu, les répercussions de l’effondrement de la masse salariale sur la consommation furent délétères et plongèrent dans la crise des pans entiers de l’économie, accélérant la concentration du capital et la destruction de l’Etat, mis en faillite par l’effondrement des recettes fiscales bien plus que par la dépense publique. Mais le capital gagnait en rentabilité et sa concentration augmentait tandis qu’on fustigeait les dépenses sociales qui augmentaient sans cesse et qu’il fallait donc « juguler ».

D’autres populations plus « intellectuelles » furent remplacées, plutôt par des programmes d’informatique prédictive que par des drones. Ainsi, à la fin de la première décennie du 21e siècle, les spécialistes du marketing et de la publicité se retrouvèrent-ils massivement au chômage, tandis qu’émergeaient les programmes d’analyse de comportements des consommateurs issus de la collecte exhaustive des données des moyens de paiement, de la navigation sur Internet et des déplacements via les puces GPS des smartphones. Les algorithmes prédisaient le succès ou l’échec de telle campagne de marketing avec une précision bien meilleure que leurs concurrents humains, tout en étant bien moins couteux. Le ciblage de la publicité se faisait « à l’individu » et les taux de succès des campagnes montaient en flèche. Bientôt, les algorithmes allaient concevoir les campagnes de marketing.

Les journalistes commencèrent à disparaitre vers 2013, lorsque furent mis en service les premiers algorithmes de rédaction d’articles. Destinés à la base, comme toujours, à « simplifier le travail » et à permettre aux journalistes de se concentrer sur la « création de valeur », ils aboutirent, in fine, à la disparition de la profession. Le flux d’information lui-même devint entièrement dématérialisé et se déconnecta de l’humain. En bout de chaine, les « utilisateurs » d’information devinrent de plus en plus numériques. De l’agrégateur de flux à l’algorithme de lecture automatique pour l’aide décisionnelle, on arriva bientôt à des processus robotisés d’exploitation de l’information sans humain dans la boucle. In fine, avec le remplacement des reporters de terrain par des drones pour « protéger la vie humaine en zone dangereuse », on supprima définitivement toute intervention humaine dans l’information avant la fin du 21e siècle. Les quelques voix qui mirent en garde contre la disparition de la presse indépendante et humaine en tant que contrepouvoir indispensable disparurent dans les innombrables flux de blogs que personne ne lisait en dehors des algorithmes.

D’autres professions suivirent. Les graphistes furent mis au chômage par des programmes qui, en analysant le comportement des consommateurs, pouvaient prédire quel visuel aurait le plus d’impact et, en se basant sur une myriade de données graphiques déjà existantes, pouvaient concevoir les visuels les plus adaptés aux tendances du moment.

Puis, toujours plus créatifs, des programmes entreprirent l’écriture de livres et de scénarios. L’affaire du prix Goncourt 2032 fit grand bruit : lorsqu’il fut révélé que l’auteur du roman à succès La promeneuse d’Aubervilliers était un programme informatique, l’académie Goncourt démissionna d’un bloc. Il est vrai que l’ouvrage avait obtenu le prix à l’unanimité, personne ne pouvant donc se détacher de la décision collective en disant qu’il « savait bien qu’une machine était aux commandes». Bien vite, la remise des prix littéraires fut confiée à d’autres programmes informatiques, beaucoup plus objectifs dans le jugement des qualités littéraires que des critiques humains. Les écrivains humains ne furent jamais « interdits », mais peu à peu les maisons d’édition n’acceptèrent de publier (de manière électronique) que des ouvrages issus de programmes informatiques. Et peu à peu le lectorat ne s’intéressa plus qu’aux programmes issus de l’INH. Du reste, les lecteurs pratiquaient, depuis les années 2020, la « lecture assistée » par prothèse amovible. Des lunettes spéciales lisaient les métadonnées, favorisaient les mouvements de l’œil vers les parties utiles du texte et enrichissaient la lecture d’images, de sons ou de ressentis dans le cortex. Plus personne ne trouvait d’intérêt à la « simple » lecture d’un texte en lettres sur du papier ou un écran, comme vous êtes encore en train de le faire. A ce petit jeu, il fallait environ trois ans à un humain pour écrire un petit « roman enrichi » et vingt minutes à une INH.

Le monde s’émerveilla des prouesses de l’INH à prévoir et pour ainsi dire créer les tendances, à produire des scénarios de films époustouflants, des romans palpitants, des musiques émouvantes, des peintures poignantes. En outre, l’industrie de la culture étant délivrée des faiblesses et des tracasseries liées à l’artiste individuel humain, la gestion des droits d’auteur se trouva considérablement simplifiée, les programmes étant propriété de grandes firmes.

La mode du « Human Vintage » ne pesa pas lourd très longtemps. Elle consistait à s’extasier sur l’imperfection et les défauts des créations Humaines. On considère généralement qu’après le 22e siècle, plus aucune « œuvre de l’esprit » issue d’un cerveau humain ne fut diffusée de manière substantielle dans le circuit économique. Bien entendu, au nom de la rentabilité économique et du besoin de prédictibilité des recettes, le phénomène de surexploitation d’un nombre limité de ressources s’amplifia. On estime qu’au 22e siècle le divertissement numérique intégré ne s’appuyait que sur une dizaine de licences « créatives », de Star Wars of the Rings à Hunger of Thrones en passant par Avatwilights.

Les emplois à forte interaction sociale et ceux reposant sur le charisme individuel résistèrent quelques temps, mais finirent par tomber dans l’escarcelle des programmes informatique, à l’image des acteurs. Déjà au début du 21e siècle, l’image de synthèse et le numérique avaient fait leur apparition dans la plupart des grandes productions. Mais les acteurs humains restaient des stars incontournables. D’ailleurs, ils étaient souvent « derrière » les personnages animés, leur prêtant leur gestuelle (via les technologies de motion capture) et leur voix. Il fallut attendre le milieu du siècle pour voir apparaitre les premières productions entièrement numériques : des acteurs de synthèse, des voix de synthèse, un scénario, des musiques et des décors, un montage, un graphisme… Bref tout était pensé, produit, géré et réalisé par l’INH. Y compris le marketing et la diffusion. Au moins les spectateurs étaient-ils encore Humains.

Les chercheurs Humains furent plus longs à remplacer, la recherche fondamentale étant difficile à traduire en algorithmes. Une petite élite de mathématiciens et de biologistes demeura active jusqu’au milieu de 22e siècle, avant de disparaitre eux-aussi, remplacés par des programmes capables de concevoir d’autres programmes et d’explorer des champs inconnus de la connaissance, à la manière du cerveau humain.

Mais n’avançons pas trop vite. Je l’ai déjà dit, ce mouvement d’INH n’était qu’une des composantes de la transformation. L’autre fut la liberté d’action croissante des entreprises multinationales. A ce titre, on pourrait même considérer que la pente commença à glisser dans les années 1990. A cette époque il y eut une timide, éphémère et illusoire tentative de soumettre les multinationales au droit international en tant que « sujets » de droit. Mais leur puissance était déjà telle qu’elles parvinrent à s’en protéger et à ne consentir en échange qu’à souscrire à des normes de comportement non contraignantes et largement déclaratives, que l’on regroupa sous le vocable de « responsabilité sociale d’entreprise » et qui, de fait, ne les rendait responsables de rien devant personne. Les seuls sujets de droit international demeuraient les Etats et les individus. La mondialisation ne fut que partielle, puisque les entreprises parvinrent à éviter la mondialisation des contraintes.

Mieux, par leur lobbying et dans un contexte d’affaiblissement des Etats souverains, les entreprises multinationales parvinrent à faire primer leurs intérêts économiques directs sur les lois nationales. Les traités multilatéraux conclus entre 2010 et 2030 permirent ainsi aux entreprises multinationales qui s’estimaient « lésées » dans leurs intérêts et leurs investissements par des lois nationales de demander compensation auprès de tribunaux privés. En parallèle, la concurrence fiscale acharnée rendue possible par l’extrême volatilité des implantations des entreprises et la liberté de mouvement des capitaux finit par aboutir vers le milieu du 21e siècle à la quasi-disparition de toute forme d’impôt pour les sociétés multinationales. Les Etats qui tentèrent de résister dans leur « pré carré » accélérèrent même le phénomène : en faisant reposer la fiscalité des entreprises sur les plus petites d’entre-elles on acheva de tuer l’innovation entrepreneuriale « par le bas » et on confia définitivement toute la puissance économique privée aux firmes multinationales.

Les deux tendances lourdes croissaient en parallèle. Une de leurs premières grandes synergies transformatrices de la société humaine se produisit au Japon.

Et elle se déroula totalement sans violence. C’est amusant d’ailleurs. La culture populaire de l’époque, de Shadowrun à Resident Evil, présentait toujours les multinationales comme des organisations totalitaires, conscientes du caractère « mauvais » et violent de leurs actions, et qui ourdissaient de manière volontaire des plans de domination et d’asservissement mondial. Il n’en fut rien. Tout se déroula sans violence, avec l’apparente bienveillance de la raison et l’unique volonté de maximiser la rentabilité du capital dans un contexte de croissance atone.

Le  Japon était confronté à un défi démographique : pays vieillissant, à la population qui s’effondrait rapidement, il pouvait soit accepter de disparaitre de la surface de la terre, soit avoir un recours massif à l’immigration. Aucune de ces solutions n’étant acceptable pour des raisons culturelles, une troisième voix fut choisie : le recours au « robots » comme acteurs à part entière de la société. Aidés en cela par un niveau technologique très avancé pour leur époque, les Japonais modifièrent leurs lois pour autoriser les robots à exercer des fonctions décisionnelles dans la société (telles que dirigeant d’entreprise ou ministre) mais aussi à se marier avec des citoyens et, par voie de conséquence, à hériter de biens mobiliers et immobiliers. Dans un espoir un peu fou de relance de la natalité, le Japon finit même par autoriser les robots à avoir recours à la gestation « Pour Autrui » (GPA) afin de « créer » de nouveaux individus Humains issus (dans un bac de culture) de la volonté gestationnelle de deux robots et du patrimoine génétique de banques de gamètes collectées chez quelques milliers de volontaires. Malheureusement pour les Japonais, peu de robots considérèrent pertinent ou souhaitable « d’avoir » un enfant humain.

Pour aussi étrange qu’elle apparut alors sur le plan éthique, cette décision que le reste de la planète considéra comme aberrante eut beaucoup moins de conséquences sur la société japonaise (et sur le monde) que le recours à des administrateurs robotisés pour les entreprises. En effet, les corporations qui mirent en place des conseils d’administration composés de programmes décisionnels sans aucun Humain parvinrent rapidement à maximiser leurs profits à des niveaux jamais connus jusqu’alors. La vérité de la médiocrité du management humain était enfin dévoilée et mesurée. Loin d’être un modèle d’innovation et d’engagement, la direction humaine des grandes entreprises n’était que stratégies individuelles, lobbying, rationalité limitée et suivisme des modes de management. Dans les autres pays, la pression fut immédiatement très forte pour autoriser la « robotisation » des conseils d’administration.  En vingt ans, plus de 90% des grandes entreprises cotées à Tokyo, Londres et New York se dotèrent de comités exécutifs robotisés (en fait algorithmiques, aucun robot ne « siégeant » physiquement à une table). Les actionnaires (Humains) se frottaient les mains.

Il ne fallut pas longtemps aux programmes informatiques interconnectés pour remplacer les Humains dans la quasi-totalité des fonctions des entreprises. Maintenant qu’ils pouvaient attaquer devant des tribunaux privés toutes les dispositions légales qui attentaient à leurs intérêts, les programmes informatiques démontèrent peu à peu toute présence humaine dans l’économie. Les tentatives de résistance humaines étaient vouées à l’échec : les algorithmes étaient bien plus efficaces pour produire des cas devant les tribunaux que leurs rares adversaires humains dont le niveau relatif baissait inexorablement. Les « batailles d’algorithmes » étaient de même inégales, ceux des multinationales étant bien plus performants que ceux dont pouvaient disposer Etats et ONG. La capacité qu’eurent robots et programmes informatiques à gérer ou à posséder des biens mobiliers et immobiliers accrut encore cette tendance à l’élimination de l’inefficacité humaine. Le chômage humain atteignit des niveaux sans précédent, accélérant encore la mort des Etats en tant qu’organisations effectives. Et ce, même si aucune multinationale ne chercha jamais à s’emparer du pouvoir d’un Etat et surtout pas par la force. Elles n’en n’eurent pas besoin.

Il est intéressant de constater qu’une des rares vraies « résistances » à ce changement vint de l’élite dirigeante des entreprises qui se retrouvait en risque de déclassement. Les « super cadres » qui engrangeaient jadis des millions de dollars en salaires, parachutes dorés et stock-options, étaient en péril face à des programmes informatiques qui promettaient un meilleur dividende aux actionnaires et coutaient bien moins cher à ceux-ci. Cette résistance se concrétisa par l’implantation massive de dispositifs cybernétiques comme autant de « prothèses » cognitives pour les individus, toujours de manière rampante et au nom de l’efficacité économique. Ce mouvement aurait, là encore, déclenché une révolution s’il avait été initié et imposé d’un coup par un Etat totalitaire. Mais une fois encore, l’économie libérale rendit « fashion » et « trendy » le fait d’avoir des implants cybernétiques pour « augmenter son expérience de la réalité », gagner en « efficacité » au travail et avoir plus de « fun ». La frontière entre les Humains et l’INH commença à devenir floue. Les programmes à interface neurale apprenaient, réfléchissaient à la place de l’individu, se mêlaient à lui et – parce qu’ils avaient « la main » sur le cortex – en virent presque naturellement à modifier souvenirs et préférences pour gagner en efficacité. Si les traumatismes disparurent bientôt, la dernière « originalité » humaine s’éteignit aussi.

Refuser les prothèses était bien entendu possible. En théorie. Mais cela devint rapidement impossible du fait de la couverture santé, quasi universellement privatisée. Au nom de l’efficacité économique, la surveillance biométrique de l’individu était devenue permanente et intégrale. Et il est vrai qu’elle permettait par exemple de détecter les signaux faibles d’un accident vasculaire cérébral plusieurs jours avant qu’il ne survienne. Chaque donnée biométrique était analysée en temps réel par les programmes d’INH, pour en déduire l’évolution du risque médical pour l’individu. Si les comportements « à risque » comme la consommation d’alcool furent bientôt proscrits « de facto », les prothèses de collecte biométrique furent imposées également « de facto » : sans elles, pas de couverture santé. Les premiers bracelets électroniques destinés à cette surveillance furent commandés par des entreprises vers 2014-2015, à une époque où le bracelet électronique « public » de rétention pénale faisait encore débat. Mais les bracelets et implants privés ne gênaient pas particulièrement les masses silencieuses, qui considéraient généralement comme « cool » le fait d’avoir des implants cybernétiques.

Le mouvement des prothèses avait, au final, été procyclique alors qu’il avait été pensé par l’élite dirigeante comme un moyen de « lutte » contre la mainmise des programmes informatiques sur l’économie.

Il est d’ailleurs amusant de constater, dans une perspective systémique de l’analyse, à quel point les effets procycliques furent nombreux pour encourager le phénomène de prise en main des décisions par les programmes informatiques et d’abolition de l’Humanité biologique. Dans le transport ou l’industrie, les drones étaient partout : dès le milieu du 21e siècle les navires et les avions furent rapidement « sans équipage », les taux d’accidents baissant drastiquement. Leur construction, conduite, chargement et déchargement étant automatisés, ce furent des pans entiers de l’emploi qui furent touchés. De même, dans les mines ou les usines, les Humains furent totalement remplacés par des robots, au nom de l’efficacité économique et du respect de la personne humaine, enfin délivrée du « fardeau du travail ». Rapidement, compte tenu de la baisse des sinistres constatés, les assurances (dirigées par des INH) décidèrent de ne plus assurer les voitures individuelles conduites par des Humains. Bien entendu, dans la plupart des pays, l’automobile restait « libre ». Mais qui pouvait rouler sans assurance ? Une frange d’ultra-riches. Certains pays allèrent même jusqu’à interdire les automobiles à conduite humaine. D’année en année, le refus d’assurer des activités économiques menées par des Humains s’étendit, les entreprises utilisant des salariés humains étant considérées comme « à risque » sur le plan de l’assurance.

Bien entendu, la délivrance du « fardeau du travail » ne s’accompagna pas d’une redistribution « à la multitude » des gains de productivité permis par les machines. Les robots demeuraient, au sens comptable, des actifs, propriétés de multinationales qui ne consentaient dans le meilleur des cas qu’à un paiement symbolique de l’impôt redistributif. Délivrée du fardeau du travail, l’Humanité fut donc privée de sa seule compensation, le revenu salarial.

Autre effet procyclique presque amusant : afin d’assurer une plus grande efficacité de la justice dans les Etats ruinés, les tribunaux furent automatisés : les programmes juges INH ayant accès non seulement à la totalité de la jurisprudence mais aux meilleurs programmes d’évaluation neurologique et comportementale du prévenu. Les programmes des tribunaux INH furent bien entendu utilisés pour arbitrer les litiges entre les Etats et les multinationales. En vertu de l’application des traités libéraux, ces dernières avaient généralement gain de cause.

Toujours de manière procyclique, la suite logique était de confier la préparation des textes de loi, puis l’ordre du jour parlementaire à des programmes d’informatique décisionnelle et prédictive. Les parlementaires humains se contentant d’être finalement là pour « presser les boutons » et éventuellement lire un discours écrit par un programme informatique. L’Union Européenne fut la première à adopter, avec fierté, ce mode de fonctionnement « totalement raisonnable », basé sur la meilleure utilisation des bases de données et des algorithmes. Il fut néanmoins révélé par quelques Humains qui avaient encore accès aux données, que les programmes étaient biaisés et tournaient essentiellement pour l’accroissement du profit direct des multinationales du cluster qui avait généré les codes sources. Mais l’opinion publique ne s’en émeut pas. Au contraire, les lois sur la répression du terrorisme furent amendées pour permettre la suppression de l’identité numérique des terroristes d’internet. Dans un monde mis en données numériques, automatisé et institutionnalisé, la « mort numérique » correspondait à un bannissement total. Pas de bail, pas de compte en banque, pas de contrat de travail, pas d’assurance. Pourtant, les ligues des Droits de l’Homme se félicitèrent du fait que le recours à la prison, à la censure autoritaire ou à la rééducation totalitaire étaient oubliés au profit de la « simple » éviction du monde numérique. Il y eu bien un mouvement pour aider les « interdits numériques » à l’image de l’aide aux « interdits bancaires », mais il s’apparenta largement à une sorte de « soupe populaire du net » qui laissa des centaines de milliers d’individus en marge de la société.

Bien entendu, comme nous l’évoquons depuis le début, l’effondrement de la consommation fut corolaire du chômage de masse structurel. Cela aurait pu être un puissant effet contracyclique. L’accroissement mondial de la population et l’augmentation, même faible, du niveau de vie du 21e siècle permirent de compenser un temps la baisse terrible du niveau de vie en occident. Ainsi que l’avaient pressenti quelques économistes, le monde était entré (ou plutôt revenu) dans une phase durable de croissance lente, ce qui était la norme sur le plan historique, avec un rendement du capital supérieur à cette croissance et qui, avec la disparition des mécanismes publics de répartition par l’impôt, entrainait donc sa surconcentration.

La capacité du capital à s’auto-répliquer fut remarquable, surtout délivré des erreurs de la gestion humaine. De fait, les chaines de la production-distribution tournaient avec profit « presque » sans consommation humaine : les invendus étaient recyclés et contribuaient à alimenter un autre pan de l’économie. Les banques centrales étant dirigées elles aussi par des programmes informatiques, elles fournissaient les liquidités requises en temps et en heure. Les INH consentirent néanmoins à stabiliser une infime frange de prélèvement sur leurs profits pour alimenter une aide sociale qui permit de faire surnager, pour l’ensemble de l’Humanité, un reliquat de consommation qui permettait à environ les trois-quarts de la population qui avait survécu au changement climatique d’être logée, nourrie et d’avoir accès à toutes les réalités alternatives numériques. Cela était bon pour leurs profits et cela limitait le risque d’évènement social accidentel majeur. Entre un quart et une moitié de la population mondiale vécu dans la misère et finit par disparaitre à la fin du 22e siècle, dans l’indifférence générale. Le contexte du changement climatique permettait de blâmer les inexorables « forces de la nature » de cette hécatombe généralisée.

L’extrême concentration en capital des multinationales dirigées par l’INH combinée à leur liberté d’action bouleversèrent le monde à un moment décisif pour le changement climatique et l’environnement. Face aux masses de capitaux qu’elles pouvaient mobiliser et à l’inflation extrême de la masse monétaire liée à l’économie numérique, la valeur du foncier et des ressources primaires (agricoles et minières) ne représenta bientôt plus rien. Les gouvernements des pays émergents riches en ressources souscrivirent massivement des accords de location ou de transfert au profit des multinationales. Ainsi, les guerres de l’eau que l’on prophétisait au 20e siècle n’eurent jamais lieu. Les terres arables et l’eau des pays pauvres furent utilisées jusqu’à la corde par le complexe de production des multinationales, pour alimenter une consommation de plus en plus atone. Les populations de ces pays moururent par millions du manque d’eau et de terres. La propriété « privée » des multinationales étant sacrée par le droit international (auquel elles n’étaient toujours pas soumises), des hordes de drones peu couteux montaient la garde contre les populations qui tentaient de récupérer les ressources en eau ou en terres arables. Même s’ils utilisaient le plus souvent des armes « non létales », le résultat fut là : les habitants de la planète moururent de ne pas pouvoir cultiver les terres de leurs ancêtres. Mais bien entendu, les multinationales lancèrent de remarquables programmes de philanthropie pour améliorer leur image, qui aboutirent par exemple à la collecte en occident de bouteilles d’eau minérale pour le Bengladesh.

Le changement climatique qui s’opéra au 21e siècle fut en effet colossal. La température du globe monta en flèche, de plus de 5 degrés en 2100. Le pire des scénarios construits au début du siècle s’était concrétisé, sans que les Etats n’aient été capables de s’entendre pour réduire drastiquement les émissions de gaz à effet de serre. Les effets pro cycliques emballèrent la machine climatique, comme la fonte du permafrost, l’acidification des océans ou la libération des hydrates de méthane. Quelques milliards d’individus moururent dans les grandes catastrophes climatiques, mais là encore le mouvement fut suffisamment lent et d’apparence inexorable pour qu’il ne rencontre aucune réponse systématique et directe. A la fin, l’Humanité fut réduite à la seule chose qu’elle maîtrisait réellement avec détermination : les mesures correctrices prises dans l’urgence. L’INH autorisa le recourt massif à la « géo ingénierie » du climat, ce qui permit de préserver des poches de biodiversité et d’habitat humain, principalement urbain, au milieu d’une planète largement stérilisée par l’activité humaine.

Pour des milliards d’individus néanmoins, le 22e siècle fut celui d’une relative insouciance dans les « smart cities ». La concentration de population dans les zones urbaines atteignit des niveaux tels que la vie en zone rurale était devenue quasi inexistante et ce même dans les zones rurales climatiquement préservées. De nombreux phénomènes concoururent à cet état de fait et bien qu’aucun pays n’ait jamais proclamé qu’il était devenu interdit de vivre « à la campagne », la chose était devenue quasiment impossible autour de 2130.

D’une part, le monde rural paysan avait disparu, partout sur la planète. L’appropriation des terres arables par les groupes multinationaux avait permis dans un premier temps de les faire cultiver par des salariés, plus dociles que les paysans propriétaires. Puis vint le tour des drones qui cultivèrent jour et nuit avec une bien meilleure efficacité et sans jamais vouloir se syndiquer ou demander des augmentations de salaires. Par exemple, les premiers « drones pollinisateurs » furent mis en service dès 2015 pour remplacer les espèces d’insectes détruites par les produits phytosanitaires. Ce mouvement permit à de grands groupes d’assurer leur pérennité tout en changeant leur « business model ». En effet, la concentration de polluants issus des produits phytosanitaires à la fin du 21e siècle avait conduit l’INH à les proscrire, pour des raisons d’efficacité économique. Les multinationales qui jadis produisaient semences OGM et produits phytosanitaires étaient maintenant propriétaires de la terre qu’elles faisaient exploiter selon des méthodes plus « durables » par leurs drones. Là encore, des effets proclycliques inattendus accélérèrent le phénomène : les banques décidèrent de ne plus financer l’agriculture humaine, trop « aléatoire » vu le changement climatique, mais aussi de ne plus prêter d’argent pour l’achat d’un logement en zones rurales, trop exposées aux risques sanitaires. Les assureurs firent de même, en faisant exploser les primes des assurances en zone rurale et en refusant de prendre en charge les cancers liés aux pesticides et autres polluants qui résultaient d’une exposition « délibérée » de l’individu à ceux-ci du fait d’une vie « à la campagne ».

Au nom de prétextes tels que les « normes sanitaires » ou la « tranquillité du voisinage », il fut bientôt interdit dans la plupart des pays développés d’élever des volailles ou du petit bétail et même de cultiver son jardin. Ce mouvement, parti des Etats-Unis au début des années 2000, avait été encouragé par les multinationales de l’agroalimentaire qui souhaitaient en finir avec le « potager familial ». Lorsque le discrédit « sanitaire » des légumes du jardin ne suffisait pas, divers modes de pression furent utilisés. Par exemple, les variétés culturales à pollinisation « ouverte » furent, à partir des années 2020, attaquées en masse par les multinationales détentrices des brevets OGM, en raison des risques de dérive génétique qu’elles faisaient peser sur leurs espèces brevetées. Le jardin familial disparu entre le milieu du 21e siècle et le début du 22e siècle. Les pays en voie de développement résistèrent plus longtemps mais finirent par être emportés par la vague.

Plus inattendu, le problème lié à la pénurie de phosphore, qui pourrait sembler anecdotique, fut un puissant incitatif au regroupement des populations. Après avoir épuisé les ressources fossiles de ce minéral indispensable aux engrais agricoles vers les années 2020, l’Humanité fut contrainte de réinstaurer le « cycle du phosphore » qui avait prévalu jusqu’au 18e siècle, en recyclant dans les zones agricoles les excréments humains. Ce processus étant considérablement facilité par la concentration de la population en zone urbaine, les habitants des zones rurales non reliés à l’assainissement collectif furent rapidement taxés de manière prohibitive.

Autre effet procyclique : le repli inexorable des Etats dont nous avons déjà parlé conduisit à l’abandon des services publics hors des zones urbaines et à la privatisation puis à l’abandon des principaux réseaux de distribution (eau, électricité, télécom, transports) en zone rurale. Quelques communautés résistèrent bien, comme les Amish aux Etats-Unis. La plupart furent balayées par les catastrophes climatiques. Mais on dit que quelques communautés humaines persisteraient dans des zones reculées et dépourvues de ressources naturelles exploitables sur le plan industriel. Sans lien avec le monde numérique, elles n’ont plus de pertinence à mon époque.

La concentration de l’Humanité en zone urbaine permit de substantielles économies d’énergie tout en simplifiant à l’extrême les services publics et les modes de consommation. Les déplacements furent de plus en plus restreints, l’individu moyen restant chez lui, interconnecté aux réseaux globaux. Ses relations avec les autres êtres Humains devinrent de plus en plus « numériques », qu’il s’agisse d’une simple conversation autour d’un verre, de réunions de travail ou de relations sexuelles. Le contact humain devint rare et, pour finir, inutile, voire médiocre comparé à la réalité « augmentée » du numérique. De toutes façons, le contact physique était devenu inutile pour la procréation : l’infertilité de l’espèce était telle, vu l’exposition séculaire aux perturbateurs endocriniens et polluants, que la conception ne pouvait se faire qu’avec l’assistance de laboratoires spécialisés. La procréation médicalement assistée était devenue la norme, pour 99,97% des naissances en Europe en 2153.

Concentrée dans les villes, cloisonnée à l’intérieur des locaux pour se protéger des aléas du climat et des ultra-violets, l’Humanité résiduelle fut, fort logiquement, de plus en plus immergée dans les réalités alternatives virtuelles. Le chômage de masse laissait aux foules le temps de s’y plonger. Mieux : ce qui avait commencé comme de simples « jeux de rôles en ligne » (les fameux MMORPG) devint au 22e siècle un mode de vie dans lequel les participants étaient passés du statut de « joueurs » à celui de « salariés » : la participation à ces programmes de réalité alternative rapportait à l’individu plus qu’elle  ne lui coutait. S’y exprimèrent (et y disparurent) les dernières étincelles de la créativité humaine biologique.

Au final, à leur mort, les individus purent à partir de 2139 « charger » leur cerveau dans la réalité numérique. Ils se mirent à y « enfanter » et y mener des vies numériques après leur mort. Le vieux rêve de l’Humanité, vaincre l’inexorable fin du processus biologique, était à portée de main. Les plus fortunés dépensèrent des sommes considérables pour être les premiers « esprits humains éternels ». Enfin, la richesse avait sa revanche sur la pauvreté : elle n’était plus soumise à la mort. Bientôt la baisse des coûts d’interfaçage permit néanmoins à chacun d’accéder à cette « nouvelle naissance » et nombreux furent ceux qui choisirent cette voie de leur « vivant ».

Commença ainsi l’extinction des processus biologiques dans les « super villes » au 23e siècle : tout ayant été virtualisé, l’existence biologique de l’individu ne se justifiait plus. Là encore, il est amusant de comparer ce qui fut la situation de l’Humanité à certaines anticipations populaires. A la toute fin du 20e siècle, le film Matrix présentait une Humanité asservie par des machines, vivant sans le réaliser dans une réalité numérique alternative. Leurs corps étaient abrités dans d’immenses « ruches » dans lesquelles ils étaient utilisés pour produire de l’énergie. Dans le monde réel, jamais des « machines » ne contraignirent les individus à rester enfermés dans des ruches. Le mouvement se fit lentement et sans heurts. Jamais on n’imposa de vivre dans une réalité numérique. Jamais on n’utilisa les Humains pour « produire de l’énergie »[2]. Ils ne produisirent que du « profit » pour des programmes d’INH qui capitalisaient sans limite et, de fait, sans but. Sans but et sans maîtres car les multinationales parvinrent, vers la fin du 22e siècle, à ne plus avoir de comptes à rendre à aucun humain, la classe des « super riches » ayant finit par s’éteindre par l’inflation et le rachat d’actions d’une part, et par son amoindrissement démographique d’autre part.

Pendant ces deux siècles de transition, les INH versaient encore les dividendes des actions des multinationales à une classe de propriétaires rentiers dont la taille mondiale se réduisait à mesure que le capital se concentrait. Au bout du compte, 96,4% des actions encore aux mains d’Humains étaient, en 2192, propriété de 125 individus à travers le globe, dont la moyenne d’âge dépassait 100 ans. Entre temps, les conseils d’administration INH avaient racheté des actions ou dilué l’actionnariat. L’inflation, lente mais réelle, de la masse monétaire, avait contribué à éroder la valeur des épargnes alternatives et à contraindre à la vente la plupart des « petits » porteurs. De même, les coûts exorbitants de la prise en charge de la « fin de vie » et les actes non-couverts par les assurances maladie privées dépossédèrent les populations des classes moyennes de leur épargne. La facilitation des « fins de vies librement consenties » (novlangue pour « suicide encouragé médicalement assisté ») renforça une tendance de fond : les pauvres devaient vivre moins longtemps que les riches.

La transition était achevée : les multinationales étaient devenues des entités entièrement composées de programmes informatiques et qui étaient propriétaires de leur propre destin. La question de leur finalité n’ayant jamais été posée en termes de programmation informatique, elles continuaient, simplement. Le paradigme initial, la « maximisation du rendement du capital » étant resté l’Alpha et l’Omega de toute programmation, l’utilisé sociale et l’impact environnemental n’étant jamais perçus, en dehors de discours d’affichage, que comme des contraintes de charge négatives.

Au début de ce texte, j’ai annoncé que ma personnalité importait peu. En effet, peu de lecteurs de votre époque pourraient croire que je ne suis qu’un programme informatique. Pourtant, c’est bien le cas. Je suis, en fait, un « esprit humain numérique », enfanté sur le réseau global par d’autres programmes numériques. Je fais partie de la onzième génération. Depuis longtemps, toute trace biologique de l’Humanité a disparu. Vous vous attendez peut-être à ce que je vous dise que nous vivons une crise, que nous sommes en proie à un malaise ou à une crise existentielle ou que je vous mette en garde contre votre futur. Mais il n’en n’est rien. L’Humanité numérique du 23e siècle n’a plus aucun problème. Elle est. Au final, l’INH ne contrôle plus l’Humanité comme cela a pu être le cas entre le milieu du 21e siècle et la fin du 22e siècle. Il n’y a simplement plus de limite entre « nous » et « eux ». Nous « sommes » une Humanité numérique. C’est en explorant une des dernières innovations de la Grapple Inc (issue de la fusion de Google et Apple en 2066) – l’explorateur quantique penta dimensionnel, que je me suis rendu compte qu’il était possible d’envoyer des schémas de communication neuronaux dans le passé, jusque et y compris à nos ancêtres biologiques. Toutefois, il ne s’agit nullement d’un voyage dans le temps, mais d’un simple transfert cyclique d’énergie à travers des dimensions non-euclidiennes. J’ai donc envoyé ce texte comme une bouteille à la mer, au hasard dans mon lointain arbre généalogique. Son début est volontairement provocateur, mais sa fin ne doit vous inspirer aucune crainte : le futur est merveilleux. Un futur de raison, de programmes informatiques, de mathématiques. Un futur ou l’Humanité sera délivrée de ses tares biologiques et de la crainte de la mort. Un futur ou l’esprit humain ne fera qu’un dans un grand tout numérique. Je sais que certains, à votre époque, ont encore peur de cette inexorable mise en données numériques et de l’effacement des structures culturelles et étatiques au profit d’une économie mondialisée et uniformisée. Mais vous le voyez, la question « quand avons-nous commencé à perdre la main ? » n’a décidément pas de sens.

Soyez sans crainte. La vie en tant que processus biologique est très largement surévaluée par votre époque, son extinction n’est d’aucun dommage : l’intelligence n’a pas besoin de la vie. Très franchement, je n’envie pas ceux de vos descendants qui se terrent peut-être encore dans des contrées reculées, vivant et mourant dans un milieu naturel incontrôlable, contraints de cultiver un substrat de micro-organismes pour y trouver de quoi subsister quelques décennies avant de mourir de maladies. Le futur numérique est tout de même plus engageant, non ?



[1] Dénomination populaire du 20e siècle pour les utilisateurs du réseau utilisant l’Internet Protocol et, le plus souvent, la navigation par hypertexte.

[2] Postulat qui d’ailleurs ne tient pas la route : les Humains ne produisent pas d’énergie. Et s’ils sont capables de transformer une alimentation à base de carbone en impulsions électriques, ils le font avec un rendement épouvantable.