Page d'accueil Le Club Les Textes Les Projets A propos de ce site Pour nous écrire

GEOLOGIE ET THERMODYNAMIQUE DE L'HYPERMONDE

Chapitre suivant Chapitre précédent

4. Première esquisse d'une thermodynamique

Alors que l'approche "géologique" nous pousse plutôt à de grandes modélisations graphiques et historiques, l'approche thermodynamique va chercher des lois formelles, de type mathématique.

A partir du moment où nous nous sommes donnés le modèle d'un espace, nous pouvons commencer à y introduire, ou plutôt à y transposer, les concepts de distance, de vitesse, d'accélération, de masse, de température et de pression qui font la trame de la thermodynamique. Avec bien entendu, au sommet, mais un sommet dangereux, l'entropie.

La transposition n'ira cependant pas sans difficulté. Nous nous limiterons ici à la distance. Nous pouvons nous donner plusieurs types de mesure.

4.1. La distance "géographique"

Vient immédiatement à l'esprit, la distance euclidienne de l'espace ordinaire, disons la distance "géographique" séparant l'emplacement physique de deux bits. Pour les distances courtes, il serait préférable peut-être de parler de distance topographique ou même géométrique. Mais il vaut mieux prendre le terme de "géographique", valable par extension dans tous les cas, et qui exprime plus clairement l'insertion des objets binaires dans le monde concret.

Elle peut varier entre

- la distance entre deux bits contigus dans la technologie de mémoire la plus évoluée à une époque donnée;

- la distance entre les deux mémoires numériques les plus éloignées connues; le record sera alors tenu par les satellites d'exploration spatiale lointaine, avec des millions de kilomètres; comme cas particulier fréquent de grande distance, nous aurons deux points reliés par satellite géostationnaire, soit au moins 72 000 kilomètres.

Cette distance "géographique" est importante, car nous ne savons pas transmettre de signaux à une vitesse plus grande que la lumière. Cela a dès à présent deux conséquences pratiques connues:

- un calculateur puissant doit être concentré dans l'espace;

- l'interactivité par satellite souffre d'un délai minimum d'environ un tiers de seconde, ce qui n'a rien de négligeable pour certaines applications.

4.2. La distance sémantique

A l'autre extrême des possibilités de définition de la distance dans l'espace des mémoires, on peut tenter de s'appuyer sur la signification des objets (c'est à dire, dans ce modèle, des paquets de bits), suivant la proximité de leur signification, leur consonance cognitive. Deux objets identiques seraient à distance nulle, deux objets "sans aucun rapport" seraient à une distance infinie.

Une vraie définition de ce type obligerait à se poser des questions, difficiles mais peut-être pas insolubles, sur la mesure du "sens"... On peut partir de la très simple "distance de Hamming": on compare bit à bit deux objets binaires de même longueur et la distance est donnée comme le nombre de positions différentes.

On peut introduire ici la distance "par le bruit", qui donna naissance aux travaux de Shannon avant la deuxième guerre mondiale. Au cours d'une transmission, un certain nombre de bits sont modifiés aléatoirement. On rejoindrait aussi en partie la théorie de l'autonomie de Vendryes. De ce point de vue, le bruit peut se mesurer, par exemple, avec la distance de Hamming.

4.3. La distance d'adressage

Un peu intermédiaire entre distance géographique et distance sémantique, on peut définir une distance entre deux objets par le chemin à accomplir dans l'espace d'adressage comme la somme des longueurs de leurs adresses. Cette distance ayant un intérêt surtout technique, on pourrait plus précisément prendre la somme des temps d'accès, exprimant ainsi qu'un objet stocké sur une cassette magnétique d'un robot de stockage peut être pratiquement plus éloigné qu'un autre auquel situé en mémoire centrale d'un autre ordinateur relié à grande vitesse par satellite.

Cette définition, prise sans correction, a cependant un inconvénient, si on l'applique brutalement à partir d'un espace universel: deux objets contigus mais d'adresse longue seront considérés comme très éloignés. Ce qui peut correspondre à la réalité pratique dans certains cas, et pas du tout dans d'autres.

Il faudrait alors préciser: distance entre deux objets dans un sous-espace déterminé. En pratique, on retirerait du calcul le tronc commun de leurs deux adresses. On notera que deux objets binaires contigus géographiquement peuvent se trouver très éloignés dans l'espace d'adressage. Mais cela correspond bien à la pratique.

4.4. Vers l'élaboration de lois

D'une manière générale, les relations entre différents types de distance conduisent à des notions comme la "densité", ou nombre de bits par unité de volume. Ce qui pourrait nous pousser, par la suite, à considérer les bits comme des masses... restant à vérifier que l'analogie est ici féconde.

On voit ici apparaître la nécessité de définir des distances entre objets plutôt qu'entre bits. La thermodynamique classique prend les distances entre centres, ou centres de gravité. Cette notion ne se transpose pas aisément.

Loi 1. Plus les objets sont gros, plus ils sont éloignés

Mais on voit déjà que la distance entre de gros objets ne peut pas être nulle, ni réduite à la distance géographique de deux bits contigus. Plus ils sont gros, plus ils sont éloignés. Et l'on remarquera que cela s'applique quelque soit la définition choisie pour la distance. Cependant, pour la distance sémantique ou la distance de Hamming, la possibilité d'avoir des objets strictement identiques est bien réelle. Et bien qu'elle soit a priori d'autant moins probable que les objets sont grands, en pratique, un certain nombre d'objets assez volumineux sont répétés en grand nombre: micro-code, systèmes d'exploitation standards, progiciels... code génétique. Avec une probabilité non nulle, mais faible, d'avoir ici et là une erreur de transmission ou de conservation en mémoire.

Loi 2. Plus la distance à franchir par un objet est grande, plus il doit être "enveloppé" pour y parvenir.

Il faut en effet compenser les différentes formes de distance. Par exemple faire figurer une adresse de plus en plus longue pour atteindre le point de destination (distance d'adressage), ou compléter par des explications (distance sémantique), ou ajouter des moyens de correction (redondances, codes de contrôle) pour compenser les risques de pertes.

Les systèmes de préfixage, les en-têtes ("headers" des fichiers de texte ou d'image) et à la limite les aides en ligne matérialisent cet alourdissement.

Loi 3. Plus un objet est gros, plus il se fissure

Cette formulation de loi est bien naïve, mais c'est une de celles qui mériterait les analyses les plus poussées. Les fissures sont plus intéressantes que les bons pleins continus.

Plusieurs exemples illustrent cette loi. Qui traduit d'ailleurs l'accroissement inéluctable du "bruit" au sein même d'un objet quand il grossit.

Matériellement, il n'est pas possible de faire grossir indéfiniment les puces. Au fil des années, le diamètre des barres de silicium monocristallin augmentent, mais reste limité (une dizaine de centimètres). Quant aux puces que l'on y découpe, plus elles sont grosses, plus le déchet est fort. On est d'ailleurs conduit à prévoir des parties redondantes pour compenser, dès l'origine, une partie au moins de ces défauts.

Au sein d'un ordinateur, les grands volumes de mémoire obligent à recourir à des dispositifs diversifiés, répartis. Les grandes puissances de calcul aussi.

Mais cela est vrai aussi pour les grands volumes de données. Plus un "tableau" comporte de lignes et de colonnes, plus la proportion de cases vides augmente.

Enfin, et surtout peut-être, cela est vrai pour les théories formelles elles-mêmes, comme l'a montré Gödel: toute théorie assez complexe pour incorporer par exemple les nombres entiers conduit à des propositions indécidables et même à des contradictions.

Corollaire de la loi 3: l'inaccessible continu

A partir de l'espace binaire, nous cherchons constamment à reconstituer le monde continu, le monde analogique, bref le monde "réel".

Nous le faisons techniquement, d'abord. Cette reconstruction réussit dans une large mesure. Qui, à part quelques audiophiles d'ailleurs suspects de passéisme, conteste la supériorité du disque laser sur le disque vinyle, au moins une fois un peu usé. Et pourtant, le taux d'échantillonnage et la finesse du codage de nos CD actuels ne sont pas aux limites des technologies musicales possibles. Qui conteste la qualité des textes photocomposés d'aujourd'hui... il suffit de prendre de vieux livres pour en voir au contraire aisément les imperfections et la monotonie. Sauf, ici encore dans des cas exceptionnels, certains ouvrages de bibliophiles soignés avec amour par des typographes presque mystiques.

Gardons-nous, en tous cas, de taxer trop facilement l'univers digital de "manichéen" parce qu'il se base sur une logique à deux états. A partir du moment où l'on allonge le mot binaire, on peut aller aussi loin qu'on veut. En tous cas bien à des degrés de finesse supérieurs à la perception humaine courante.

Mais, parallèlement, les mathématiques nous montrent, par exemple, comment on peut reconstruire le continu à partir du discontinu. La construction de la droite réelle à partir des entiers et des rationnels le montre puissamment. Mais là aussi, on bute en pratique sur des limites. Dès que nous voulons expliciter les séries de nombres qui vont nous permettre cette reconstruction, ils vont s'allonger, aussi bien sous leurs expressions formelles (développements en série) que sous leur traduction numérique, en nombres rationnels. Comme on ne dispose jamais d'une capacité infinie pour stocker ces nombres et les manipuler, il faut bien s'arrêter un jour, et tous les praticiens du calcul scientifique le savent. Les formules "aussi près qu'on veut" de l'axiomatique du continu doivent donc se traduire, dans le concret, par "aussi près qu'on peut".

Il reste donc toujours un "gap". Où les uns verront une blessure inguérissable, une incapacité radicale de la raison à atteindre le "réel. Où les autres verront la faille féconde où peut passer "l'Esprit" (par exemple, Eccles).

Loi 4. Tout cela "progresse"

L'espace n'est pas séparé du temps. Un certain nombre de lois sont valables "de tout temps", comme les lois proprement mathématiques, ou la vitesse de la lumière.

D'autres, toutes celles qui sont liées à la technologie, évoluent avec le temps, de manière relativement cohérente et régulière. La loi la plus connue concerne les circuits électroniques intégrés, et sa régularité est remarquable, si sa précision reste approximative. Gordon Moore, fondateur d'Intel, l'a ainsi formulée: le nombre de circuits élémentaires (transistors) que l'on peut placer sur une puce de silicium double tous les deux ans. Cette loi se vérifie depuis une vingtaine d'années et devrait continuer à s'appliquer pendant encore au moins dix ans. Toutes les fois qu'on la pense bloquée par une limité technologique, l'innovation permet de continuer la progression.

En pratique, cette loi se traduit approximativement dans un certain nombre d'autres lois:

- tous les deux ans, un ordinateur d'un volume déterminé est deux fois plus puissant;

- tous les ans, on en a deux fois plus sous le même poids;

- tous les ans, on en a deux fois plus pour le même prix.

On voit par là que les différentes échelles d'examen de l'hypermonde s'emboîtent et se correspondent, depuis les circuits intégrés à l'échelle aujourd'hui micronique jusqu'au parc des machines et aux lignes des réseaux.

Cela est vrai temporellement aussi. Si l'on procède par substitution avec les technologies précédant l'arrivée des transistors et des circuits intégrés, on devrait pouvoir retrouver les exponentielles depuis très loin. En particulier depuis les origines de l'humanité, comme le montre par exemple la courbe établie par Leroi-Gourhan sur les silex taillés de la préhistoire: de façon exponentielle, quoique bien entendu beaucoup plus lentement que la loi de Moore, progresse le nombre de mètres de tranchant obtenus avec un kilo de silex. Et cette évolution a joué un rôle fondamental dans les progrès de l'humanité, en permettant au chasseur une mobilité de plus en plus grande... qui devait le conduire, paradoxalement, à renoncer au nomadisme pour entrer dans le néolithique.

Loi 5. La concentration des complexités

La loi de Moore a aussi des conséquences, ou des parallèles, dans l'organisation générale de l'espace géographique. La montée de densité du chip et la baisse de son prix conduit à concentrer la complexité dans le silicium, dans les puces. Ne laissant à l'extérieur que les dispositifs "de puissance" et les interfaces, notamment avec les être humains.

Notons qu'une première loi, moins connue aujourd'hui quoique pourtant peut-être toujours valable, dite "loi de Grosch", posait que la puissance d'un calculateur variait comme le carré de son prix. Autrement dit, il y a en général intérêt à concentrer la puissance sur un nombre minimal de machines. La montée des micro-ordinateurs a fait perdre son actualité à cette loi. A tort peut-être.

4.5. Les deux "chimies"

Cette concentration prolonge celle qui s'est produite depuis l'origine de la terre avec la chimie du carbone: la complexité s'est accrue dans les êtres vivants simples, puis a crû dans quelques espèces plus avancées qui ont dominé les autres, pour arriver finalement au sommet, en tous cas au sommet actuel de la chimie du carbone: l'homme.

L'homme a peu à peu organisé l'univers autour de lui. D'une certaine manière, il en a fait croître la complexité, mais toujours comme une complexité "asservie", c'est à dire au moins en principe, dépendante de lui.

Pour cette raison, il n'a pu tolérer les formes de complexité qu'il ne pouvait contrôler, et a donc peu à peu fait disparaître les formes concurrentes, notamment les "bêtes sauvages" et les "mauvaises herbes".

D'une certaine manière, la chimie du silicium tend aujourd'hui à prendre le relais de la chimie du carbone. Et l'une des questions clés qui s'ouvrent pour le prochain siècle, sinon pour le prochain millénaire, c'est de voir comment ces deux chimies réagiront entre elles.

Première hypothèse. Stabilité: la chimie du carbone continue à n'évoluer que très peu. L'homme reste lui-même. Et la chimie du silicium reste sous son contrôle, sans remises en cause fondamentales. L'ordinateur n'est qu'un outil.

Deuxième hypothèse. Fin de l'humanité: la chimie du carbone n'évolue plus, voire régresse (The Bell Curve). Le silicium continue de monter et un beau jour prend le dessus, avec la complexité volontaire de l'homme (parabole de Forge), en luttant contre lui ou en prenant le pouvoir "gentiment" (thèse d'Asimov dans Les Robots ou de Moravec). Le tout est de savoir à quelle date se fait la mutation (2050 pour Moravec, ce qui paraît tout de même surestimer largement la vitesse de progrès du silicium).

Troisième hypothèse. Synthèse/symbiose. L'homme accepte de mieux en mieux la montée du silicium et commence à accepter les liaisons directes de son système nerveux avec les outils informatiques. Bien que choqué au départ par cette évolution (L'homme terminal, Total Recall), il l'accepte néanmoins au service des handicapés, puis pour le plaisir, puis finalement de gaieté de coeur, comme seul moyen de marcher vraiment vers un au-delà d'une humanité que, certes, nous respectons, mais qui a aussi montré ses limites, à Auschwitz par exemple.

4.6. Intégrer la monnaie et plus généralement l'économie

La loi de Moore, celle de Grosch aussi, nous conduisent à associer dans une même équation des paramètres en général considérés comme étrangers à la science autre qu'économique: la monnaie.

Car, outre qu'une formulation de la loi de Moore est économique par nature, même sa forme la plus technique, en nombre de circuits élémentaires par puce, ne peut s'expliquer que par une analyse des conditions industrielles de leur production, avec un bouclage positif entre l'allongement de séries (loi de Caquiot), l'élargissement des marchés, la possibilité (et la nécessité pour des raisons de concurrence) de pousser la recherche même fondamentale. L'homme ne peut être sorti de cette boucle... tant du moins qu'il reste un des facteurs majeurs de la production, et le seul facteur possible d'innovation.

D'un point de vue strictement formel, remarquons au moins que la monnaie, comme l'information binaire, fonctionne avec un quantum. Qui cependant n'a pas le même degré d'universalité puisque chaque zone monétaire a le sien.