Pierre BERGER
Président du club de l'Hypermonde
Chef de service au Monde Informatique
Le Club de l'hypermonde, que j'ai l'honneur de présider, se
fonde précisément sur l'idée de convergenge. Je cite notre
manifeste: "Les technologies de l'information, informatique,
télécommunications et audiovisuel, convergent. Ce mouvement
accéléré englobe leurs aspects matériels, logiciels et
conceptuels."
Mais les réalités du terrain montrent souvent que tout ne
converge pas. Informatique et télécommunications, en
particulier, restent pour l'essentiel le fait de sociétés
différentes. Bull ne s'est pas fondu dans France Télécom. IBM
n'a pas réussi à devenir un opérateur important de
télécommunications et, en sens inverse, ATT reste un acteur
relativement secondaire sur le marché informatique. D'ailleurs
sur nos, bureaux, le téléphone ne s'est toujours pas intégré
au micro-ordinateur, même quand il dispose d'un modem ou d'une
connexion sur un réseau local. Alors que cette fusion fut une
des grandes promesses des fondateurs de la bureautique, en 1977,
c'est à dire il y a maintenant 16 ans.
Et pourtant, nous assistons bien à un mouvement aussi profond
que régulier. Aussi déterministe que la formation des étoiles
et des planètes il y a des milliards d'années, que le passage
de la cueillette à l'agriculture, du silex au métal, de la
vapeur à l'électricité. Bien qu'il nous manque encore un
nouvel Einstein pour écrire les lois de ce que qu'on pourrait
appeler l'hyper-relativité.
Il peut paraître surprenant de voir un déterminisme dans des
phénomènes créés par l'homme, donc dépendants de sa
liberté. Mais nous n'agissons pas totalement librement. Il y a
des lois économiques, même si elles gardent un tour aléatoire.
Une "main invisible" guide l'économie, pas toujours
dans le sens que nous souhaiterions. En tous cas, en matière
d'informatique, on peut vraiment observer la régularité de son
développement, ce qui n'exclut pas une réflexion sur ses
causes.
La convergence peut ainsi s'exprimer comme la concentration
progressive d'un noyau dur de l'informatique. Au fil des ans, les
couches se stabilisent et continuent de se concentrer, de se
formaliser, de s'automatiser. Un peu la vie a peu à peu fait
émerger des formes stables et toujours plus riches: vertébrés,
mammifères, primates humains. Autour du noyau très dense et
très complexe de l'ADN.
Il s'agit d'abord d'une concentration matérielle: tous les
appareils électroniques se miniaturisent. Et ils se relient les
uns aux autres, laissant penser qu'à la limite, il n'y a plus
des machines, mais une seule, immense, machine. Dans le même
mouvement, les processus, les biens, les échanges, se
dématérialisent. Le Conseil économique et social vient de
publier un second rapport sur le "poids de
l'immatériel". Toffler décrit le phénomène dans son
livre "Shift of Power" et vient, tout récemment, d'en
montrer les conséquences pour la Défense, dans son ouvrage
"Guerre et contre-guerre".
Mais le mot "immatériel" pousse la logique un peu trop
loin. Un circuit intégré d'ordinateur, même très petit et
complexe, reste matériel. Tous les biens et les échanges
immatériels s'appuient sur des dispositifs matériels. Elle
devient secondaire, marginale, mais elle continue pourtant de
nous rappeler ses lois. Par exemple en télécommunications,
quand on communique par satellite, il faut un tiers de seconde
pour aller de Toulouse à San Francisco. Parce que la vitesse des
faisceaux hertziens, comme celle de la lumière, ne dépasse pas
300 000 kilomètres par seconde. Pour les mêmes raisons,
d'ailleurs, les machines ne se fondent pas réellement en une
machine unique. Aux mouvements de centralisation succèdent des
phases de répartition, de distribution. Au début de la
décennie, les débats sur "le grand et le petit
chaudron" ont encore illustré cette dialectique.
Il s'agit ensuite d'une formalisation de tous les processus. A
partir de 1494, nos pères ont commencé à plier le commerce aux
lois de la comptabilité en partie double. Nous avons développé
les formalismes mathématiques, jusqu'à l'absurde même au cours
des années 60-70, époque des "mathématiques
modernes". Et nous mettons tout aujourd'hui sous forme
"digitale".
Enfin, ce mouvement conduit nécessairement à l'automatisation
des tâches. La productivité mais aussi la maîtrise de la
complexité exigent que nous déléguions en permanence une part
de nos travaux à la machine. Ce qui nous ramène aux vieilles
angoisses de l'apprenti sorcier et à la question du chômage. La
machine est-elle là pour nous remplacer ou pour nous aider? Elle
ne peut faire l'un sans l'autre, nous conduisant ainsi toujours
à réinventer le rôle des hommes.
La convergence peut ainsi s'exprimer comme la concentration
progressive d'un noyau dur de l'informatique. Au fil des ans, les
couches se stabilisent et continuent de se concentrer, de se
formaliser, de s'automatiser. Un peu la vie a peu à peu fait
émerger des formes stables et toujours plus riches: vertébrés,
mammifères, primates humains. Autour du noyau très dense et
très complexe de l'ADN.
Mais, comme le montre cette analogie, il ne s'agit pas d'une
convergence statique, d'une fossilisation progressive. Ces objets
formalisés sont actifs, ils moulinent des opérations et des
instructions à des débits toujours croissants. 66 millions par
seconde, actuellement, sur les microprocesseurs Pentium.
Et la convergence stimule la diversité. Autour de ces structures
universelles, chacun peut construire sa personnalité, son
univers. De même que le fait de parler tous le français n'a pas
réduit la diversité des habitants de l'Hexagone. Bien au
contraire.
A la base, toute la convergence des
technologies de l'information, si marquante aujourd'hui, se fonde
sur une sorte de miracle: l'existence d'une sorte de quantum
informationnel, le bit (binary unit). L'immense variété des
phénomènes informationnels ne laissait nullement prévoir
qu'ils pourraient tous se plier à cette structure unique,
répétée autant de fois que nécessaire. Quelques esprits
avancés le pressentirent. Comme les Templiers, selon la
légende, ils possédaient une tête d'or qui répondait à
toutes les questions par oui et par non. Mais il s'agit d'un
miracle comparable à tous ceux qui permettent l'existence du
monde et la nôtre pour commencer: il aurait suffi que la Terre
soit un plus loin ou un peu plus près du Soleil pour y rendre la
vie impossible.
Des esprits avancés commencèrent à
l'expliciter cette puissance du binaire à propos de la logique
(Boole), du calcul (Babbage). Puis le mode binaire, ou digital,
s'appropria progressivement les données, le texte, le son,
l'image.
Longtemps on accusa l'informatique de manichéïsme, puisqu'elle
voulait tout ramener au blanc et au noir. Mais la pratique montre
abondamment aujourd'hui qu'avec suffisamment de bits, l'on peut
rendre plus de nuances de gris, ou de couleurs, que l'oeil n'en
peut percevoir. Et si certains audiophiles reprochent aujourd'hui
au disque compact une certaine dureté, elle trouve sa cause dans
un taux d'échantillonnage et de finesse binaire encore
insuffisant.
Plus important encore, la codification binaire se prête à
représenter aussi bien les données que les programmes, les
instructions. Ce fut l'un des apports majeurs de Von Neumann, un
des fondateurs de l'informatique moderne pendant la dernière
guerre mondiale. Chacun de nous en fait l'expérience
quotidienne: une même disquette, a fortiori un même CD-Rom peut
transporter aussi bien des jeux que des fichiers statistiques.
Une évidence, semble-t-il, pourtant fort éloignée de la
réalité des machines mécaniques d'hier, où les produits
traités, dans leur matérialité, n'avaient rien de commun avec
les ordres donnés à la machine, avec leur caractère
intellectuel. Pour parle comme les linguistes o les logiciens: en
informatique, langage et métalangage se situent sur le même
plan.
Depuis le début des années 1990, le concept de "réalité
virtuelle" est venu montrer la capacité de représentation
universelle de l'informatique. Grâce à des casques spéciaux,
l'ordinateur peut nous plonger intégralement, ou presque, dans
des univers de synthèse. Espace en relief, sonorisation en trois
dimensions, mouvements du corps perçus par des capteurs placés
sur la tête, les mains, et différentes parties d'une
combinaison spéciale. Pour mieux exprimer la puissance et
l'intérêt réel de cet espace, nous l'avons baptisé
"hypermonde".
Notons que les autorités linguistiques françaises recommandent
de traduire l'anglais "digital" par
"numérique". Cela nous semble fâcheux, car basé sur
la confusion entre un chiffre (qui traduit l'anglais digit) et un
nombre. La représentation d'un caractère ou d'une couleur par
un code binaire, ou digital d'ailleurs, n'a rien a voir avec le
monde des nombres, caractérisé notamment par des opérations
qui n'ont en général aucun sens si on les applique aux codes.
A l'intérieur des machines, qu'il s'agisse d'ordinateurs, de
mémoires ou de lignes de télécommunications, toute information
figure donc sous forme binaire. Mais, au moment de leur
présentation à l'homme, il conviendra en général de les
retranscrire sous une forme plus ou moins analogique.
Comment, par exemple, représenter l'heure? On pourrait
transposer à l'écran une représentation purement binaire, avec
une suite de rectangles par exemple. Il en faut onze pour
représenter les minutes, dix-sept pour avoir les secondes.
Inutilisable pour l'homme.
A l'autre extrême, une barre pourrait représenter le
pourcentage de la journée déjà passé. Ou, de façon plus
imagée, montrer un paysage avec la position du soleil. Cela
pourrait convenir pour certains environnements de travail où la
perception du temps doit être immédiate, réflexe, sans
nécessité de précision.
Mais en général, les représentations combineront le mode
analogique et le mode digital. Nous tendons aujourd'hui à
représenter numériquement (base 10) les heures, minutes et
secondes. Mais certains préfèrent encore la représentation des
horloges de nos pères, avec leurs deux aiguilles et leurs
chiffres qui repèrent les heures du matin et de l'après midi,
et donnent les minutes en multipliant le chiffre par 5...
Parmi les combinaisons les plus élaborées des deux modes,
citons les tableaux de bord des automobiles ou des avions, les
salles de contrôle industrielles.
Au sein même des machines, il faut souvent faire des compromis
entre différentes manières de combiner les bits, les unes plus
analogiques, proches des représentations humaines, les autres
plus abstraites. Dans un système d'information géographique,
par exemple, on combinera des données de type vectoriel (un
segment de droite est représenté par les coordonnées de ses
extrémités) et de type "bitmap" (le même segment
sera représenté par les coordonnées de chacun de ses points).
Le fait que tout puisse se mettre sous
forme binaire se traduit directement dans la réalisation
matérielle des ordinateurs. Un même "support"
matériel convient aux parties les plus importantes de la
mémoire (mémoire vive, mémoire centrale) et aux circuits de
calcul. Données comme programmes prennent place dans des
cellules de mémoire et sont traitées par les circuits de
"l'unité arithmétique et logique". Tous ces
dispositifs, en pratique, en simplifiant un peu, sous forme de
transistors implantés par millions sur une petite surface de
silicium, la puce (chip).
Malgré des recherches sur d'autres supports (saphir, gallium),
la puce de silicium monopolise pour l'essentiel les traitements
digitaux. Pour l'instant aussi, ni les "composants
organiques" ni les circuits de calcul optiques n'ont été
en mesure de supplanter le silicium.
Gordon Moore (Intel), a formulé il y a quelque vingt ans une loi
essentielle pour comprendre le mouvement de l'informatique: le
nombre de circuits élémentaires que l'on peut mettre sur un
chip double environ tous les deux ans. Cette loi se vérifie
approximativement depuis vingt ans, et tout porte à penser que
cela va continuer encore dix ans.
La première signification de cette loi, c'est que les machines
se miniaturisent. Nous en profitons pour nos portatifs. Mais elle
est essentielle aussi pour les calculateurs les plus puissants.
En effet, les signaux électriques ne vont pas plus vite que la
lumière, 300 000 kilomètres par seconde... ce qui ne fait que
cinq mètres pour les 15 nanosecondes qui séparent deux cycles
successifs d'un processeur à 66 mégahertz. Les machines
puissantes doivent impérativement être de volume réduit.
En pratique, la loi de Moore, purement technologique au départ,
se traduit par des croissances du même ordre en termes de volume
global des machines, de consommation électrique, de prix. Tous
les deux ans, on peut en avoir deux fois plus, que ce soit pour
le même prix, pour le même poids ou sous le même volume. Selon
les domaines, on assiste parfois à des ralentissements. Parfois
au contraire l'histoire va plus vite encore.
Le terme américain down-sizing traduit assez bien cette
simultanéité des réductions, qui se traduit aussi bien dans le
volume des "armoires" informatiques de nos salles
machines que dans le budget informatique des entreprises. Avec
tout de même quelques désillusions.
A certaines époques, on se demande: mais à quoi va servir toute
cette puissance, toutes ces machines. La réponse n'a que
rarement tardé à venir et à dépasser les prévisions.
Actuellement, le désir de traiter des images et a fortiori de
images animée multiplie par dix sinon cent la puissance dont
nous avons besoin au niveau du poste de travail ou des machins
domestiques. Et il en faudra bien plus encore si l'on veut un
jour appliquer sérieusement l'intelligence artificielle aux
besoins pratiques.
Presqu'aussi surprenante que la
digitalisation universelle, nous assistons à la domination
absolue d'un seul type de processeur à tout faire, la machine de
Von Neumann. Il la conçut au moment de la deuxième guerre
mondiale, avec quelques principes de base. Deux sont
particulièrement importants:
- données et programmes suivent les mêmes canaux et se stockent
de la même manière;
- la machine procède par lecture d'une suite d'instructions les
unes après les autres, sauf quand l'une d'elles lui indique de
faire un "saut", et de reprendre la lecture à un autre
numéro d'instruction. La méthode permet, en particulier, de
réaliser des boucles, de recommencer autant de fois que
nécessaire une série donnée d'instructions.
Depuis 50 ans, on a souvent tenté de proposer d'autres modèles
de machines, mais elles n'ont jamais eu de succès. Même les
"réseaux neuronaux", qui visent à copier le cerveau
plutôt que la mécanique des ordinateurs classiques, restent en
pratique de simples logiciels qui tournent, eux aussi, sur les
machines de Von Neumann.
A ce niveau, on a même échoué dans différentes tentatives de
spécialisation. On a tenté de distinguer des machines pour le
calcul scientifique, la gestion, le pilotage des processus
industriels. Mais finalement, les machines universelles
l'emportent toujours. Et les mêmes circuits servent aux
chercheurs, aux enfants qui jouent à la maison et aux employés
de l'état civil. Un très petit nombre de processeurs-types
monopolisent aujourd'hui la planète. Largement en tête viennent
les machines Intel ou compatibles.
Les seules variantes portent sur des points relativement
secondaires. Par exemple la variété du nombre d'instructions
élémentaires câblées sur le silicium (machines Risc opposée
aux machines traditionnelles) ou l'organisation de machines
combinant un grand nombre de processeurs et de mémoires
(multiprocesseurs, parallélisme massif). La construction des
unités centrales s'est donc concentrée sur quelques types
standards. Les machines Intel viennent largement en avant, avec
quelques "compatibles". Les grandes machines
classiques, dites aujourd'hui "propriétaires",
continuent de se construire en petite quantité. A un niveau
intermédiaire, les "machines Unix" ou les machines
"Risc" représentent une dizaine de types majeurs.
La baisse des prix élargit les marchés, et l'on compte
aujourd'hui la production de chips par millions, sinon par
dizaines de millions. Un jour sans doute par milliards, quand la
Chine s'éveillera vraiment à l'informatique.
Ainsi, d'un point de vue strictement
technique, le processeur de Von Neumann sur son chip de silicium
tend à concentrer sur lui toute la complexité des machines, y
compris leurs structures en réseau.
Rapide, inusable, peu cher, fabriqué en grandes séries,
standardisé, universel, linéarisant la complexité... lui seul
peut porter le software et donc mobiliser entre les mains du
programmeur jusqu'au moindre détail des procédures les plus
complexes. En tous cas de celles que nous savons automatiser.
Et ce qu'il ne peut absorber sur lui-même, pour des raisons
techniques ou de prix, il le veut à proximité immédiate, pour
minimiser les délais d'interaction avec ses péripéhriques. A
fortiori, pour ce qui concerne les liaisons à grandes distances,
c'est à dire les télécommunications, ne leur laisse-t-il, pour
ainsi dire, que les tranchées et les fusées.
Tout ce qui, en dehors de lui, forme "réseau"
autrement que simple arborescence autour de ses ports, introduit
une pénible complexité fonctionnelle ou la laisse sous forme
analogique, donc peu performante et chère.
Le parallélisme, par exemple, est toujours difficile. Les
réseaux neuronaux ne sont que des modèles, en pratique toujours
implantés sur des machines de Von Neumann. Les grands
calculateurs hautement parallèles ont toujours eu des
difficultés à se développer. Thinking machines vient de
disparaître. Et l'on finit par parler de "parallélisme
massif" pour désigner des machines à deux processeurs et
plus, à condition qu'elles aient une architecture
"symétrique"
La convergence-concentration se poursuit à
un niveau supérieur, celui des systèmes d'exploitation, en
partie confondue avec les interfaces graphiques de base. Ici
encore, sinon plus encore, l'offre se concentre sur un certain
nombre de logiciels. Dont MS-Dos est le plus connu. Et qui font
l'objet de luttes au couteau, avec leurs perdants mais aussi le
spectaculaire succès d'un Bill Gates à la tête de Microsoft.
L'évolution n'est pas terminée, mais ne peut que rester
concentrée sur quelques types. En effet, les entreprises
utilisatrices ne peuvent multiplier le nombre des machines
qu'elles utilisent.
Autour de ce coeur largement normalisé,
les machines se différencient plus nettement dans leurs
"périphériques", autrement dit tous les dispositifs
matériels et le logiciel associé qui permet à l'ordinateur
d'interagir avec le monde extérieur.
Le monde réel étant supposé continu, cette transition comporte
toujours, à un moment quelconque, une conversion avec le mode
digital, seul connu de l'ordinateur. La transition comporte
aussi, en général, une adaptation énergétique. En général
une amplification vers l'extérieur, une réduction à quelques
volts en allant vers l'ordinateur.
L'évolution des imprimantes atteste de l'évolution vers la
dématérialisation et la digitalisation. A partir de Gutenberg,
le choix de caractères séparés pour l'impression des textes
fut un grand pas dans cette voie. Au XIXe siècle, l'imprimerie a
marché dans les voies de l'automatisation. A partir des années
70, la photocomposition a définitivement placé l'imprimerie
dans le domaine digital.
Mais le papier voit aujourd'hui son importance diminuer au
profit de l'écran, qui apporte le mouvement, l'interactivité,
les découpages en fenêtre, etc. La souplesse de l'écran permet
d'y regrouper des présentations hier considérées comme
différents "médias". On parle donc d'application ou
de système multimédia, s'il présente à la fois du texte, de
l'image, de l'image animée, voire du relief. Et bien sûr, en
complément de l'écran, le son.
Pour aller plus loin que l'écran, il faut passer aux lunette ou
aux casques de la réalité virtuelle qui permettent une saturation
totale de l'espace visuel et sonore. On parle d'applications
immerives. Elles ont un danger: la perte de contact avec le
réel, en particulier des phénomènes de vertige. Pour y
pallier, on peut chercher au contraire une combinaison des vues
réelles et de synthèse.
Pour l'instant, ces dispositifs sont coûteux, de l'ordre de 20
000 F et plus pour un modèle de bonne qualité. Mais si le
marché le voulait, l'évolution pourrait être rapide, car les
casques et lunettes ont un certain nombre d'avantages par rapport
aux écrans: encombrement et consommation réduite, plus grande
diversité d'emploi, et sans doute fatigue moindre pour la vue.
Autant que les matériels, les logiciels de
dialogue ont leur importance, et consomment d'ailleurs une part
croissante de la puissance des machines. A la base, les interface
graphiques, dont Windows est aujourd'hui le plus connu, mais où
la véritable nouveauté fut apportée par le Macintosh. Il y a
pratiquement aujourd'hui des standards stabilisés, notamment
avec les fenêtres, les menus. Le tableur et le traitement de
texte peuvent d'ailleurs se considérer comme des outils de
présentation et de dialogue plus qu'autre chose.
On pourra sans doute difficilement faire mieux. En revanche, le
passage à l'immersion en relief de la réalité virtuelle
obligera à repenser complètement les présentations et les
modes d'interaction avec la machine. Il n'existe aujourd'hui
aucune solution complète et vraiment satisfaisante. Cela
freinera le développement des casques plus longtemps que les
coûts et les difficultés techniques.
Il y a encore beaucoup à faire. Par exemple pour la construction
des EIS (Executive information systems, système d'information
pour dirigeants), on a soigné les présentations par icones.
Mais, derrière elles, il faudrait une manipulation plus souple
des données. On parle d'hypercubes, à cet effet. Ou, dans
d'autres domaines, d'hypertexte. Et, au delà d'hypermédia, et
d'hypermonde. Mais en ces matières nous n'avons encore fait
qu'effleurer les problèmes.
Une part de l'adaptation consiste aussi à adapter les
présentations et l'ensemble des interactions à chaque personne
prise individuellement. A commencer par son mot de passe. A
suivre, dans Windows par exemple, par le choix des couleurs et le
mode de présentation des fenêtres. Mais aussi avec la
constitution de basées de donnée personnelles, la mise au point
de programmes particuliers (quelques macro-instructions Excel,
par exemple). Ici aussi, on pourrait aller beaucoup plus loin.
Tout processeur a un minimum de mémoire.
Il lui faut au minimum savoir où il en est dans la lecture du
programme, et disposer, dans des "registres", des
données immédiates sur lesquelles il travaille. Mais, autour de
lui, s'organise toute une hiérarchie de mémoires. Plus elles
sont proches de l'unité centrale, plus elles sont rapides et
chères (notamment les RAM, ou mémoires "vives", dont
le temps d'accès est du même ordre que le cycle de base du
processeur.
A l'autre extrême, les supports lents mais de très grande
capacité: disque optique, CD-Rom, cassettes de bandes
magnétiques. A un niveau intermédiaire, le disque dur et les
disquettes.
Et n'oublions pas tout à fait le papier. A partir du XVIIe
siècle, et pratiquement jusqu'à nos jours, il a porté la plus
grande part de la mémoire informationnelle de l'humanité. Il
commence à laisser la place aux mémoires électroniques,
magnétiques et optiques, toutes sous forme digitale, bien
entendu. Le "bureau sans papier" n'est pas pour tout de
suite. En partie pour des raisons juridiques: le droit de la
preuve doit encore faire des progrès pour passer à l'heure
électronique. A long terme, il y a lieu de penser que
l'électronique apportera des garanties supérieures au papier.
Qui reste combustible, inondable, et falsifiable! En particulier
les factures, comme chacun sait.
Matériellement, donc, les mémoires convergent vers un nombre
limité de supports, communs à tous les types d'application, de
la comptabilité la plus traditionnelle (qui d'ailleurs devient
aujourd'hui multimédia) jusqu'au son et à la vidéo.
Du point de vue logiciel, elles s'organisent aussi selon un petit
nombre de modèles de base. L'objet standard est ici le fichier,
entité bien connue de tous les utilisateurs, mais pas
nécessairement facile à définir. On pourrait se contenter de
dire: un ensemble de bits représenté par un nom, le cas
échéant par une icone, et que l'on peut créer, modifier,
recopier ou déplacer d'une mémoire à une autre, au sein d'un
même ordinateur, ou entre plusieurs machines plus ou moins
distantes. Ou encore le détruire.
A l'intérieur de cette définition, les types se multiplient:
- programmes
- fichiers de données et bases de données,
- texte, son, image.
Un gros fichier que l'on manipule sans se préoccuper de sa
structure se désigne souvent sous le nom de "blob"
(binary large object).
On peut considérer un "message" comme un objet de type
particulier, défini par son émetteur, son destinataire, et un
contenu variable. Il comporte en général une partie textuelle
classique, souvent rédigée en style plus ou moins
télégraphique. On y adjoint de plus en plus des "documents
annexes": images, programmes, etc.
Intellectuellement au moins, les
télécommunications ont de tout temps été rapprochées, puis
intégrées à l'informatique. Jules Verne le voit dès 1863,
dans son "Paris au XXe siècle", qui vient d'être
exhumé. Le télécopieur, expérimenté à l'époque sous le nom
de pantélégraphe par Caselli, participe à la vie des affaires
aux côtés des machines à calculer. Et, en 1889, il exprime en
peu de lignes ce qui commence aujourd'hui seulement à devenir
réalité. Le chef d'entreprise "s'assit devant son
pianocompteur électrique, et quelques instants plus tard, il
avait le bilan de sa journée". Il s'agit d'une entreprise
répartie sur un grand nombre de planètes, et communiquant par
faisceaux optiques!
Les matériels de télécommunications emploient aujourd'hui
exactement les mêmes composants que les ordinateurs. De même
que, dans notre corps, les neurones servent aussi bien au calcul
qu'à la transmission des influx nerveux.
Mais tout de même avec une différence notable: les liaisons
sans fil. Qui ne se contentent pas de remplacer un fil par un
faisceau hertzien, mais permettent aussi la diffusion simultanée
sur toute une zone, voire sur toute la planète avec quelques
satellites.
Dès que l'on entre dans le domaine des réseaux, le vocabulaire
s'enrichit de mots et de sigles par dizaines sinon par centaines.
Cependant, pour l'utilisateur et pour le concepteur de systèmes
d'information, cette complexité est le plus souvent masquée,
laissant seulement apparaître des interlocuteurs proches ou
lointains, ou des groupes d'utilisateurs, représentés par des
adresses. Internet l'illustre assez nettement.
Le processeur "réseau" n'a pas, en première analyse,
des conséquences aussi structurantes que les autres. Les
distances semblent supprimées, qu'il s'agisse des étages d'un
immeuble ou des établissements d'une même entreprise. Mais
cette impression est en partie trompeuse. Même si l'on peut se
dispenser (et il faut bien car on ne peut tout savoir) d'entrer
dans les problèmes "de bas niveau", il faut au moins
se préoccuper des grandes infrastructures de communication, des
tarifs et des droits d'accès, qui peuvent avoir, eux des effets
fortement structurants.
On peut d'ailleurs regretter que les mots employés à ce niveau
soient souvent assez vagues: autoroutes électroniques,
téléports... mais vous aurez sur ces questions des exposés
fort compétents.
Mais, de toutes façons, les "tuyaux" des
télécommunicaions publiques ne représentent qu'une petite
partie des coûts télécoms, a fortiori des applications,
services ou systèmes d'information
Tout en concentrant les machines sur un
certain nombre de types, l'évolution a fait apparaître
l'utilité, sinon la nécessité, de systèmes qui pourraient
accueillir des machines de type différents, et à la limite,
n'importe quelle machine existante ou à venir. Pour les
entreprises, l'objectif est clair: ne plus dépendre de la
volonté d'aucun constructeur, ou fournisseur, de manière à :
- ne pas risquer la mise en cause d'un investissement important
en cas de difficulté du fournisseur ;
- faire jouer la concurrence au maximum pour obtenir les
meilleurs prix, les meilleurs services, les produits les plus
nouveaux.
L'ouverture complète reste un voeu pieux, à supposer même
qu'elle ait un sens. Mais il s'en réalise des approximations
intéressantes, et le modèle le plus à la mode est baptisé "client/serveur".
Personne n'est tout à fait d'accord sur une définition du
client/serveur. Limitons nous à une notion simple: la machine
client fait commande des tâches à un serveur. Exemple de base:
une transaction bancaire. Le guichetier débute la transaction
sur son micro-ordinateur, qui assure l'entrée des données, un
stockage local, et toute le travail de présentation de l'écran
et d'interprétation des actions au clavier ou à la souris. Pour
que la transaction complète, il faut faire appel à une base de
données où sont stockés tous les comptes. Cette base est
stockée sur un serveur de données. Le micro-ordinateur devient
son client, et envoie au serveur une requête. Le serveur renvoie
la réponse demandée. Le poste client assure la présentation
des données au guichetier. Souvent, la transaction fera
intervenir aussi un serveur de réseau, qui se chargera de gérer
les communications.
Dans un système un peu vaste, le nombre de postes clients
atteint plusieurs milliers, les serveurs plusieurs centaines. Et
une même transaction peut faire intervenir un grand nombre de
serveurs. Une même fonction "serveur", par exemple une
base de données, peut être partagée entre plusieurs serveurs,
qui peuvent être placés sur des sites éloignés. Idéalement,
l'emplacement des serveurs n'a aucune importance pour
l'utilisateur.
Si la normalisation est utile pour
industrialiser les produits, elle est évidemment indispensable
à la communication. Il y a pléthore de normes, ou plutôt elles
constituent un vaste ensemble, regroupé dans l'architecture dite
OSI, de l'ISO (Organisation internationale pour la
standardisation). Les couches vont du niveau physique (lignes,
connecteurs) au niveau application, beaucoup plus abstrait.
Au niveau application, on trouve par exemple les normes de
messagerie. Mais les normes vont plus loin dans les contenus.
Edifact, par exemple, définit la syntaxe et le vocabulaire des
échanges commerciaux sans papier (bons de commande, factures,
etc.). Midi régit les échanges entre instruments de musique
numériques.
Aux normes proprement dites s'ajoutent les standards de fait: les
grands acteurs du marché font prévaloir des formats d'échange
ou des protocoles de communication, comme TOP/IP, venu
d'Internet.
Pour construire son système d'information,
l'entreprise va acquérir des moyens à l'extérieur. Un point
clé est de savoir à quel degré d'assemblage elle va les
acquérir.
A un extrême, elle n'achèterait que les objets les plus
élémentaires, des matières premières. A l'autre extrême,
elle achète un système tellement clés en mains et service
compris qu'elle s'en remet totalement, au moins pour
l'informatique, à un prestataire extérieur. C'est le
"facilities management".
En matière logicielle, les extrêmes sont représentés d'une
part par les langages de programmation classique, où la brique
de base est l'instruction, et qui permettent donc, au plus près,
de construire l'informatique adaptée. A l'opposé, le progiciel
intégré apporte l'ensemble des fonctions recherchées.
Idéalement, il faudrait que les objets soient
- auto-protégés (qu'on ne puisse ni les détériorer ou les
infecter, ni les pirater)
- auto-testables et dépannables
- auto-documentés. cela devient de plus en plus facile avec des
éléments logiciels comme le Win-Help de Windows
- auto-représentés
- auto-facturés, pour coller au plus près à la réalité de
leur utilisation, et permettre la rémunération même de petits
objets s'ils sont fréquemment utilisés, comme dans le kiosque
du minitel.
Avec tout ce que nous avons dit sur la
convergence, la solution la plus simple ne serait-elle pas
d'avoir une machine très grosse pour assurer l'informatique de
toute la planète.
Tout d'abord les machines ne sont jamais assez puissantes. Il
faut les multiplier. Ensuite, cela coûterait très cher en
réseau. Enfin, en cas de panne de cette machine unique, tout
s'arrêterait.
Il s'agit donc d'organiser la coopération, toujours plus
étroite, d'un nombre toujours plus élevé de machines
élémentaires.
La société industrielle comporte trois
grands types d'acteurs: consommateurs, industriels, pouvoirs
publics. Une même personne physique pouvant intervenir selon les
trois modes, au moins comme électeur dans le dernier cas.
L'acteur individuel est d'abord un
consommateur de plus en plus interactif. Pour lui la convergence,
c'est d'abord la baisse des prix. Et donc la montée rapide de
l'électroménager "brun" et des micro-ordinateurs.
Mais l'individu est aussi acteur dans l'entreprise. Il y emploie
les mêmes machines qu'à domicile. Le même téléphone. Le
même fax. A quelques nuances près de puissance et de
sophistication.
Dans une certaine mesure, la convergence des technologies de
l'information abaisse le mur qui séparait souvent la vie
domestique de la vie au travail. Le télétravail au sens strict
reste rare, mais beaucoup de cadres emmènent du travail à la
maison pour le faire sur leur micro. Ou emmènent le micro pour
travailler avec. Et la TPE (très petite entreprise) de Mr
Madelin apporte un pendant juridique à la possibilité technique
de travailler individuellement.
Pendant des années, la convergence s'est
exprimée par la concentration sur quelques grands constructeurs,
et principalement sur IBM. Même la loi antitrust n'a pu
s'appliquer, et la fin de la domination de "Big Blue"
s'est plutôt faite par une usure de ses structures et par la
montée de nouveaux concurrents, principalement Intel et
Microsoft.
Que ce soit par le jeu naturel des forces du marché ou par
l'intervention des pouvoirs publics, l'économie de marché ne
peut accepter une trop forte convergence des acteurs.
Les Japonais, après avoir fait très peur dans les années 1980,
n'ont pas réussi à conquérir de position forte dans les zones
centrales de l'informatique.
Notons que la convergence informatique/télécommunications ne
s'est pas réalisée en termes industriels. IBM a essayé de
devenir un grand acteur des télécommunications, en investissant
lourdement dans les satellites, puis dans la téléphonie. Sans
succès. En revanche, elle joue un certain rôle dans les
réseaux, avec son service IBM-IN.
De son côté, AT&T a réussi à se faire une place dans
l'informatique, grâce à Unix, grâce aussi au rachat de NCR
devenue ATT-GIS. Mais ce succès reste des plus limité.
La guerre fait rage en ce moment sur la couche des bases de
données, du middleware.
L'industrie est à la fois la responsable et la victime de la loi
de Moore.
- cause car elle paye une grande partie de la recherche, et
pratique l'allongement des séries
- victime parce que la baisse rapide des prix, rendue inévitable
par la concurrence, l'oblige à se réformer en permanence
- victime aussi parce que l'accélération technologique
introduit des contraintes de temps de plus en plus sévères,
aussi bien sur la nécessité de sortir rapidement des produits
nouveaux (time to market) que de les amortir rapidement, avant
qu'ils ne soient dépassés par le produit suivant.
L'industrie a intérêt à la convergence, pour allonger ses
séries, faciliter la commercialisation des produits au niveau
mondial. Elle la pousse en constituant de vastes alliances autour
des grands acteurs: les constructeurs mais plus encore les
éditeurs de logiciels, notamment de bases de données. La
concurrence va de plus en plus de pair avec le partenariat. De
même qu'Air France et Lufthansa, tout en se concurrençant
vivement, se son unies pour faire Amadeus.
Techniquement, le réseau cherche la
transparence Mais le fournisseur cherche la valeur ajoutée. RVA.
Brassage
Cette VA sera apportée par des hommes et/ou des automates.
Au moins sous certains angles, les
distinctions traditionnelles entre secteurs primaire, secondaire
ou tertiaire s'effacent. Tout produit se vend aujourd'hui avec
des services associés. Même les produits agricoles, miniers ou
métallurgiques incorporent une part croissante de matière
grise. Toutes les entreprises, convergent donc vers un même type
basé sur un important système d'information. Elles se
spécifient par
- un certain nombre d'actifs matériels et immatériels qui
constituent leur fonds de commerce
- la compétence de leur personnel.
Pas d'économie de marché sans un minimum
de pouvoirs publics, ne serait-ce que pour assurer la sécurité
des vendeurs comme des acheteurs, faire respecter les règles du
marché et, le cas échéant, jouer un rôle régulateur pour
empêcher le marché de suivre un certain nombre de pentes aussi
mortelles que naturelles, en particulier la constitution de
monopoles.
En matière informatique, la politique industrielle des
gouvernement s'est rarement avérée efficace, en tous cas en
Europe. Et même au Japon, ce n'est pas tellement évident.
En revanche, les télécommunications étant au départ un
monopole d'état, leur convergence avec l'informatique conduit
assez logiquement à une privatisation. Cependant, du fait de
l'importance des télécommunications pour la Nation, des
problèmes de reconversion (emploi)... il faut procéder avec une
certaine prudence, d'où l'importance de la réglementation.
Enfin, la collectivité territoriale, outre qu'elle est un
utilisateur non négligeable d'informatique, a un rôle à jouer
sur son territoire, tout particulièrement pour les réseaux au
niveau départemental et surtout régional: câble, réseaux
régionaux et leur liaison avec les réseaux nationaux et
internationaux, téléports.
Il faut donc bien distinguer la réalité et les tendances des
composants technologiques et celle des réseaux d'acteurs,
individus ou entreprises. Quelles que soient les tendances
technologiques naturelles, chacun a intérêt à contrôler un
maximum de composants et de valeur ajoutée. La convergence
technique de base sur le silicium n'induit donc pas, en tous cas
pas automatiquement, que les télécommunications doivent passer
sous la coupe de l'informatique (ou réciproquement). Elle ne
permet pas non plus de décider "scientifiquement", du
sort de France-Télécom et des opérateurs de réseaux à valeur
ajoutée.
En première analyse, cependant, on proposera à la discussion
que les entreprises utilisatrices ont intérêt à conserver la
complexité chez elles. Et à limiter le service public à la
fourniture de lignes, évaluées en fonction de leur débit, de
leur fiabilité et de leur prix. Le plus faible possible.
Si elles veulent sous-traiter une partie plus ou moins large de
leurs services et de leurs activités internes, cette
externalisation peut aller à toutes sortes de catégories
d'acteurs. SSII ou opérateurs de télécommunications, mais
aussi organismes professionnels (Gencod), sociétés ad hoc
(Amadeus), constructeurs (IBM, Bull), etc.
L'essentiel, pour chacun, est de contrôler de la valeur ajoutée
et de la réaliser par une combinaison d'hommes et de machines la
plus compétitive possible. Avec un ancrage dans certaines
"possessions" matérielles ou immatérielles, base du
métier et plus généralement du fonds de commerce de
l'entreprise.
L'informatique s'est "appliquée"
progressivement à l'ensemble des fonctions d'une entreprise. On
a très vite pensé à relier tout cela. Au départ, se créait
un lien tout naturel par le matériel lui-même, car son prix ne
permettait pas d'en avoir plusieurs. Il fallait donc y placer
toutes les applications.
Ce problème se pose moins aujourd'hui. La philosophie du
client/serveur conduirait même plutôt à mettre en place un
serveur (ou un groupe de serveurs si nécessaire) pour chaque
application.
Mais la convergence a des objectifs plus profond. En effet, les
grandes applications s'appliquent toutes à la même entreprise,
et donc des liens souvent étroits entre elles. La gestion du
production découle de la gestion commerciale et entraîne la
gestion des approvisionnements. Toute action a une contrepartie
comptable. Et il faut gérer les hommes en fonction des
activités aussi bien commerciales que de production.
D'où, dès les années 1970 au moins, l'apparition de la
"gestion intégrée", ou des "management
information systèmes" organisant toutes les applications
comme l'entreprise, en une pyramide dont le président et son
état-major forment le sommet. Au départ, cette convergence
était empêchée par le manque de puissance des machines. Seule
la comptabilité, en quelque sorte, fournissait une information
vraiment intégrée, mais très partielle.
Cela devient plus largement possible aujourd'hui. On peut
considérer que tous les serveurs sont connectés et que l'un
d'entre eux a précisément pour mission d'informer la direction
générale, voire d'en prendre les ordres. Dans certaines
entreprises, surtout petites, cela est relativement simple et
déjà en application. Dans les grandes, on se heurte à des
problèmes de personnes mais aussi de différences culturelles
entre services. L'intégration ne pourra s faire que
progressivement, et en bâtissant parallèlement les moyens
permettant à chacun de conserver son autorité légitime.
En tant qu'utilisateur, les collectivités territoriales ont une
caractéristique particulière: le grand nombre des applications
différentes, et le relatif manque de liens entre elles. Non
seulement pour des raisons techniques: le fichier électoral n'a
que des liens éloignés avec l'état civil dans une zone urbaine
où la population change constamment. La gestion des services
techniques n'a pas grand chose à échanger avec l'aide sociale.
De plus, la protection des libertés individuelles s'oppose à de
trop fortes connexions entre les différents fichiers.
Les architectures client/serveur conviennent donc
particulièrement bien aux collectivités territoriales. Elles y
tendent à la fois en déchargeant leurs systèmes centraux d'une
part croissante des applications; d'autre part en connectant
ensemble les micro-ordinateurs ou les serveurs jusqu'ici
autonomes, de manière à constituer un ensemble à la fois
cohérent, connecté, et respectueux des droits comme des
responsabilités de chacun?
Si les techniques convergent, les
professionnels se confondent-ils? Oui et non. Tout informaticien
se heurte peu ou prou à des problèmes de réseaux. D'ailleurs
les systèmes ouverts mettent le réseau au coeur de
l'architecture. Et les télécommunicants manient des ordinateurs
plus que toute autre chose. Mais les métiers restent
différents.
Les télécommunications, autrefois apanage des services
généraux, sont maintenant souvent placées sous l'autorité du
service informatique. La spécialisation se fait au niveau des
techniciens Eventuellement habilités par les fournisseurs, comme
les "CNE" Certified Novell Engineer".
Du point de vue de l'entreprise, les télécommunications peuvent
représenter un budget important, aussi important que celui de
l'informatique peut-être. Mais elles restent essentiellement un
problème d'intendance. Il faut gérer des débits et des coûts.
Surveiller des consommations. Cela ne pose pas des problèmes
d'architecture aussi structurants que ceux de l'informatique avec
ses quatre types de processeurs.
Plus généralement, les informaticiens et les utilisateurs ne
vont-ils pas se confondre? On a souvent présenté l'arrivée de
la micro-informatique comme la fin des services centraux et des
"grands prêtres en blouse blanche". De plus
actuellement, on voit une remise en cause des directions
informatiques centrales des grands groupes.
En réalité, la coordination des différents systèmes
d'information d'une entreprise reste trop difficile pour se
pratiquer sans spécialisation. Elle prend trop de temps pour se
faire en complément d'une autre activité. Pour maîtriser une
technique toujours évolutive et satisfaire des demandes qui
croissent aussi vite, sinon plus, que les possibilités
technologiques, il faut des professionnels.
Cependant les informaticiens eux-mêmes s'interrogent parfois sur
leur rôle. Ils cherchent leur voie entre deux extrêmes.
D'une part un profil bas. L'informatique est au service des
utilisateurs, des directions opérationnelles. Elle doit se
contenter de répondre au mieux à leurs demandes, dans les
meilleures conditions de qualité et de prix. Cette attitude a
plusieurs inconvénients:
- de nouvelles technologies deviennent disponibles immédiatement
ou à moyen terme; l'informaticien est bien placé pour les
détecter et les évaluer; s'il est trop passif, la ville risque
de passer à côté d'opportunités importantes;
- l'efficacité de l'ensemble a besoin de cohérence entre les
matériels, les infrastructures réseau les logiciels; de bonnes
applications doivent pouvoir s'appuyer sur une architecture
solide, qui impose, de temps au temps au moins, des
investissements à long terme; parfois sans aucun avantage
immédiatement perceptible par les utilisateurs; s'il n'a pas le
courage de les obtenir, une multitude de systèmes disparates
rendront peu à peu la communication impossible, la maintenance
coûteuse et la qualité de service déplorable.
A l'opposé, un informaticien trop ambitieux, surtout s'il a
plusieurs années d'expériences en collectivité territoriale,
peut avoir l'impression de mieux connaître le travail que les
responsables opérationnels eux-mêmes. Il risque alors d'imposer
des solutions inadaptées. Et de toutes façons mal acceptées
par les utilisateurs, donc mal mises en oeuvre.
Il lui faut donc en permanence chercher un équilibre. En
fonction de sa personnalité: plus ou moins technicien, plus ou
moins manager, plus ou moins fonceur. Et de la position des
autres acteurs, à commencer par celle du maire. Cet équilibre
est d'autant plus difficile à trouver que la technique ne se
laisse pas aisément maîtriser. L'informaticien, en quelque
sorte, n'est même pas sûr de ses arrières!
Depuis qu'il existe des machines, on se
demande si elles créent du chômage ou au contraire, une fois
passée la période d'adaptation, de nouveaux emplois.
Globalement, on ne peut conclure que de manière optimiste, car,
du paléolithique au néolithique, de la civilisation classique
à l'ère industrielle, la population du monde s'est multiplié
par mille, et le nombre des chômeurs s'y mesure toujours en
pour-cent. Mais il n'est pas prouvé que le phénomène se
reproduira avec la civilisation informationnelle.
Dans les phases actuelles de la montée des machines en densité,
l'homme ne suit plus, ou seulement très lentement. Il se trouve
donc ipso facto exclu, comme un corps étranger, de la partie
chaude des machines. Ou ne s'y insère plus qu'en se pliant à
d'étroites contraintes.
Le taylorisme ne laisse plus qu'une place formalisée dans la
chaîne. Et le consommateur, lui aussi, se trouve massifié.
La société informationnelle va-t-elle conduire à un nouveau
taylorisme, pire encore que le premier. La montée du workflow
peut le laisser craindre. Il s'agit d'utiliser l'informatique
pour faire circuler les dossiers administratifs. Mis sous forme
électronique par scannerisation, les dossiers passent
instantanément d'un poste de travail à l'autre et se règlent
ainsi plus rapidement. C'est l'équivalent, en plus moderne, de
la chaîne industrielle. Cette organisation s'accompagne, comme
dans le taylorisme, d'un découpage plus fin des tâches à
accomplir.
De même, le "business process reengineering", selon
l'expression forgée par Hammer et Champy, réorganise
l'entreprise de fond en comble. Il travaille résolument avec des
"processus", pour se débarrasse de l'organisation
ancienne, les informatise au maximum, et se préoccupe ensuite
d'y affecter les hommes nécessaires, en accroissant leur
efficacité au maximum.
Dans les deux cas, on vise un accroissement sensible de
productivité. Donc, à fonctions égales, une sensible
réduction des effectifs.
Numériquement, l'homme se trouve donc toujours plus exclus du
système automatisé. Et mis au chômage si, dans le même temps,
le développement économique ne crée pas de nouvelles
activités, de nouveaux emplois.
Se trouve-t-il aussi exclu du système en tant que consommateur,
ou au contraire y retrouve-t-il toute sa place comme "client
roi"... L'hypermonde est plus vaste que les humains. On
craignait la massification, on risque tout autant l'excès de
spécificité des cultures et des univers individuels. Les
optimistes y verront une raison de croire de bons équilibres se
dégageront. Les pessimistes diront que l'on peut être à la
fois massifié et isolé.
Le passage à l'immatériel conduit à
envisager, parmi d'autres, un scénario économique catastrophe:
concentration de toute l'économie sur l'informatique,
concentration de toute l'informatique sur des produits
pratiquement gratuits.
Jouent dans le sens de ce scénario:
- la concurrence,
- la loi de Moore,
- les caractéristiques particulières de la société
immatérielle, avec son prix marginal de stockage et de
transmission des données,
- la difficulté de mettre en place une "propriété
intellectuelle" adéquatement protégée
- volonté de gratuité (universitaires, ONG...), pratiquée par
de nombreux émetteurs, et bien entendu du recherchée par un
grand nombre d'utilisateurs.
Jouent contre ce scénério:
- la volonté de contrôle des grands acteurs économiques,
(Microsoft),
- le progrès des travaux sur la propriété intellectuelle,
- la nécessité d'organiser le corps social, et d'éviter le
chaos qui pourrait découler d'une société de la gratuité...
Et cela nous ramène à une question que
vous vous êtes peut-être posé au début de mon exposé:
comment peut-il y avoir déterminisme dans le développement de
l'informatique, puisque c'est nous, les humains, qui la
construisons.
Je n'ai pas de réponse définitive à cette question, de nature
philosophique, comme de savoir si l'histoire a un sens. Je crois
que nous sommes libres de naviguer, mais sur un fleuve dont le
sens est bien déterminé. Et même les rives. L'homme ne s'est
pas créé lui-même, et l'évolution de l'humanité suit depuis
toujours des lois qui dépassent la volonté des individus et
même des groupes de décision démocratiques.
A l'ère moderne, le simple fait d'accepter la loi du marché,
d'admettre qu'une "main invisible" oriente dans le bon
sens une économie libre, revient à accepter qu'il existe un
déterminisme extérieur à nous. Que certains attribuent à un
dieu personnel, ou à la mère nature.
Le marché, par lui-même, apporte un ensemble de lois qui
déterminent l'évolution. Le libre jeu de la compétition fait
toujours marcher la machine la plus performante, la moins chère.
Avec une indifférence a priori pour les conséquences morales de
son développement. Et comme, simultanément, nous appliquons les
principes du marché au travail même de l'homme, les lois s'y
appliquent aussi. De plus, le marché a, par construction,
conduit naturellement au monopole car, dans la plupart des cas,
le meilleur s'assure des avantages décisifs qui lui permettent
d'éliminer ses concurrents. Bref, le développement
déterministe de l'informatique résulte pour une grande part du
simple fait que nous avons choisi l'économie de marché comme
régulateur, et non le choix politique. L'échec de toutes les
autres formes d'économie laisse à penser que, de toutes
façons, nous n'avons pas le choix.
Pouvons-nous, alors, maîtriser l'informatique? Oui, à peu près
comme on maîtrise un fleuve, un torrent. On peut le canaliser,
le régulariser, l'employer à porter nos bateaux, à faire
tourner nos moulins, en boire l'eau et même nous y baigner pour
le plaisir.
Une grande erreur consisterait à penser que l'informatique a
atteint ton terme, sa maturité. Il n'en est rien. Nous sommes
encore loin d'avoir exploité les technologies existantes, de les
avoir pleinement déployé sur le marché. Mais, de plus, il
reste encore un considérable gisement de croissante
technologique, dont nous ne pouvons que difficilement, ou pas du
tout, prévoir les conséquences et les applications. Car, à la
différence du temps de Jules Verne, ces innovations vont
bouleverser en profondeur nos modèles mentaux et sociétaux.
Une des formes de régulation consiste, ici ou là, à figer le
développement, tout en préparant le futur. A savoir attendre le
moment où un aspect particulier de la technologie devient
suffisamment fiable, économique, stabilisé.
Deux autonomies liées
L'ordinateur, comme toutes les machines, est "un bon
serviteur qui doit trouver son maître". Mais il a aussi sa
dynamique propre. Qui n'est pas contradictoire, qui et même
concomitante au développement de l'homme comme individu et comme
société.
D'une part la communauté des machines, du fait de notre travail,
de nos recherches, se développe sans cesse, s'étend à tout
l'univers, renforce sa cohérence, ses échanges internes, sa
résistance aux pannes, son autonomie. Peut-être même son
intelligence.
D'autre part la communauté des hommes, appuyée sur les
machines, passionnée par leur développement même, étend elle
aussi sa maîtrise de l'univers, augmente sa cohérence, réduit
ses guerres ou au moins leurs aspects physiques, accroît sa
liberté, et pourquoi pas son intelligence.
Et, de plus, les relations entre les deux communautés
s'accroissent. Paradoxe peut-être. Plus de communication va de
pair avec plus de liberté.
Irons-nous plus loin dans la communication?
Entre le monde des machines, c'est à dire essentiellement du
silicium, et celui des hommes, fondé sur le carbone,
tisserons-nous des relations matérielles plus fortes que celles,
traditionnelles, de notre système sensori-moteur.
Irons-nous jusqu'à implanter du silicium dans notre corps? Cela
nous choque, bien sûr. Pourtant, nous portons tous, à des
degrés divers, des prothèses. Nous trouvons normal d'installer
sous notre peau une hanche artificielle, un pacer cardiaque,
demain des prothèses auditives. Au nom de quel principe ne pas
aller plus loin. Ou, si l'on veut, comment décider jusqu'où
nous devons aller?
Réciproquement, irons-nous jusqu'à implanter des organes
biologiques dans les machines? Nous l'acceptons sans difficulté
tant qu'il ne s'agit pas d'humains. La loi, en revanche, interdit
de faire commerce de tout tissu humain. Les biotechnologies
appellent en fait un droit spécifique, qui reste pour
l'essentiel à faire.
Que faut-il faire? Et comment décider de ce qu'il faut faire, ce
sera la grande tâches des décennies qui viennent.
En dessous de lui, les composants
matériels et logiciels de base, élémentaires.
Au dessus de lui, les hommes et les organisations avec leurs
stratégies, leurs politiques, leurs affinités, leurs sentiments
bons ou mauvais, leur désir de transcendance. Le réseau des
personnes avec ses caractéristiques matérielles, biotope, les
personnes sont quelque part, ont un domicile, etc.: la chimie du
carbone leurs structures sociales les entreprises,
Lui, au milieu, urbaniste, architecte. Mais souvent aussi maçon.
Franc ?