Introduction - ISTE Group
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Introduction Le sigle STIC est apparu sous différentes formes : TIC (technologies de l’information et de la communication) ; NTIC composé du précédent auquel est ajouté le « N » de l’adjectif « nouvelles ». L’ajout du « S » de « sciences » dans STIC permet d’introduire le travail amont mené par les scientifiques pour développer ces technologies. L’introduc- tion, au tournant des années 2000, de l’un ou l’autre de ces acronymes venait consacrer l’importance prise par l’informatique des matériels et des logiciels, l’électronique, l’auto- matique – qui est la science du contrôle commande des machines –, le traitement des données, des signaux et des images, les télécommunications, dans les activités de recherche et d’enseignement des universités et dans les activités de recherche/développe- ment des entreprises innovantes. La diffusion dans le grand public est passée par l’informatique et la démocratisa- tion de l’usage des ordinateurs personnels dans les années 1980-1990 avec, notamment, l’utilisation de logiciels de traitement de texte et, au tournant des années 2000, par l’usage de plus en plus courant du courrier électronique, puis par la suite du Web. L’informatique est née pendant la deuxième guerre mondiale, essentiellement aux USA et au Royaume-Uni. Le Web est né dans les années 1989-1990 au CERN (Centre européen de recherche nucléaire) près de Genève où les ingénieurs Tim Berners-Lee et Robert Cailliau ont créé un système de recherche et de diffusion de documents utilisant Internet. Cependant, les sciences et techniques de communication sont nées bien avant. Le télégraphe optique de Chappe date de 1793. Il a été remplacé très rapidement par le télégraphe électrique sur fil utilisant le code Morse. Ce système de communication a été breveté aux USA en 1840. Pour communiquer avec les états de l’ouest lointain (far west) il a remplacé le « Pony express » : cet épisode de l’histoire de la « conquête de l’Ouest » a été plaisamment évoqué dans une bande dessinée du héros Lucky Luke : Le fil qui chante [GOS 77]. Bien sûr, les hommes et les animaux n’ont pas attendu
14 Des données à l’information ces progrès techniques pour communiquer. Les hommes n’ont pas attendu non plus le développement des outils de l’informatique pour traiter de l’information. L’invention de l’écriture constitue un événement majeur que les historiens ont marqué par le passage de la Préhistoire à l’Histoire. Associée à l’écriture est la numération, qui a permis, en même temps, de traiter des quantités d’objets ou choses, ou de représenter une liste ordonnée (par exemple, des jours dans un calendrier). Le développement d’un système d’écriture et de numération a constitué une puissante construction issue du génie humain pour traiter, stocker, communiquer de l’information. Contrairement à la construction d’un langage parlé, celle de l’écriture a laissé des traces archéologiques qui permettent d’en analyser l’évolution. C’est pourquoi cet ouvrage commence avec la naissance de l’écriture et de la numération. Ce n’est pas parce qu’un homme dessine un signe sur une surface quelconque qu’il invente l’écriture. Encore faut-il que ce signe soit mis en cohérence avec d’autres pour exprimer une idée. De même, ce n’est pas parce que le berger du Néolithique met trois petits cailloux dans sa poche pour représenter le nombre de chèvres dans son troupeau, qu’il a inventé la numération et le calcul. Il faut pour cela un système permettant de représenter des grands nombres et de les combiner. Avant l’invention de l’écriture, les hommes ont utilisé divers moyens pour com- muniquer entre eux ou pour exprimer des rituels religieux ou non : dessins d’animaux ou objets sur les parois de cavernes ou sur le sol, entailles faites sur des os d’animaux, objets divers (cordes à nœuds ou quipous, objets sculptés, etc.). L’art pariétal connu, constitué de dessins, peintures et gravures sur le flanc de grottes, remonte jusqu’à l’Aurignacien (de 43 000 à 35 000 ans avant notre époque). Les dessins et peintures de la grotte Chauvet-Pont d’Arc, en France, ont été effectués il y environ 36 000 ans. Les expressions de l’art pariétal, habituellement représentées sur des parties non habitées des grottes, n’étaient probablement pas destinées à la communication entre humains, mais à des manifestations religieuses ou rituelles. Les lignes ou géoglyphes de Nazca au Pérou ont probablement été tracés dans une période allant du IIe avant J.-C. au VIIe siècle de notre ère. Les scientifiques ont d’abord pensé que ces tracés pouvaient constituer un gigantesque observatoire astronomique. Les interprétations les plus récentes penchent plutôt pour un rituel religieux [ARG 10]. Des os, gravés de manière complexe ou avec de simples entailles, ont été trouvés par les archéologues en Afrique et en Europe. Les premiers os entaillés de la préhistoire ont peut-être eu une destination numérique (comptage d’objets ou d’animaux). Ils apparaissent, selon les régions, il y a 20 000 à 35 000 ans. L’os de Lebombo, trouvé au Swaziland près de l’Afrique du Sud, a été daté de 35 000 ans avant J.-C. C’est un os de babouin qui possède vingt-neuf encoches.
Introduction 15 L’os ou bâton d’Ishango découvert au bord du lac Edouard, dans la région d’Ishango au Congo, près de l’Ouganda, comporte des incisions ordonnées en groupe et disposées selon trois colonnes. Il est daté de 23 000 ans avant J.-C. (voir figure 1). Un os de loup datant de 30 000 ans avant J.-C. et comportant 55 encoches regroupées par 5 a été découvert à Dlni Vestonice en Tchécoslovaquie [JEL 75]. Plus près de nous, en France, l’os de l’abri Blanchard à Sergeac, en Dordogne, date d’environ 32 000 ans (Musée d’archéologie nationale, référence MAN 56344). Il comporte un certain nombre de marques creusées en spirales, que l’américain Alexander Marshack [MAR 72] a interprété comme étant la représentation d’un calendrier lunaire. Il faut noter que, dans ce cas comme dans d’autres, cette interprétation a été contestée. En effet pour ces objets il faut se garder de sur-interpréter les données dont on dispose car ces éléments sont souvent des objets isolés et il est difficile d’en donner une interprétation qui soit confirmée par d’autres éléments archéologiques. Il faut se garder, donc, de prêter aux hommes de cette époque des préoccupations de l’homme moderne. Figure 1. Os ou bâton d’Ishango. Croquis développé par [HEI 57]
16 Des données à l’information Le principe d’entailler un objet pour représenter un nombre est resté en usage jusqu’à la moitié du XXe siècle chez les boulangers lors de la vente de pains à crédit. La taille était une baguette de bois fendue longitudinalement en deux parties qui se rapportaient exactement. Une partie était détenue par le boulanger, l’autre par le client créditeur. Chaque fois que celui-ci recevait un pain, le boulanger faisait une entaille sur les deux parties réunies de la baguette de bois. Lorsque la taille était « pleine », le client devait payer le boulanger. La taille remplit donc le rôle d’un livre de compte entre un créditeur et son débiteur. Sous l’ancien régime en France, la « taille » était l’un des plus importants impôts. D’abord seigneuriale au Moyen Age, la taille, à partir du XVe siècle, devint un impôt direct appelé par le roi de France. Ce que chaque assujetti donnait était, à l’origine, marqué sur une taille de bois. Le quipu (ou quipou), utilisé par les Incas au moment de la conquête espagnole, leur permettait de pallier leur ignorance d’un système d’écriture et de numération (voir figure 2). Figure 2. Représentation d’un quipou César Itier [ITI 08] donne une description des quipous : « Un quipou est composé d’une corde primaire sur laquelle sont fixées des cordelettes secondaires de différentes couleurs qui portent des nœuds. Des cordelettes tertiaires sont souvent accrochées aux cordelettes secon- daires et successivement. Beaucoup de quipous contiennent ainsi des centaines de cordelettes. Un des plus grands que l’on connaisse à ce jour en compte plus de 1 500. La plupart des opérations qu’impliquait
Introduction 17 l’élaboration d’un quipou étaient binaires, c’est à dire consistaient en des choix entre deux possibilités : tordre le fil à droite ou à gauche, vers le haut ou le bas, par derrière ou par-devant un autre fil, choisir un fil de coton ou de laine, teint ou non. (…) On a calculé que les quipous pouvaient ainsi codifier 1 536 signes. » Il y avait des quipous comptables et des quipous narratifs. Mais dans les deux cas on ne connaît pas le mode de représentation des nombres et des choses ou événements représentés. Les Espagnols ne se sont pas intéressés à la compréhension du système de codage qui, par conséquent, ne nous a pas été transmis. Les sociétés humaines ont subi des transformations profondes au Néolithique : naissance de l’agriculture, de l’élevage, sédentarisation. Jared Diamond, dans son ouvrage De l’inégalité parmi les sociétés. Essai sur l’homme et l’environnement dans l’histoire [DIA 00] donne des clés permettant de comprendre comment l’écosystème qui envi- ronnait les premiers humains a favorisé ou non le développement des sociétés humaines. L’apparition de l’agriculture s’est produite en premier dans les régions où préexistaient des espèces végétales et animales adaptées à ce type d’activité humaine. L’agriculture est apparue de manière indépendante en Asie du Sud-Ouest (croissant fertile) vers 8 500 avant J.-C. et en Chine avant 7 500 avant J.-C. Elle est apparue par diffusion depuis des régions primaires en Egypte vers 6 000 avant J.-C., dans la vallée de l’Indus vers 7 000 avant J.-C., en Europe occidentale entre 6 000 et 3 500 avant J.-C. L’agriculture apparaît au Sahel vers 5 000 avant J.-C., en Mésoamérique (Amérique centrale), dans les Andes et en Amazonie vers 3 500 avant J.-C., dans l’Est des Etats-Unis vers 2 500 avant J.-C. Jared Diamond montre que la diffusion des techniques agricoles ne s’est bien faite que dans les espaces orientés selon la même latitude car les plantes et les animaux restent adaptés. Le développement de l’agriculture s’est fait en parallèle avec une sédentarisation des populations. Celle-ci a conduit petit à petit à des sociétés grandes, denses et stratifiées, régies par une organisation politique. C’est dans ces sociétés que des systèmes d’écriture et de numération ont été forgés. L’écriture est la transcription codée sur un support physique du langage oral. Celui-ci constitue lui-même un codage de la pensée et de l’expression humaine. Ce codage est une construction naturelle dans laquelle on retrouve des caractéristiques utilisées dans les représentations des données numériques : codage, compression, redondance. Qu'est-ce qui fait que des mots comme « oui » et « non » sont courts, monosyllabiques, alors que d’autres mots sont beaucoup plus longs, comme « anticonstitutionnellement » qui est, avec ses vingt-cinq lettres, un des mots les plus longs de la langue française ? Les premiers sont prononcés souvent. Le deuxième n’est utilisé que rarement, et encore plus rarement dans la langue parlée de tous les jours. Cette tendance, consistant à utiliser des mots courts pour les usages fréquents et des mots longs pour les usages
18 Des données à l’information peu fréquents, est générale à toutes les langues. Ainsi, pour oui, on dit yes en anglais, ja en allemand, da en russe, si en espagnol et en italien, etc. ; et pour non, on dit no, nein, niet, no pour ces mêmes langues. La langue est un codage de la pensée pour la communication. Ce codage obéit à des règles. L’une de ces règles est l’efficacité de la communication, qui consiste à transmettre le maximum d’information avec le moins d’efforts possibles. Cette règle de l’optimisation du « coût » d’une communication, est implicite, en aucun cas elle n’est consciemment formulée, mais elle est quasiment systématiquement mise en pratique. Ce mécanisme a été explicité, en 1949, par le linguiste américain George Kingsley Zipf de l’université de Harvard sous l’expression « principe de moindre effort » [ZIP 49]. Les langues alphabétiques sont composées de mots monosyllabiques, de mots comportant plusieurs syllabes et de mots composés. Ces derniers s’ils sont souvent utilisés, ont tendance à disparaître derrière une contraction. Par exemple, les « pommes de terre frites » sont devenues des « frites ». Ce mécanisme n’est pas nouveau, ce n’est pas une invention de notre civilisation moderne de gens pressés. Le mot français « foie » vient du latin ficus pour figue et non du latin jecur pour foie. D’après Henriette Walter [WAL 98], c’est probablement parce que les Grecs, puis les Romains gastronomes, engraissaient leurs oies avec des figues, ce qui leur permettait d’obtenir un « foie gras de figues » très apprécié. Il n’est resté que le dernier mot de l’expression latine pour désigner d’abord le foie pour la gastronomie, puis par la suite le foie en tant qu’organe. Ce mécanisme de formation d’une langue est très général. Il présente des analo- gies avec le codage des données en informatique. Il a fallu attendre 1948 pour qu’un Américain, Claude Elwood Shannon, publie une théorie mathématique de l’information et définisse une mesure de la quantité d’information exprimée en bit, contraction de binary digit [SHA 48]. Les travaux de Shannon ont été repris, dans les années 1950, par des chercheurs pour définir un codage de l’information. En 1952, David Albert Huffman a présenté un algorithme de compression de l’information tel qu’un texte codé soit de longueur minimale. Le codage de Huffman, appelé aussi codage statistique, est basé sur un principe simple. Dans un texte, la longueur du codage d’un mot est fonction de sa fréquence d’apparition : plus le mot est courant plus son codage est court. C’est le principe utilisé par l’humanité depuis la nuit des temps. Dans leurs com- munications parlées et écrites, les humains font, naturellement, du codage statistique. Par ailleurs, C.E. Shannon et d’autres chercheurs ont montré que la redondance dans les langues anglaise et française est de 50 %. Pour un texte donné, la redondance peut se définir par la partie d’un texte (mots ou lettres) que l’on peut enlever sans ôter de l’information. Cette redondance facilite la compréhension entre deux interlocuteurs. Elle permet de détecter et corriger des erreurs (d’orthographe par exemple). En trans- mission et stockage des données, on retrouve ce même principe consistant à ajouter
Introduction 19 des bits de redondance pour permettre la détection et, dans certains cas, la correction des erreurs. Les techniques modernes de transmission et de stockage des données numériques utilisent donc les mêmes principes que les langues naturelles : d’une part, la compression des données pour améliorer l’efficacité des échanges ou du stockage et, d’autre part, l’introduction d’un codage redondant pour permettre la détection et la correction des erreurs. Cette analogie entre la structure d’une langue écrite, codage d’une langue naturelle et le codage des données informatiques est l’idée de base qui a fait naître cet ouvrage. L’extension aux sciences et technologies de l’information et de la communication (STIC) est naturelle. Le traitement de l’information, les techniques de communication se basent sur diverses disciplines scientifiques ou technologiques. A côté de l’écriture et de la numération il y a bien sûr les mathématiques et plus près de nous l’informatique (matériels et logiciels). Il y a des concepts communs entre le contrôle d’une tâche faite par un ordinateur et le contrôle d’une tâche faite par un robot. Ces machines « intelligentes » traitent l’information qui leur est propre et celle de leur environnement. Il ne s’agit pas de faire une histoire disciplinaire mais de faire ressortir les liens croisés entre ces différentes disciplines. Les apports de l’interdisciplinarité entre la linguistique, l’informatique et les mathématiques statistiques conduisent à la réalisation de « fouilles de textes ». Les liens entre automatique et traitement du signal et des images, électronique et transmissions, électronique et informatique sont importants et soulignés. Les télécommunications permettent le transfert de l’information. Le traitement des données, des signaux et des images permet de faire émerger de manière automatique, c’est-à-dire sans l’intervention de l’homme, cette information. Il ne s’agit en aucun cas de traiter de l’information et de la communication au sens journalistique du terme, non pas que cette approche ne soit pas intéressante, mais parce que nous avons choisi de nous concentrer sur les sciences et technologies qui sont mises en jeu, utilisées pour représenter, traiter, stocker et transmettre les informations. On verra comment, dans les différentes disciplines concernées, les avancées dans les idées, concepts et outils nouveaux vont vers plus d’efficacité dans le contrôle des machines, le traitement ou la représentation de l’information. Ce point vient en illus- tration du principe de « moindre effort » que George Zipf lui-même n’a pas limité à la linguistique, mais a étendu à toutes les activités humaines [ZIP 49] : « En termes simples, le principe du moindre effort signifie, par exemple, qu’une personne, en résolvant ses problèmes immédiats, va les voir en regard de ses problèmes futurs, tels qu’estimés par lui-même. En outre, il s’efforcera de résoudre ses problèmes de manière à minimiser le travail global à fournir en résolvant à la fois ses problèmes immédiats
20 Des données à l’information et ses problèmes futurs. Ce qui signifie que la personne s’efforcera de minimiser le niveau moyen de la dépense en travail à effectuer sur la durée. En faisant cela, il minimise son effort… Le “Moindre effort” est par conséquent une variante de “Moindre travail”. » Le fil rouge de cet ouvrage est son titre : Des données à l’information. Le géomètre mésopotamien qui, à partir des mesures d’un champ, en déduit la surface ; l’astronome qui, à partir de l’observation de la position des astres en déduit les orbites ; le contrôleur d’un robot qui, à partir de données capteurs, en déduit une loi de commande ; le logiciel d’analyse de données qui, à partir des fichiers d’une entreprise, en déduit des informations sur le comportement de ses clients, font tous le même cheminement, des données vers l’information. Les outils changent, du traitement manuel utilisant la modélisation mathé- matique, on passe au traitement électronique puis informatique, mais la motivation de base est la même : à partir des données, extraire des informations qui élèvent le niveau de connaissance sur l’objet observé. L’objectif de cet ouvrage sur l’histoire des STIC n’est pas de faire une histoire de sciences ou disciplines particulières, comme l’écriture, les mathématiques, l’informatique, l’électronique ou l’automatique. Ceci a déjà été fait et bien fait par d’autres. L’objectif est essentiellement de faire une histoire croisée, d’une part, entre les grandes disciplines scientifiques et technologiques concernées et, d’autre part, entre les différentes civi- lisations ou pays qui, de l’Antiquité à nos jours, ont contribué à jeter les bases de ces disciplines et à en enrichir le contenu. Ce parcours historique est structuré par thèmes scientifiques et technologiques ; il est divisé en deux parties. La première intitulée « Emergence et consolidation des outils conceptuels » est consacrée aux langages de base, hors informatique, utilisés par les humains, et à leur quête de la connaissance de leur environnement spatial et temporel. Cette partie est divisée en quatre chapitres : « Ecriture, écrits et langages » (chapitre 1), « Numérations écrites » (chapitre 2), « Le langage mathématique » (chapitre 3) et « Espace et temps » (chapitre 4). La deuxième partie intitulée « Automatisation du contrôle des machines et du traitement de l’information » est consacrée aux évolutions technologiques et scientifiques qui conduisent à l’ère numérique. Elle est divisée en trois chapitres : « Machines intelligentes » (chapitre 5), « Transmission et stockage » (chapitre 6) et « Le traitement automatisé de l’information » (chapitre7). L’écriture (chapitre 1) est apparue de manière indépendante en cinq zones géo- graphiques et à des époques différentes : en Mésopotamie, en Egypte, dans la vallée de l’Indus, en Chine et en Amérique centrale. L’alphabet est né en un seul endroit du monde, dans une zone qui s’étend du Sinaï à la Syrie méditerranéenne.
Introduction 21 La matière archéologique la plus abondante, à la fois en nombre de pièces et en périodes représentées, concerne la Mésopotamie où de très nombreuses tablettes d’argile ont pu être exhumées dans des sites différents correspondants à différentes dynasties. Ces tablettes ont fait apparaître une évolution de l’écriture de graphes représentant de manière directe les objets désignés (indépendamment du langage parlé), à une écriture phonétique, syllabique, qui nécessite beaucoup moins de signes pour représenter tous les mots de la langue. Puis les systèmes d’écriture, sauf le chinois, ont adopté un alphabet qui permet, avec un nombre très réduit de caractères, de représenter un nombre considérable de mots. Dans une deuxième partie de ce chapitre sont présentées les voies, incertaines voire chaotiques, par lesquelles certains textes anciens sont parvenus jusqu’à nous. Le chapitre 1 est terminé par une analyse de la structure du langage et notamment de la redondance contenue dans un texte, ce qui fait le lien avec les procédés modernes de compression d’information utilisés en informatique. La première numération apparaît naturellement en Mésopotamie. Le chapitre 2 fait la comparaison entre les systèmes de numération des différentes civilisations antiques. Le système de numération utilisé de nos jours dans le monde entier est positionnel à base 10. Cela veut dire que 10 chiffres (0 à 9) sont les seuls éléments utilisés pour représenter un nombre aussi grand soit-il. La position du chiffre dans le nombre donne sa valeur. Par exemple dans 1953, le 3 est le chiffre des unités, le 5 vaut 50, le 9 vaut 900 et le 1 vaut 1 000. Le système positionnel a été inventé par les Mésopotamiens ; le leur était de base 60. Que la base soit 10 ou 60, ce système de numération est le plus puissant pour représenter les nombres aussi grands soient-ils parce que c’est le plus économe en signes. Après l’écriture et la numération, les mathématiques (chapitre 3) constituent la troisième couche du socle d’outils pour la représentation et le traitement de l’in- formation. « Le livre de la nature est écrit en langage mathématique […] et ses carac- tères sont les triangles, les cercles et autres figures géométriques... » a écrit Galilée (L’Essayeur, 1623, cité dans [BEL 03]). Galilée a certes été le premier à le formuler ainsi, mais il a été devancé par une armée de géomètres, mathématiciens, astronomes qui, depuis l’Antiquité, ont participé au développement de ce langage. Le chapitre 3 permet de comparer l’évolution des mathématiques chez les Méso- potamiens, Grecs, Egyptiens, Chinois et de mesurer l’apport des Arabo-Musulmans. La deuxième partie du chapitre 3 concerne les outils de modélisation des systèmes (équations différentielles, graphes, etc.), ou d’aide à la décision (probabilités et statistiques).
22 Des données à l’information On sera amené, au cours de ce chapitre, à réfléchir sur la notion de « qui a inventé tel outil ou tel concept » et on verra que la réponse n’est pas toujours évidente. En effet, il faut faire une différence entre « utiliser une méthode » sans avoir conscience qu’elle conduit à l’introduction d’un nouveau concept, « concevoir un outil », même rudimentaire, en ayant pleinement conscience qu’il est innovant et apporter des per- fectionnements à cet outil. Pour avoir une idée de la complexité de la chose, on peut se demander pourquoi l’Amérique ne s’appelle pas la Colombie, reprenant ainsi le nom de Christophe Colomb (la réponse est dans le chapitre 4). Dans l’acronyme « STIC » il y a « communication ». Communiquer, c’est trans- mettre une information. Dans l’acte de « transmission » intervient la notion de lieux entre lesquels la transmission se déroule et aussi la durée de celle-ci. C’est pourquoi le chapitre 4 concerne l’espace et le temps. Le thème de ce chapitre constitue aussi une illustration de la manière dont les hommes sont passés des données d’observation des astres à l’information sur les orbites des planètes et, enfin, à la connaissance du fonctionnement du système solaire. Au cours de ce chapitre, on va rencontrer le choc entre les scientifiques d’un côté et l’Eglise de l’autre, entre la connaissance et le dogme. Les concepts d’espace et de temps nous paraissent maintenant familiers. Et pourtant il a fallu attendre Newton, et la publication des Principia en 1687, pour que l’espace et le temps soient définis pour la première fois. En 1905, avec la « relativité restreinte » et, en 1915, avec la « relativité générale », Albert Einstein va faire exploser la conception newtonienne, absolue, de l’espace-temps. Ce parcours historique dans la notion d’espace-temps va nous permettre d’aborder des sujets comme le passage de la mesure du temps à sa fabrication et la course à la détermination de la longitude entre la France et l’Angleterre. Ce n’est qu’à la fin du e XVIII siècle que les hommes sont arrivés à des précisions convenables en inventant l’horloge de marine. Puis le GPS fut mis au point et chacun d’entre nous peut désormais, très facilement, relever ses coordonnées en latitude et longitude. Dans ces quatre premiers chapitres vont donc être présentés, d’une part, les langages écrits : celui de la description de choses concrètes ou abstraites et des idées, celui des nombres et celui des objets mathématiques ; et, d’autre part, leur application à la lente mais constante construction des concepts d’espace et de temps. Tous les appareils utilisés, tous les processus mis en œuvre sont entièrement contrôlés par l’homme, jusque dans leurs niveaux les plus bas ; tous les calculs faits, toutes les interprétations menées, le sont par les savants. Dans la deuxième partie, nous allons aborder le sujet de l’automatisation des processus que l’homme a initié et développé pour le soulager et démultiplier l’efficacité de son travail.
Introduction 23 Une machine sera dite « intelligente » si ses changements d’action, de comportement, ne sont pas des conséquences directes de l’intervention de l’homme, mais sont induits par des informations prises sur son environnement, selon un processus conforme à son objet. Ce thème est traité au chapitre 5. Il existe deux classes de systèmes répondant à cette problématique. Les machines (de transformation d’énergie ou déplacement de matière) et automates (ou robots) d’une part, les machines à calculer et ordinateurs d’autre part. Les machines et automates sont des objets mécaniques qui provoquent des modifications de leur environnement et qui sont munis de capteurs qui traitent de l’information pour estimer l’état du système et le contrôler. Ce voyage historique nous mènera de l’ingénieur grec Ctésibios d’Alexandrie, qui vécut au début du IIIe siècle avant J.-C., aux robots modernes en passant par le régulateur que Watt et Boulton installèrent, en 1790, sur leur machine à vapeur. Le problème fondamental de la stabilité de ces systèmes sera évoqué avec les développements de l’automatique qui est la science du contrôle-commande des systèmes dynamiques construits par l’homme. La deuxième classe des machines dites intelligentes est constituée des machines à calculer et des systèmes programmables que sont les ordinateurs. La surface à calculer ou abaque des anciens Chinois et Egyptiens a laissé la place au boulier chinois, puis aux véritables machines à faire des calculs arithmétiques de l’allemand Schickard (1623) et du français Pascal (1645). Enfin les machines programmables sont apparues avec le français Bouchon (1725) pour les métiers à tisser, l’anglais Babbage (1834) pour la première machine à calculer programmable et enfin avec les ordinateurs conçus au moment de la seconde guerre mondiale en Allemagne, aux USA et au Royaume-Uni. Le chapitre 6 s’intitule « Transmission et stockage ». Ces deux notions sont réunies sous un même chapeau car, comme cela est montré dans l’exposé, la chaîne de traitement de l’information est strictement la même dans les deux cas. Les aspects fonctionnels ne peuvent exister que si la technologie les suit ou même les précède. En effet, ces deux fonctions de transmission et stockage n’ont pu évoluer comme elles l’ont fait que grâce aux progrès, d’abord de l’électromagnétisme et ensuite de l’électronique des tubes à vide dans la première moitié du XXe siècle et des semi-conducteurs, essen- tiellement à partir de 1948, date de l’invention du transistor. Ce rôle fondamental de l’électronique se retrouve dans l’expression désormais universelle de « courrier électronique ». Ce chapitre montre l’importance de cette fertilisation croisée entre différentes disciplines pour arriver à des systèmes dont les performances n’étaient pas imaginables il y a seulement quelques dizaines d’années. Le rôle de l’électronique a déjà été évoqué. Les avancées considérables en traitement du signal dans la deuxième moitié du XXe siècle ont permis de faire passer sur une ligne téléphonique, somme toute pas fondamentalement différente du « fil qui chante » utilisé par Samuel Morse vers 1840, outre une conversation téléphonique, des données numériques comprenant des fichiers de texte, des images et des vidéos, comme dans
24 Des données à l’information les dispositifs ADSL utilisés de nos jours. La compression d’information, le codage correcteur d’erreurs, issus des travaux de Claude Shannon, sont les mêmes en trans- mission et stockage d’information. Cette puissance de transmission et stockage, associée à une grande fiabilité, a conduit au développement de l’informatique d’une part et d’Internet et du Web d’autre part, ce qui est en train de modifier considérablement nos manières d’être, de travailler et de communiquer avec les autres. Le traitement automatisé de l’information, porté par le développement de l’in- formatique, est abordé chapitre 7. L’informatique, l’automatique, le traitement du signal sont véritablement nés au cours de la seconde guerre mondiale, sous l’impulsion d’un puissant effort de guerre porté essentiellement, mais pas uniquement, par les USA. Ces nouvelles technologies ont donné lieu à une explosion d’idées nouvelles et d’espoirs dans les applications envisagées. Les années d’après-guerre voient la naissance de l’informatique, de la cybernétique, de l’intelligence artificielle. Les langages de programmation, les systèmes d’informations, les outils informatiques de conception- fabrication de produits, de contrôle des machines, sont devenus des intermédiaires numériques incontournables entre l’homme et la machine. Comment donner du sens, faire émerger l’information contenue dans un tableau de données, dans un texte, un signal, une image, c’est l’objet de la deuxième partie de ce dernier chapitre. Il peut paraître trivial pour une personne d’analyser un texte ou de décrire une image, mais le problème n’est pas là. Il s’agit de faire émerger de manière automatique, c’est-à- dire sans intervention humaine, l’information contenue dans un fichier de 0 et de 1. Les principaux outils mathématiques permettant de réaliser ou d’approcher cette fonction sont présentés : analyse statistique, méthodes d’optimisation, reconnaissance de formes, etc. Ensuite les méthodes d’analyse des signaux, des images, les techniques d’analyse et fouilles de données, de recherche d’informations et de fouilles de textes sont développées. Dans la plupart des thèmes évoqués dans cet ouvrage, l’analyse ne va pas au-delà de l’an 2000. En effet, les évolutions récentes dans les outils informatiques sont très rapides et fluctuantes et il est difficile d’en rendre compte. Par exemple le réseau social Second Life qui a eu un grand succès au début des années 2000 a disparu des « écrans » vers 2010 au profit de Facebook et de Twitter. Cependant, cette barrière de l’an 2000 n’est pas tenable pour certaines technologies, notamment en ce qui concerne la reconnaissance vocale, celle de l’écriture manuscrite, ou les fouilles de données et de textes. C’est pourquoi certaines références dépassent cette date.
Vous pouvez aussi lire