Generic selectors
Correspondance stricte
Recherche dans le titre
Recherche dans le contenu
Post Type Selectors
Filtre par catégorie
ADNEthique
Algorithmique
Asso Référentiel
Association
Bibliographie
Domaines abordés
Données personnelles
Economie numérique
Emploi
IA
IA Etat de l'art
IA Risques
Informatique
Marché
Usages du numérique

Une histoire de l’automatisation de la pensée

Brève histoire de l’informatique

Informatique est un néologisme très récent d’origine allemande et qui associe information et automatique. Il s’est rapidement répandu dans notre vocabulaire au début des années 1960 et l’Académie française l’a officialisé en 1966. Ce terme recouvre à la fois un domaine d’activité économique (celui des informaticiens développeurs ou gestionnaires de Systèmes informatiques) et une discipline scientifique (celle relative au traitement de l’information).

Aujourd’hui, l’expression « Industrie Numérique » adresse souvent l’activité économique de l’informatique. Sa brève histoire pourrait se résumer en 5 générations :

  • À la fin du XIXe siècle, en réponse à une demande de l’administration américaine en charge du recensement, il conçoit une première application en masse du traitement de l’information tirant profit des progrès de l’électromécanique : la mécanographie.
  • Le foisonnement de la recherche mathématique du début du XXe poussera plus loin l’automatisation de la pensée, en repensant notamment la distinction entre la dimension sémantique de l’information (son contenu) et celle syntactique des données (son contenant). Lors du deuxième conflit mondial, les états-majors américains et anglais ayant perçu le potentiel stratégique d’un supercalculateur investissent dans son développement une partie du budget d’effort de guerre qui leur est confié.
  • À l’après-guerre, ce développement débouche assez vite sur des applications civiles pour la recherche et l’industrie, au support de la reconstruction économique. La Cybernétique laissera sa place à l’Intelligence Artificielle. Les progrès de l’électronique (le Transistor puis les Circuits Intégrés) contribuent très vite à la fiabilité et à l’efficacité des télécommunications et de ce qui devient l’Ordinateur.
  • Entre 1970 et 2000, tout se précipite avec le développement des microprocesseurs : l’informatique se décentralise ; le transport des données et celui de la voix se confondent ; l’ordinateur personnel se popularise ; l’industrie du logiciel prend le pas sur celle du matériel, l’Internet s’ouvre au grand public… Les bases de la Nouvelle Économie Numérique sont établies.
  • Le début du XXIe siècle confirme le passage de la civilisation industrielle à celle des services. La croissance exponentielle de la capacité de traitement des données a atteint le seuil qui libère le potentiel des nouvelles applications de l’intelligence artificielle. De nouveaux acteurs de l ‘économie numériques, géants par leur capacité financière, bousculent le fonctionnement de la bourse et remettent en cause la hiérarchie de ses valeurs.
    L’incroyable essor de l’Internet encourage la délocalisation physique des données et des infrastructures techniques qui les administrent. Cloud devient la métaphore pour désigner la boite noire qui, quelque part sur l’Internet, virtualise tous les moyens concourant à la collecte, au stockage ou au traitement des données ainsi que les Plateformes Numériques organisant nos interactions avec les Services Numériques qui opèrent ces données. Ces services se sont imposés dans notre vie quotidienne comme autant d’évidences, sans crier gare, pour le meilleur et pour le pire.

En tant que discipline scientifique, l’informatique s’attache à la systématisation de la pensée logique, avec pour fil rouge l’évolution de notre capacité à automatiser les calculs et, plus largement, les traitements de l’information. Elle est héritière des progrès de la modélisation rationnelle de la pensée par la recherche scientifique, notamment en mathématique, en physique, en sciences cognitives et en linguistique.

Les paragraphes suivants organisent une sélection — arbitraire et donc discutable — des moments clés de cette épopée. Elle rappelle chronologiquement les noms souvent oubliés de quelques-uns des contributeurs qui ont préssenti et facilité l’interprétation numérisée de notre monde.

L’histoire du point de vue de ses hérauts

-340 : La logique comme « façon de mener une réflexion juste »

Aristote (-384 – -322) , philosophe de la Grèce antique

Le titre de philosophe couvrait alors tous les domaines de la connaissance. Nous ne retiendrons ici que les travaux d’Aristote le logicien. Aristote ne considère pas la logique comme une science en soi, mais plutôt comme un instrument au service de la recherche. Il a formalisé une méthode empirique d’interprétation cohérente du monde [1] qui influencera la pensée mathématique avant de fonder le raisonnement informatique.

On cite souvent Aristote pour avoir encouragé l’utilisation du syllogisme comme l’outil d’un raisonnement déductif rigoureux.
Un syllogisme lie deux ou plusieurs prémisses (ou propositions) pour aboutir à une conclusion. L’un des plus connus [2] est :

  • (1re prémisse) Tous les hommes sont mortels.
  • (2e prémisse)  Socrate est un homme.
  • (Conclusion)   Socrate est mortel.

Quand il définit les conditions pour qu’un syllogisme soit formellement valide, Aristote retient le principe du tiers exclu qui analyse le monde sous forme d’oppositions binaires : Une proposition est soit vraie soit fausse. Elle exclut toute alternative tierce. Ainsi, considérer ici que Socrate est aussi une célèbre statue de pierre visible à l’académie d’Athènes invalide le 2e prémisse donc la conclusion de notre exemple.
La logique modale aristotélicienne est à la base de la logique mathématique. Parce qu’il permet souvent d’éviter une formulation absurde [3], le principe binaire du tiers exclu est devenu un dogme intangible pour la formalisation des mathématiques.

Aristote a également l’intuition de structurer la collecte des informations que requiert une étude dans un périmètre défini [4]. Il nous propose une démarche de modélisation pour interpréter rationnellement une réalité simplifiée. Précurseur de l’approche scientifique, il se concentre sur les traits jugés importants pour faciliter une interprétation de la complexité. Il propose d’aborder l’analyse du sujet étudié selon dix dimensions que présente le tableau ci-dessous.
Quatre siècles plus tard, le questionnement quintilien que partagent toujours les policiers et les journalistes (Quoi ? Qui ? Où ? Quand ? Comment ? Combien ? [Et pourquoi ?]) sera un héritier de cet outil [5].
Aujourd’hui, les concepteurs d’un Système d’Information utilisent des techniques de modélisation comparables pour en identifier les différents objets et structurer leurs données en entités, classes et relations, avant de préciser leurs interactions dynamiques.

Catégorie [6]

Questions types
(liste non exhaustive)

Exemples actuels  de réponses possibles
1. Chose ou individu (Quoi ?) Qui est-ce ? Qu’est-ce ? Un animal, une personne, un objet, une matière ; un concept…
2. Quantité ou mesure (Combien ?) Combien ? De quelle hauteur/longueur/largeur ? De quelle importance relative ? L’estimation d’une population, d’un volume, d’un poids ; d’une puissance énergétique…
3. Qualités individuelles Quelles sont ses qualités/défauts ? Sa forme ? Ses couleurs ? Ses propriétés ? Aspect général extérieur, couleur, allure, comportement, autres qualificatifs…
4. Relation, association ou lien (à qui / à quoi ?) Quel rapport avec une autre personne ou une autre chose ? À quel groupe générique le rattacher ? Appartenance à une nature / type / classe / catégorie / origine / famille / culture ou autre qualifiant ; relation composant-composé , ascendance-descendance,  hiérarchique …
5. Lieu (Où ?) Où le trouver ? Où travaille-t-il ? Où habite-t-il ? Adresse personnelle/professionnelle ; lieu de stockage ; région d’origine ou de production…
6. Temps (Quand ?) À quelle date… ? À quelle occasion ? Avec quelle fréquence ? Année/date d’origine, de fin, de révision… fréquence de mise à jour, délai de péremption
7. Statut ou état Quelle est sa position actuelle ? Sa situation au sein de ? Son avis sur … ? Neuf/ancien ; en attente de réparation ;
État gazeux / liquide / solide ;
Actif / à la recherche d’un emploi / retraité…
8. Points particuliers Caractéristique exceptionnelle ? Signes extérieurs de reconnaissance ? Grand blond avec une chaussure noire ; barbu ; cou pouvant dépasser deux mètres de long…
9. Activité ; usages (Comment) Que fait cette personne ? Comment fait-elle ? À quoi sert cet objet ? Comment l’utiliser ? Pour couper ; pour chauffer ; pour enfoncer ; pour décorer…Expertises/talents ; Expériences/formations…
10.Contraintes Quels sont les limites ? Les risques et précautions en retour ? les exigences ou contraintes propres à … ? Handicaps ; maladie ; obligations personnelles ; condition de stockage ; durée de conservation ; produit toxique, explosif…

830 :   La définition pas-à-pas d’un calcul : l’algorithmique

Muhammad Ibn Musa Al Khwarizmi (780 — 850), mathématicien, géographe et astronome perse.

L’histoire a donné son nom aux Algorithmes [7] dont la place est centrale en informatique.
Au IXe siècle, Bagdad, son lieu de vie est au croisement des cultures grecque, indienne et perse. Il passe toute sa vie active dans La Maison de la sagesse, sous les mécénats successifs de califes abbassides.

Enthousiasmé par la lecture d’un traité indien sur la numérotation positionnelle à dix chiffres dont le zéro, il en fait la promotion dans le monde arabe. Ses explications pas-à-pas des calculs arithmétiques (leurs algorithmes) avec ce Système Numérique décimal seront alors régulièrement traduites et reprises de par le monde.

Il considère les méthodes de résolution des équations comme des « mécanismes réglant le fonctionnement de la pensée organisée ». Le titre arabe de son traité sur ce sujet, « al jabr » [8]. Phonétiquement adapté en algèbre, ce méta-algorithme est depuis une branche essentielle des mathématiques.

1202 : Le calcul décimal libérateur en Occident

Leonardo Fibonacci surnommé Leonard de Pise (1175 – 1250), mathématicien italien.

Ce mathématicien brillant du moyen-âge favorise la promotion en Occident du système décimal au détriment du système romain [9]. Si les avantages de ce système appliqué aux calculs commerciaux et scientifiques convainquent rapidement le monde savant, leur déploiement dans le grand public demandera encore plusieurs siècles.
Son œuvre principale, le « Liber abaci », porte un titre équivoque, traduisible à la fois par « livre des abaques » et par « livre des calculs ». Cette deuxième traduction correspond davantage au contenu du livre qui fait l’apologie des chiffres indo-arabes plutôt que de s’intéresser aux bouliers et autres pratiques de tables à jetons qui étaient couramment utilisés à cette époque.

Il pourra sembler paradoxal et discutable de retenir Fibonacci dans notre panthéon de l’informatique, alors qu’il a davantage consolidé et remis en forme un savoir existant qu’il a réellement innové. Cette place est ici justifiée par ses efforts pour mettre en Occident le calcul à la portée du plus grand nombre et nous libérer de l’usage d’abaques dont la complexité pratique exigeait une expertise dont on faisait alors commerce [10].

1620 : La première règle à calculer

John Napier (15501617), mathématicien écossais, inventeur des tables de logarithmes népériens.

Les tables de logarithmes qui portent son nom (que les Français ont transformé en Jean Neper) constituent un outil d’aide au calcul qui réduit les multiplications ou divisions à de simples additions ou soustractions [11]. L’intention de Napier est de limiter les fréquentes erreurs de multiplication ou de division qui avaient encore des conséquences lourdes pour les navigateurs, les cartographes, les astronomes ou les banquiers.

La représentation logarithmique fournit également une échelle qui permet une appréhension analogique des grands nombres (logarithme associe les mots latins logos pris dans le sens de mise en relation et arithmus, nombre).

Dès 1620, ses travaux seront à l’origine de la règle de calcul inventée par Edmund Gunter (1581-1626). Associée au compas, Il la destine d’abord aux calculs de navigation.
C’est le premier outil analogique permettant d’approcher rapidement un calcul complexe (multiplication, trigonométrie, racine carrée …).

Régulièrement amélioré lors des siècles suivants, cet outil de calcul sera utilisé par les candidats au baccalauréat des sections scientifiques, jusqu’à ce que les premières calculettes électroniques se démocratisent [12].

1645 : La Pascaline, première machine à calculer

Blaise Pascal (1623 – 1662), mathématicien, physicien, philosophe et théologien français.

Il a 19 ans en 1642 quand il invente une machine mécanique souvent considérée comme ayant été la première machine à calculer [13]. Trois ans et une cinquantaine de prototypes plus tard, elle sera présentée au public.

Construite en une vingtaine d’exemplaires et sous des versions dédiées [14], d’abord dénommée machine d’arithmétique, elle est aujourd’hui connue comme la Pascaline. Mais peu pratique et aux fonctionnalités restreintes, cette tentative tourne à l’échec commercial et elle ne contribuera qu’accessoirement à la renommée de Blaise Pascal. Son principal mérite historique restera d’avoir démontré qu’une mécanique bien conçue peut exécuter une activité jusqu’alors considérée intellectuelle.

Note : dans les années 1970, en hommage à cet érudit multicarte et à son invention, Pascal devient le nom d’un langage de programmation très populaire qui encourage une approche structurée.

1690 : Le système binaire et l’intuition d’un langage universel de programmation

Gottfried Wilhelm Leibnitz (1646 – 1716), mathématicien et philosophe allemand

Pour lui, la logique est garante de la cohésion des recherches scientifiques.

Il théorise un langage universel (« lingua characteristica universalis ») avec l’ambition qu’il permette de transcrire sans ambiguïté une démarche algorithmique, au point qu’elle pourrait être strictement interprétée par des moyens mécaniques (le « calculus ratiocinator » dont il formalise également les principes).
Quatre siècles plus tard, ces travaux auraient directement influencé les concepteurs du langage de programmation Prolog.

Ses recherches et publications mathématiques sur le système binaire font qu’on désigne souvent Leibnitz comme en étant le découvreur. Les travaux sur les systèmes non-décimaux de l’Anglais Thomas Harriot (1560-1621) sont cependant bien antérieurs.

Leibnitz réalise également une machine à calculer, la multiplicatrice ou Replica qu’il présente à la Société Royale de Londres en 1673. Postérieure à la Pascaline, ce modèle a cependant pour innovation forte l’exécution automatique de multiplications et de divisions.

1801 : Le métier à tisser Jacquard

Joseph Marie Jacquard (1752 – 1834), inventeur français.

Il est l’inventeur français à qui l’on doit le métier à tisser mécanique programmable qui porte son nom : le métier Jacquard.

On se doit de partager la paternité de son innovation avec le mécanicien des automates Jacques de Vaucanson (1709-1782) et Basile Bouchon. Dès 1725, ce dernier a utilisé un ruban perforé pour guider un tissage mécanique.

L’utilisation d’un programme externe pour conditionner le résultat d’un mécanisme générique avait déjà un précédent : le ruban perforé qui guide la partition des orgues mécaniques. On peut alors identifier cet instrument comme la première application industrielle concrète dont le programme était conçu (mais sans le savoir) en binaire [15] : des séquences de trous défilant dans le mécanisme de soufflerie génèrent la musique sélectionnée (0 = pas de trou, l’air produit par le soufflet ne passe pas ; 1 = carton troué, l’air passe pour activer le sifflet positionné derrière la perforation).

1834 : La machine à différences de Babbage

Charles Babbage (1791 – 1871), mathématicien anglais

Il est le premier à énoncer le principe d’un calculateur analytique autonome et il se lance dans sa réalisation. Babbage revendique explicitement l’héritage de Napier, Leibnitz et Pascal.

Il destine initialement cette machine mécanique à la constitution de tables mathématiques plus rigoureuses, regrettant notamment les nombreux accidents liés à des tables nautiques trop approximatives. En cours de réalisation, il modifie les plans pour en faire ceux du premier calculateur universel.

Son projet initial est plusieurs fois remis en cause, notamment 1834 quand il y incorpore des cartes perforées dont la lecture séquentielle permet de charger le programme des calculs ainsi que leurs données variables en entrée. Peu après, le projet est interrompu par ses financiers découragés par les dépassements de délais et de coûts.

Babbage perd tout espoir de voir la concrétisation de son œuvre, mais il persiste dans ses recherches d’amélioration du concept initial. Son fils reprend ses travaux en 1888. Une démonstration posthume de son calculateur a lieu en 1908 devant l’académie royale d’astronomie.

1840 : Le premier programme informatique

Augusta Ada King, comtesse de Lovelace, dite Ada Lovelace (1815 – 1852), anglaise, pionnière de l’informatique.

L’histoire retient le nom d’Ada Lovelace [16] comme celui de l’auteure du premier programme informatique [17]. C’est sa principale collaboration au projet de la machine analytique. Charles Babbage cite plusieurs fois les apports significatifs de cette visionnaire à son projet.

Elle a notamment très vite perçu le potentiel d’une machine universelle, au-delà des seules applications pour la société d’astronomie à l’origine du projet initial de Babbage.

En 1980, pour rendre hommage à son talent, le nom Ada a été donné à un des premiers langages de Programmation orientés objet.

1847 : L’approche algébrique de la logique, clé de la mécanisation de la pensée

George Boole (1815 – 1864), mathématicien, logicien et philosophe d’Irlande du Nord

De 1844 à 1854, cet autodidacte génial développe une algèbre dont les fonctions n’acceptent que deux valeurs [18] : vrai/1 ou faux/0.

Deux mille ans après Aristote, les fonctions booléennes proposent une mécanique de la logique binaire soumise à des lois mathématiques pour formaliser le raisonnement déductif humain.

L’Algèbre de Boole trouvera très vite une application concrète grâce à Claude Shannon qui utilise ces règles de calcul déductif pour la conception des circuits électroniques. L’algèbre de Boole structure toujours la conception et la programmation des algorithmes qui pilotent les ordinateurs.

1874 : L’invention du téléphone

Alexander Graham Bell (1847 — 1922), ingénieur, inventeur et chef d’entreprise, scotocanadien naturalisé américain.

L’histoire de l’informatique et des télécommunications sont inséparables. Le nom de Bell a accompagné cette aventure commune.

La grande histoire retient que Graham Bell est l’inventeur du téléphone et son brevet validé officiellement en 1876. Le téléphone est décrit comme un système qui transporte le son sous forme d’impulsions électriques, d’un émetteur à un récepteur distant, avec une bonne audibilité à réception. L’invention connait un succès public quasi immédiat [19].

Le Laboratoire A. G. Bell fondé en 1880 devient Les Laboratoires Bell (ou Bell Labs) en 1925. Ce nom sera associé à des découvertes et innovations capitales dans les domaines des télécommunications (Théorie de l’Information, transmissions de l’image, communications satellitaires, usage de la fibre optique…), ou de l’électronique (le Transistor, le laser, la cellule photoélectrique…).

1887 : La mécanographie

Herman Hollerith (1860-1929), ingénieur, inventeur et chef d’entreprise américain.
Employé par l’administration US [20], Hollerith invente la tabulatrice électromécanique pour faciliter le recensement de la population. Le traitement des réponses à un questionnaire présenté sur des cartes à perforer (on sélectionne une alternative rédigée explicitement en perforant la case qui lui est associée) permettra de réduire considérablement les délais de production ainsi que la précision des statistiques nationales.

Il quitte l’administration en 1896 pour fonder la société « Tabulating Machine Co ». L’industrie mécanographique est née. Ses applications pratiques outillent tous les domaines de la gestion administrative des entreprises (comptabilité, facturation, gestion de stocks, paie, statistiques, etc.). Trieuses et tabulateurs manipulent en entrée des cartes perforées. Une imprimante y est connectée vers 1920. Dans les années qui suivent, la mécanographie outille par exemple la tenue de comptes bancaires au moyen de cartes ou des bandes perforées comme seuls supports d’entrée et de stockage des données.

En 1914, l’entreprise créée par Hollerith prendra pour président Thomas J. Watson (1874-1956) qui, en 1924, la renomme International Business Machines Corporation (IBM). Jusqu’à son décès, il en reste le président [21].

1931 : La distinction entre fond et forme, approche sémantique et syntactique

Tout message peut être considéré selon deux dimensions complémentaires : son contenu sémantique (son sens, les idées ou Informations qu’il porte) et la structure formelle qui le contient (les règles syntactiques qui formatent les Données sur un support de transport ou de stockage).

Aujourd’hui, il semble établi que le domaine de l’Ordinateur est le traitement syntactique des données numérisées, sans conscience de leur portée sémantique. Mais cette séparation arbitraire entre le fond et la forme est l’héritière de débats foisonnants entre mathématiciens au début du vingtième siècle. Le raisonnement se résume-t-il toujours à un simple exercice mécanisable ? Un ordinateur est-il définitivement limité au calcul alors que l’humain pense ? …
Nous retiendrons ici les noms de deux génies qui marquèrent ces débats.

David Hilbert (1862 — 1943), mathématicien allemand.

Outre ses contributions mathématiques majeures, dont celles au support mathématique de la mécanique quantique et de la relativité générale, Hilbert s’attache à défendre une utilisation rigoureuse des mathématiques et de la logique. Il en structure les bases pour en éradiquer les paradoxes.

En 1920, il introduit sa « théorie de la démonstration ». Il fait l’hypothèse que la consistance de tout énoncé mathématique peut être démontrée indépendamment de sa sémantique. La condition suffisante pour valider qu’une affirmation mathématique est juste serait que le formalisme de son énoncé respecte strictement des règles syntactiques universelles d’axiomatisation mathématique. Hilbert œuvre alors à l’enrichissement et à la promotion d’un métalangage d’axiomatisation rigoureux au point qu’un algorithme pourrait automatiser la démonstration d’une vérité mathématique ainsi énoncée.

Kurt Gödel (1906 — 1978), logicien et mathématicien austro-américain.

À contre-pied de l’école formaliste que représente Hilbert, il défend la part de l’intuition propre aux mathématiques. Il est célèbre pour les deux « théorèmes d’incomplétude » qui portent son nom. Ensemble, ces théorèmes statuent qu’il ne peut exister d’algorithmes capables dans tous les cas de valider une vérité mathématique par la seule vérification syntactique de son énoncé.

Gödel n’arbitre pas entre la supériorité de l’intelligence artificielle ou celle du mathématicien, mais il nous affirme que nous devrons vivre avec l’incertitude de nos raisonnements mathématiques. Nombre des vérités mathématiques d’aujourd’hui seront remises en cause dans le futur. De même, nos ordinateurs aux raisonnements syntactiques ne peuvent ni ne pourront être libérés de l’incertitude que portent les résultats qu’ils nous délivrent.

1936 : La Machine de Turing

Alan Mathison Turing (1912 — 1954), logicien et mathématicien d’Irlande du Nord.

Il est souvent désigné comme le père de l’informatique, d’une part pour ses apports essentiels aux trois notions de calculabilité, d’algorithme et de programmation et, d’autre part, pour sa définition de la « machine de Turing ».
La Machine de Turing est un modèle théorique et universel qui préfigure le fonctionnement de ce que seront les futurs ordinateurs.

Note : bien que cette modélisation ne porte que le nom de Turing, on doit aussi y associer celui d’Alonzo Church (1903 — 1995). Les travaux menés en parallèle par ce dernier ont constitué un apport majeur à cette proposition, comme l’a reconnu Turing.

Turing a un rôle déterminant dans la victoire des troupes alliées en coordonnant le décryptage des messages de la machine Enigma utilisée par l’armée allemande pour protéger le secret de ses communications. « La bombe analytique » est le nom du calculateur électromécanique qui assiste son équipe. Sa deuxième version, améliorée par Turing, sera le Colossus, parfois considéré comme le premier ordinateur moderne.

En 1948, Alan Turing met au point un des premiers Réseaux de Neurones artificiels. Deux ans plus tard, il contourne le débat sur la réalité d’une intelligence artificielle en proposant le Test de Turing, une étape à passer pour qu’on envisage l’équivalence de l’intelligence d’un ordinateur et de celle que permet le vivant.

1945 : L’architecture Von Neumann, consécration de la dualité Hardware-Software

John Von Neumann (1903 — 1957), mathématicien et physicien américano-hongrois.

Conscient de l’importance stratégique de la puissance de calcul pour les projets militaires américains auxquels il contribue, Von Neumann conçoit une architecture technique qui s’appuie grandement sur les travaux de Turing.
L’architecture Neumann retient le principe du chargement et du stockage des programmes en mémoire (où transitent aussi les données à traiter), ce afin d’améliorer considérablement le temps précédemment passé à configurer les calculateurs avant leur utilisation.
Son innovation principale réside dans ce qu’elle distingue entre la partie matérielle permanente (Hardware) et la partie logicielle (Software), ce dernier terme regroupant à la fois les programmes génériques qui pilotent les fonctions standard et ceux qui guident l’exécution d’un traitement spécifique selon des algorithmes dédiés.
Cette architecture universelle prévoit également la circulation des données [22] permettant les échanges et les interactions entre les différentes parties d’un ordinateur et les périphériques externes (imprimantes, écrans, de stockage des données en entrée et/ou en sortie …)
Ces principes fondateurs inspirent encore le fonctionnement de nos ordinateurs actuels.

L’ENIAC [23], construit en 1943 par l’École Moore de Philadelphie et financé par le Pentagone, est un calculateur à lampes qui est le plus souvent cité comme le premier des ordinateurs de l’histoire [24]. C’est en tout cas le premier ordinateur digne de ce nom que Von Neumann approche à l’occasion du projet Manhattan [25]. Mais c’est la mise au point d’un nouvel ordinateur, l’EDVAC [26], qui lui permet de finaliser sa proposition d’architecture universelle.
On doit associer à la conception et à la mise au point de cette architecture [27] les contributions de John Adam Presper Eckert (1919 – 1995), John William Mauchly (1907 – 1980) et Grace Hopper (1906 – 1992).

La créativité scientifique de Von Neumann ne se limite pas à ses seuls apports à l’informatique. Le mathématicien a été un trait d’union entre toutes les autres sciences, notamment par ses travaux sur l’axiomatisation de la mécanique quantique, sur l’analyse fonctionnelle, sur la théorie des ensembles ou sur la théorie des jeux. Il contribua aussi à l’élaboration du second théorème d’incomplétude de Gödel.

1947 : Le transistor et les premiers pas du marché de l’informatique d’entreprise

John Bardeen (1908 — 1991), William Shockley (1910 — 1989) et Walter Houser Brattain (1902 — 1987), physiciens et chercheurs américains.

À la suite des travaux sur les semi-conducteurs, alors employés par les Laboratoires Bell, ils sont en 1947 les co-inventeurs du Transistor, ce « composant à trois pattes » qui allait bouleverser l’électronique.

En 1954, le Transistor remplace avantageusement les lampes électroniques des postes de radiodiffusion, tant ses atouts étant évidents : plus fiable, plus robuste, plus petit et plus léger, plus réactif et alimenté par des courants faibles permettant un fonctionnement à pile.

Vers la fin des années 1960, la conjonction de l’arrivée du transistor et de l’architecture universelle de Von Neumann permettra la naissance de l’industrie informatique en facilitant l’arrivée des ordinateurs de deuxième génération qui ciblait le marché des entreprises.
Grâce à une stratégie commerciale agressive, la compagnie IBM, héritière et leader alors incontesté de l’industrie mécanographique, pérennisera pour les trente années suivantes sa place sur le marché des ordinateurs centraux (aussi appelés Mainframes).

1948 : La théorie de l’information

Claude Elwood Shannon (1916 — 2001), ingénieur et mathématicien américain.

En 1937, alors assistant de recherche au MIT, Claude Shannon démontre les apports majeurs de l’algèbre de Boole pour simplifier et harmoniser la conception des relais [28], équipements au cœur des centraux téléphoniques analogiques.

Mais Claude Shannon est surtout connu comme le père de la Théorie de l’Information qui aborde le traitement des signaux physiques du point de vue mathématique. Cet intitulé français est une traduction approximative et ambiguë du titre américain original « A Mathematical Theory of Communication [29]». Moins que l’Information, la théorie de Claude Shannon concerne plutôt les Données échangées entre l’émetteur et le récepteur. Pour l’époque, l’idée centrale est révolutionnaire : faire du canal physique de communication de la voix le vecteur de données numériques. Le transport de messages numériques plutôt qu’analogiques bouleverse le paradigme des entreprises qui fournissent alors les lignes téléphoniques. Ce formatage numérique permet le traitement des contenus qu’elles transportent afin d’accroitre la capacité et la fiabilité de leurs services.

Les travaux de Claude Shannon ouvriront ainsi la porte à une succession de fonctionnalités nouvelles, au-delà de la seule téléphonie. Pour exemples : la compression des flux de données pour limiter les volumes échangés ; la validation de l’intégrité physique du contenu à réception ; l’analyse et la réduction des bruits qui perturbent l’interprétation du message reçu. Grâce à quoi le transport de données numérisés de toutes natures (textes, images, enregistrement sonores et vidéo) emprunte aujourd’hui le même canal physique que celui autrefois réservé à la voix [30].

Après un peu plus de quinze années aux Bell Labs, Claude Shannon fait le choix de revenir au MIT pour y enseigner jusqu’à sa retraite. La modestie de ce chaînon manquant est à mettre en parallèle avec l’arrogance des géants du numérique qui capitalisent aujourd’hui sur les conséquences de ses travaux.

1958 : du circuit intégré aux mini-ordinateurs

La technologie du circuit intégré combine sur un espace réduit des composants électroniques réalisant un nombre conséquent de Portes Logiques. Cette solution technique accroît la fiabilité des ordinateurs et diminue leur coût de production.

La diminution des coûts d’investissement et de fonctionnement qui en résulte pour les entreprises élargit le marché professionnel de l’informatique. Après dix ans de progrès et de maîtrise, les constructeurs proposent des mini-ordinateurs. Avec cette offre d’infrastructure, l’ouverture d’un centre informatique devient accessible aux entreprises moyennes en même temps que, dans les plus grandes, la distribution des moyens de traitements au plus près des utilisateurs est envisageable. Le mini-ordinateur encourage le développement de réseaux de communications privatifs. Ces réseaux sont assez coûteux, mais ils permettent une délocalisation partielle des moyens matériels et humains de l’informatique. Dans les années 70 et jusqu’à la généralisation de l’Internet, ce choix offert aux entreprises entre centralisation ou décentralisation remodèle subtilement l’organisation de leur DIDirection de l’Informatique en DSI, d’abord acronyme de Direction du Service informatique pour devenir Direction du Système d’Information [31].

En 1958, Jack St Clair Kilby (1923 —2005), ingénieur en électronique et inventeur Américain.
Ce créateur prolifique [32] est reconnu être l’inventeur du circuit intégré, alors qu’il travaillait pour Texas Instruments. Cette entreprise déposera une demande de brevet en 1959.

On doit associer également le nom de Robert Noyce (1927 — 1990) à l’invention du circuit intégré. Il était arrivé à des résultats équivalents alors qu’il était employé par Fairchild Semiconductor implantée dans la naissante Silicon Valley. Il est 10 ans plus tard un des trois cofondateurs d’Intel [33].

En 1975, on désigne par Puce la tranche de silicium sur laquelle sont miniaturisés les composants électroniques et leurs connexions. La Carte à Puce est une autre application du circuit intégré qui modifie significativement les habitudes des consommateurs (carte bancaire, carte vitale, carte SIM…) et qui encourage à l’interconnexion des réseaux d’entreprise.
Le français Roland Moréno (1945 — 2012) fera valoir ses droits [34] sur l’invention en déposant sa demande de brevet en 1974.

1959 : Les langages de programmation de haut niveau

La programmation des premiers ordinateurs se faisait par câblage manuel des circuits électroniques. Les premiers Langages de Programmation permettaient d’organiser des instructions au niveau de l’action physique élémentaire à exécuter par le Hardware. La complexité de leur écriture et de leur maintenance était déjà un facteur important du ralentissement des développements. Les applications restaient cependant limitées et leur programmation directement maîtrisée par leur concepteur.

La normalisation des langages et leur indépendance vis-à-vis du hardware libère l’essor de l’informatique : des « programmeurs généralistes » pouvaient alors répondre à la demande croissante de développement et de gestion d’applications spécifiques.

Conjointement à l’arrivée du transistor, ces langages ont permis les ordinateurs de deuxième génération qui accompagneront le développement de l’informatique d’entreprise.

Nous ne retiendrons ici que le nom d’un talent et d’une carrière atypique ayant accompagné et influencé l’époque héroïque où les langages de seconde génération arrivaient.

Grace Murray Hopper (1906 — 1992), mathématicienne et informaticienne américaine.

Docteure en mathématique, elle s’engage en 1943 dans la marine américaine [35] où elle est rapidement affectée aux projets informatiques financés par l’armée. Elle contribue au projet du gros calculateur Mark I sous-traité à IBM. Elle est une des trois personnes capables de le programmer.

Détachée du service actif de l’armée à la fin de la guerre, elle contribue aux projets Mark II et Mark III. En 1949 elle rejoint le développement de l’UNIVAC (pour UNIVersal Automatic Computer) qui restera dans l’histoire comme le premier ordinateur digne de ce nom ayant été commercialisé. Hopper est l’auteure du premier compilateur-assembleur pour cette machine.

Elle rejoint l’équipe IBM en 1957 à qui elle propose l’idée d’un langage de programmation à la syntaxe proche de l’anglais, ce qui donne lieu en 1959 au COBOL (pour « COmmon Business Oriented Language »). En 1970, elle participe à la normalisation des langages de troisième génération que sont le COBOL et le FORTRAN (pour « FORmular TRANslation »).

1970 : Les bases de données relationnelles

Les méthodes de développement identifieront très vite deux piliers de la réussite d’un projet d’informatisation : la modélisation des traitements (vue dynamique des processus de transformation des données) et la modélisation des Données (vue statique du stockage et des chemins d’accès aux données).

Les modes d’accès physique aux données ont lentement évolué (lecture séquentielle, indexée, séquentielle indexée). La taille et la complexité des fichiers manipulés ont progressé conjointement aux capacités technologiques de stockage, de rapidité d’accès et de traitement du contenu. La rigueur dans la modélisation des structures logiques de données est vite devenue une exigence, garante de l’intégrité du contenu comme de l’efficacité des traitements.

Les Bases de Données Relationnelles ont marqué une évolution importante en permettant l’indépendance entre la prédéfinition de la structure logique des données (leur approche stable) et celle des chemins d’accès construits au moment de chaque traitement (leur approche dynamique).

Les travaux de Codd constituent une contribution essentielle à ces évolutions majeures.

Edgar Frank Codd (1923 — 2003), informaticien anglais.

E.F. Codd doit sa notoriété à ses travaux sur les Bases de Données.
Il a beaucoup contribué aux travaux de normalisation des modèles de données qui garantissent la robustesse et l’efficacité de la structure physique de stockage et le maintien de l’intégrité des données.

Parmi les Formes Normales qui guident les concepteurs de systèmes, la quatrième porte le nom de Boyce-Codd, associant au sien celui de l’américain Raymond F. Boyce (1947–1974).

Il est le principal concepteur du modèle relationnel dont il précise le cadre : Codd définit les douze règles garantes de l’efficacité d’un système de gestion de base de données (SGBD) qualifié de relationnel (SGBDR). Dans un tel modèle, les chemins d’accès physiques aux données physiques ne sont plus prédéfinis, mais ils sont construits dynamiquement par l’analyse de la requête formulée dans un langage « plus naturel ».

Aujourd’hui, l’utilisateur peut disposer d’outils (par exemple d’Hyper-cubes OLAP, acronyme proposé par Codd) qui lui permettent des analyses multidimensionnelles ou des simulations (visualisation ou extraction simple, avec ou sans filtrage sur critères paramétrables, consolidation et fonctions statistiques, etc.), tout en protégeant l’intégrité des données initiales.

1971 : Le microprocesseur

Un microprocesseur intègre sur un espace très réduit l’ensemble des composants électroniques nécessaires à la gestion des programmes et à leur exécution. Le développement des Microprocesseurs a été une nouvelle étape dans l’augmentation de la fiabilité des ordinateurs, de la diminution de leur coût, de leur taille et de leur consommation d’énergie.

Le microprocesseur ouvrira la voie aux ordinateurs de la troisième génération et il étendra l’accès aux technologies numériques à de nouveaux usagers en permettant la naissance des ordinateurs personnels et des consoles de jeux individuelles. On ne doit pas oublier la contribution de ces dernières à la popularisation des technologies numériques.

La capacité de calcul des microprocesseurs bénéficie à la fois des progrès de la miniaturisation et de l’augmentation de la fréquence de l’horloge. Cette croissance exponentielle suffit à expliquer la proposition accélérée de produits ou de services de plus en plus spectaculaires.

Gordon Earl More (1929), ingénieur et chef d’entreprise américain.

En 1968, G E More est le cofondateur avec Robert Norton Noyce (1927 — 1990) et Andrew Stephen Grove (1936 — 2016) de la société Intel, toujours leader sur mondial le marché des microprocesseurs.
Gordon More a donné son nom à la célèbre loi empirique qui projetait le doublement tous les deux ans du nombre de transistors imprimés sur un microprocesseur[36].

Citons aussi la contribution de l’ingénieur américain Marcian Hoff (1937) auteur du modèle initial de l’architecture des microprocesseurs et de l’ingénieur italien Federico Faggin (1941), à l’origine de la méthodologie de conception et pilote efficace des projets ayant rapidement abouti aux deux premiers microprocesseurs commercialisés par Intel.

1973 : Du concept de bureau intégré à l’Ordinateur Personnel

On peut avoir de la nostalgie pour les premiers temps de l’informatique où l’enthousiasme généreux et créatif des campus universitaires contaminait d’autres mordus, bidouilleurs de solutions aussi invraisemblables qu’instables. Mais, outre des prix de vente attractifs, une interface utilisateur plus intuitive et harmonisée a grandement facilité le décollage du marché de l’informatique domestique. Elle a démocratisé l’usage du microordinateur, l’ouvrant à une deuxième vague d’utilisateurs demandant plus que la découverte technique de l’informatique ou des jeux. Ce bond en avant ergonomique est le résultat de travaux déjà initiés à la fin des années 1960.

Douglas Engelbart (1925 — 2013), Ingénieur informaticien et ergonome américain.

Chercheur au SRI (Stanford Research Institute), ce visionnaire se fait reconnaître pour ses travaux sur le développement de l’interface homme-machine et sa vision révolutionnaire du poste de travail intégré.
Il invente la souris, l’hypertexte et on lui attribue aussi la paternité du concept d’interface graphique (le GUI pour « Graphical User Interface »). Il déposera 21 demandes de brevets.
En 1968, lors d’une démonstration à San Francisco devenue culte en tant que « The mother of all demos », Engelbart présente son concept du futur bureau intégré. Il associe déjà le courrier électronique, le système de relation hypertexte, la téléphonie, la visioconférence et l’utilisation d’une souris.
Engelbart entend multiplier l’efficacité de l’utilisateur, au-delà de la priorité conventionnelle de l’ergonomie visant son confort et sa santé au travail.

En 1973, le Xerox Alto est le premier ordinateur à utiliser une souris, avant que cette licence ne soit accordée à Apple.

1975 : Création de Microsoft, vers la suprématie des logiciels

La baisse drastique des coûts du matériel et l’explosion de l’offre logicielle ayant suivi l’avènement de l’ordinateur personnel ont changé les paradigmes du marché numérique où les constructeurs de matériel ont longtemps régné en maîtres. La prise de pouvoir du Software sur le Hardware est incarnée par l’ascension fulgurante de Microsoft.

Bill Gate (1955), informaticien et entrepreneur américain.

En 1975, à l’âge de 20 ans, avec son ami Paul Allen (1953 — 2018), Bill Gate fonda la société de logiciels Microsoft (initialement Micro-Soft pour « MICROcomputers SOFTware »).
Leur premier projet est la refonte de l’interpréteur du langage de programmation BASIC choisi pour programmer sur le vétéran des ordinateurs personnel, l’Altair 8800.
L’entreprise obtient très vite un contrat de sous-traitance pour développer le Système d’Exploitation de l’ordinateur personnel d’IBM qu’ils nomment MS-DOS et deviendra en MS-Windows en intégrant une interface graphique.

La stratégie d’IBM a été de ne pas cibler les utilisateurs individuels, mais de déployer ses IBM – PC® (pour « IBM Personal Computer »), d’abord présentés comme postes de travail annexes chez ses clients existants en Entreprise. Le succès rapide de ce modèle entraine la réussite de Microsoft, faisant rapidement de son système MS-DOS un standard de fait. Microsoft lie son avenir immédiat à la situation alors quasi-monopolistique d’IBM.
MS-DOS alias MS-Windows est préinstallé sur la majorité des modèles proposés par les constructeurs d’ordinateurs personnels. Ce système opérationnel évoluera pour équiper les serveurs puis sera décliné pour la téléphonie mobile.
Cette situation de monopole implicite encourage alors les autres acteurs de l’industrie du logiciel à développer des produits compatibles à l’environnement Windows. Qui plus est, Microsoft élargit son offre de logiciels propriétaires en développant des outils bureautiques qui allaient vite s’intégrer dans la Suite MS Office, une suite d’outil de développement, un système SGBDR, mais aussi des logiciels d’entreprise. Les terminaux passifs des ordinateurs centraux partagés sont alors progressivement remplacés par des PC connectés.
Pour compléter sa stratégie commerciale, Microsoft étend naturellement son offre logicielle à des utilisateurs individuels captifs, préformés dans leur entreprise. Des tarifs attractifs et notamment ceux proposés au corps enseignant et aux étudiants renforcent cette approche.

Microsoft a alors l’intelligence de pressentir l’évolution de la commercialisation des logiciels en tant que service. La licence d’utilisation attribuée pour une durée donnée et la gestion des versions comme le support en ligne peuvent remplacer la vente en console des lots packagés de disquettes. Désormais, Microsoft connaît individuellement ses clients et s’adresse directement à eux.

1982 : Les promesses de l’informatique Quantique

Les recherches en physique quantique ont déjà révélé au public un grand nombre de prix Nobel depuis sa création. Elles sont aussi à l’origine de l’invention du transistor.

L’Informatique Quantique désigne une branche de la recherche informatique créée dans les années 1980, pour trouver une suite à l’informatique actuelle dont on sait que l’évolution liée à la miniaturisation des microprocesseurs atteint ses limites… quantiques.
Calculer en utilisant pour support le positionnement de particules élémentaires pose d’abord des contraintes considérables pour la stabilisation l’environnement quantique adressé. Elle nécessite aussi une autre algèbre logique et une autre conception d’architecture technique [37].

Si des prototypes et des outils de simulation confirment régulièrement les progrès dans la réalisation d’un ordinateur quantique, les résultats restent encore loin des promesses. Cette technologie n’est de toute façon pas envisagée dans l’immédiat pour des applications qui concerneraient directement le grand public.

Nous retenons ici trois noms qui ont contribué aux avancées de l’informatique quantique et de ses applications.

Richard Feynman (1918 — 1988), physicien américain.

En 1982, il a théorisé la possibilité de créer des ordinateurs quantiques. Il les souhaitait capables de simuler des phénomènes quantiques pour résoudre des problèmes de simulation du fonctionnement de la matière [38].

Peter Shor (1959), mathématicien américain

En 1994, il a publié un algorithme permettant la factorisation d’entiers en nombres premiers sur un calculateur quantique.
Pourquoi est-ce en soi une étape importante pour l’algorithmique quantique ? La cryptographie RSA qui sécurise l’accès aux données sensibles sur nos ordinateurs conventionnels dépend pour l’essentiel de la difficulté à réaliser cet exercice mathématique pour les très grands nombres dans un temps court. Le gigantesque bond de la capacité de calcul que promet l’ordinateur quantique permettrait de faire sauter les verrous de nos protections cryptographiques actuelles. Ce seul enjeu suffit à attiser la convoitise de tous les détenteurs de pouvoirs militaires ou civils.

Les travaux de Peter Shor ont également à l’origine d’un algorithme de correction d’erreurs à 9 qubits. La dimension probabiliste du résultat délivré par un ordinateur quantique fait de sa vérification un point crucial.

Lov Kumar Grover (1961), informaticien indo-américain

En 1996, il a inventé invente un algorithme également dédié à une architecture de calcul quantique et permettant d’adresser une entrée dans une base de données non triée.
La plupart des nouvelles applications de l’intelligence artificielle dépendent de l’efficacité de l’analyse des masses de données qui les alimentent. La classification et l’organisation de ces données selon des critères pertinents sont aujourd’hui un préalable à cette efficacité. Une alternative de contournement est de tirer profit de la capacité de calcul que promet l’informatique quantique [39]. L’accélération du traitement des masses de données est un autre enjeu de cette technologie.

1984 : Le mythique McIntosh

L’histoire récente de l’informatique est pavée de mythe, d’espoir… et d’attentes déçues.
Comment ne pas citer dans ce panthéon le McIntosh et son célèbre concepteur Steve Job ? La marque à la pomme porteuse d’utopie fera rêver toute une génération qui, faute de moyens, se rabattra alors souvent sur un matériel fonctionnant sous Windows.

Steve Job n’est plus là. Le temps faisant, contre les tendances privilégiant le logiciel et les services, Apple est devenu synonyme d’objets de luxe pour geek. Une communication soignée encourage chaque semestre ses inconditionnels à s’identifier à la marque.

Comment réagirait le Steve Job des années 1970 aux critiques de plus en plus fréquentes sur les choix environnementaux, sur les conditions de travail des ouvriers délocalisés, sur les pratiques commerciales et fiscales de son entreprise aujourd’hui ?

Steve Job (1955 — 2011), chef d’entreprise américain.

Cet entrepreneur américain dont la vie est un roman restera un des héros de l’informatique grand public. Ce visionnaire accompagnera l’arrivée de l’ordinateur personnel, du baladeur numérique, du smartphone et de la tablette tactile.

Steve Job, Steve Wozniak (1950) et Ronald Wayne (1934) créent Apple en 1976.
Job sera l’un des premiers à cerner le potentiel commercial de l’interface graphique couplée avec l’usage d’une souris, telle que déjà imaginée par Douglas Engelbart (1925 — 2013). Il en reprendra la base pour concevoir l’interface maison appliquée à l’Apple Lisa en 1983, prédécesseur du McIntosh en 1984, premier d’une longue série dont le succès commercial permettra à l’entreprise d’éviter la faillite.

1989 : L’ouverture de L’Internet au grand public

Le mot Internet est aujourd’hui celui qui est le plus prononcé de par le monde.
Son histoire technique commence par l’invention de la Commutation de paquets, technique de transfert de messages sur les réseaux numériques, se continue par l’interconnexion de nombreux réseaux qui deviendra un réseau global, le « réseau des réseaux » et se parachève en service intégré mondial offrant un catalogue de fonctionnalités normalisées.

Projet à l’origine militaire, il fut ouvert au public en 1989 et il enthousiasma rapidement les universitaires et quelques entreprises pionnières. Les dix premières années furent celles de la construction de l’offre au grand public qui l’adopta massivement au début des années 2000. Un temps porteur de tous les rêves de liberté, de fraternisation et de sagesse partagée, l’Internet est aujourd’hui devenu le support incontournable de la Nouvelle Économie Numérique. Porté autrefois par le hardware, hier encore par le software, le marché du numérique dépend aujourd’hui des services en ligne.

Vinton Gray Cerf (1943) et Robert Elliot Kahn (1938), ingénieurs Américains.

Vinton Cerf et Bob Kahn sont considérés comme les pères créateurs de l’Internet.
Ils collaborent au projet militaire ARPANET de la DARPA (pour « Defense Advanced Research Projects Agency ») pour lequel ils imaginent le premier réseau par Commutation de Paquets, un principe inventé en 1960 par Paul Baran(1926 — 2011), informaticien, également pour la DARPA.
En 1974, ils proposent le projet nommé « Internetwork », à l’origine de l’Internet public.
Ensemble ils inventeront le protocole d’échange TCP-IP. Il s’agit en fait d’une suite de plusieurs Protocoles servant au transfert des données sur l’Internet. Le nom retenu associe les deux plus importants d’entre eux, TCP (pour « Transmission Control Protocol ») et IP (pour « Internet Protocol »).

Associons à leur réussite la contribution majeure du Britannique Tim Berners-Lee (1955), le principal inventeur du World Wide Web qui a eu l’idée d’y associer les liens hypertextes, et celle du Français Louis Pouzin (1931) dont ils s’inspirent pour la mise au point du protocole TCP/IP.

2012 : L’intelligence artificielle est de retour

« La cybernétique, c’est quand les machines imitaient les hommes, l’intelligence artificielle, c’est quand on leur donne un cerveau ».
L’expression ambiguë d’Intelligence Artificielle qui génère tant de fantasmes et de malentendus a été créée en 1956. Elle désigne un domaine de la recherche informatique qui a connu des périodes de désamour ou d’euphorie dans le milieu universitaire.

Attisée par les médias, une compétition entre constructeurs de gros Systèmes informatiques a lancé l’intérêt du grand public : c’était à qui battra le champion mondial du jeu d’échecs (atteint en 1997), de Jeopardy (… en 2011) ou de go (… en 2014).

1956, Les fonds baptismaux

Cette année-là, les Américains John Mc Carthy (1927–2011) et Marvin Lee Minsky (1927–2016), sont été des organisateurs en 1956 de la conférence de Dartmouth qui fera de l’intelligence artificielle un champ de recherche autonome. Ils cofonderont également le Groupe d’intelligence artificielle du MIT.

Mathématicien et informaticien, Mc Carthy s’est fait connaître comme le co-créateur, avec Fernando José Corbató, de la technique du temps partagé. Cette technique qui organise le partage des ressources d’un ordinateur entre plusieurs utilisateurs simultanément connectés est utilisée par les premières applications transactionnelles utilisant des terminaux passifs.
En 1958, Mc Carthy est l’auteur du langage LISP qui sera dans les années 1970 le langage privilégié par les développeurs en intelligence artificielle.

Minsky est un spécialiste des sciences cognitives et de l’intelligence artificielle. Il défend la coexistence de plusieurs approches complémentaires, chaque bon gestionnaire d’IA devant être en mesure de déterminer celle pertinente dans un contexte donné.
Il est l’auteur d’un modèle de représentation des informations qui sont décomposées en cadres [40] (en anglais « frames ») ainsi qu’un langage de programmation pour le mettre en application (« Frame representation language »).

En 1957, le psychologue américain Frank Rosenblatt (1928 — 1971) propose son système d’apprentissage, le Perceptron, qu’il dit « simuler les fonctions neuronales » : le système de décision des automates s’appuiera dorénavant sur un « Réseau de Neurones artificiels».
Il met en doute la capacité de l’approche informatique conventionnelle (c.-à-d. résumée au calcul booléen, comme celle qui est à l’époque appliquée à la résolution des jeux d’échecs) à modéliser les raisonnements humains.

2012, l’année propice au décollage

C’est la période technologique où des approches adaptées au traitement des Big Data confirment leur efficacité ; où l’offre de services sur le Cloud [41] se généralise ; où les médias annoncent que la 4G renvoit l’ADSL à la préhistoire ; où les progrès des microprocesseurs fournissent la capacité de stockage et de traitement suffisante pour une exploitation efficace des données que les flots ininterrompus de l’Internet alimentent.

Cet alignement des planètes technologiques particulièrement favorable donnent enfin leur chance aux algorithmes d’Apprentissage Machine. Cette voie de recherche de l’IA a toujours pour base de fonctionnement le principe général du réseau de neurones artificiels. Elle intègre l’Apprentissage Approfondi (ou « Deep Learning ») qui draine dorénavant une bonne part des financements de l’industrie numérique, ce qu’encouragent l’enthousiasme des marchés et celui des médias.

L’intelligence artificielle a des résultats chaque jour plus spectaculaires. La capacité de calcul encore grandissante et l’annonce de l’informatique quantique prochaine relancent les débats autour de la Singularité Technologique et de l’Intelligence Artificielle Forte, c.-à-d. devant permettre aux machines une conscience d’elle-même et une compréhension de ses propres raisonnements.

À suivre…

Le 21 septembre 2019, date de la première rédaction de ce chapitre [42], le New York Times annonce que les chercheurs du géant Google auraient atteint le jalon qualifié de Suprématie Quantique : une infrastructure informatique quantique aurait réussi en 3 minutes et 20 secondes à exécuter un calcul qui mobiliserait le plus puissant des supercalculateurs conventionnels (IBM) pendant 10 000 ans. La réalité de cet exploit est encore sujette à caution.

Notes et commentaires

[1] Son ouvrage « l’Organon », titre traduisible dans le langage actuel par « répertoire de bonnes pratiques » consolide ses recommandations pour guider une interprétation juste.

[2] {A} ∈ {B} ; C ∈ {A} ⇒ C ∈ {B} n’est qu’une des formes de syllogismes. Notons qu’Aristote n’est pas l’auteur de cet exemple, attribué à Guillaume d’Ockham, Anglais érudit du XIIe siècle, membre de l’ordre des franciscains.

[3] Ainsi, la beauté n’exclut-elle pas l’intelligence. Tout homme qui ignore cette vérité et qui attend une réponse binaire à la question « Préfères-tu les hommes beaux ou les hommes intelligents ? » prend le risque de s’entendre dire « Ni l’un ni l’autre, mon amour, tu sais bien que je n’aime que toi… »

[4] Il désigne le périmètre d’une étude par « horos » (du grec ancien ὅρος/hóros, traduisible par « borne »).

[5] On peut aussi citer la version anglaise des « Five Ws » (Who; What; When; Where; Why)

[6] On remarquera cependant que la question pourquoi est absente de la version originale d’Aristote. Moins qu’un constat de l’aspect, de la situation ou de l’état du sujet étudié, ce pronom interrogatif attend une interprétation causale.

[7] Algorithme est une retranscription phonétique approximative du nom propre Al Khwarizmi (الخوارزمي)

[8] « al jabr » : ( الجبر ), mot signifiant à la fois reconstitution et mise en relation)

[9] Défi relevé 950 ans plus tard pour la seule beauté de l’exercice, C. Shannon réalisera une calculatrice en chiffres romains.

[10] De là à faire de Fibonacci le précurseur du logiciel libre, il n’y a qu’un pas, mais que je n’ai pas osé franchir. La maîtrise de l’arithmétique restera longtemps le privilège de quelques instruits et les tables à jetons disparaitront à la fin du XVIIe.

[11] Grace à la particularité de la progression logarithmique qui fait que log (a.b) = log(a)+log(b).

[12] En juillet 1986, en autorisant l’usage des nouvelles calculettes électroniques lors des examens, une circulaire du Ministère de l’éducation nationale accélèrera le basculement les lycéens du monde analogique vers le monde numérique.

[13] En 1623, l’Allemand Wilhelm Schickard (1592-1635) a construit pour l’astronome Johannes Kepler une machine au nom d’horloge à calculer qui fut détruite peu après par un incendie. Les plans retrouvés ont depuis démontré la réalité de son fonctionnement.

[14] Par exemple, pour les usages commerciaux, le calcul des retenues dépendait de la déclinaison de l’unité monétaire sélectionnée en douzièmes ou vingtièmes.

[15] Présenter les chanteurs de rue d’autrefois comme les premiers des opérateurs-informatique serait excessif, mais peut-on au moins oser la qualification d’opérateurs-mécanographie ?

[16] Pour les plus lettrés, Ada Lovelace est aussi la fille du poète George Gordon Byron.

[17] Bien que l’informatique soit associée à numérique et que la machine à différence de Babbage soit analogique.

[18] Dans son ouvrage maitre « Les lois de la pensée », George Boole écrit « Les interprétations respectives des symboles 0 et 1 dans le système de la logique sont « Rien » et « Tout ». »

[19] La paternité du téléphone a été âprement discutée. On pourrait associer plusieurs autres noms à cette invention : en 1854, le Français Charles Bourseul imagine la transmission de la parole par l’électricité ; en 1860, l’Américain Johann Philip Reis réalise un prototype insuffisamment concluant et déjà baptisé téléphone transmettant des sons par l’électricité ;  en 1871, l’Italien Antonio Meucci dépose le brevet de l’invention du téléphone, mais n’aura pas les moyens ni d’en faire la promotion ni d’en prolonger la durée ; en 1874, Elisha Gray déposa un brevet aux qualités équivalente quelques heures avant Graham Bell mais son dossier fût pris administrativement en charge plus tard.
Le téléphone a été exploité commercialement aux États-Unis dès 1877 et, en France deux années plus tard.

[20] Il est alors employé de l’U.S. Census Bureau, le bureau de recensement des États-Unis.

<[21] L’image du président Thomas Watson adulé par sa corporation sera sérieusement écornée en 2001 par le livre très documenté d’Edwin black « IBM et l’Holocauste », (Ed. R. Laffont). Il y dénonce l’amoralité cynique de l’industriel et ses relations pour le moins ambiguës avec le régime nazi dès 1933.

<[22] Par analogie à nos bus routiers, le Bus d’un ordinateur désigne l’ensemble des connexions physiques qui réalisent en parallèle les transferts de données entre ses composants matériels.

[23] ENIAC est l’acronyme pour « Electronic Numerical Integrator And Computer ».

[24] Il semble pourtant que la chronologie des évènements devrait attribuer ce titre au « Colossus », calculateur anglais conçu par Turing et opérationnel dès février 1944. Si le projet de l’ENIAC fut lancé en 1943, il ne fut cependant construit qu’en mai 1944.

[25] Manhattan est le code secret du projet américain dont l’objectif était de fabriquer la première bombe atomique à fission nucléaire.

[26] L’ordinateur EDVAC (pour « Electronic Discrete Variable Automatic Computer ») s’avèrera environ 60 fois plus puissant que son prédécesseur l’ENIAC. C’est dans son rapport sur ce projet qu’il propose son architecture (« First Draft of a Report on the EDVAC »).

[27] Les positions politiques cyniques de Von Neumann et son manque assumé d’affect face aux utilisations militaires de la science sont souvent rappelés. Mais on ne signale jamais son altruisme quand il s’est opposé à Eckert et Mauchly pour refuser fermement que soit brevetée l’architecture qui porte son nom[27].

[28] Dans sa thèse de Master déposée en1937 au Massachusetts Institute of Technology intitulée « A Symbolic Analysis of Relay and Switching Circuits » (« Une analyse symbolique des relais et des circuits commutateurs »).
Notons que George Robert Stibitz (1904 – 1995), ingénieur américain et également aux Bell Labs, a réalisé les premiers circuits numériques à logique booléenne basés sur l’utilisation de relais électromécaniques.

[29] Rendue publique en 1948 alors Claude Shannon était employé des laboratoires Bell System, cette théorie regroupe deux articles sortis en juillet et octobre 1948, dans le « Bell System Technical Journal ». Succès de librairie, il a été republié plus de 20 fois, sans compter ses nombreuses traductions et il fait toujours référence.

[30] Ces quatre points sont repris dans la partie 2, « De l’analogique au numérique »

[31] Dans les grandes structures, le titre de DSI sera parfois remplacé transitoirement par celui de DOSI (Direction de l’Organisation et du Système d’Information) qui sonne aujourd’hui comme une lapalissade.

[32] 60 brevets porteront le nom de Kilby. C’est le cas par exemple de la calculette de poche qui deviendra le produit phare de Texas Instrument, ou de l’imprimante thermique destinée aux caisses enregistreuses.

[33] Robert Noyce y gagnera le surnom de « maire de la Silicon Valley » dont il reste encore un héros.

[34] La paternité de l’invention comme la validité du brevet seront plusieurs fois discutées par les tribunaux qui confirmeront les droits de Moréno. Puce informatique se dit en anglais [computer] chip.

[35] Elle quittera définitivement la marine en 1986. Elle est alors vice-amiral

[36] > Voir à Loi de Moore.

[37] Il est intéressant de noter ici qu’avant même qu’existe un ordinateur quantique opérationnel au niveau de ses promesses, des simulateurs de son fonctionnement ont été développés pour valider son modèle d’architecture et ses nouvelles méthodes de programmation.

[38] dans son rapport « Simulating Physics with Computers », publié en 1981.

[39] Autre application du saut hégélien où « une accumulation quantitative engendre un changement qualitatif ».

[40] Chaque cadre représente une situation stéréotypée. Le contenu sémantique de l’information correspond à l’ensemble des cadres qui s’y rattachent et des liens entre ces cadres.

[41] Le terme officiel français dInfonuagique peine encore aujourd’hui à percer.

[42] Elle a été publiée sur le site adnetique.org le 25/09/2019 sous le titre « Une histoire de l’Informatique »


L’auteur de cet article est Jacques Cassagnabère

Sa version initiale a été déposée le 21 septembre 2019 et publiée le 25 octobre 2019

Avec l’accord de l’auteur, l’article publié intègre les modifications proposées par la commission éditoriale du site Adnethique.org


 

Sidebar