Utilisateur:Rémi Loussouarn/Brouillon

Le Zéro et le Un : histoire de la notion scientifique d'information au 20e siècle a été écrit par Jérôme Ségal et paru en 2003 aux éditions Syllepse[1]. Il contient 904 pages dont 782 pages de texte, une préface d'Antoine Danchin (Directeur de l'Unité de Génétique des Génomes Bactériens à l'Institut Pasteur), 68 pages de bibliographie et autres sources, 12 pages de glossaire, 17 pages d'index et une table des matières détaillée.

Dans Le Zéro et le Un : histoire de la notion scientifique d'information au 20e siècle, Jérôme Ségal défend l’idée que la notion d’information a trouvé naissance dans différents domaines scientifique. Il atteste que ceux-ci ont convergé pour créer la notion de l’information que nous retrouvons aujourd’hui dans la théorie de l’information. Il affirme que celle-ci se retrouve dans l’informatique, les télécommunications, les mathématiques, la biologie, la physique ou encore les sciences humaines. Il défend dans sa thèse que le développement de la cybernétique et de l’informatique sont deux facettes de la théorie de l’information dans le contexte post guerre mondiale. Il s’agit avant tout de déterminer la place de la notion de l’information dans ces différents domaines. Pour l’auteur, cette notion est fortement liée à la théorie de l’information. Celle-ci regroupe de nombreuses idées comme la théorie mathématiques de la communication ou encore la cybernétique. La notion d’information est tellement présente dans les sciences que l’auteur parle de « culture informationnelle ».

Ségal ne produit pas lui même une théorie. Il a effectué un travail de recherche approfondi et s’est chargé de rassembler dans les moindres détails ce qui a permit de créer la théorie de l’information. Ainsi, il propose tout d’abord la notion d’information telle qu’elle est décrite dans différents domaines tels que la physique, les statistiques mais aussi les mathématiques. Il décrit la naissance de l’idée entre les années 20 et 40.[2] Il revient sur les machines de Turing et rappel en détails la vie et les idées de Claude Shannon qui est considéré comme le père fondateur de la théorie de l’information ou encore sur Leó Szilárd et Marian Smoluchowski. Il présente en détails l’histoire de la cybernétique grâce à la présentation des différentes conférences Macy. Celui lui permet de mentionner les noms les plus important du domaine dont Wiener[3].

Le livre s'articule autour de 10 chapitres :

- Chapitre 1 : Vers des définitions quantitatives de l’information

- Chapitre 2 : Claude Shannon et le contexte de l’axiomatisation de la notion d’information

- Chapitre 3 : Cybernétique et théorie de la communication

- Chapitre 4 : Autres contextes, autres théories: Allemagne, France et Grande-Bretagne

- Chapitre 5 : Une réinterprétation de la physique ; les travaux de Léon Brillouin

- Chapitre 6 : Les sciences humaines et la notion scientifique d'information

- Chapitre 7 : L'information et le vivant : Aléas de la métaphore informationnelle

- Chapitre 8 : Des progrès techniques résultant de la théorie de l'information

- Chapitre 9: La théorie de l'information comme théorie scientifique

- Chapitre 10 : L’introduction de la cybernétique en RDA; entre science bourgeoise et panacée

- Chapitre 11 : La notion d’information dans l’émergence de l’unité du savoir

- Chapitre 12 : Typologie des applications de la théorie de l’information


Résumé

modifier

Chapitre 1 : Vers des définitions quantitatives de l’information

modifier

La notion d’information est introduite et conceptualisée dès 1922 par les scientifiques dans trois domaines de recherche différents : la physique, les statistiques appliquées à la génétique et la télécommunication.

Dans le domaine de la physique, Gilbert Newton Lewis a déclaré « Un gain d’entropie signifie toujours une perte d’information et rien de plus ». Ses théories reposent en partie sur la discipline de la thermodynamique et l’amène a penser que les phénomène en plus d’être observé, on besoin d’être renseigné sans modifier son contenu. Le mathématicien Norbert Wiener s’appuiera sur les recherches de Marian Smoluchowski sur le mouvement Brownien en physique et utilisera même des résultats de la mécanique quantique.

Pour la première fois, la physique joue un rôle dans une théorie mathématique. Johannes Von Neumann s’intéresse aux formules statistiques de la mécanique quantique. Il s’appuit sur les théories du mouvement Brownien en physique, sur la mécanique quantique qui lui permettent une nouvelle interprétation de la physique et des mathématiques Il va développer une théorie de mesure qui donnera un aspect quantitatif à la notion d’information. Il va être le premier à rapprocher plusieurs disciplines autour de la notion d’information.

Ronald Aylmer Fisher, un statisticien britannique introduit la notion scientifique de l’information en 1922 avec sa méthode statistique qui consiste à réduire la masse de données pour la rendre intelligible tout en conservant au maximum l’information. Il oriente ses recherches vers l’eugénisme et cherche entre autre à trouver le meilleur échantillon possible grâce à la génétique. Puis, il définie mathématiquement l’information avec le concept de quantité de l’information qui devient une grandeur constante, finalement, il rapproche sa théorie à l’entropie importée de la physique. Selon Fisher, Les statistiques n’ont pas volonté à devenir un moyen d’unification entre les disciplines mais se retrouvent par occuper une place centrale puisqu’ils sont des outils théoriques. Sa théorie continue de se développer grâce à Joseph L.Doob grâce à sa théorie de la probabilité puis grâce à Anil Bhattacharya qui permet d‘améliorer l’expression de la quantité d’information.

Dans les années 20 aux États-Unis, les télécommunications ne sont pas rentables et pas assez rapides. Il est nécessaire d’augmenter le nombre de signaux transmis à la seconde. Harry Nyquist qui est un pionnier dans son domaine décrit ces signaux comme « intelligent » et donne un aspect quantitatif à la vitesse qui peut transmettre les informations. Selon Nyquist, il est nécessaire de revoir le choix des codes et la mise en forme du signal mais il est trop théorique. Ralf Hartley passe lui très facilement de la théorie à l’ingénierie. Il créé une formule qui permet toutes les combinaisons physiquement possible qui pourraient être virtuellement être transmises et dépendrait de l’appareil technique à laquelle elle est rattachée. Il a quantifié l’information. Une publication de Hartley est à l’origine de la première mesure de vitesse de la modulation d’un signal le « Baud » qui est aujourd’hui encore comparé au Bit. Peu à peu, une théorie mathématique de l’information se forme.

Chapitre 2 : Claude Shannon et le contexte de l’axiomatisation de la notion d’information

modifier

Alan Turing est un mathématicien connu pour sa machine conceptuelle comparable à un programme. Elle est universelle et remplace toutes les machines. En tant qu’étudiant, il a l’occasion de créer une réelle machine capable de multiplier les nombres binaires. Son projet est stoppé par le début de la guerre. Il côtoie Claude Shannon, un mathématicien américain qui s'appuie sur le mémoire de George Boole pour développer à son tout une machine théorique binaire qui résous les difficultés algorithmique. Il permet de rapprocher science et technique.

Vannetar Bush, vice président du MIT conçoit lui aussi des machines dont le Memex. Il s’agit d’un nouveau média rappelant un ordinateur, qui pourrait stocker de nombreuses données et les sélectionner dans la masse. Shannon rejoint Bush au département de mathématique, découvre l’application de l’algèbre à la génétique et le concept de sélection mais il ne va bientôt plus choisir ses objets de recherche avec l’arrivée de la guerre. Les scientifiques de disciplines différentes se rassemblent autour de Bush dans un objectif de recherche miliaire et permettent de développer la défense antiaérienne. Wiener développe la théorie de la prédiction, montre que l’information est un aspect du comportement des pilotes et débute la théorie de la cybernétique. Les travaux de Wiener ont permis la création de nombreuses théories. En même temps, Shannon continue de développer sa théorie mathématique de la communication. Une unité interdisciplinaire (AMP) est créée par un Bush consacré aux mathématiques appliquées, puis l’APP voit le jour et développer les théories d’un aspect psychologique.

Les mathématiques se lient au domaine de la cryptographie durant la seconde guerre mondiale. Cela permet à Turing de parvenir à une définition logarithmique de l’information à partie d’une machine binaire lorsqu’il était à Bletchley Park. Il travail également sur le chiffrage grâce à des machines électroniques. Turing rejoint les Bell Labs pour de recherches en télécommunications et s’engage avec de nombreux chercheurs dans un projet ultra secret, le « projet X » (X-System en anglais). Il s’agit d’un système de transmission crypté de la parole. La notion d’information s’y retrouve à travers l’échantillonnage, le codage et la quantification. Il s’agit de passer le plus d’informations à la seconde.

En 1945, Shannon présente sa théorie mathématique de la cryptologie. Il y intègre la notion de sélection et y formule sa version finale de la théorie de l’information comme un moyen de quantifier l’information incertaine à travers des probabilités et y parviens grâce à une formule mathématique. Il y présente d’ailleurs sa théorie des probabilités. Shannon définit l’information comme un concept mathématique et développe les notions de bruit, de redondance pour sa théorie fondamentale sur les voies de communication. Il introduit le « canal de correction » qui est un premier aperçu de la cybernétique. La théorie de montre des erreurs techniques et mathématiques mais elle a tout de même bouleversé l’univers des transmissions et a été une base des théories cybernétique.

La cybernétique est un terme créé par Norbert Wiener qui va au delà de la théorie mathématique de la communication de Shannon dont la signification se rapproche du mot anglais « governors », pour gouverner les hommes, Wiener s’intéresse tout d’abord aux techniques de régulation dans la mécanique des machines qui se développeront avec la télécommunication puis avec les efforts de guerres. La régulation va se développer aussi en biologie. L’homme ne contrôle pas totalement son comportement et la notion de « réflexe » est amené comme protégeant l’organisme du monde extérieur. Felix Linckle est le premier à comparer ce processus à la régulation des techniques et les êtres vivants aux machines.

Wiener est un mathématicien qui n’oublie pas la biologie. Ses recherches comportent une analogie entre l’homme et la machine pour comprendre au mieux la régulation et la rétroaction. Il prône d’ailleurs l'unité des sciences. La technique aide la biologie à comprendre le cerveau grâce aux ordinateurs. Ainsi, le cerveau est comparé à une machine qui transmettrait des messages, des informations. Cela développer une « représentation logique du cerveau ». Walter Pitts et Warren McCulloch sont deux scientifiques de l’école de Chicago ayant développé le « modèle Pitts-McCulloch » qui permet de faire une analogie entre le cerveau et la machine. Ils observent une approche centrée sur les comportements et les faits de communication et leurs recherchent montre que le cerveau pourrait être la fameuse machine universelle de Turing. La théorie de l’information dans la biologie est un simple prolongement de celle défini en télécommunication. Le cerveau est lui considéré comme une machine logique et son analogie à une machine est désormais acquise dans le monde scientifique.

Les scientifiques américains vivent les efforts de guerre à distance et se repose sur des fonds privés pour poursuivre leurs recherches. Ile se tourneront entre autre vers la fondation Macy qui organisera par ailleurs 132 conférences entre 1940 et 1950 regroupant ainsi 800 scientifiques. Celles-ci permettent le développement des théories cybernétiques. De nombreux chercheurs se regroupent pour parler de ce qui deviendra la cybernétique ce qui permet l’unification des sciences (linguistique, psychologie, sociologie, mathématiques, économie). 1948 est une année charnière pour la cybernétique puisque la conférence Macy 5 permet la collaboration de la cybernétique avec la linguistique. Wiener publie son livre « Cybernetics » et Shannon publie son livre sur la théorie mathématique de la communication. La cybernétique a révolutionné les sciences et a pour but d’aider l’homme. Wiener est alors persuadé que les prochaines révolutions industrielles passeront par les machines énergétiques (ordinateurs, téléphones).

Chapitre 4 : Autres contextes, autres théories: Allemagne, France et Grande-Bretagne

modifier

En Allemagne quelques chercheurs se sont intéressés à la théorie de la régulation dont Wilfried Oppelt avec sa publication de 1947 « Lois fondamentales de la régulation » ou encore Karl Küpfmüller avec son livre « La théorie systémique de la transmission électrique d’information » qui est considéré comme l’un des ouvrages majeurs en Allemagne.

Bien qu’il fut peu publié, Herman Schmidt est un scientifique en mathématique et physique allemand présenté comme un précurseur de la cybernétique en Europe. Après quelques travaux sur des réflexions mathématiques du langage, il émet l’envie de lier les mathématiques aux sciences humaines. Schmidt travaille sur la régulation qu’il présente dans sa théorie « Allgemeine Regelungskunde ». Il prédit que les techniques de régulations vont fortement se développer dans les décennies à venir dans de nombreux domaines de recherche. Dans cette optique, il participe à la création d’un institut universitaire à Berlin en 1943 pour permettre ces recherches. A la fin de la guerre, il doit passer par le processus de dénazification pour poursuivre ses recherches dans une nouvelle commission des techniques de régulations. Si Schmidt est alors moins présent dans la cybernétique, le plan Marshall permet aux scientifiques allemands d’avoir accès aux recherches américaines.

En Grande-Bretagne et en France, les recherches sont un temps similaire. Le psychologue britannique Kenneth Craik propose une cybernétique semblable à celle des américains et explique aussi la régulation à travers l’analogie entre l’homme et les machines. De plus certains scientifiques britanniques étaient présents aux conférences Macy. En France, c’est l’architecte ingénieur Jacques Laffite qui propose à son tour cette analogie. L’occupation va forcer les scientifiques français à s’exiler pour poursuivre leurs recherches. Réfugié en Grande-Bretagne, Dennis Gabor est un physicien Allemand qui a présenté la « théorie physique de la communication ». Celle-ci se base sur la physique, la télécommunication et une publication du scientifique Fritz Lüschen qui rassemble les travaux de Hartley et Küpfmüller sur les systèmes de communication.

Dans ces deux pays du livre de Wiener sur la Cybernétique et la théorie de l’information va provoquer une profusion d’article, de conférences et une accélération des recherches. En effet, les machines cybernétiques vont germer en Grande-Bretagne. A la manière des conférences de Macy, des congrès internationaux prennent place entre 1959 et 1960 en Grande-Bretagne et en France sous la houlette du « Ministry of Supply ». Une opposition va naître face à la cybernétique. En France, les marxistes, pour des raisons principalement idéologiques vont contester ce qu’ils présentent comme une mystification.

Chapitre 5 : Une réinterprétation de la physique ; les travaux de Léon Brillouin

modifier

Dans la lignée des travaux de Shannon ou encore Wiener, le livre « Science and information theory » paraît en 1956. C'est un tournant dans la théorie de l'information. Son auteur, Léon Brillouin, né a Sèvres en 1889, était un physicien français émigré aux états-Unis. Grand voyageur, enseignant tantôt en France, au Canada, en Allemagne, et surtout aux USA ou il finit par s'installer définitivement, Brillouin commence sa carriere en jouant un rôle important en mécanique quantique et en physique du solide. S'inspirant des travaux de Wiener et de Shannon, et persuadé de l'analogie entre entropie et information, le physicien commence a se pencher sur « les possibilités d'étendre des considérations thermodynamiques a la théorie de l'information ».

Ces réflexions préparèrent le terrain afin de poser les bases de la notion d'information en physique. Toutefois, l'analogie entre entropie et information fut sujet aux controverses, distendant le tissu social liant les physiciens entre eux. Finalement, les travaux de Brillouin aboutissent en 1953 au principe de néguentropie, bien qu'initialement introduit par le physicien autrichien Erwin Schrödinger dans son ouvrage « Qu'est-ce que la vie ? » paru en 1944. Présenté comme le résumé de ses précédant travaux, Brillouin généralise la néguentropie comme tel ; « Dans toute transformation d'un système clos, la quantité “entropie moins information” doit toujours augmenter ou peut, au mieux, rester constante. » Léon Brillouin fait le rapport entre le principe de néguentropie et la mécanique quantique, notamment avec les relations d'indétermination d'Heinsenberg, ou encore des travaux réalisés par la MIT des 1948 exprimant les liens entre mécanique quantique, thermodynamique et information. Toutefois, son approche s’avère différente, apportant des résultats concrets, et surtout, une justification de la théorie de Shannon, sur laquelle il conclut « que le principe de néguentropie de l'information conduit directement a la formule bien connue de C.E. Shannon pour la capacité d'une voie de communication ». De cette comparaison entre le cycle de néguentropie et celui de Shannon, Brillouin propose plusieurs définitions de l'information ; l'information absolue (« Ce qui existe des qu'une personne l'a et qui devrait être compté comme la même quantité d'information, qu'elle soit connue d'une personne ou de millions de personnes. ») et l'information distribuée (« Le produit de l'information absolue par le nombre de personnes qui partagent cette information. ») Ces définitions lui permettent notamment d’émettre un commentaire sur la comparaison entre l'ordinateur et le cerveau, considéré comme non pertinente car les machines ne produisent aucune nouvelle information absolue.

Brillouin propose une définition scientifique de l'information (« information qui ne perde pas aussi vite sa valeur »), et dissocie les informations vivantes de mortes, les informations esthétiques, ou celles exprimées en dollars. Le physicien propose également la distinction entre information libre (pas de signification physique) ou liée (« liée a des complexions d'états physiques ») Cette distinction lui permet, en outre, d'éviter au futur les controverses concernant l'analogie entre entropie et information. Initiée chez Gabor en 1946 ou encore dans la publication de Raymond de 1950, l'information structurelle ne fut pas définie par Brillouin. Toutefois, celui-ci formalise petit a petit cette définition comme, grossièrement, une « néguentropie structurelle qui représente l'information ou l'organisation de la machine. »

A partir de la seconde moitié du XXeme siècle, le monde s'interroge quand aux applications pratiques que peuvent induire une tel théorie. Le livre de Brillouin sera d'ailleurs salué quand a sa présentation d'applications pratiques a une théorie scientifique, dans le domaine de validité entre théorie et pratique, en informatique ou encore en mathématique.

Chapitre 6 : Les sciences humaines et la notion scientifique d'information

modifier

En effectuant un retour sur le milieu intellectuel américain dans l'immédiate après-guerre, nous nous rendons compte que presque tous les champs de savoir furent marqués par la cybernétique, que ce soit les sciences dites exactes, comme la physique dans le chapitre précédant, ou bien les sciences humaines.

Dans cette période, le poids de l'émigration européenne et la centralisation des recherches aux Etats-Unis ont favorisé l'éclosion de ce courant de pensée. En effet, l'Ecole libre des hautes études créa un contexte favorable aux échanges d'idées entre chercheurs du monde entier, tel que le physicien Brillouin, l'anthropologue français Lévi-Strauss ou encore le linguiste russe Jakobson. Au sortir de la guerre, deux sciences humaines se retrouvent en position de force ; la linguistique, pour ses recherches en cryptographie pendant la guerre, et la psychologie, grâce aux études de théorisation des problèmes de fatigue des pilotes et l’étude des comportements. Grace à leur rôle dans la recherche de guerre, ces disciplines purent poursuivre leur recherches dans un cadre civil grâce aux institutions comme la fondation Macy. Attiré par l'approche quantitative rendu possible par la théorie mathématique de la communication et la théorie de l'information, le linguiste Jakobson rejoint les cybernéticiens au sortir de la guerre. Ses recherches aboutissent à une publication dans une revue de mathématiques appliquées en 1961 ; « Linguistique et théorie de la communication » , ou il développe la théorie quantique selon laquelle le phonème se présente comme une unité discrète et irréductible, et accouche de la notion de redondance et de celle de code. D'un apport indiscutable, le chercheur admet également a la huitième conférence Macy que la théorie de l'information et celle de la communication sont bien distincts l'une de l'autre ; la première aurait pour but « la formulation des connaissances a partir de probabilités de sélection préétablies », alors que la deuxième concerne « les représentations éventuellement nouvelles ».

Se basant sur un programme de recherche commun, et sur la formule de Shannon, linguistes, ingénieurs et autres théoriciens de l'information travaillent de pair afin de réduire le langage à des formulations mathématiques, permettant ainsi de déboucher sur une théorie évolutive du langage, en analogie évidente avec l'évolution biologique de l'Homme. Cette « réduction » du langage permet notamment à René Rind, le chef du laboratoire de calcul scientifique de l'IBM France, de théoriser la première machine a traduire ; l'IBM 701. Ce sont les débuts de la traduction automatique. En tenant compte des différents sens d'un mot, ces machines, véritables « cerveaux électroniques », tracent la voie vers des recherches en intelligence artificielle.

La théorie de Shannon, ne se souciant pas des aspects sémantiques, apporte les fondements adéquats a l'écriture d'un journal ; « Mechanical Translation », ou des linguistes tels que Locke, Booth ou Yngve développent l'idée d'une « syntaxe universelle », donnant naissance a l'idée de « langue pivot ». Apres avoir perdu l'espoir de l’émergence d'une langue universelle, les chercheurs s'en remettent a ces machines universelles leur permettant de communiquer avec aisance. Le langage permet alors d'unir les sciences exactes et sciences humaines, unité déjà légitimée par des propos tenus par Wiener dans les colonnes du Journal of the Acoustical Society of America en 1950 ; « Il n'y a aucune opposition fondamentale entre les problèmes que rencontrent nos ingénieurs dans la mesure de la communication et les problèmes de nos philologues. »

Alors que Segal a tenté de donner un aperçu relativement large sur les rencontres entre linguistique et la notion scientifique d'information, sa réflexion en ce qui concerne les sciences de l'esprit (Les disciplines de la psychologie) s'axe sur la publication de Marcel-Paul Schutzenberger. En effet, des 1947, le chercheur commence a s’intéresser de près aux statistiques. Il introduit la notion scientifique d'information en psychologie avec la biophysique mathématique du système nerveux et une tentative d'axiomatisation. Schutzenberger fait l'éloge de la cybernétique. Bien qu'introduite comme une science proche de la technique, le chercheur lui reconnaît une « existence autonome en tant que système cohérent de doctrine » Pour Schutzenberger, la cybernétique représente un dépassement du Gestaltisme et du béhaviorisme, incluant la notion de feedback, initialement introduite par Wiener. Selon lui, les mathématiques contenues dans la cybernétique serviraient à la description, à la représentation et à l'explication de phénomènes psychologiques.

La cybernétique apparaît des lors comme une discipline de progrès, les emprunts en sciences exactes de Jacques Lacan en psychologie, par exemple, représentent parfaitement ce mouvement des sciences humaines d’après guerre, cherchant a bénéficier de l'estime accordée aux mathématiciens, pour lesquels le critère de scientificité est primordial. C'est le début du structuralisme. L'information devient la notion essentielle, et la cybernétique s'impose comme source d'unité entre les sciences.

Chapitre 7 : L'information et le vivant : Aléas de la métaphore informationnelle

modifier

La théorie de l'information fut rapidement investit dans l'étude du vivant, dans le domaine de la biologie, notamment sur la notion d'information génétique. Historiquement, les applications de cette notion ne reposent pas toujours sur la théorie mathématique de la communication ou la cybernétique, toutefois, ces dernières contribuèrent grandement à l’émergence d'un mouvement.

En 1944 paraît "Qu'est ce que la vie ?" du physicien autrichien Schrodinger. Outre l'introduction de la notion de néguentropie, plus tard approfondi par Brillouin (cf Chapitre 5), c'est le concept de molécule complexe et de code génétique des organismes vivants qui fait date. Cette dernière notion, dont l'analogie implicite avec les techniques de télécommunication renvoie directement ses travaux aux concepts gravitant autour de la théorie de l'information. Enfin, l'importance qu'accorde Schrodinger à l'étude du gène provoqua un impact significatif de son livre sur la communauté scientifique, à l'origine d'un courant encore dominant aujourd'hui marqué par le « tout-génétique ».

Contrairement a ce qui est souvent affirmé, l'idée dans laquelle on compare les moyens de télécommunications à la transmission génétique est bien antérieure a la découverte du « code » de l’hérédité. En effet, lorsque Wiener déclare en 1948 l'information comme une troisième grandeur à coté de la matière et de l’énergie, Weaver publie la même année un article ou il pose des questions sur le gène et ainsi la reproduction en adoptant une approche informationnelle. Toutefois, sa publication n'est pas bien accueilli par l'assentiment général, duquel les chercheurs avaient adoptés une approche réductionniste extreme.

La cybernétique de Wiener commença des lors a devenir le noyau d'importantes recherches interdisciplinaires, permettant aux scientifiques d'appliquer la théorie de l'information par analogie à l'humain avec les premiers ordinateurs électroniques et la théorie mathématique de la communication faisant référence aux différents types de transmission.

Lors des conférences Macy du début des années 1950, il est admis que la théorie de l'information permet d'aborder les problèmes biologiques, toutefois, la question réside a déterminer ce que l'information de la théorie de la communication a en commun avec l'information génétique. Cette notion marque au début des années 1950 l'essor exponentiel de la biologie moléculaire pour en devenir le dogme central. Le livre de Schrödinger interpella Watson sur la question du gène, ce qui a conduit à la découverte de la structure en double hélice de l'ADN, puis, de fil en aiguille, a la découverte du code génétique, dont le premier « mot » fut annoncé par Nirenberg et Matthai au 5ème congres international de biochimie en 1961.

En 1958, Monod, s'investissant dans des recherches en biologie et s'appuyant sur la notion d'information génétique, introduit le terme de « téléomonie », correspondant à « la quantité d'information qui doit être transférée, par individu, pour assurer la transmission à la génération suivante du contenu spécifique d'invariance reproductive ». Plus tard, en s'associant avec Jacob, les chercheurs aboutissent aux notions d'ARN messager et du modèle de l'opéron, sous l'influence certaine du paradigme informationnelle. Le best-seller de Jacob ; Le Hasard et la nécessité, fut d'ailleurs fortement controversé a propos de son orientation vers le « tout- moléculaire », au détriment d'autres conceptions. Un autre point qui fut vivement controversé par des revues marxistes fut sa critique du marxisme considéré dans son livre comme une « idéologie scientiste ». Etablissant un lien certain avec hérédité et linguistique, le dogme informationnel a permit en outre d'effacer les barrières entre les sciences, unissant aussi bien biologistes et linguistes vers une unité des sciences autour de la théorie de l'information.

Ashby conclut d'ailleurs que « tout acte de régulation peut être lié aux concepts de la théorie de la communication. » Ce dernier défini la propriété selon laquelle « les flux d'information entre les parties composant le système étudié dépassent largement ceux qui s'instaurent entre l'observateur et les systèmes ». Cette propriété d'ordre par le « bruit », approfondit par Von Foerster, ouvre une nouvelle voie a la cybernétique, que certains nommeront par ailleurs la « seconde cybernétique, largement développée au Biological Computer Laboratory.

Enfin, Jérôme Ségal se penche sur le rôle de l'information en biologie aujourd'hui, source de controverses au sein de la discipline, entre Projet Génome humain, et autres débats sur le clonage. Si certaines thèses du siècle dernier font désormais sourire, dans Histoire de la biologie moléculaire, Morange conçoit que l'information a fournit un « cadre de pensée dans lequel les expériences ont pu se mouler, être interprétées, susciter de nouvelles expériences et de nouveaux programmes de recherche » participant a l'essor de la biologie, et a la découverte de concepts majeurs.

Chapitre 8 : Des progrès techniques résultant de la théorie de l'information

modifier

Si le discours informationnel a prouvé son apport dans l'évolution de sciences diverses et variées tel que la physique quantique, la linguistique ou encore l'évolution biologique, il est question dans ce chapitre de revenir sur les apports concrets, et les progrès techniques qu'a permit la théorie de l'information. Le physicien français André Pierre-Leblanc distingue dans son article, « La théorie de l'information et ses relations avec la physique et les sciences de l'ingénieur » deux applications pratiques a la théorie de l'information. La première, s'appuyant sur l'holographie, permet la reconnaissance de forme, comme la signalisation d'un caractère dans un texte. La seconde concerne le stockage, en montrant qu'il est possible de stocker jusqu'à 2000 images sur 4 cm2. Bien sur, ses travaux, datant des années 1960, sont quelques peu dépassés aujourd’hui. Toutefois, le physicien a permit d'élaborer quelques applications techniques au célèbre théorème fondamental de Shannon.

Qui dit partage d'information, dit communication, et qui dit communication dit transmission, nécessitant pour alors un codage des données, poursuivant trois objectifs principaux ; la confidentialité, la compression du message et enfin la capacité a assurer la fiabilité de l'échange. Au fil des années, trois écoles se sont dressés en théorie des codes. L'approche géométrique, se basant sur des arguments géométriques et sur des tests d’hypothèses, se base sur les travaux de Wald avec sa théorie de la décision. L'approche probabiliste, animé par Shannon en personne, est considérée comme la plus féconde. Enfin, la plus importante des écoles, connue sous l'appellation « théorie des codes algébriques », démontre la complexité du codage. Cette approche algébrique a permis notamment de donner naissance aux codes correcteurs, donnant lieu a d'importantes innovations techniques comme les communications spatiales, le disque compact ou encore la compression des données.

Très vite, la naissance de ce qu'on appellera l'informatique (ou computer science) apparaît comme la science du traitement de l'information.

Chapitre 9: La théorie de l'information comme théorie scientifique

modifier

Dans ce chapitre, Ségal nous invite à nous pencher sur la présentation thématique d'une discipline qui s'est radicalement transformé au milieu du 20eme siècle, sous l'impulsion de la théorie mathématique de la communication publié en premier lieu par Shannon. C'est cette théorie, et ses liens avec la définition que donne Fisher de l'information qui débouchera au début des années 50 sur les premières recherches en mathématiques, précédant le recueil « Fondements mathématiques de la théorie de l'information » du soviétique Khinchin de 1957.

Kullback situe la théorie de l'information comme « une branche de la théorie mathématique des probabilités et des statistiques ». Son livre, paru en 1959, pose les bases du « principe de divergence minimale ». Ce principe sera poursuivit par Jaynes, d'abord inspiré par la lecture de Keynes ou encore Jeffreys. De 1957, en réinterprétant la mécanique statistique, jusqu'en 1998 ou il publiera « Probability Theory : The Logic of Science », Jaynes, s’intéresse de près aux publications de Shannon, afin de défendre une interprétation « conceptuelle » des probabilités, opposée a une interprétation jugée comme « purement mathématique ».

Si, au début des années 1960, les bases mathématiques de la théorie de l'information sont clairement établies aux Etats-Unis, c'est a cette période que l'école soviétique innove a nouveau lorsque Kolmogorov repense le calcul des probabilités. Célèbre en premier lieu par son axiomatisation du calcul des probabilités en 1933, Kolmogorov, admiratif de la théorie mathématique de la communication de Shannon, fait des avancées significatives dans des domaines aussi variés tel que la formalisation de la théorie des probabilités et surtout le théorème KAM des systèmes dynamiques qu'il révèle dans les années 1950, ou il introduit la notion d'entropie métrique pour mesurer les systèmes dynamiques. Ses travaux, notamment sur la théorie algorithmique de l'information dans les années 1960, le pousse a se pencher sur la très célèbre machine de Turing. Le mathématicien affirme que l'approche algorithmique permet de définir non seulement l'information indépendamment des probabilités (avec l'introduction de la notion de hasard), mais aussi de « fournir une nouvelle base au calcul des probabilités ». Concernant l'élaboration de ce qui allait devenir « la théorie algorithmique de l'information », il convient de citer Solomonoff, Martin-Lof et Chaitin, mais aussi l'importance des recherches sur la machine de Turing ouvrant diverses réflexions sur la calculabilité et permettant d'arriver a un tel résultat. Parallèlement, ce sont également des questionnements sur cette machine qui permettront à Landauer puis Bennet d'établir une thermodynamique du calcul.

Dans le cadre de recherche sur la dissipation de chaleur des premiers ordinateurs, Bennet innove en osant la comparaison ; « La nature fournit un très bel exemple d'un ordinateur thermiquement activé dans le mécanisme biochimique de la réplication, transcription et traduction du code génétique. » C'est en se basant sur les travaux en biologie de Brillouin (voir chapitre 5), et en provoquant l'analogie avec les ordinateurs que les deux scientifiques introduisent l'expression d'« ordinateur brownien ». Ce sont toutes ces études sur le mouvement brownien, le démon de Maxwell, la théorie du chaos de Robert Shaw ou encore les machines de Turing qui provoquèrent l’émergence du concept d'information en tant que grandeur physique. C'est ainsi que l'information s'est retrouvé au centre de toutes les réflexions qui touchent a l'analyse des actions de base effectuées par l'ordinateur et, par analogie, par le cerveau.

Chapitre 10 : L’introduction de la cybernétique en RDA; entre science bourgeoise et panacée

modifier

Segal débute la troisième partie de son ouvrage sur l’exemple de la RDA, et l’introduction de la cybernétique dans son paysage. C’est le philosophe marxiste Hollitscher qui semble être le premier a introduire la cybernétique en RDA, lors d’un cours qu’il donnait a l’université Humboldt de Berlin. Toutefois, le statut de la cybernétique était jusqu’alors taché par une réputation impérialiste en URSS. Dans un contexte de guerre froide, ou la hantise de se faire dépasser poussait chaque camp à suivre avec attention ce qui pouvait se passer au delà du Rideau de fer, la parution en 1958 de la version russe du livre de Wiener, ainsi que ses écrits critiques envers la société américaine, contribuèrent dès lors au foisonnement de publications sur le sujet de cybernétique. Les publications, notamment de la part de Klaus, sont les premières d’un allemand de l’Est concernant la cybernétique, dont l’importance est même comparée a celle de l’énergie atomique dans l’exposé que donne Kolman.

Malgré l’intérêt grandissant, la cybernétique essuie de vives critiques, de la part de philosophes comme Hermann Ley, mais aussi de scientifiques tel que Jacob Segal, craignant un décloisonnement de l’unité scientifique déjà fort institutionnalisé.

Après la « contamination » par une science bourgeoise qui caractérise le début des années 1950, vient enfin la reconnaissance officielle de ces théories. En effet, une fois le signal donné par l’URSS, lorsque Khrouchtchev annonce en 1956 l’application dans l’industrie de l’automatisation, puis lorsqu’il annonce explicitement en 1961; « Il est impératif d’organiser de larges applications de la cybernétique, du calcul électronique et du contrôle des installations dans la production, la recherche, la conception et le design, la planification, la comptabilité, les statistiques et la gestion. », la cybernétique est mis en application immédiatement en RDA. Le livre « La Cybernétique d’un point de vue philosophique » de Klaus paru également en 1961 fait date. A grand renfort d’équivalences entre la cybernétique et les propos de Marx, l’auteur entend la nouvelle science comme une « confirmation du matérialisme dialectique ».

Dès lors, et grâce à des progrès techniques significatifs au début des années 1960, notamment dans le domaine du calcul automatisé stimulant l’essor de la production nationale, la cybernétique s’impose comme une nouvelle science de référence. Les cybernéticiens ont soudainement le vent en poupe, tel qu’Ulbricht s’exclame en 1963 « la cybernétique est particulièrement à promouvoir. » dans l’optique d’autorégulation de l’économie est-allemande. Toutefois, l’enthousiasme, parfois même proche de l’exubérance, concernant la cybernétique laisse peu à peu place à une période de doute, où Ulbricht convient de rappeler de s’atteler « minutieusement à cette nouvelle science jusqu'à ce que nous la maîtrisions complètement. » lorsque l’institutionnalisation se révèle inefficace. Enfin, la réunion d’avril 1969 lors du 10eme plénum du comité central du Parti marque un virage anticybernéticien clair, si bien que la prise de pouvoir d’Honecker deux ans après ne laisse plus aucun espoir a la cybernétique, avec l’abandon du nouveau système économique dont elle constituait les fondements. A l’aube des années 1970, l’informatique supplante la cybernétique, qui semblait avoir engendré trop de remise en cause pour le régime de l’Allemagne de l’Est.

Chapitre 11 : La notion d’information dans l’émergence de l’unité du savoir

modifier

Si nous avons survolé le sujet dans les précédents chapitres, Ségal s’attelle dans ce chapitre a mettre en valeur la théorie de l’information, comme source d’unité des sciences. L’auteur se penche tout d’abord sur l’exemple de l’énergétique. En effet, dès 1895, Ostwald propose les grandes lignes de sa théorie énergétique, celle-ci censée dépasser les oppositions entre force et matière, et corps et âme. Toutefois, sa théorie est vivement critiquée, par des physiciens comme Boltzmann, Planck ou encore Einstein. L’énergétique n’a pour alors pas vraiment donné lieu a d’importants résultats scientifiques, si ce n’est en psychanalyse dans l’oeuvre de Freud, ou l’énergie sexuelle psychique devient quantifiable, ou encore Jung, rejetant la dimension sexuelle propre aux travaux de Freud et s’intéresse quand à lui a une « énergétique de l’âme. » Si l’énergétique n’est qu’un exemple parmi tant d’autres sur un tentative d’unification des sciences, et si lors des premiers articles en faveur de la cybernétique en URSS, le parallèle entre la notion d’information et celle d’énergie apparait clairement, Oswald n’est pas même cité.

Les prémices d’un mouvement envers l’unité des sciences est introduit par Ernst Mach, lorsqu’il appelle les scientifiques d’horizons divers et variés à prôner « une vaste Weltanschauung basée sur le matériel que constituent les faits accumulés dans les disciplines séparées » afin de « développer des concepts unificateurs pour parvenir a une conception générale sans contradictions. » Enfin, le cercle de Vienne est créé.

C’est notamment le projet de Wiener, avec la cybernétique, pouvant se replacer dans un contexte intellectuel plus large, qui inspirera les scientifiques à cette période. Guilbaud note par ailleurs des 1950 dans un article, que la cybernétique est « née d’un désir d’unification. » On peut ainsi considérer la théorie de l’information, dans sa phase de genèse, de théorie multidisciplinaire. Toutefois, cette unification prétendue est à posteriori et sans sujet. Hacking distingue par ailleurs trois types d’unité; d’abord un sentiment métaphysique dans lequel « il existe un monde scientifique, une réalité et une vérité ». Le deuxième fait unificateur est d’ordre pratique et évoque l’idée selon laquelle toutes les disciplines devraient être liées entres elles. Enfin, le troisième type d’unité concerne l’unité méthodologique, propre à la cybernétique.

Cependant, si les sciences utilisent la notion d'information comme lien unificateur, la question se pose de savoir si unification il y a lorsqu'il n'y a pas de consensus quant a la signification du mot même d' « information ». Dans ce réductionnisme qui amène a croire que la théorie de l'information serait la clé de toute connaissance humaine, c'est tout d'abord Carnap et Bar-Hillel qui se lancent dans des études au cas par cas afin d'organiser et de mettre en évidence les ambiguïtés dans cette terminologie.

En 1953, lors de la neuvième conférence internationale de la linguistique psychologique, une nouvelle tentative se consacre enfin aux aspects sémantiques « des théories modernes de la communication ». La dimension sémantique de la notion d'information amène Ségal à définir trois tendances ; la première veut que la théorie vise a rendre compte de tous les phénomènes impliquant la notion d'information. La deuxième, est le sens mathématique, et enfin, le troisième relève de la technique (résultats limitatifs d'ordre général, automation). Finalement, le sens à l'unité est privilégié, à défaut de l'unité des sens, il est alors question d'une « culture de l'information ».

Chapitre 12 : Typologie des applications de la théorie de l’information

modifier

Ségal a expliqué la conception mathématique de l’information ainsi que sont développement dans les champs multidisciplinaire. Comment cette information a put connaître une telle évolution ? L’auteur s’intéresse tout d’abord à l’axiomatisation. Le fait que la théorie ne soit pas remise en cause puisqu’elle se base sur une évidence. Gaston–Gills Granger, un épistémologue français le présente ainsi : « axiomatiser c’est préciser les réquisits formels qu’on exige au concept ».

Dans sa théorie, Shannon ne désire pas utiliser ce procéder et n’emploie une seule fois le mot « axiome ». De plus, les ingénieurs de Bell Labs ne s’appuient que sur des objets explicitement posés. Cependant, un mathématicien français Marcel-Paul Schützenberger affirme qu’il existe une tentative d’axiomatisation dans la théorie de l’information. Celle-ci permet de comprendre le concept. Segal différencie la notion et le concept de la manière suivante : « Lorsqu’une notion abstraite fait l’objet d’une définition mathématique et de place au centre d’un édifice théorique, il s’agit d’un concept » p896.Durant les des années 20, les auteurs se référaient surtout à la notion d’information tout comme les applications de la théorie d’information. Au contraire, la théorie de l’information présentée par Shannon est un concept. Afin de comprendre les applications qui représentent la théorie de l’information, il est nécessaire de différencier les analogies, les métaphores et les modèles.

Une métaphore sert normalement à appréhender une notion ou un phénomène grâce à l’utilisation d’un autre phénomène. Il peut s’agir d’une approche culturelle. La métaphore téléphonique a par exemple été évoqué dans le chapitre 3. La métaphore informationnelle est une conséquence de la théorie de Shannon. Elle permet d’éclairer, structurer les propos et peut permettre d’élargir le concept. Une fois la métaphore établie, on peut passer à l’analogie. Celle- ci relève d’un mode de pensé plus scientifique que la métaphore et s’écarte du réel. Elle peut rapprocher deux domaines qui n’ont rien à voir l’un avec l’autre au risque de se perdre. Pour décrire les machines construites par l’homme, une analogie a été faite à la biologie, au fonctionnement du corps humain. Une métaphore peut devenir analogie. Le psychologue G.A Miller va décrire l’analogie comme le fait « d’exprimer quelque chose de mal compris en notant sa similitude avec quelque chose qui est bien compris » (p909).

La notion scientifique est le fil rouge de ce livre. Elle présente un modèle mathématique qui permet de trouver une justification scientifique à cette notion. Dans ce modèle, les analogies peuvent énormément s’éloigner de la théorie de l’information.

Avec le modèle de la voie de communication montrent que des notions intuitives peuvent devenir des modèles. Cette analyse de rapproche du modèle structuraliste. Il aura fallu de nombreuses années pour donner naissance à la théorie de l’information grâce entre autre aux analogies, aux métaphores ou aux modèles.

Actualité de la question

modifier

Au cours de son livre, Jérôme Segal s’attache à retracer l’histoire de la notion scientifique de l’information et le rôle qu’elle a pu jouer dans les différents domaines de savoir. Qu’en est-il de cette notion à l’heure actuelle?

Claude Shannon est considéré comme le précurseur de la théorie mathématique de l’information, il y consacre l’essentiel de sa carrière et est l’un des acteurs qui a permit d’arriver à une notion scientifique de l’information. Son décès le 25 février 2001 permet de refaire le point sur la théorie de l’information et donc de la notion scientifique de l’information. Alors peut mentionné, Gérard Battail, un ancien professeur dans les télécommunications a tenu a rappelé la place qu’à jouer la théorie mathématique de l’information de Shannon dans les techniques actuelles et lus particulièrement dans les travaux d’ingénieurs. En effet, elle a permit entre autre le développement des disques compacts ou encore dans la téléphonie mobile. Il rappelle ainsi l’utilité de la théorie dans les divers domaines scientifiques. En parcourant le livre de Ségal, nous avons aussi pu constater l’importance de la notion scientifique d’information dans l’unité des champs disciplinaire.

Cette théorie a contribué d’une manière significative a l’émergence de l’informatique, d’internet, puis enfin d’une « cybersociété », qui accroît son action aujourd'hui encore sur les possibilités d’expression démocratique, ou encore les possibilités de mobilisation des citoyens grâce au Web. Cependant, Ségal admet que la théorie de la l’information n’a pas encore connu son heure de gloire. Il remarque qu’elle est encore en évolution et qu’elle n’est pas assez présente dans les domaines scientifiques. Celle-ci est limitée. Malheureusement, ne nombreux auteurs et chercheurs possèdent une idée faussée de la théorie et trop souvent réduite à une simple théorie de transmission des données. Elle se remarque dans les diverses applications techniques mais ne se développe pas dans la recherche. Aujourd’hui, les travaux sur le sujet ont perdu l’engouement qui caractérisait l’émergence de la théorie de l’information[4].

Bibliographie

modifier

BOUCHARD Julie, Hermes, http://juliebouchard.online.fr/articles-pdf/2005b-bouchard- information .pdf

LEON Jacqueline, Persée, http://www.persee.fr/web/revues/home/prescript/article/hel_0750- 8069_2007_num_29_1_2918_t10_0171_0000_1

SEGAL Jérôme. Copain D’avant, http://copainsdavant.linternaute.com /p/jerome-segal- 11525 566

SEGAL Jérôme. Jérôme-Ségal, http://jerome-segal.de

SEGAL Jérôme. Tribune sur la circoncision: “Mais c’est dans la Thora!”. Droit au corps {en ligne}. 8 mai 2014.http://www.droitaucorps.com/tribune-jerome-segal-circoncision

SEGAL Jérôme. Etre juif et s’opposer à la circoncision. Libération {14 septembre 2014}. http://www.liberation.fr/societe/2014/09/14/etre-juif-et-s-opposer-a-la-circoncision_1100311

GEOFFREY Elizabeth. Jérôle Ségal: un parcours atypique à Vienne. Technica {Mai-Juin 2009}. http://jerome-segal.de/TECHNICA.pdf

SEGAL, Jérôme. Le Zéro et le Un : histoire de la notion scientifique d'information au 20e siècle