Pour lire l’intégralité de cet article, merci de vous identifier.
Si vous ne possédez pas encore de compte utilisateur, créez votre accès en achetant la version numérique de ce numéro.

Mot de passe oublié ?
English

Des grilles et des rubansLes machines formelles d’Alan Turing

Jean Lassègue

Entretien avec

Quels sont les liens entre information et informatique ? Comment et pourquoi l’informatique a-t-elle été inventée ? Les ordinateurs sont-ils capables de représenter des données et de créer des formes ? Pour en savoir plus, l’équipe de Back Office s’est entretenue avec Jean Lassègue, philosophe et épistémologue 33 Chercheur au CNRS (Institut Marcel Mauss-EHESS) et directeur de l’équipe de recherche du LIAS (Linguistique, Anthropologique, Sociolinguistique)., auteur d’une biographie 44 Jean Lassègue, Turing, Paris, Les Belles Lettres, 1998. d’Alan Turing.

Back Office Qu’est-ce que l’information pour Alan Turing ?

Jean Lassègue Autant que je sache, le terme information n’est guère utilisé par Turing (il emploie plutôt la notion technique de « weight of evidence » difficile à traduire, « mesure de confirmation » serait peut-être une solution). Il y a deux définitions concurrentes du concept d’information, celle de Claude Shannon 55 Claude Shannon (1921-2001) est un ingénieur en génie électrique et mathématicien américain. Il est l’un des fondateurs de la théorie de l’information, qui permet de quantifier des informations en termes de probabilités. (1948) où l’information est définie comme transmission d’un signal dans le cadre d’une théorie statistique de la communication (plus l’apparition d’un signal est rare, plus il est informatif), et celle qu’en donne le mathématicien russe Andreï Kolmogorov dans les années 1960 où l’information est définie comme programmation dans le cadre de la théorie de la calculabilité fondée par Turing (l’information est alors la mesure de la complexité d’un programme : la description d’un objet par un programme est d’autant plus complexe qu’elle est riche en information). Ça, c’est pour l’aspect théorique… Mais, dans la langue courante (et c’est le sens du mot que Turing privilégie), ce n’est pas ainsi qu’on entend « information », plutôt lié à la notion de sens. Pour qu’une « information » fasse sens pour un humain, il est nécessaire de la spatialiser, de la représenter dans un espace (à deux dimensions dans le cas des interfaces graphiques). Le rapport à l’espace implique nécessairement la construction de formes qui se détachent d’un fond : c’est ainsi que se construit le sens, qui est avant tout géométrique et non linguistique et ne présuppose donc pas de signal, de code ou de message, comme l’a fait remarquer avec beaucoup de profondeur le mathématicien René Thom 66 René Thom (1923-2002) est un mathématicien et épistémologue français, fondateur de la théorie des catastrophes.. En somme, signifier, c’est fondamentalement donner forme dans l’espace. 

Si on réfléchit dans cette direction, on pourrait alors considérer le ruban linéaire de la machine décrite par Turing en 1935 ; machine « de papier » disait-il parce qu’il s’agit d’une machine abstraite, mathématique qui n’a pas, dans un premier temps, de réalisation physique