La logique est une science formelle. Elle est parfaitement théorique et abstraite. Elle est en plus, selon le mot de Kant, aride, en ce qu'elle ne permet pas de découvertes. Elle indique ce qui est vrai dans tous les mondes possibles, et non ce qui concerne notre monde en particulier. Donc elle ne sait rien dire sur la réalité concrète. C'est pourquoi Descartes et Galilée lui ont préféré la science mathématique.
Cependant, la logique, au cours du XX ème siècle, a trouvé un domaine d'application pratique, avec l'électronique puis l'informatique. Comment une science aussi abstraite peut-elle être appliquée?Justement parce qu'elle est formelle. Il est difficile de faire reproduire par une machine les opérations de la pensée humaine. Il est déjà bien difficile de définir la pensée. En revanche, une machine est capable d'effectuer un calcul semblable au calcul logique. Il faut pour cela lui fournir un algorithme, c'est-à-dire une description détaillée de chaque étape à exécuter. Un algorithme, c'est un ensemble fini d'opérations qui peuvent être exécutées de façon mécanique, c'est-à-dire sans initiative. C'est le logicien anglais Alan Turing qui est à l'origine de ce concept. Un algorithme peut être exécuté de façon mécanique, donc être exécuté par une machine. C'est ainsi que Pascal puis Leibniz eurent l'idée de fabriquer des calculateurs mécaniques.
L'électronique et l'informatique vont profiter de l'évolution de la logique moderne, formalisée et symbolisée par Boole (Une étude des lois de la pensée, 1854). C'est en particulier Shannon qui verra, l'un des premiers, les rapprochements possibles entre la notation binaire, la logique booléenne (les moteurs de recherche, sur Internet, utilisent les opérateurs booléens) et les circuits électriques.
En effet, les calculateurs électro-mécaniques et les ordinateurs sont fondés sur l'usage de composants dont la particularité est qu'ils sont susceptibles d'adopter deux états bien distincts. Comme une lampe, qui est soit allumée, soit éteinte. De même, un relais est soit ouvert, soit fermé. Une diode laisse passer le courant, ou pas. On peut symboliser ces deux états par 0 et 1, ou par vrai et faux. On voit en effet l'analogie avec la logique classique à deux valeurs de vérité: une proposition est soit vraie soit fausse. C'est pourquoi la notation binaire a été très tôt adoptée par les informaticiens, qui ont en cela suivi une intuition de Leibniz. Un signal 0 ou 1 est appelé binary digit ou, en abrégé, un bit. La logique et son symbolisme vont désormais être mis au service de l'électronique.
On crée des circuits logiques, ou "portes logiques", qui reproduisent les principaux opérateurs logiques
Ainsi, la porte AND reproduit la fonction logique et ou conjonction. Elle se définit par une table de vérité qui symbolise les états présents (0 ou 1)aux entrées (A et B) et à la sortie (notée S).
| Cette table est bien sûr identique à celle de la conjonction logique et. La mémoire dite morte (ROM) des ordinateurs est constituée de diodes et de portes AND. |
Les logiciens nous ont appris que quelques opérateurs logiques pouvaient remplacer tous les autres. Par exemple, on peut réduire tous les opérateurs à la conjonction et à la négation. De même, en électronique, en combinant plusieurs portes NAND, on obtient l'équivalent de n'importe quelle autre fonction.
Ce n'est donc pas un hasard si l'on trouve, aux origines de l'informatique, un logicien comme Alan Turing. La notion même d'informatique nous renvoie à l'histoire de la philosophie et de la logique. L'informatique, c'est la science de l'information. Hélas, le mot est devenu ambigu. Il n'est pas à prendre ici au sens où les journalistes l'emploient. Il fait référence à la notion de forme, à distinguer de celle de sens. L'informatique renvoie à toute cette lignée de penseurs qui ont distingué le sens de la forme du discours. Notamment Leibniz, qui pensait pouvoir trancher les ambiguïtés de la parole naturelle en la mettant en forme, en faisant apparaître sa structure logique, en privilégiant les arguments in forma (Lettre à Elisabeth). Le mot informatique dérive justement de cette notion de forme. C'est en marchant sur les pas de Leibniz que Claude Shannon invente le concept d'information puis celui de communication -- qui connaîtra lui aussi une fortune remarquable. Il s'agit de notions logiques et mathématiques. On pourrait définir l'information comme tout message pouvant être traité de façon mécanique, comme tout discours calculable, pouvant être traduit dans les termes de la logique. Quant à la communication, elle est échange d'informations, ou transmission de signaux. Rien à voir avec le marketing! La question est de savoir si tout est calculable. On ne sait pas mettre en forme d'algorithme toutes les opérations de la pensée humaine.
A lire:
L'œuvre de Leibniz, en particulier sa correspondance
C. Panetto, Guide pratique des systèmes logiques, ETSF, 1986
Ph. Breton, Une histoire de l'informatique, 1987
R. Moreau, Ainsi naquit l'informatique, 1987
Ligier et Zanella, Architecture et technologie des ordinateurs, 1989
Guy Isabel, l'Electronique à la portée de tous, 2000 (II: Fonctions logiques).
Claude Shannon et W. Weaver, The mathematical theory of communication, University of Illinois Press (traduction française épuisée)