L'informatique est la 5ème grande révolution qu'a connu le monde en termes de progrès technologiques après les révolutions au niveau de l'agriculture, de l'écriture, de imprimerie, et de l'industrie. |
Mots-clés: sciences exactes, définition, sciences formelles, preuves, épistémologues, modèle final.
L'expression science exacte regroupe dans un même ensemble les sciences de la nature (chimie, physique, sciences de la vie...) et les sciences formelles (mathématiques, informatique théorique, physique théorique...). Outre cette définition par extension, généralement jugée conventionnelle et discutable, il existe également une définition par compréhension par laquelle l'expression science exacte s'appliquerait aux sciences pour lesquelles la notion de vérité, d'exactitude, ne pose apparemment pas trop de problèmes, car d'une part les notions de base sont bien définies et universelles (partagées par tous les chercheurs du domaine), et d'autre part parce que les "énoncés/affirmations/théorèmes/principes" de base sont aisément "vérifiables" (via des expériences reproductibles à l'identique ou via une preuve mathématique, etc.).
L'expression science exacte regroupe dans un même ensemble les sciences de la nature (chimie, physique, sciences de la vie...) et les sciences formelles (mathématiques, informatique théorique, physique théorique...). Outre cette définition par extension, généralement jugée conventionnelle et discutable, il existe également une définition par compréhension par laquelle l'expression science exacte s'appliquerait aux sciences pour lesquelles la notion de vérité, d'exactitude, ne pose apparemment pas trop de problèmes, car d'une part les notions de base sont bien définies et universelles (partagées par tous les chercheurs du domaine), et d'autre part parce que les "énoncés/affirmations/théorèmes/principes" de base sont aisément "vérifiables" (via des expériences reproductibles à l'identique ou via une preuve mathématique, etc.).
Selon cette définition, toutes les sciences précitées ont leurs pendants en sciences appliquées ce qui les fait alors quitter le domaine des sciences exactes. À l'inverse, de nombreuses sciences "humaines" (sociologie, économie, linguistique, musicologie, ...) comportent elles aussi des branches qui reposent sur des approches utilisant éventuellement des méthodes comparables à celles des sciences exactes.
Limites de l'expression "sciences exactes"
L'expression "sciences exactes", tout comme l'expression "sciences dures" qui lui est parfois accolée, est problématique dans l'opposition implicite et non questionnée qu'elle établit : à quelles sciences devraient-elles s'opposer ? À des sciences "inexactes" ? À des sciences "molles" ? Quelles seraient ces sciences ? Les sciences humaines et sociales ?
La notion de "preuve" est souvent une gageure dans les sciences humaines ou sociales. C'est pourquoi la notion de "vérité scientifique" devient dans ces domaines synonyme "d'exactitude", ce qui explique que l'expression "sciences exactes" peut être employée à titre descriptif comme le reflet d'un "fait objectif" sans avoir aucun aspect dépréciatif pour les sciences non rangées sous cette catégorie. La notion d'exactitude doit d'ailleurs être soigneusement distinguée de celle de vérité; en effet toute science repose sur un certain nombre de postulats, par définition non démontrés.
L'aspect implicitement péjoratif de cette expression de "sciences molles" n'a pas empêché son usage extrêmement courant en épistémologie ou en sociologie des sciences, et l'expression est aussi fréquemment employée dans les cadres institutionnels et académiques, par des scientifiques de tous domaines.
Les épistémologues français René Thom et Jules Vuillemin analysèrent, d'un point de vue critique, la notion de science exacte qui, d'après eux, s'applique strictement et seulement aux mathématiques pures et à la physique théorique. En effet, chacun peut refaire les calculs d'un physicien théoricien et vérifier s'il a fait une erreur ou pas, en revanche, vérifier si le modèle qu'il a utilisé pour décrire l'univers est bien le "bon modèle" (ce qui serait plus du ressort de la physique expérimentale) est une chose qui peut s'avérer souvent impossible : soit son modèle n'est pas le bon (ce qui peut être le cas même si ses calculs sont justes!), et dans ce cas on trouvera vraisemblablement un jour une expérience/observation dont le résultat sera incompatible avec son modèle ; soit son modèle est le bon, et on ne trouvera jamais d'incompatibilité entre le monde réel et son modèle. Là où cette alternative a priori évidente devient paradoxale, c'est que, même s'il s'écoule trois siècles sans que personne n'ait rien à redire sur un modèle, on ne pourra jamais être certain que c'est le "bon modèle" : rien ne nous dit qu'un an plus tard, des chercheurs ne vont pas mettre à jour un phénomène incompatible avec ce modèle apprécié de tous pendant 3 siècles ! Un tel bouleversement a d'ailleurs des précédents historiques (théorie d'Isaac Newton, puis celle d'Einstein, puis celle du modèle standard, puis...).
En adéquation avec la vision de ces "épistémologues", on ne peut donc pas dire : c'est le "modèle final", mais tout au plus, c'est "le meilleur modèle sur le marché, c'est-à-dire le modèle qui colle le mieux aux expériences". Toutefois, au fil des décennies, les scientifiques développent des connaissances qui leur permettent d'avoir des a priori justifiant leur croyance au fait que tel modèle soit "le bon", le degré de confiance que la communauté scientifique mettra en ces croyances autorisera alors à parler de "sciences exactes" pour des disciplines qui pourraient néanmoins contenir au final des parts d'inexactitude (un exemple historique est la théorie de Joseph Fourier de la chaleur). C'est ainsi que les sciences de la nature sont considérées comme exactes.
Quant à l'informatique, il s'agit d'un cas un peu à part dans l'histoire des sciences car c'est le seul exemple de science qui, dans sa majeure partie, s'attache à étudier un "monde réel" qui correspond directement au modèle "théorique" : l'ordinateur. L'homme, pour avoir construit l'objet, en connaît donc a priori le fonctionnement et n'a pas ainsi à faire du reverse engineering, en se posant la question typique des autres sciences de la nature : mon modèle est-il le bon ? Cette question a, en effet, été résolue en informatique par Turing, et il est en général aisé d'amender le modèle théorique de la machine de Turing (qui a une capacité de stockage infinie) en un modèle correspondant plus pragmatiquement aux limitations de tel ou tel microprocesseur dans le monde réel.
Ce n'est en général que dans l'utilisation de l'informatique pour résoudre des problèmes extérieurs que la question de la modélisation refera surface (par exemple : étude du trafic internet, ou applications à d'autres sciences). Bien évidemment, des comportements complexes pouvant naître à partir de modèles simples, on peut être amené à créer de nouveaux modèles "restreignant le premier", afin de simplifier l'analyse de tel ou tel comportement, et de comparer ces modèles simplifiés entre eux (par exemple pour l'étude des réseaux).
Cependant le mot informatique, dans l'usage courant, désigne avant tout la technique informatique. Dans ce domaine, la frontière entre science et technique est difficile à tracer. La technique informatique elle-même, comme beaucoup d'autres techniques, s'appuie sur des bases scientifiques multiples et hétérogènes et non pas sur une science informatique unique.
Comme il n'y a pas encore de consensus universel sur les domaines que la science informatique englobe ou non (rédaction de logiciels ? électronique ? intelligence artificielle ? interaction homme-machine ? ergonomie ? ), certains pourront alors refuser d'inscrire l'informatique au rang des "sciences exactes", en se contentant d'y mettre......Lire la suite >>>>>