mardi 26 décembre 2006 par Van zuijlen
Complexité et lois scientifiques
L’histoire commence en 1686 par l’essai philosophique Discours de métaphysique (discours de Gottfried W. Leibniz sur la métaphysique), dans lequel il "discute" comment peut on distinguer des faits qui peuvent être décrits par une certaine loi et ceux qui sont des faits anarchiques et irréguliers. Leibniz émet l’idée très simple et profonde qu’une théorie se doit d’être plus simple que les données qu’elle explique, autrement elle n’explique rien. Le concept d’une loi devient vide si l’on autorise une complexité mathématique arbitrairement élevée , parce qu’alors on peut toujours construire une loi qui explique n’importe quel phénomène aléatoire . Réciproquement, si la seule loi qui décrit quelques données est extrêmement compliquée, alors les données sont réellement anarchiques.
Aujourd’hui les notions de complexité et de simplicité sont mises en termes quantitatifs précis par une branche moderne des mathématiques appelée théorie algorithmique de l’information. La théorie ordinaire de l’information mesure l’information en demandant combien de bit sont nécessaire pour coder l’information. Par exemple, elle prend un bit pour coder une réponse simple : oui/non. L’information algorithmique, en revanche, est définie en demandant quelle est la longueur minimale que doit avoir un programme pour produire ces données. Par exemple la suite des nombres 1,2,3,4.... a une information algorithmique très petite, puisqu’un programme très court permet de les générer. Il en va de même pour le nombre pi, un algorithme assez court permet de déterminer les décimales de pi . En revanche un nombre aléatoire possédant un million de chiffres pourra être généré par un programme aussi long que le nombre lui-même. En d’autres termes, de tels jets de chiffre sont incompressibles, ils n’ont aucune redondance ; le meilleur qu’on puisse faire pour les générer est de les écrire directement. Ils s’appellent irréductibles ou algorithmiquement aléatoires.
Comment de telles idées se relient-elles aux lois et aux faits scientifiques ?
Une théorie scientifique est comme un programme , elle doit prévoir les observations qui ont été faites expérimentalement. Deux principes fondamentaux confortent ce point de vue. D’abord le principe du rasoir d’Occam : Si deux théories expliquent des données , la plus simple doit être préféré. Autrement dit si deux programmmes permettent de générer des données, le plus simple doit être préféré. Et en second lieu, si une théorie est aussi compliquée que ce qu’elle est censée expliquer alors elle n’a aucune valeur. En d’autre terme si un programme est aussi long que les données qu’il est censé générer alors c’est que l’on n’a pas pu compresser ces données qui sont donc irréductibles. Une théorie utile est une compression des données ; la compréhension est compression.
Le principe de la raison Suffisante
Tout ce qui arrive, arrive pour une raison. Si quelque-chose est vrai cela doit être pour une raison. Mais même si nous ne pouvons pas toujours voir une raison (peut-être parce que la chaîne du raisonnement est longue et subtile), Leibniz affirme que Dieu peut voir la raison. Les mathématiciens croient certainement en ce principe de Leibniz , parce qu’ils essayent toujours de tout prouver . Ils ont passé des siècles à tout démontrer et même si ce sont des évidences ils chercheront à démontrer le cas général. Rien d’autre ne pourra les satisfaire. Et voici où le concept d’information algorithmique peut apporter sa contribution étonnante à la discussion . Il indique que certains faits mathématiques sont vrais pour aucune raison, une découverte qui fait tomber le principe de la raison suffisante.
K. Gödel et A. Turing ont par leur travaux prouvé que quelque-soit un système d’axiomes choisi il existe une infinité de verités mathématiques indémontrables. Toute théorie mathématique est basée sur un système d’axiomes, que l’on considère comme vrai sans chercher à les démontrer. À partir de ces axiomes on déduit des conséquences qui sont les théorèmes etc.. Ce modèle est celui d’Euclide, nous fonctionnons encore sur ce modèle. Nous savons qu’il existe une infinité de vérités mathématiques que l’on ne pourra déduire de tels axiomes, la seule solution est de les intégrer comme axiomes !!. Certains résultats n’ont pas "encore" été prouvés , comme la conjecture de Goldbach : Tout nombre entier pair supérieur à 2 peut être écrit comme la somme de deux nombres premiers.Cependant elle a été vérifiée avec un ordinateur jusqu’à des nombres très grands....Pourquoi ne pas la considérer alors comme vraie ?
Le nombre Omega
Considérons l’ensemble de tous les programmes informatiques possibles. La question fondementale est : est-ce-qu’un programme choisi au hasard va s’arréter ? si oui alors les données qu’il génere ne sont pas irréductible, si non alors elles sont irréductibles. A. Turing a prouvé que l’on ne peut pas savoir à l’avance si un programme s’arrête ou pas , il n’y a pas de solution générale. Aucun algorithme, aucune théorie mathématique, ne peut nous indiquer quels programmes stopperont et ceux qui ne stopperont pas . Le nombre Oméga est la probabilité de voir s’arréter un programme...C’est une probabilité bien définie mais incalculable ( sinon cela contredirait les résultats de Turing ). Oméga est lui-même irréductible et nous fournit un nombre infini d’irréductibles...Ainsi on ne peut savoir à l’avance si tel ou tel programme génère des données ,ce qui entraine qu’une théorie du tout en mathématiques ne peut éxister. Les mathématiques ont donc une complexité infinie. Ainsi peut-être , les mathématiciens ne devraient pas essayer de tout prouver . Parfois ils devraient juste ajouter de nouveaux axiomes.
Cet article est tiré d’une publication de G.Chaitin..
Site réalisé avec SPIP 1.9.1 + ALTERNATIVES