De Tarski à Bacon...
Sommaire
- 1 La sémantique d'Alfred Tarski
- 2 La théorie cybernétique de Norbert Wiener
- 3 Le système syntaxique de Rudolph Carnap
- 4 Le principe d'incertitude de Werner Karl Heisenberg
- 5 Le théorème d'incomplétude de Kurt Gödel
- 6 Le principe d'individuation : Saint Jean Duns Scot
- 7 Le principe de parcimonie - Guillaume d'Occam
- 8 Roger Bacon
La sémantique d'Alfred Tarski[modifier]
A.Tarski publie sa théorie sémantique de la vérité en 1933 afin d'apporter une solution aux paradoxes sémantiques, Pseudomenon de Diogène Laërce ou paradoxe du menteur d'Epiménide en tenant compte du théorème d'incomplétude.
Son expression logique inédite de la vérité va susciter un foisonnement de réactions qui atteste de la portée de sa contribution à l'évolution de la pensée Occidentale.
La définition sémantique de la vérité ou la fin de la logique
EXPOSE[modifier]
Sa formule cherche à éviter ces paradoxes qui manifestent la contradiction des systèmes auto-référents puisqu'un langage ne peut se clore sur lui-même. Dès lors qu'un langage ne peut contenir un prédicat adéquat de vérité pour lui-même, la définition de la vérité n'est pas définissable en son sein; d'où l'absolue nécessité de la définir dans un métalangage. Deux conditions de vérités attestent de cette extériorité.
Une première est nécessaire lors de la constitution du langage. Ses propositions sont vraies du fait de leur adéquation matérielle, cette correspondance ou équivalence du langage à des objets qu'il décrit. Cette première condition prolonge l'ancienne formulation d'Aristote dans sa Métaphysique :
Dire de l'Etre qu'il n'est pas, ou du Non-Etre qu'il est, c'est le faux; dire de l'Etre qu'il est et du Non-Etre qu'il n'est pas, c'est le vrai, de sorte que celui qui dit d'un être qu'il est qu'il n'est pas, dira ce qui est vrai ou ce qui est faux.
Cette condition permet de constituer un langage fait de propositions éprouvées par l'exercice de correspondance qui se réalise en dehors du langage par une succession de conventions qui attestent d'un accord quant aux relations des mots aux objets qu'ils décrivent.
Une seconde condition est nécessaire lors de l'exposé de ce langage. Ses propositions sont vraies du fait de leur adéquation formelle, cette cohérence de l'énoncé qui établit sa validité logique. Ce second usage réalise une opération de vérification qui manifeste la conformité de l'énoncé aux opérations dans ce langage. Les termes s'exposent sans contradiction formelle. Le langage y devient l'objet.
Ces deux conditions se concrétisent dans un exercice de double lecture qui s'effectue par un passage de la proposition lue pour ce qu'elle décrit à la proposition prise pour un énoncé, soit un objet qui a sa réalité propre. C'est pourquoi la proposition est d'abord vraie pour ce qu'elle décrit; et l'énoncé qu'elle devient dans la seconde lecture est vrai pour ce qu'il dit, soit sa cohérence.
EXAMEN[modifier]
Une première discussion s'intéresse à la portée de la définition : vérité absolue ou vérité relative. Cette controverse résulte de son interprétation.
Ce malentendu dépend de ces perceptions, soit de la lecture même de l'énoncé d'A. Tarski. Quelques-uns y voient l'apologie du réalisme, cas de K. Popper, d'autres y voient une issue aux impasses des théories syntaxiques, cas de R. Carnap, et quelques autres dont D. Davidson y perçoivent une ouverture vers les contextes inducteurs d'équivocité du langage. Cette dernière est de fait présente dans la pluralité des commentaires de la définition sémantique de la vérité.
Pour celui qui y voit une définition absolue de la vérité, la mise en correspondance est la condition première à l'émergence de propositions dans un langage. Quand bien même la correspondance ne s'applique pas à l'ensemble des propositions d'un langage qui peut ordonner, agir, questionner sans toujours décrire; l'absence de correspondance pour la totalité des propositions suffit-elle à congédier cette condition d'inspiration aristotélicienne ? Elle n'est pas suffisante pour ces réalistes, elle l'est pour d'autres.
Pour ce qui est de la vérité relative, la définition pose uniquement une opération logique de vérification qui garantit la cohérence parce que la proposition s'exécute conformément à l'ensemble des règles syntaxiques relatives à ce langage. La vérité y est formelle.
Mais cette controverse a-t-elle lieu d'être et peut-on exiger d'A. Tarski que sa définition soit, contradictoirement au principe d'incomplétude, complète, consistante et cohérente ? La définition peut-elle avoir ce caractère axiomatique en se suffisant à elle-même, proposition décrivant la vérité ? Ou, au contraire, cette définition n'est-elle pas incomplète pour induire des ouvertures en-deçà et au-delà du langage-objet qu'elle est ? Alors, la formule d'A. Tarski associerait des définitions réputées contradictoires pour parvenir à un autre résultat.
La seconde discussion porte alors sur la lecture qu'il convient d'en faire. La définition ouvre une controverse de ses commentateurs alors qu'elle réussit à réconcilier des théories réputées contradictoires. En effet, cette définition opératoire de la vérité rassemble une exigence syntaxique de la fonction de vérité en décrivant sa variabilité sémantique relative au système de propositions du langage considéré. Elle est en cela inédite, puisqu'elle échappe à la tradition philosophique où la réponse à la question "qu'est-ce que la vérité ?" conduit à une définition substantialiste.
Sa définition compose entre une substance inexprimée qui tient à la manière de légitimer la proposition prise comme la représentation adéquate matériellement d'une réalité qui lui est extérieure; et une introduction du principe de raison au titre de l'identité de l'objet propositionnel avec lui-même. L'ambivalence est présente dans la proposition. Il convient alors de savoir si cette définition est "neutre", soit insensible aux théories des commentateurs qui s'opposent plus qu'ils ne lisent.
La neutralité tient-elle alors au caractère formel de la définition ou à la nécessité d'une autre lecture qui intègre l'équivocité ? La lecture ne saurait être univoque puisqu'elle conduirait aux controverses horizontales qui opposent des positions exprimées par les lecteurs, en vertu de leur point de vue initial.
L'art d'A. Tarski tiendrait à la formulation d'une définition édifiée selon une exigence didactique, initiatique, voire anagogique, selon ses propres mots :
Aussi pouvons-nous accepter la conception sémantique de la vérité sans abandonner quelque position épistémologique que nous puissions avoir. Nous pouvons demeurer réalistes naïfs, réalistes critiques ou idéalistes, empiristes ou métaphysiciens - ce que nus étions auparavant. La conception sémantique est complètement neutre par rapport à toutes ces positions. (1)
L'auteur renvoie donc au lecteur qui construit sa vérité antérieurement à la lecture de cette définition qui opère sans modifier ce cadre de pensée préalable qui appartient à chacun. Cette définition est donc construite, aux dires de son auteur, de telle sorte que chacun perçoit cet objet selon son point de vue.
D'ailleurs, un de ces lecteurs avertis, et non des moindres, K. Popper, n'est pas dupe de cette relation très équivoque que l'auteur et les lecteurs entretiennent autour de cette formulation :
J'étais fort intéressé par ce qui m'apparaissait comme un aspect réaliste de la théorie de la vérité de Tarski, un aspect dont je suspecte que Tarski peut dénier la simple existence. (2)
Une telle performance polysémique de cette formule enseigne un art de l'équivocité entretenue intentionnellement pour qu'elle autorise autre chose, une confrontation à cette situation de coexistence des interprétations, contradictoire avec l'univocité logique.
ENSEIGNEMENTS[modifier]
Trois enseignements majeurs sont à tirer de cette controverse à propos de la définition sémantique de la vérité d'A. Tarski.
- 1. L'incohérence de la quête de l'univocité
- 2. La pluralité des conditions singulières de vérité
- 3. L'anagogie inhérente à l'incomplétude
1. L'incohérence de la quête de l'univocité
L'univocité est contradictoire avec l'incomplétude puisqu'elle perpétue l'exigence d'un énoncé complet qui exclut des interprétations afin d'induire cette signification unique, donc complète et autonome; ce qui n'est pas envisageable dès lors que l'incomplétude est dûment constatée.
L'univocité d'un signe, d'une opération ou d'une proposition, voire d'un langage revient à en exiger la cohérence de soi, soit la négation de l'influence d'autres signes, opérations, propositions ou langages, ce qui revient à nier les interactions génératrices des significations dans un langage.
Cette quête de l'univocité poursuit une fin inaccessible et repousse indéfiniment devant elle le fait de l'équivocité qui est une manifestation de l'incomplétude dans les paradoxes sémantiques, soit la non-évidence de soi d'un langage-objet.
2. La pluralité des conditions singulières de vérité
Le conflit des interprétations traduit certes l'incompatibilité des positions initiales des lecteurs. Ces derniers réduisent la définition à leur cadre théorique préalable. L'auteur tient compte de cette exigence d'une univocité - cohérence et complétude - unanimement partagée par ces lecteurs indépendamment du contenu de signification qu'ils mettent chacun dans leur quête d'univocité. Mais ne tient-il pas compte de l'enseignement de l'incomplétude qui invite à la transgression du projet systémique d'un langage-objet clos et vrai ?
Les travaux de D. Davidson ou de J.L. Austin explicitent cette pluralité des conditions de vérité qui satisfont chacun selon sa singularité. Les trois catégories de D. Davidson : constitutive, formelle et empirique induisent une théorie de l'interprétation; comme les conditions descriptive et démonstrative de J.L. Austin indiquent les mondes possibles.
C'est pourquoi, A. Tarski met fin à la logique comprise comme poursuite de l'univocité, parce que le projet logique ne peut faire fi de la dimension génétique de la langue et de la conception générative de la signification.
3. L'anagogie inhérente à l'incomplétude
La définition sémantique est donc ouverte à l'altérité d'un métalangage antérieur et postérieur au langage-objet. La formule a de ce fait un premier sens anagogique au-delà de l'objet propositionnel et de la relation qui s'établit avec le lecteur. La vérité opère en-deçà et au-delà du langage-objet, par nécessité logique. Elle s'exécute selon des opérations de vérification qui découlent d'autres relations au monde que celle du langage.
L'anagogie sort de l'enfermement dans un langage-objet. Elle procède selon une didactique initiatique révélatrice de l'équivocité. Elle manifeste là deux conséquences.
La première tient à la relativité des expressions singulières des conditions de vérité qui constituent, en soi, l'exposition de l'équivocité dont aucune ne se démontre dans le langage lui-même. La position de chacun, selon ses conditions de vérité dans sa théorie, précède, accompagne et prolonge. En cela la définition peut sembler neutre. Il serait vain de penser que le réalisme se démontre dans le langage alors qu'il postule une foi antérieure et première dans une relation au monde qui précède l'exposé du langage.
La seconde tient à la transmutation des termes sémantiques d'un langage-objet en opérations syntaxiques du métalangage. Dès lors que la vérité, prise comme opération syntaxique ou description sémantique doit opérer sur un langage-objet, en dehors de lui, pour échapper aux paradoxes sémantiques; alors, la dissociation de la fonction sémantique et de la fonction syntaxique de la vérité appartient à une opération dynamique qui effectue un croisement des fonctions dans les langages et métalangages.
Mais une telle opération manifeste alors une dialectique qui dépasse la croyance de chacun des lecteurs. L'anagogie n'a pas encore livré son secret.
- ---
(1) A. Tarski in : La conception sémantique de la vérité et la fondation de la sémantique (1944)
(2) K. Popper in : La connaissance objective (1972)
La théorie cybernétique de Norbert Wiener[modifier]
N. Wiener appartient au cercle des mathématiciens américains qui édifièrent, à la sortie de la seconde guerre mondiale, le corpus sur lequel allait se développer toute la recherche sur le traitement de l'information d'où s'ensuivit l'émergence puis le rayonnement de l'industrie informatique.
Sa théorie cybernétique a conduit à plusieurs révolutions dont ses contemporains ne prirent pas immédiatement la mesure, dont la fusion des notions de raison et de calcul. Penser, c'est opérer.
Cette science d'où naquirent l'informatique et la théorie du Tout-calcul
EXPOSE[modifier]
La théorie cybernétique prolonge la transformation épistémique du passage de la pensée intuitive à la pensée symbolique. L'avènement de la pensée symbolique consiste en la calculabilité de tout objet dont la pensée elle-même, qui se soumet comme tout objet à des lois mathématiques. Le cybernéticien élimine ainsi toute distance entre l'objet représenté et sa représentation puisque le fait mathématique se confond à son objet, conformément aux assertions d'H. Poincaré.
De même, l'agent connaissant se dissout dans sa représentation mathématique, qui n'est autre qu'une machine à calculer; car penser n'est rien d'autre qu'opérer. Désormais, concevoir la machine à calculer ou à penser revient à accroître la puissance opérante. Cette révolution épistémologique confond donc la pensée et la machine logique où le discours est le calcul, non plus le verbe.
La cybernétique inaugure une ère post-alphabétique au sens où elle congédie ce verbe et sa quête implicite de la signification. En cela, elle installe l'ère de la pensée symbolique, alors libérée du questionnement ontologique. C'est pourquoi cette logistique cybernéticienne désigne l'aboutissement de la pensée symbolique qui est la forme universelle de la représentation. Cette nouvelle définition du langage scientifique réalise cette transmutation des lettres en des nombres et leurs opérations où la pensée se fait signal et d'où émerge la théorie de l'information.
A cet égard, M. Heidegger expose la portée historique de cette formalisation dans Les principes de la pensée :
Pour la pensée contemporaine, la logique est devenue encore plus logistique, ce pourquoi elle s'est donnée le nom dérivé de logistique. Sous ce nom, la logique réalise sa dernière forme de domination, qui est maintenant universelle et planétaire. Cette forme de domination porte à l'ère de la technique les traits d'une machine. Il est bien évident que les machines à calculer qui sont utilisées dans l'économie, dans l'industrie, dans les instituts de recherche scientifiques et dans les centres organisationnels de la politique ne sont pas seulement des outils permettant d'opérer plus rapidement des calculs. La machine à penser est au contraire déjà la conséquence en soi d'une modification de la pensée, qui en faisant de celle-ci un simple calcul, appelle à sa traduction en la machinerie de ces machines. C'est pourquoi nous passons à côté des transformations de la pensée qui ont lieu sous nos yeux si nous ne percevons pas que la pensée devait devenir logistique dès lors qu'à son origine elle était logique.
De même, W. Quine décrit ce pouvoir de programmation du fait de l'émergence des routines dans Les voix du paradoxe et autres essais :
La programmation est analogue, à nouveau, à cette vieille question d'algèbre élémentaire consistant à transmuter des problèmes formulés verbalement en équations qui sont du ressort de la mécanique de la manipulation algébrique ... La transformation de problèmes donnés verbalement en équations algébriques ou en formules logiques est elle-même une programmation pour quelque chose de proche d'un calcul informatique, en tant qu'elle prépare la voie à la manipulation méthodique de formules selon des règles d'algorithme fixées.
EXAMEN[modifier]
L'automatisation du fait des routines logistiques introduit le robot à penser qui peut traiter toute chose par le calcul; sans limite, si ce n'est celles des contraintes techniques quant à la puissance de calcul qu'il faut alors repousser indéfiniment pour accroître cette ingénierie de la pensée-calcul. La cybernétique signe donc l'avènement d'une nouvelle époque où la pensée est une technique de production de signe calculant. L'hypothèse est bien que le calcul est toute la raison qu'il convient de modéliser jusqu'à construire les outils de cette puissance cybernéticienne.
La cybernétique développe l'instrument de cette raison calculante sans autres buts que le calcul même puisque le sens se confond avec la quantification qui fait que ces routines de calcul sont la totalité de la pensée. Or, une telle hypothèse conduit à confondre les routines qui produisent des résultats et les preuves de ces calculs qui sont à eux-mêmes leurs propres preuves. Ils englobent toute la raison sans qu'aucune autre forme d'existence de la pensée ne puisse perturber le déroulement automatique des routines qui n'ont justement de consistance que pour autant qu'elles se déroulent sans entrave ni émergence d'une radicale nouveauté.
Alors, cette raison pure calcul devient une pensée automatique qui est preuve d'elle-même au fur et à mesure de son développement. Seulement, cette quête de la pure calculabilité de la raison n'évite pas quelques questions quant à la prédestination, la fatalité ou encore le destin qui imposent une marque au-delà des intentions et finalités qui ne peuvent entraver la marche de la routine. En cela, le projet cybernétique vise à un dessaisissement de soi, à un abandon d'être pour se confondre avec les nombres qui instrumentalisent toute chose en une machinerie universelle dont la conscience n'est rien qu'une séquence de ce programme. W. Quine atteste de cette causa sui, preuve de soi du calcul cybernéticien qui s'accomplit sans autres finalités que l'accomplissement des routines :
La notion de routine de calcul trouve sa formulation nette d'une façon qui en fait le concept fondamental du calcul informatique. La théorie la plus pure de la preuve mathématique et la théorie la plus technologique du calcul informatique sont donc au fond une seule et même chose, et les lumières fondamentales que nous donne l'une sont par là-même les lumières que nous donne l'autre.
ENSEIGNEMENTS[modifier]
Le modèle cybernétique incarne une quête inexprimée de puissance et de domination dont son fondateur reconnait lui-même la prégnance dans Cybernétique et Société. Trois questions obsèdent d'ailleurs N. Wiener dans les derniers chapitres de cet ouvrage, lorsqu'il entreprend de répondre aux critiques émises par le père dominicain D. Dubarle dans Le Monde du 28 décembre 1948. Il écrit concernant ces trois questions, non sans inquiétudes.
La première est celle de la détermination qui aliène la liberté.
Dure leçon des froides mathématiques, mais qui éclaire de quelque manière l'aventure de notre siècle, hésitant entre une turbulence indéfinie des affaires humaines et le surgissement d'un prodigieux Léviathan politique. Celui de Hobbes n'était du reste qu'agréable plaisanterie. Nous risquons aujourd'hui une énorme cité mondiale où l'injustice primitive, délibérée et consciente d'elle-même serait la seule condition possible d'un bonheur statistique des masses, monde se rendant pire que l'enfer à toute âme lucide.
La seconde est celle de la massification qui aliène l'ecceïté-individuation.
La domination de la machine présuppose une société aux dernier stade de l'entropie croissante, où la probabilité est négligeable et où les différences statistiques entre individus sont nulles.
La disparition de la différence revient à calculer la singularité pour la dissoudre dans la prévision statistique qui elle-même procédera nécessairement par simplification croissante.
La troisième est celle de l'instrumentalisation qui aliène la responsabilité.
L'homme ne transférera pas calmement à la machine faite à son image sa responsabilité de choisir entre le bien et le mal, sans continuer d'assumer l'entière responsabilité de ce choix.
Seulement, si tout est calcul, la conscience est illusoire puisqu'elle accomplit le dessein du calcul. A cela une condition, que le calcul se dispense de rendre raison de lui-même pour échapper au vertige de son incomplétude par un acte de foi dont N. Wiener concède qu'il est un renoncement de foi, un abandon de la signification au seul profit d'une foi en l'opérabilité universelle sans autre finalité que la routine même.
Le système syntaxique de Rudolph Carnap[modifier]
R. Carnap participe du programme néo-positiviste de l'école de Vienne, critique de la métaphysique. Son projet de la construction logique du monde vise à la constitution de l'intégralité de la connaissance.
Il poursuit ce projet d'un système logique syntaxique alors que K. Gödel formalise le théorème d'incomplétude déductive de l'arithmétique et que A. Tarski démontre que la définition du concept de vérité se fait dans un métalangage. Le système syntaxique ouvre alors des perspectives.
Ce système sans fin ou l'appel de l'ontologie
EXPOSE[modifier]
En 1934, R. Carnap entreprend de démontrer dans La Syntaxe logique du langage que les préalables à la construction des systèmes logiques sont ceux d'une syntaxe générale englobante de tous les autres langages. L'ambition précisée dans la préface de l'ouvrage indique que la logique des sciences remplace la philosophie car elle n'est rien d'autre que la syntaxe logique du langage de la science, et in fine des mathématiques.
De ce fait, R. Carnap espère réduire les problèmes logiques et mathématiques aux problèmes syntaxiques, induisant de cela que les relations sémantiques et les questions implicites de la signification se résorberaient dans l'étude de l'enchainement formel des symboles. La syntaxe générale serait alors la théorie formelle des formes linguistiques et elle se confondrait avec l'analyse combinatoire par arithmétisation, selon les procédés introduit entre autre par K. Gödel.
Seulement, cette poursuite de l'édification d'un langage qui se réduirait à une pure syntaxe semble aussi guidée par l'intention d'éviter la sémantique et les questions de la signification. Penser ne saurait signifier mais plus calculer selon des opérations jugées pleinement évidentes. La syntaxe pure n'est alors rien d'autre que l'arithmétique. Or, ce pari oublie son présupposé quant à la complétude et à la consistance des opérations alors privée d'une sémantique, soit des définitions des premiers termes de l'arithmétique.
EXAMEN[modifier]
D'où la première difficulté du projet de la syntaxe logique du langage qui tient à cette attitude d'évitement où la pure forme limite des termes de l'arithmétique aurait avant tout l'avantage de se libérer des questions métaphysiques inhérentes aux énoncés; cas où les termes ont une valeur sémantique alors offerte à l'exercice de l'interprétation; soit l'inverse même de la quête d'un langage univoque et contraignant dans le développement de ses opérations. La pure forme limite, selon l'expression husserlienne qui qualifie les signes mathématiques, devient une quête quasi-fantasmatique chez R. Carnap qui mène à ce vide résultant de la régression in abstracto où cette abstraction évide les signes alors dénués de toute signification possible; et qui devraient répondre à la définition :
Le sens d'un signe, c'est son mode d'emploi.
Or, cette pirouette, toute dialectique masque très temporairement le fait que l'auteur recourt à une définition constituée de termes signifiants, alors que le but serait de s'en dégager pour basculer d'une sémantique imprégnée de métaphysique à une syntaxe formelle. Mais il faut pour cela affirmer que le signe est uniquement une opération. La définition du mode d'emploi requiert une sémantique de ses propres termes, puisque pour distinguer des signes opérants entre eux, chacun doit avoir une valeur distincte établie par une définition qui décrit sa signification syntaxique.
Là est la seconde difficulté qui tient au constat de l'échec de ce projet de construction d'un système syntaxique général éliminant toute sémantique, car la syntaxe n'existe pas sans définition des termes qui sont ses opérations. Toute syntaxe est en même temps une série de définitions des signes-mode d'emploi. Sémantique et syntaxe sont deux manières d'étudier un langage, mais elles ne sont pas dissociables dans le langage.
C'est pourquoi le contenu du signe tente de réunir l'expression de sa propre règle syntaxique et de sa définition sémantique dès lors que le signe a une fonction axiomatique. Apparait alors la troisième difficulté qui tient à l'interdépendance des signes liés qui interfèrent dans leur valeur opérante, soit le jeu de leurs significations équivoques selon le contexte des autres signes. Cette complexité est constitutive de l'exigence d'une syntaxe qui vient composer et surdéterminer des signes par une succession de règles syntaxiques qui usent de termes signifiants : leurs définitions sémantiques. Ici, les premiers termes de l'arithmétique et de la logique répondent-ils à l'exigence de la complétude totale qui ferait l'autonomie du signe dans son contenu ? Non, puisque ces premiers signes : chiffres et opérations constituent des variables liées au même titre que les premiers signes et opérateurs de la logique formelle. Ces liaisons attestent de la surdétermination croisée. Aucun signe pris isolément ne répond à l'exigence de complétude.
Ainsi, ni les signes ni des propositions élémentaires ne peuvent prétendre à leur complétude du fait de leur liaison dont les interdépendances montrent qu'ils ne sont pas des signes consistants et univoques, mais des composés qui prennent leur sens par relation dans des compositions langagières ou propositionnelles logiques ou mathématiques. La syntaxe ne peut faire longtemps l'économie de la sémantique, puisqu'elles font conjointement langage.
ENSEIGNEMENTS[modifier]
R. Carnap conclut à l'échec de cette entreprise, parce que les mathématiques exigent une suite infinie de langues toujours plus riches. Et à cela, l'effet du théorème d'incomplétude qui enseigne qu'aucun système ne peut contenir la totalité des concepts mathématiques et les démonstrations de toutes les propositions logiques. Un seul langage ne suffit pas. Le langage ne se fonde pas lui-même dans des premiers principes où les axiomes qui en seraient issus engendreraient le mouvement d'une pensée réflexive qui permettrait de rebondir sur ces axiomes dont les développements assureraient de la production d'un système cohérent donc suffisant.
L'entreprise de R. Carnap a l'avantage de montrer que l'univocité est un préjugé aux conséquences aporétiques. La langue appelle d'autres langues comme un premier système fait de sémantique et de syntaxe ne se complète que d'autres termes au-delà de lui-même; et ce, en un autre langage, soit peut être bien dans un autre ordre logique, voire ontologique. Le signe a un sens, même s'il s'agit de décrire une opération. La question de la signification demeure là, et nous devons surtout à R. Carnap de confirmer le principe de raison suffisante de G.W. Leibniz où cette dernière se doit de ne pas être confondue à la série des raisons de premier ordre. La prégnance de la sémantique introduit le questionnement ontologique dont A. Tarski s'empare à la même époque.
Le principe d'incertitude de Werner Karl Heisenberg[modifier]
W. K. Heisenberg, physicien et mathématicien a mis un terme aux principes qui présidaient à la théorie mécaniste newtonienne.
En pleine crise de la représentation de l'atome du fait des incertitudes quant à sa nature de corpuscule ou d'onde, il a avant tout rendu manifeste l'incertitude méthodologique dans laquelle nous étions, du fait de l'intervention de l'observateur dans l'observation, mais surtout du fait des instruments utilisés, soit ces paradoxes et limites de l'instrument de modélisation : les mathématiques.
Ce principe de la physique, aporie des mathématiques
EXPOSE[modifier]
Les travaux de M. Planck, A. Einstein et L. de Broglie montrent que la nature quantique de la matière entraîne l'équivalence entre des propriétés ondulatoires (fréquence et vecteur d'onde) et des propriétés corpusculaires (énergie et impulsion). Cette apparente dualité entre corpuscule et onde pose le problème de la définition simultanée de la fréquence et vecteur d'onde d'un objet qui doit avoir aussi une certaine extension en espace et en temps.
Le principe d'indétermination-incertitude énonce de façon contre-intuitive du point de vue de la mécanique classique, que pour une particule massive donnée, on ne peut connaître simultanément sa position (corpuscule) et sa vitesse (onde).
J.R. Oppenheimer l'exprime dans La science et le bon sens :
Rien ne permet de supposer que position et vitesse sont des attributs d'un système atomique, dont les uns sont connus, et les autres peuvent l'être. On est obligé de reconnaître que toute tentative de détermination des seconds ferait perdre la connaissance des premiers, que l'on peut suivre pour observer l'atome ou le soumettre à l'expérience. Nous somme sen présence d'un état de la chose entièrement défini par la nature de l'observation et de son résultat. La première déterminant les propriétés du système qui seront bien définies et celles qui le seront médiocrement, le second mesurant ensuite les quantités bien définies.
La science et le bon sens - Edition Gallimard - Trad. A. Colnat - page 106
EXAMEN[modifier]
Le principe d'indétermination-incertitude établit donc qu'il est impossible de mesurer simultanément, non point seulement du fait des conditions d'expérience et de l'influence de l'observateur sur ce qu'il observe avec ses instruments; mais bien plus radicalement du fait de l'incalculabilité simultanée des variables liées dont l'interdépendance est la raison même de l'indétermination.
Il faut alors interroger les notions de position et de vitesse qui sont contradictoires dans une étendue indéterminée parce que pure quantité quantifiable. En effet, la position et la vitesse sont des notions qui résultent d'un jugement de conscience, soit la manifestation d'une relation conjoncturelle d'un agent à sa perception d'objets et événements. La position dans une étendue indéterminée prend une valeur algébrique du fait d'une signification et d'un ordonnancement d'axes cardinaux qui n'ont rien de quantificateurs, mais tout d'une appropriation qualitative et d'une structuration d'une étendue. Dans cette étendue indéterminée, aucune position ne saurait se distinguer sans le soutien de ces directions qui sont, non des pures grandeurs, mais des sens qui déterminent et induisent la différenciation et la distinction, donc la position. L'agent oublie qu'il est acteur de cette détermination arbitraire de la position origine et des axes qui sont le fruit d'une convention, alors que tout point peut être simultanément origine et distancié à l'origine et ce à l'infini parce que la quantité pure ne détermine rien.
L'indétermination révèle une aporie plus fondamentale présente dans l'instrument algébrique lui-même. Aucun des premiers signes de l'algèbre n'est autonome, c'est-à-dire autodéterminé. Comment les premiers chiffres se positionnent-ils relativement les uns aux autres ? Quand le "0" est la position originelle d'un espace ou le premier signe de la suite numérique, le "1" est tout à la fois une autre position analogue en tout point comparable à la première et un terme qui acte d'une distance qui détermine l'unité de base. Elle est alors contradictoirement l'ensemble qui rassemble la somme des points qui font cette première distance et une position distincte et analogue à la première. Ainsi, chaque chiffre ou nombre est à la fois une position analogue aux précédentes et une valeur de distance ou de dénombrement, soit un ensemble.
Cette double fonction, position analogue à l'origine et distance à l'origine induit que le signe algébrique est simultanément et contradictoirement la manifestation d'une étendue et la description d'une position. La recherche d'une position revient à faire de chaque position le point origine sans valeur algébrique et à extrapoler une valeur algébrique différente du fait de la distance à un point origine distinct et repère.
ENSEIGNEMENTS[modifier]
L'indétermination est la manifestation de cette aporie initiale. Ce sont les premiers termes de l'arithmétique qui ne résistent pas à cet examen C'est la pratique de la mesure ou quantification qui révèle son indécidabilité quant à la signification aporétique des premiers termes.
Au-delà de ce premier enseignement, le principe d'indétermination souligne l'hétéronomie des signes qui sont des variables liées dont la signification tient toujours d'un système de relations où chaque définition requiert celles des autres termes. Au-delà donc de cette incertitude, apparaît l'incomplétude originelle des termes qui ne peuvent en aucun cas constituer des axiomes à l'évidence manifeste.
- ---
A partir de : Penser au-delà des mathématiques - pages 66 à 68, 89 à 94 et 167
Le théorème d'incomplétude de Kurt Gödel[modifier]
K. Gödel est le penseur du XXe siècle qui a fait basculer l'univers des croyances de la pensée Occidentale.
Le théorème d'incomplétude répond à la question posée dans le programme de David Hilbert en 1930 où il s'agit de démontrer la non-contradiction de l'arithmétique, prolongeant ainsi les travaux de Richard Dedekind et Georg Cantor pour lesquels la cohérence, voire l'existence d'un objet mathématique équivaut à la non-contradiction des conditions qui le définissent, soit sa complétude.
Ce théorème, révolution de la pensée Occidentale
EXPOSE[modifier]
K. Gödel expose son théorème d'incomplétude en 1931 dans son célèbre article Sur les propositions formellement indécidables des Principa Mathematica et des systèmes apparentés. Il répond au second problème de la liste de ceux exposés par David Hilbert lors du deuxième congrès international des mathématiciens de Paris en 1900 qui cherche à établir la consistance de l'arithmétique, soit la non-contradiction des axiomes de l'arithmétique élémentaire des entiers naturels.
Il s'agit de démontrer que l'arithmétique est un langage qui constitue un ensemble décidable de propositions. Par sa démonstration, il apparaît que l'affirmation de cette totale autonomie de la raison est infondée, puisque l'incomplétude est un fait démontrable. Faisant la démonstration que la théorie ne se suffit pas à elle-même, il démontre l'indécidabilité de certains énoncés dont s'ensuit l'incomplétude de la théorie qui ne peut se fonder récursivement.
Très précisément, son théorème porte sur l'incomplétude syntaxique de l'arithmétique. Il s'intéresse au système formel syntaxiquement complet. Il y montre l'incomplétude déductive de l'arithmétique élémentaire. Ceci signifie que l'énumération récursive de propositions vraies de l'arithmétique élémentaire est impossible.
EXAMEN[modifier]
K. Gödel atteste qu'aucune théorie ne se suffit à elle-même parce qu'elle contient nécessairement des énoncés indécidables, indépendants de cette théorie. La cohérence d'une théorie s'exprime en fait en dehors d'elle car elle requiert des énoncés qui ne sont pas démontrables en son sein. La complétude logique nécessite toujours des énoncés d'un second ordre.
A contrario, K. Gödel ne nie pas la complétude. Elle est une exigence rationnelle dont la réalisation ne saurait advenir dans un système autoréférent qui ne peut en aucun cas satisfaire à l'exigence de la décidabilité des propositions qui le composent. En cela le théorème d'incomplétude prolonge le paradoxe d'Epiménide qui enseigne qu'un système de propositions se référant à lui-même est indécidable.
En ce sens, K. Gödel rejoint G.W. Leibniz dans son exposé de la raison suffisante. Celle-ci s'élève au lieu de décliner dans la logique formelle. L'incomplétude leibnizienne exprime cette nécessité rationnelle de rendre raison de la rationalité. Alors, la raison suffisante précède toutes les autres raisons, non pas logiquement ou chronologiquement, mais ontologiquement. Cette raison qui se suffit à elle-même ne se confond pas avec les raisonnements d'un premier système. Elle appartient nécessairement à un autre ordre qui dépasse le précédent et lui confère sa décidabilité en transférant le paradoxe de l'autoréférence dans un jugement et des propositions d'un nouvel ordre qui appartient à un second système d'une autre nature que le précédent, puisqu'il ne saurait se confondre à lui.
Au-delà de la logique qui seule ne peut se donner de signification, K. Gödel reprend donc l'œuvre de G.W. Leibniz où se démontre que la complétude se réalise au-delà par un exercice qui évite la récursion et la circularité aliénante d'un système propositionnel autonome, mais alors indécidable.
ENSEIGNEMENTS[modifier]
K. Gödel manifeste cette révolution de la pensée Occidentale qui met un terme à la quête d'une pensée systématique qui serait autonome parce qu'auto-suffisante. Si aucun système de signes ne peut parvenir sans contradiction à sa complétude, cette dernière n'en demeure pas moins une aspiration qui introduit l'hétéronomie et l'herméneutique.
L'hétéronomie, parce que les signes sont toujours interdépendants et acteurs d'une surdétermination des uns sur les autres; l'herméneutique, parce tout système de signe requiert une sémantique et une syntaxe équivoque, puisqu'aucun premier signe ni aucune proposition présentée comme axiomatique ne sauraient se suffire à eux-mêmes ou s'imposer d'évidence sans faire taire arbitrairement des interprétations, soit l'équivocité consécutive de l'indécidabilité.
Le principe d'individuation : Saint Jean Duns Scot[modifier]
Franciscain, né au milieu du XIIIe siècle, mort en 1308. Il s'oppose à la pensée du dominicain Thomas d'Aquin et élabore une doctrine qui lui vaut le surnom de Docteur Subtil caractérisée par deux notions. Une doctrine originale de l'univocité et le concept d'individuation qui ouvre vers sa métaphysique de la singularité.
La question de l'individuation demeure d'une très grande actualité puisqu'elle cherche à établir une continuité entre les lois et les modèles ou les formes et les existences singulières des êtres dans leur matérialité et leur présence mondaine.
PRESENTATION[modifier]
Les outils conceptuels en usage à son époque sont ceux hérités de la tradition aristotélicienne dont Thomas d'Aquin avait tenté précédemment de faire la synthèse avec l'héritage de la tradition évangélique.
Les êtres sont composés de matière et de forme constitue le cadre fondateur de la pensée aristotélicienne qui guide les réflexions des théologiens médiévaux. Or, le questionnement de Duns Scot vise à élucider une difficulté inhérente à cette distinction entre la matière indéterminée et la forme universelle qui s'unissent dans des êtres particuliers.
Faut-il considérer ces êtres comme le résultat d'une contingence et leurs spécificités comme autant d'imperfections de la réalisation du modèle logé dans la matière ? Une telle hypothèse induit toutes les considérations de l'école platonicienne jusqu'à Plotin et son influence sur les penseurs chrétiens. Le célèbre Traité des deux matières des Ennéades de Plotin atteste de ces tentatives d'expliquer et de concilier la théorie des idées et des formes à celle de la matière où les êtres particuliers peuvent alternativement être jugés comme les ombres contingentes des idées jusqu'à contester leur réalité, ou bien comme des réalités d'expériences si indubitables que les idées ne sont que des fictions abstractives, celles-ci étant obtenues par l'expression de ces définitions d'ensemble qui réunissent des êtres particuliers. Deux mondes, intelligible et sensible sont à réconcilier.
Cette alternative ouvre un débat dans lequel, tantôt l'idée s'impose en déniant à la matière d'être, tantôt l'être particulier, et avec lui la matière, en déniant à l'idée d'être. Dans un cas l'être est au-delà du monde visible; dans un autre, rien d'invisible ne saurait expliquer les réalités physiques. Soit les apparentes réalités diverses le sont par accident, soit ces mêmes réalités sont des certitudes d'expérience qui ne reproduisent ni ne visent une forme idéale qui leur préexisterait.
Et ce débat nourrit indéfiniment les querelles entre les écoles matérialiste, nominaliste, empiriste, rationaliste et idéaliste.
Le principe d'individuation exprime donc une position subtile, un point d'équilibre où l'être et les êtres sont préservés. L'heccéité détermine la matière et la forme positivement dans l'individu (1). L'individuation est cette réalité d'être qui se présente hic et nunc dans toute sa singularité d'être et sa propre perfection; et non dans la démultiplication contingente et imparfaite de l'idée en des exemplaires dont la nécessité resterait à démontrer. L'homme n'est pas une unité idéale dont les représentants seraient des copies contingentes, mais il est unique et tend vers sa propre perfection; et ceci pour chacun pris pour lui-même.
Ce principe s'appuie sur l'univocité de l'être selon lequel, à chaque nature d'être lui correspond une unité propre et bien réelle. Toute la subtilité consiste à préserver la certitude de la réalité des choses qui les font être individuellement tout en les unissant les unes aux autres par leur relation. Là, la théologie scotiste concilie l'unité des êtres et l'existence de l'Etre. Elle affirme tout à la fois la distinction et la relation sans lesquelles ce point d'équilibre ne saurait perdurer.
QUESTIONS[modifier]
Toute la subtilité, voire la fragilité des raisonnements scotistes tient à cet équilibre instable qui compose avec ce matériau conceptuel aristotélicien, très différent de l'autre source d'inspiration qui fonde autant la quête thomiste que scotiste de réconcilier matière et forme dans la réalité d'expérience dont la certitude n'est pas contestable, tant pour le dominicain que pour le franciscain : l'Evangile.
Deux questions méritent ici d'être éclairées :
- Que posent les concepts de l'idée-forme et de la matière-informe ?
- Quelles sont les sources du jugement de vérité chez Duns Scot ?
Question 1 : Que posent les concepts de l'idée-forme et de la matière-informe ?
A la suite de Thomas d'Aquin, Duns Scot manipule le matériau conceptuel aristotélicien pour s'en délier et exprimer les vérités primordiales d'inspiration chrétienne. Les concepts antiques résultent d'une analyse qui mène à une séparation logique des deux mondes où l'un ne peut subsister selon les termes de l'autre, d'où cette alternative dialectique insoluble aux contradictions inhérentes à chacune des écoles de pensée qui s'abandonnent à raisonner dans le cadre restrictif de ces deux concepts antithétiques d'idée et de matière.
Ces deux concepts résultent de cette atomisation logique où chaque terme trouve sa pleine cohérence dans la consistance et la complétude du développement qui l'exprime; or, le chrétien ne peut se résoudre à accepter la dialectique qui s'ensuit.
Duns Scot n'admet pas que l'être singulier puisse résulter, soit d'une imperfection de l'idée, soit d'un ordonnancement empirique de la matière sans modèle ni finalité selon les hasards démocritéens. Ni l'idéalisme platonicien, ni le matérialisme de Démocrite ne sont compatibles avec la vérité d'inspiration chrétienne. Ainsi, le point d'équilibre scotiste n'est pas un compromis entre les termes de la dialectique : idée - matière. L'individuation n'apparait pas par accident, elle n'est pas contingente. Par avance, Duns Scot répond au rationalisme de Descartes puis de Leibniz pour lesquels, l'unité prévalant sur la pluralité accidentelle, deux êtres dissemblables le sont a minima en vertu de leur position selon le principe de l'identité des indiscernables. L'individuation résulte d'une création originale, de cette heccéité positive qui fait que chaque être est unique, d'où la primauté de l'univocité de l'être qui n'a pas sa source dans la philosophie antique (2).
Question 2 : Quelles sont les sources du jugement de vérité chez Duns Scot ?
L'entité positive d'individuation ne s'induit pas des concepts aristotéliciens. Le rapport entre l'Un et le multiple conduit à la procession des hypostases de l'Un dans la tradition plotinienne et gnostique, où le multiple procède d'une chute. A l'inverse, l'agrégation atomique hasardeuse des démocritéens élimine les formes et les finalités sans perspectives ontologiques. Quant à Aristote, il tient un point d'équilibre du fait des catégories qui font la jonction entre logique et ontologie.
Mais la certitude de l'univocité des êtres singuliers trouve sa légitimité en dehors de cet exercice philosophique. La preuve ultime de l'univocité et de l'individuation tient à l'existence en acte de celui qui vient témoigner que l'être est parmi les êtres, par son incursion dans l'histoire. Cette certitude est celle de l'Incarnation (3). Elle atteste de l'existence des êtres singuliers du fait de la présence au milieu de ces êtres, de Celui qui est comme eux, mais Dieu. L'individuation est d'abord une conséquence de cette Révélation où l'homme se découvre dans son unicité à la condition de se reconnaître dans l'Incarné qui vient lui annoncer, par son existence, que chaque homme est un être singulier et unique.
Il est souhaitable de ne pas délier les raisonnements philosophiques de leur origine théologique dont les jugements de vérité proviennent de la compréhension de l'Incarnation. Hors de cet arrière-plan, la pensée scotiste risque de s'infléchir pour un lecteur qui ferait abusivement prévaloir le seul raisonnement, indépendamment de cette inspiration fondatrice. Le principe de réalité, cher aux franciscains, inclut cette acceptation de la vérité de l'Incarnation parce qu'elle est un fait d'expérience pour les contemporains de Jésus.
De ce fait, le jugement de vérité ne se construit pas selon les règles rationnelles de la seule logique, mais à partir de cet acte de foi raisonné qui reconnait le fait de l'Incarnation portée par la parole évangélique. Là est la source de l'univocité.
PERSPECTIVES[modifier]
L'individuation ouvre deux perspectives qui invitent à interroger les certitudes posées par la pensée moderne et contemporaine Occidentale. La première est celle de l'interdépendance de l'acte de foi et de l'acte de raison; la seconde est celle de l'incalculabilité des êtres soit l'irréductibilité du monde aux mathématiques.
Première perspective. L'individuation procède d'un enseignement qui échappe à l'œuvre de la seule raison et d'une méthode réflexive. Elle interpelle toute pensée rationnelle autonome qui appliquerait une méthode égologique : introspection, phénoménologie ou logique dont l'analycité détourne nécessairement du monde au profit d'un unique exercice de la pensée rationnelle en quête de son autodétermination par l'expression d'une axiomatique analytique. L'affirmation de l'individuation ouvre l'horizon d'une hétéronomie primordiale qui suppose l'accueil d'un enseignement qui préexiste radicalement à l'être individué lui-même. Duns Scot induit l'individuation de l'Incarnation signifie que le raisonnement philosophique s'exerce dans un continuum où la raison agit dans la foi qui lui est antérieure.
Or, cette perspective de la foi initiale, fondatrice et inspiratrice est une figure à laquelle n'ont pas échappé les philosophes contemporains puisque B. Russell, A.N. Whitehead, L. Wittgenstein, N. Wiener mais aussi K. Gödel et plus encore A. Tarski ont tous indiqué cette ultime nécessité de fonder la raison dans un "acte de foi en". La figure du raisonnement permettant de poser l'être singulier, quel qu'il fut : unités symboliques, logique ou arithmétique ou unités ontologiques, être ou matière ne saurait se réaliser sans cette émergence de la conscience d'être et de poser des êtres.
La raison et la foi seraient interdépendantes, comme dans ce miracle médiéval où existe cette conjonction entre une foi en l'Etre et en l'homme, d'une certitude de la continuité de l'expérience à la connaissance dont les moyens diffèrent mais se complètent parce que parties positives d'une œuvre d'élévation.
Deuxième perspective. La distinction positive des êtres induit que jamais aucun calcul ne rendra compte d'une création qui advient dans l'unicité des êtres. Elle exprime une infinité de critères et une infinité de variables pour celle infinité de critères. Cette abondance créative échappe à tout dénombrement. Il n'y a pas de calcul de la singularité. L'infinité des êtres est l'expression d'une création continuée qui ajoute de la création.
La radicalité de l'individuation pose en fait l'inégalité du monde en acte dans le temps. Cette asymétrie temporelle résulte de cette création d'êtres accomplissant des œuvres positives, nouvelles et irréductibles à des égalités successives et continues. Le monde n'est pas mathématisable, sauf à nier l'irréductibilité de l'individuation.
Or, l'interprétation de l'individuation pourrait conduire à l'apologie de l'autonomie des êtres et des entités logiques, dès lors que le lecteur omettrait la théorie de la relation et la source théologique qui la fonde. C'est ce qu'accomplirent les nominalistes et G. d'Occam.
________
(1) Duns Scot : Nous éprouvons en nous-mêmes, que nous pouvons concevoir l'être sans le concevoir comme telle substance ou tel accident que voici, car on ne sait pas quand on conçoit l'être, s'il s'agit d'un être en soi ou dans un autre. Nous concevons donc d'abord quelque chose d'indifférent aux deux, et nous trouvons ensuite que l'un et l'autre sont immédiatement inclus dans un terme tel que le premier concept, celui d'être y est compris. (In Questions de métaphysique)
(2) Duns Scot : Il est impossible que la substance soit individuée par un quelconque accident, c'est-à-dire qu'elle soit divisée en parties subjectives par quelque chose qui lui viendrait du dehors, et par qui elle serait celle-ci" et ne pourrait pas être "celle-là"." (In Principe d'individuation)
(3) Duns Scot : De toutes les entités principalissimes, c'est l'individu qui répond le plus à l'intention de Dieu. (In Principe d'individuation)
Le principe de parcimonie - Guillaume d'Occam[modifier]
Franciscain, né au début du XIVe siècle qui étudia à Oxford où il enseigna jusqu'en 1324 en qualité de bachelier. Il énonce le principe d'économie de la pensée déjà employé par Pierre d'Auriole, dit rasoir d'Occam, à l'origine de la logique des modernes et du nominalisme :
"Pluritas non est ponenda sine necessitate"
Il ne faut pas poser de pluralité sans nécessité conduit G. d'Occam à couper court à la démonstration de l'existence des universaux qui n'est pas nécessaire.
La logique tend alors à dénier au langage sa portée ontologique.
PRESENTATION[modifier]
La logique prend le pouvoir puisque les problèmes ontologiques doivent se résoudre en termes logiques par la formalisation des pensées et des énoncés sans préjuger des choses et du réel au-delà d'une expérience sensible.
Avec G. d'Occam, la logique devient l'unique instrument de la raison. Il distingue alors trois degrés de l'expression de la pensée. In scripto, les signes de l'écriture; in voce, les sons proférés; in mente, dans le mouvement de la parole intérieure. Il introduit une distinction capitale entre la significatio qui lie un mot à la chose qu'il nomme et la suppositio ou acception du terme pour la chose. Le mot est signe qui tient une place dans la proposition.
Il précise alors que cette suppositio peut être materialis, parce que la voix produit un son qui s'entend. Elle peut être personalis, parce qu'elle nomme un objet particulier. Elle peut être simplex, parce qu'elle représente un attribut commun à des objets. Et cette dernière possibilité produit la science abstractive qui s'applique à l'objet représenté, non à l'objet existant réellement. Par conséquent, la connaissance porte strictement sur des objets singuliers accessibles à une connaissance dérivée des sens. A l'inverse, les attributs universaux ou suppositio simplex sont des fictions de l'intellect. Il conclut dans son Expositio aurea :
Ce qui est affirmé en tant que prédicat de plusieurs êtres spécifiquement différents n'est pas quelque chose qui appartienne à leur être : c'est une simple intention de l'âme.
Les catégories, les genres sont des ensembles sans que leur existence réelle ne soit nécessaire.
En conclusion, G. d'Occam affirme que le monde qui est donné au sens est suffisant et les lois sont en lui, non au-delà ou en dehors. En cela, il s'oppose à l'ontologie puisqu'il en induit qu'il ne peut y avoir un esse essentiae qui serait à distinguer de l'esse existentiae.
Il parachève une œuvre commencée dès le début du XIIe siècle où apparait cette attention à la logique du langage, à la grammaire spéculative et à la science de la signification des mots qui préfigurent les logiques, syntaxes et sémantiques ultérieures; avec cette même ambition que les logiciens analytiques du XXe siècle; soit de créer la science des modes de compréhension et des modes de réalités, voie de cette logique première des autres sciences. Il contribue ainsi au règne de la logique.
QUESTIONS[modifier]
Le principe de parcimonie s'entend pour ce qu'il se donne comme portée ontologique et pour ce qu'il ordonne la pensée symbolique. De cela deux questions.
- Question 1 : Quelle portée ontologique accorder à ce raisonnement ?
- Question 2 : Quelle est sa valeur logique ?
Question 1 : Quelle portée ontologique accorder à ce raisonnement ?
Le premier sens de l'exposé du principe tient à l'interprétation de sa signification, soit la compréhension qu'il faut lui accorder. Sous ce premier angle, la pluralité est à comprendre dans sa signification qualitative, soit celle du suppositio matériel, personnel et simple dont le dernier est bien celui des prédicats ou attributs universaux. G. d'Occam entend là faire l'économie d'une pensée ontologique jugée superflue.
L. Wittgenstein reprend dans sont Tractacus Logico Philosophicus les conclusions de ce principe de parcimonie :
3.328 Si un signe ne sert à rien, il est dépourvu de signification. Tel est le sens de la formule d'Occam.
Il prolonge quant à la portée de ce principe :
5.47321 Le rasoir" d'Occam n'est naturellement pas une règle arbitraire, ou une règle justifiée par son succès pratique : elle dit que des unités de signes non-nécessaires ne signifient rien."
Or, cette économie de la signification ontologique nécessite une contre-partie, celle de démontrer la contingence de cette ouverture ontologique. A cet égard, la parcimonie consiste à réfuter l'existence des attributs universaux et plus encore du sujets des noms attributifs qui sont autant d'attributs divins dont la perfection.
Cette économie de la signification subordonne alors la pluralité qualitative à la stricte nécessité qui détermine ce qui est suffisant en raison. Or, aucun système ne peut se suffire à lui-même et contenir sa complète signification. L'incomplétude atteste en fait de la nécessité inverse de celle du principe de parcimonie, tel que compris par les logiciens dont L. Wittgenstein.
_
Question 2 : Quelle est sa valeur logique ?
Le deuxième sens de l'exposé du principe tient à l'interprétation de sa valeur logique, soi son extension avec une acception cette fois quantitative de la pluralité. Sous ce deuxième angle, la parcimonie induit une économie de moyens, soit une simplification qui élimine les raisonnements et les signes inutiles. Cette perception de la simplicité, pour être rationnelle, se doit d'être quantifiable. Alors, la pluralité est elle-même contradictoire avec la nécessité de simplicité pour laquelle l'unité est préférable.
Ici, même si l'expérience sensible n'apprend rien quant à la nécessité de la simplicité en défaveur de la pluralité, voire de la surabondance, G. d'Occam induit que conventionnellement, dans les signes qui représentent les choses, ces représentations doivent viser une économie de signes, voire de raisonnements.
Or, cette convention induit des signes inutiles qu'ils sont sans signification. Un tel principe logique dont R. Carnap saura s'inspirer dans son néo-positivisme, ne tient qu'à la condition de nier la complexité croissante des organisations langagières qui produisent et révèlent pourtant des dimensions qui vont du particulier à l'universel.
Et très paradoxalement, la parcimonie ou la simplicité sont des suppositio simplex, c'est-à-dire des termes résultant d'une connaissance abstractive. Et, celui-ci plus que d'autres, s'imposerait comme l'ordonnateur de la langue qui produit néanmoins d'autres termes de même nature, contradictoires s'il en est : complexité par exemple, et que G. d'Occam ne retient pas comme étant grand ordonnateur de la langue. Pourquoi accorder à la nécessité simplificatrice une telle autorité ?
PERSPECTIVES[modifier]
Deux perspectives soulignent toutes les limites du raisonnement de G. d'Occam. L'examen formel du principe selon les règles édictées par le franciscain lui-même qui révèle l'aporie de la parcimonie.
L'étude sémantique de la nécessité qui manifeste le paradoxe d'une nécessité irraisonnée ou l'inconsistance de la séparation des objets.
L'examen formel commence par le constat que les termes du principe sont des notions abstractives, qui selon la pensée même de l'auteur, ne sont pas des réalités, mais ces fictions qui sont des "intentions de l'âme". La nécessité, la pluralité comme l'opérateur logique décisif de son raisonnement qu'est la négation ne sont pas dans les choses, mais bien des abstractions qui opèrent formellement sans relation avec les objets d'expériences. La négation, tout particulièrement, est un opérateur logique qui conduit au renoncement, à la privation, au constat de l'absence d'objets qui lui préexistent. La négation ne saurait agir sans objet auquel elle s'applique. Avoir usage de la négation est donc contraire à l'affirmation selon laquelle les choses seules ont une réalité.
La nécessité est plus encore une notion d'ordre dès plus abstraite qui n'est en rien dans les choses. Préjuger de l'ordre des choses, c'est établir qu'elles sont en relation les unes aux autres selon un ordre nécessaire, ce qui est une fiction au sens de G. d'Occam. Ainsi, le principe expose des termes ontologiques dans leurs significations et conclut à limiter le discours à une description économe des seules choses existantes. L'aporie est manifeste entre les termes et la conclusion; et ce d'autant que le principe s'appliquerait abusivement aux choses.
D'où l'intérêt de mener l'étude sémantique de la nécessité qui induit que les choses sont en relation. Or, la relation est-elle-même une fiction puisqu'elle n'est pas dans les choses. Elle n'a pas de réalité et elle ne saurait agir sur les objets qu'elle relie. Le retournement tient à la théorie de la relation qui révèle le paradoxe de la pensée d'Occam.
Si la relation est fiction, alors les objets sont séparés et inaccessibles les uns aux autres. La relation, et la perception en est une, sont des fictions qui annoncent l'illusion de la représentation et l'incertitude de la réalité des choses du fait de leur totale séparation.
En cela, la parcimonie semble ne pas pouvoir échapper à l’affirmation de l'inutilité de la création elle-même, puisque l'Un, le Nécessaire ou Dieu n'ont pas besoin d'une création contingente et plurielle, sauf à considérer que celle-ci leur serait nécessaire, ce qui impliquerait l'incomplétude, soit l'imperfection de l'Un, du Nécessaire ou de Dieu.
Si la Nécessité n'a pas besoin de la pluralité, le monde est tout entier superflu, voire illusoire. La séparation des mondes légitime alors ses positions politiques et son affirmation de l'autonomie de l'Etat.
Roger Bacon[modifier]
Né vers 1214, étudiant à Oxford dans les années 1230, élève de Robert Grosseteste, franciscain, il enseigne à Paris de 1236 à 1247. De retour à Oxford en 1252, il semble y enseigner jusqu'en 1257.
Il incarne toutes les tensions des docteurs franciscains qui cherchent à concilier la spiritualité et les exigences d'un enseignement tout à la fois rationnel et doctrinal. Son maître Robert Grosseteste s'efforça de composer entre ses exigences humanistes et théocentrique des maîtres franciscains.
R. Bacon établit une méthode expérimentale, l'observation rigoureuse productrice des données de fait, relayée du langage mathématique qui élabore et démontre. Si toute science requiert les mathématiques, c'est que ces dernières sont les seules à élaborer de vraies démonstrations dont les raisonnements logiques sont indiscutables.
Ainsi, la science expérimentale renforcée de la discipline des mathématiques dispose de règles et méthodes de démonstration. R. Bacon accorde à l'expérience ce primat qui établit des vérités éclairées du raisonnement mathématique dont les conclusions font alors autorité. Cette autorité ne tient donc pas de la Révélation et de la Foi, mais bien de l'expérience et des mathématiques. L'autorité ne suffit donc pas sans le raisonnement étayé de l'expérience :
Ut quiescat animus in intuitu, nisi eam inveniat via experitientiae.
(Opus Majus)
R. Bacon est à cet égard un critique de la scolastique alors à son apogée, et sa position annonce les postures philosophiques de la Renaissance humaniste où la Raison primera sur la Foi.
Parallèlement à cette émergence de la culture mathématique, le Doctor Mirabilis exprime toute l'importance des sciences de l'interprétation et des langues qui sont les premières conditions du savoir : le grec, le latin, l'hébreu utiles à la restitution des textes sacrés.