CNRS
Suivez-nous sur

Rechercher





Accueil > Séminaires > Séminaire Définitions et axiomes

Séminaire Définitions et axiomes

Séminaire « Définitions et axiomes »



Le groupe de recherche a pour objectif d’étudier l’histoire des systèmes de principes en mathématiques et leurs épistémologies sous-jacentes. Nous travaillons au développement des systèmes d’axiomes en arithmétique et en géométrie de l’Antiquité à l’Age classique, sur l’évolution du sens des principes au fil des siècles, à l’évolution des relations entre définitions et axiomes.
Les autres thèmes abordés sont la transformation historique des critères pour formuler et accepter une définition ou un axiome, et la transformation des définitions et des axiomes eux-mêmes avec l’élargissement progressif de la méthode axiomatique à d’autres disciplines.
Les auteurs concernés vont d’Euclide et d’Archimède aux premiers mathématiciens modernes tels que Leibniz et Lambert, aux auteurs de nouvelles axiomatisations de la géométrie projective, de l’algèbre et de la topologie (pour ne citer que quelques disciplines) et aux grandes révolutions épistémologiques de la méthode axiomatique par Pasch, Frege ou Hilbert.
Nous discuterons également de quelques développements du 20e siècle et de l’épistémologie des principes dans le débat philosophique et mathématique actuel.

Coordination : Vincenzo de Risi (CNRS, SPHERE), Paola Cantù (Centre G.-G. Granger)


  • Séance du 6 novembre 2018 : de 16h à 18h, Université Paris Diderot, salle 371 Klein* : cliquez ici

  • Séance du 11 avril 2019 - 13h30 à 16h30 - Aix-en-Provence. Faculté de lettres. Bibliothèque du Centre Granger. Maison de la recherche 2e étage.

Intervenants :

  • David Rabouin, 13h30-14h45 « Définitions et axiomes chez Leibniz »

À de nombreuses reprises, Leibniz a avancé que les démonstrations mathématiques pouvaient se résoudre en deux indémontrables : les définitions et les axiomes – eux-mêmes réductibles en dernière instance aux seuls « identiques » (demonstrationes ultimum resolvi in duo indemonstrabilia : Definitiones seu ideas, et propositiones primitivas, nempe identicas). En s’appuyant sur la célèbre démonstration de « 2 + 2 = 4 » dans les Nouveaux Essais sur l’entendement humain (IV, chap. 7, § 10 ; A VI, 6, 413-414), Frege a vu dans cette déclaration le premier témoignage d’une forme de logicisme. À l’aide de l’identité logique, définie par la substitution salva veritate, et de la définition du nombre deux comme « 1 +1 », on peut, en effet, dériver tous les énoncés arithmétiques par simple substitution. Ne restait plus dès lors qu’à consolider l’édifice en donnant une définition purement logique de l’unité (et avant l’unité, du nombre zéro). Cette lecture a joué un très grand rôle dans l’interprétation de Leibniz jusqu’à nos jours, y compris chez ceux qui contestent l’interprétation « logiciste » et se contentent souvent de rejeter en bloc le rôle de la réduction aux identiques. On objecte alors, comme le faisaient déjà Cassirer et Brunschvicg, que la réduction aux identiques est un idéal que Leibniz n’a jamais mis en pratique et qui n’a de valeur que fondationnelle. Dans cet exposé, je voudrais montrer que cette fracture classique du commentaire repose sur deux erreurs d’appréciations : d’un côté, les interprétations « logicistes » n’ont pas pris en compte le fait que les axiomes « identiques » s’énoncent en un pluriel que Leibniz n’a jamais cherché à résorber (j’expliquerai pourquoi) ; de l’autre, les interprétations plus centrées sur la pratique mathématique n’ont pas vu que la stratégie de réduction aux identiques est bien au cœur de la pratique mathématique de Leibniz. J’essayerai d’expliquer comment et pourquoi cette stratégie s’est mise en place, en montrant au passage la manière dont elle a conduit à une nouvelle vue sur les définitions mathématiques très proches de ce qui fut appelé bien plus tard « définitions par abstraction ».

  • Gabriella Crocco, 15h15-16h30 « Définition et raison : le rôle des définitions contextuelles dans la conception de rapports entre science et philosophie »

La notion de définition contextuelle joue un rôle clefs dans les débats épistémologiques de la philosophie des sciences du XIXe et XXe. Présentée par Quine dans Naturalized Epistémology (1967), comme le résultât de la réflexion de Jeremy Bentham, elle marque en réalité, selon J. Vuillemin l’acte de séparation entre réflexion philosophique et constitution de la science mathématique. Nous nous intéresserons en particulier à l’analyse de la définition eudoxienne de l’identité des rapports dans Euclide 5, livre V, laquelle joue dans l’ouvre de Vuillemin un rôle crucial, étant par lui interprétée comme la première irruption du formalisme dans les mathématiques.


  • Séance du 17 mars 2020 - 11h30 à 15h30 - ANNULÉ

IHPST - 13, rue de Four, 75006 Paris, 2ème étage, salle de conférences.

Journée d’études organisée par le groupe de travail « Axiomes et définitions »,
co-dirigé par Vincenzo de Risi (SPHERE), Paola Cantù (CGGG), Gabriella Crocco (CGGG) et Andy Arana (IHPST),
une collaboration entre SPHère, le CGGG d’Aix-Marseille, et l’IHPST.

Programme
11h30-13h Jeremy Avigad (Carnegie Mellon University) "Formal Methods and the Epistemology of Mathematics"
13h-14h pause déjeuner
14h-15h30 Ryota Akiyoshi (Waseda Institute for Advanced Study and Keio University) « Takeuti’s finitism in the context of the Kyoto school »

Résumés

- Jeremy Avigad (Carnegie Mellon University)
Formal Methods and the Epistemology of Mathematics

In the twentieth-century British-American analytic tradition, two types of questions dominated philosophy of mathematics : What is mathematical knowledge, and what justifies a claim to mathematical knowledge ? What sorts of things are mathematical objects, and how do we (or can we, or should we) come to have knowledge of them ? I will argue that there is a broader array of questions that are interesting and important questions for philosophy of mathematics, and that contemporary developments in logic and computer science offer new analytic tools to address them. I will also argue that, when the questions above are situated in this context, it becomes possible to address them in substantial and satisfying ways.

- Ryota Akiyoshi (Waseda Institute for Advanced Study and Keio University)
Takeuti’s finitism in the context of the Kyoto school

Gaisi Takeuti (1926-2017) is one of the most distinguished logicians in proof theory after Hilbert and Gentzen. He furthered the realization of Hilbert’s program by formulating Gentzen’s sequent calculus for higher-oder logics, conjecturing the cut-elimination theorem holds for it (Takeuti’s conjecture), and obtaining several stunning results in the 1950—60’s towards the solution of it. In this talk, we aim to describe a general outline of our project to investigate Takeuti’s philosophy of mathematics. In particular, we point out that there is a crucial difference between Takeuti’s program and Hilbert’s program, which is based on the fact that Takeuti’s philosophical thinking goes back to Nishida’s philosophy in Japan. Additionally, we try to address the issue how Nishida’s philosophy could shape Takeuti’s works in the foundations of mathematics.

This is joint work with Andrew Arana (Paris 1).