Partenaires

logo Sphere
CNRS
Logo Université Paris-Diderot Logo Université Paris1-Panthéon-Sorbonne


Search

On this website

On the whole CNRS Web


Home > Archives > Previous years: Workshops and Colloquie > Journées et colloques 2018-2019 > 3rd Franco-Mexican Advanced Seminar in the History and Philosophy of Science

3rd Franco-Mexican Advanced Seminar in the History and Philosophy of Science

June 19, 21, 21, Paris
Centre d’Etudes Mexicaines UNAM-FRANCIA,
15 rue de l’Ecole de médecine, 75006 Paris




For this third edition, the Scientific Committee of the meetings consists of representatives of all the institutions involved and contributing to the financing of the operation. The Organizing Committee is composed by Carlos Alvarez (UNAM), Caroline Angleraux (IHPST), Bruno Gnassounou (CAPHI), Vincent Jullien (CAPHI), Françoise Longy (Strasbourg II), Sébastien Maronne (Toulouse), Jorge Martinez (UAM), Marco Panza (IHPST), Gaëlle Pontarotti (Paris Diderot), David Rabouin (Paris Diderot) et Pierre Wagner
(IHPST).

Institutional partnership:
- Mexico : Universidad Nacional Autónoma de México (UNAM), Facultad de Ciencias;
Universidad Autónoma Metropolitana (UAM), Departamento de Filosofía.
- France, Universities: Paris 1 Panthéon-Sorbonne, IHPST, ED de Philosophie;
Paris-Diderot, SPHERE; Nantes, CAPHI, Centre François Viète d’Histoire et Philosophie des Sciences.


Introduction
Program
Abstracts
Download program & abstracts
Venue



INTRODUCTION

The Franco-Mexican meetings aim to organize regular exchanges between philosophers and historians of French and Mexican sciences, by involving the doctoral students as a priority. They are based on many previous collaborations, which included: ECOS-Nord [1] programs, thesis  [2] , two-way visiting professors [3], numerous invitations for conferences and the joint organization of symposiums and conferences. sessions in international congresses, doctoral students (especially PhD students from Mexico at IHPST [4] or Paris [5] ), joint publications [6] . The purpose of the meetings is to stimulate doctoral (including cotutelle) and post-doctoral stays and, where appropriate, the submission of joint research projects. It is also a matter of systematizing exchanges in history and philosophy of science that have so far been dispersed, both from the point of view of the themes and the institutions involved.

The advanced French-Mexican seminars in history and philosophy of science take place alternately in France and Mexico. The first meeting, in 2016, took place in France, in Paris, at both Paris 1 University and Paris 7 University. The second, in 2017, was held in Mexico, at UNAM . This year, in 2019, the meetings are held in Paris, at the premises of UNAM Francia in Paris. During these seminars, the papers are in French, Spanish or English. Discussions can be done in three languages.

    • [1] ECOS-Nord Program with Mexico led by Jean Dhombres (2000-2004) and Marco Panza (2004-2008), both involved in the meeting (see below). We have just obtained a new contract ECOS-North, 2019-2023, directed by Vincent Jullien.
      [2] Three of the Mexican members have made their thesis in France: J. Martinez Contreras (Un Paris 1, 1970), Max Fernandez de Castro (Un Paris 1), Carlos Alvarez (Un Amiens).
      [3] For example: Jorge Martínez Contreras (UAM, Pr., guest at Paris 1, 2003, sabbatical at IHPST, 2008);
      [4] Marco Panza (Un Paris 1, Pr. invited a year at UNAM, 1996), Carlos Alvarez (UNAM, Pr. invited to EHESS, 2002 and 2014), Vincent Jullien (Un Nantes, Pr. Invited to the UNAM, 2017).
      [4] In particular: Victor Romero Sanchez (2013); María Lourdes Ramírez-Argonza (2016); Fernando Valenzuela (thesis in progress).
      [5] Eduardo Noble (2012).
      [6] Carlos Alvarez and Jean Dhombres are authors of the two volumes of the History of the Fundamental Theorem of Algebra (ed Hermann); Mr. Panza has written a lengthy introduction to the translation of the De Methodis de Newton into Castilian (UAM ed.) And has also published several published collective volume articles published in Mexico; J. Gayon was on the editorial board of Ludus Vitalis.



PROGRAM [To download the program & the abstracts]


WEDNESDAY 19

8:30–9:00 Opening by organizers, under the presidence of Vincent Jullien (Nantes) & Carlos Alvarez (UNAM)

Short introduction by René Cecena Alvarez

Session 1 : Conceptual Change (Sciences of Nature)

Chair: Vincent Jullien (Nantes)

9:00 Pierre Wagner (Paris 1)
Conceptual Change vs Disagreement in Science
abstract
9:30 Ana Barahona & Jose A. Alonso-Pavón (UNAM)
The Obesities: Changing Concepts, Changing Challenges
abstract
10:00
Break
10:30 Caroline Anglereaux (Paris 1)
From Metaphysics to Biology, the Conceptual Evolution of the Monadic Simplicity
abstract
11:00 Jean Dhombres, Tania Navarro, Marco Panza
Roundtable on Big Data
Session 2 : Mathematisation

Chair: Carlos Alvarez (UNAM)

13:30 Carmen Martinez (UNAM)
Similarities and Differences Among Integrals of the Twentieth Century
abstract
14:00 Elías Fuentes Guillén (UNAM)
The notion of quantities 𝜔 in the early works of Bolzano
abstract
14:30 Guillaume Loizelet (Paris 7/Toulouse)
Ptolémée-al Biruni, comparaison des modèles
abstract
15:00
Break
15:30 Cécilia Bognon (Paris 1)
L’anti-mathématisme chez Claude Bernard
abstract
16:00 Nicola Bertoldi (Paris 1)
L’empirisme logique est-il toujours d’actualité en philosophie de la biologie ?
abstract
16:30 Begoña Fernández (UNAM)
The Itô’s Stochastic Calculus and the Chain Rule
abstract

THURSDAY 20

Session 3 : Conceptual change (mathematics)

Chair: Sébastien Maronne (Toulouse)

9:30 Lourdes del Carmen González Huesca & Favio Ezequiel Miranda-Perea (UNAM)
Computer Assisted Proofs… A Conceptual Change?
abstract
10:00 Nicolas Michel (Paris 7)
Lost in translation: on the rewritings of Chasles’ theory of characteristics (1864-1880)
abstract
10:00
Break
11:00 Juan Luis Gastaldi (SPHERE)
Archéologie et changement conceptuel dans les mathématiques
abstract
11:30 Carlos Alvarez (UNAM)
How Far Can an Uncertain Hypothesis Lead us to Discover New Ways in Mathematics?
abstract
Session 4 : Representation, Concept & Reference

Chair: Jorge Martinez Contreras (UAM)

14:00 Gaelle Pontarotti (Paris 7)
Between metaphor and theory: the changing nature of the concept of biological heredity
abstract
14:30 Erica Torrens (UNAM)
Selection and Mathematization in the Visual Display of the Evolution of Life
abstract
15:00 Anne-Lise Assada (Nantes)
Continuité dans les sciences et limites de la stabilité référentielle
abstract
15:30
Break
16:00 Ana Barahona, Marina Imocrante, Antoni Malet, Françoise Longy, Fernando Valenzuela Castro
Roudtable on Conceptual Change and Theory of Reference

FRIDAY 21

Session 5 : Evolution & epigenetics

Chair: Bruno Gnassounou (Nantes)

9:00 Bernardo Yanes Macias & Juan Manuel Arguëlle (INAH & Centro Lombardo)
Academic Sustentability and Sovereignity: the ancient-DNA atlas of humanity. The case of Mexican biological anthropology
abstract
9:30 Francesca Merlin (Paris 1)
L’épigénétique : quels changements en biologie ?
abstract
10:00
Break
10:30 Jorge Martinez Contreras (UAM)
La révolution primatologique Japonaise et la naissance du concept d’Évolution Culturelle
abstract
11:00 Alba Perez Ruiz (Centro Lombardo)
Models of Social Dynamics in Primates. Competition and cooperation
abstract
11:30 Laurent Loison (IHPST/CNRS)
De l’effet Baldwin à l’accommodation génétique. Les enjeux théoriques de l’explication de l’hérédité de l’acquis par la sélection naturelle
abstract
Session 6 : Mathematics Schools

Chair: Begoña Fernández (UNAM)

14:00 Anabel Jauregui (UNAM)
Variations in the Notion of the Angle as a Geometric Magnitude: Euclide and Arnauld
abstract
14:30 Ariles Remaki (Paris 7)
Algèbre et théorie des équations dans la pensée combinatoire chez Leibniz
abstract
15:00 Pascal Bertin (Paris 7)
Le principe de transformation (Transformationsprincip): entre philosophie et mathématiques
abstract
15:30
Break
16:00 Eleonora Sammarchi (Paris 7)
Construire les objets du calcul algébrique. Une étude comparée de la tradition arithmético-algébrique arabe et de la tradition cossique allemande
abstract
16:30 Luis Estrada Gonzáles (UNAM)
A “Smack of Irrelevance”? On the Logic for Inconsistent mathematics
abstract

Closing of the Conference



ABSTRACTS (by session)


WEDNESDAY JUNE 19


Session 1 Conceptual Change (Science of Nature

  • Pierre Wagner (Paris 1)
    Conceptual Change vs Disagreement in Science
    Disagreements in science may have various origins and reasons and may be explained bytheoretical, observational, or methodological divergences. In all such cases, properlyspeaking, disagreements are of scientific character. However, disagreements in science mayalso be deeper and based on a completely different reason when it depends on someconceptual change. In this talk, we shall discuss whether and to what extent it is possible toestablish a principled distinction between proper scientific disagreements and disagreementswhich have a conceptual character.
  • Ana Barahona & Jose A. Alonso-Pavón (UNAM)
    The Obesities: Changing Concepts, Changing Challenges
    Defined as excessive or abnormal accumulation of fat, obesity is described as a global,epidemic and multi-factorial disease: it’s affecting the entire planet and its prevalence isincreasing year after year, enough to be considered by the World Health Organisation as theepidemic of the 21st century, and one that particularly affects developing countries.While many endeavours have been undertaken to understand obesity, and therefore, find away to sort out the problems associated with it, an integrative understanding of obesity is stillunclear and incomplete.
    We argue that a new approach to understand obesity can be achieved by looking at the way ithas been configured and reconfigured over time. Obesity as an epistemic thing has beenstudied from different perspectives and disciplines, which may qualify as different epistemicspaces. The way obesity as an epistemic thing has been understood has changed over time dueto the overlapping of various epistemic spaces, scientific material culture, and socialinfluences.
    In this paper we will show how obesity has been defined over time, the way differentepistemic spaces have intersected to reshape the way we think about obesity, and how acomprehensive integration of medical, biological and social information, such as culture andsocioeconomic conditions, may help creating a new approach to obesity that may help a betterunderstanding and solution to this condition.
  • Caroline Angleraux (Paris 1)
    From Metaphysics to Biology, the Conceptual Evolution of the Monadic Simplicity
    In his mature philosophy, Leibniz developed the concept of the monad as a simple entity thatontologically founded the world. In this metaphysical framework, the order of bodies and theorder of spirits were organically structured but remained clearly separated. And yet, afterLeibniz’s death, this separation was misunderstood and different reinterpretationsphysicalized and naturalised the monads. At the beginning of the 19th century, in the Naturphilosophie in particular, the monads became speculative entities and its simplicityreferred to activity and livingness. At the same time, in natural sciences, O. F. Müller named“monads” the simplest living beings, i.e. with no composite parts. In this talk, through a fewexamples, I aim to outline this conceptual line that naturalised the monads and turned itssimplicity into a living force.

Roundtable on Big Data

  • Jean Dhombres (EHESS, Paris)
    L’historien et mécanicien Ernst Mach a joliment indiqué vers 1900 que la pratique de lascience obéissait à un principe d’économie, ce qui lui permit de mettre au point le concept deGedankexperiment, repris d’une tout autre façon tout aussi intéressante par Ludwik Fleck en1935, car il y ajoutait la notion de pensée collective. Or les tenants durs des Big Dataassument une position « économique » bien différente. Ils assurent que les techniques en jeuexploitent des gisements de données qui non seulement sont gratuits, mais n’ont pas étéexploités. D’ailleurs les plus cohérents d’entre eux refusent d’utiliser les données de l’INSEE,car leurs coûts d’obtention, payés par l’Etat, sont jugés trop chers et donc leur utilisationcontraire à la déontologie bigdataïste. Or les mathématiciens savent que tout principed’économie, dont une valeur est esthétique, a de fait un coût. Pouvoir travailler sur lesirrationnels a requis l’échafaudage énorme de la théorie des proportions – tout un livred’Euclide - et la forme moderne ramassée des probabilités requiert l’intégrale de Lebesgue.Aurait-on en ce sens une mesure du coût des Big Data ?
  • Marco Panza (Paris 1)
    The role of mathematics in data analysis prefigures a new form of mathematization, quitedifferent from the traditional ones. Instead of depending on a previous understanding of therelevant phenomena, mathematics acts for forcing, by imposing algorithms that have nojustification in the particular phenomena at issue. Together with other colleagues, I called thispractice ’agnostic science’. In my interaction, I shall broadly present this idea.


Session 2 Mathematization

  • Carmen Martinez Adame (UNAM)
    Similarities and Differences Among the Integrals of the Twentieth Century
    In A Half-Century of Mathematics written in 1951, Hermann Weyl aims to account for themathematics of the first half of the twentieth century. Regarding Lebesgue’s integral andmeasure theory he stares that:
    "I must mention the, in all probability final, form given to the idea of integration by Lebesgueat the beginning of our century. [...] Before Lebesgue one first defined the integral forcontinuous functions; the notion of measure was secondary; it required transition fromcontinuous to such discontinuous functions as X(P). Lebesgue goes the opposite and perhapsmore natural way: for him measure comes first and the integral second."However, there exist more than a hundred integrals to date so Weyl’s comment regarding thefinal form of the integral seems rather stringent. Our goal in this talk is to compare twointegrals in particular: Denjoy and Daniell and analyse the conceptual change that took placeafter the introduction of Lebesgue’s integral that made them possible.
  • Elías Fuentes Guillén (UNAM)
    The notion of quantities ! in the early works of Bolzano
    Bolzano introduced the “non-objectionable” notion of quantities ! in his 1816 work on thebinomial theorem as an alternative to the “self-contradictory” concept of infinitely smallquantities: while the latter had to be smaller “than every quantity, not merely every givenquantity but even every alleged, i.e. conceivable, quantity”, the former were quantities that“[could] become smaller than any given [one]” (1816, V). Precisely, it is because of suchnotion and the procedures associated with it that Bolzano’s Rein analytischer Beweis (1817)has been traditionally considered as an “epoch-making paper on the foundations of realanalysis” (Ewald, 1999, 225). That way, his definition of a continuous function as that forwhich “the difference (! + !) - !! can be made smaller than any given quantity” is usuallyinterpreted as equivalent to the later definitions of Cauchy and Weierstrass. However, in thistalk we will examine evidence recently found in the Miscellanea Mathematica (Bolzano’smathematical diaries) of the Bernard Bolzano Gesamtausgabe that indeed shows that therewas an intrinsic difference between Bolzano’s quantities ! and the Weierstrassian. As will bediscussed, while by 1817 Bolzano’s mathematics hinted at some ground-breaking features andconcerns, the fact is that the aforementioned notion was heavily deviant from the laterarithmetizing one.
  • Guillaume Loizelet (Paris 7/Toulouse)
    Ptolémée – al Biruni, comparaison des modèles
    Dans le Livre des Hypothèses, Claude Ptolémée (IIe siècle) traite du problème de ladistance entre la Terre et les sept astres errants. Pour les deux luminaires, la Lune et le Soleil,il dispose de résultats qu’il a dérivés dans le livre V de l’Almageste directement à partir dephénomènes observables. Pour chacune des cinq planètes, il tire du modèle géométrique deleur mouvement en longitude le rapport de leur plus petite distance théorique à leur plusgrande distance théorique, puis il détermine leurs distances réelles en s’appuyant sur desprincipes cosmologiques tels l’absence de vide et l’existence de sphères célestes propres àchaque astre errant. Les hypothèses faites sur l’ordre des astres errants, et particulièrement surla place de la sphère du Soleil dans l’arrangement des sphères célestes, se trouvent ainsi ensituation d’être invalidées par la confrontation de résultats obtenus par deux méthodesdistinctes. Au XIe siècle, Abu Rayhan al-Biruni reprend, dans le chapitre X du Qanun al-Masoudi, l’exposé de Ptolémée. Il emploie les mêmes méthodes et adresse lui aussi laquestion de l’invalidation des hypothèses quant à l’ordre supposé des astres errants. Il s’agitdès lors de mettre en regard les arguments des deux auteurs, ainsi que le statut que chacunconfère à ces arguments, en étant particulièrement attentif tant aux similitudes qu’auxdissemblances que l’on peut percevoir dans leurs textes respectifs.
  • Cécilia Bognon (Paris 1)
    L’anti-mathématisme chez Claude Bernard
    Comment comprendre la méfiance bernardienne envers les mathématiques, telles qu’elles’énonce dans l’Introduction à l’étude de la médecine expérimentale (Deuxième partie, chapitre 2, §9 « De l’emploi du calcul dans l’étude des phénomènes des êtres vivants ; desmoyennes et de la statistique »)? Curieusement, une telle méfiance est souvent l’apanage dethéories vitalistes, pour lesquelles la vie, dans sa continuelle plasticité et créativité, ne sauraitse laisser quantifier. Bichat soulignait ainsi l’idiosyncrasie des forces vitales rétives aucalcul [1]. Or Bernard est plutôt critique de ce qu’il nomme « vitaliste », dès lors sous sa plumela critique des mathématiques surprend : ce grand défenseur du déterminisme, qui forgeamême l’idée scientifique moderne de déterminisme scientifique [2], est, dans le même temps,un contempteur des méthodes mathématiques. C’est au contraire, dans la perspective d’undéplacement interne à l’usage de la chimie, de la statique vers la dynamique, qu’il fautcomprendre la réticence de Bernard envers la quantification. Ce qu’il critique, c’est en réalitéles statistiques, et avant tout les moyennes. Or les moyennes sont exemplairement uneapproche centrée sur les résultats, la statique et non le dynamisme des processus chimiques.
    • [1] Bichat (1994) : « Cette instabilité des forces vitales, cette facilité qu’elles ont de varier àchaque instant en plus ou en moins, impriment à tous les phénomènes vitaux un caractèred’irrégularité qui les distingue des phénomènes physiques, remarquables par leur uniformité :prenons, par exemple, les fluides vivants et les fluides inertes. Ceux-ci, toujours les mêmes,sont connus quand ils ont été analysés une fois avec exactitude ; mais qui pourra direconnaître les autres d’après une seule analyse, ou même plusieurs faites dans les mêmescirconstances ? On analyse l’urine, la salive, la bile, etc., prises indifféremment sur tel ou telsujet ; et de leur examen résulte la chimie animale ; mais ce n’est pas là la chimiephysiologique ; c’est, si je puis parler ainsi, l’anatomie cadavérique des fluides. Leurphysiologie se compose de la connaissance des variations sans nombre qu’éprouvent lesfluides suivant l’état de leurs organes respectifs », pp. 121-122.
    • [2]Sur le déterminisme de Claude Bernard voir Gayon (10996), et en général, voir Gayon(1998).
  • Nicola Bertoldi (Paris 1)
    L’empirisme logique est-il toujours d’actualité en philosophie de la biologie ?
    Dans un article qui est considéré comme l’une des pierres milliaires de la philosophie de la biologie, David Hull (1969) critique sèchement les différentes manières dont les philosophes s’étaient penchés sur des problèmes relevant des sciences du vivant tout au long de la première moitié du XX siècle. En particulier, il critique la méthode de la « reconstruction formelle de propositions biologiques dans la notation de la logique mathématique » qui avait été adoptée par des philosophes liés à la tradition de l’empirisme logique, tels que J. H. Woodger (1929, 1937), afin de clarifier la signification et l’usage de concepts biologiques fondamentaux. Une telle critique s’inscrit dans un récit historiographique plus général, qui attribue les défauts de la philosophie de la biologie d’avant les années 1970 à l’influence négative de préoccupations idéologiques propres à l’empirisme logique : l’antimétaphysique, le réductionnisme et la volonté d’imposer la physique comme science modèle (Wolters 1999). Cependant, comme le montrent Daniel J. Nicholson et Richard Gawne (2014, 2015), une telle vision de l’histoire de la philosophie de la biologie se fonde sur une lecture sélective et sur une interprétation étroite de l’oeuvre de Woodger, ainsi que, plus généralement, de l’empirisme logique en tant que mouvement philosophique hétérogène. L’objectif de cette communication est ainsi de réévaluer l’apport de l’empirisme logique à l’histoire de la philosophie de la biologie, ainsi que son importance pour des questionnements actuels, à partir des problèmes soulevés par la tentative d’appliquer la méthode axiomatique à la théorisation biologique qui a été celle de Woodger.
    • Bibliographie
      Hull, David (1969). What philosophy of biology is not. Synthese, 20(2). 157-184.
      Nicholson, Daniel J. & Gawne, Richard (2014). Rethinking Woodger’s legacy in the
      philosophy of biology. Journal of the History of Biology, 47. 243-292.
      Nicholson, Daniel J. & Gawne, Richard (2015). Neither logical empiricism nor vitalism, but
      organicism: what the philosophy of biology was. History and Philosophy of the Life
      Sciences
      , 37(4). 345-381.
      Woodger, J. H. (1929). Biological principles: A critical study. Londres: Routledge & Kegan
      Paul.
      Woodger, J. H. (1937). The axiomatic method in biology. Cambridge: Cambridge University
      Press.
      Wolters, Gereon (1999). Wrongful life: Logico-empiricist philosophy of biology. In Maria
      Carla Galavotti & Alessandro Pagnini (dir.). Experience, reality, and scientific explanation:
      Essays in honor of Merrilee and Wesley Salmon
      . Dordrecht: Kluwer Academic Publishers.
      187-208.
  • Begoña Fernández (UNAM)
    The Itô’s Stochastic Calculus and the Chain Rule
    In 1944 Kiyosi Itô published the paper Stochastic Integral, in which he defines a stochastic integral with respect to the Brownian Motion. He defines the integral as a linear application via an isometry in a L² space. In this paper he pointed out with an example that this integral doesn’t satisfy the rules of the differential and integral calculus, in particular the chain rule or the rule of change of variable. In 1951 published the paper: On a formula concerning stochastic differentials, that generalized the example. In this talk we show that Itô’s goal was to define stochastic differential equations compatible with the infinitesimal generator of a diffusion process developed by Kolmogorov in 1931. Itô’s formula achieves this purpose and gives a relationship between stochastic differential equations and partial differential equation.



THURSDAY JUNE 20


Session 3 Conceptual Change (mathématics)

  • Lourdes del Carmen González Huesca & Favio Ezequiel Miranda-Perea (UNAM
    Computer Assisted Proofs… A Conceptual Change?
    The concept of proof in mathematics has evolved through centuries from the intuitive notions of justification and validation. Its main purpose being to convince that a sequence of reasoning steps, sustaining a theory, are correct.
    Until recently, to prove had been an exclusive human activity performed through a meticulous paper documentation. However, in the last decades, many tasks related to intricate proofs were delegated to a computer. Examples of computer assisted proofs are the exhaustive search of the critic cases in the proof of the four color theorem, or the Kepler conjecture. Lately the Feit-Thompson theorem has been formally checked using the Coq proof assistant. The proof contribution of the Coq assistant is not only to verify the multiple cases in a proof, but to indeed perform parts of the proof, mechanizing some particular reasoning techniques; and more important, to verify that each step of a proof corresponds to a correct reasoning. This way, the insight of what counts or not as a valid mathematical proof has been changed since the advent of computers. On one hand, a rigorous mere human justification has become into a verified computer assisted vindication; and on the other, the information processing through an assisted proof can be useful. For instance, a formal proof treated as a syntactic object that can explain the phenomenon itself of being demonstrable, or as a witness of the satisfaction of a particular property.
    Therefore, a question arises in whether these new ways to perform proofs, and also of proof coding, do represent a conceptual change, issues that we will discuss in this talk.
  • Nicolas Michel (Paris 7)
    Lost in translation: on the rewritings of Chasles’ theory of characteristics (1864-1880)
    Chasles’ theory of characteristics, first published over the course of the year 1864 through a series of short communications given at the weekly meetings of the Académie des Sciences, elicited a great deal of attention and praise from mathematicians all over Europe. As the first successful attempt at a general method for the enumeration of curves, this theory was immediately picked up by geometers working in very different theoretical and epistemic frameworks. Through their own notational and conceptual frameworks, they all attempted to rewrite Chasles’ results in a way compatible with their own epistemic norms and values. Therefore, as Chasles’ results circulated, much was lost in the translating process. In the end, the very ontology of conic sections, a centuries-old mathematical object, went on to be a matter of dispute amongst Chasles’ readers and successors. By examining how inter11 theoretical translations were conducted and how actors reflected on what these did to their perennial figures, we wish to illuminate the complex ways in which mathematical concepts grow, and the role played by textual dispositifs in this process.
  • Juan Luis Gastaldi (Paris 7)
    Archéologie et changement conceptuel dans les mathématiques
    Parmi toutes les tentatives d’historiciser le savoir scientifique en mettant en avant le changement et la discontinuité dans le devenir des sciences, le projet d’une « archéologie des savoirs » proposé par Michel Foucault est sans doute l’un des plus originaux et radicaux. Depuis cette perspective, les changements conceptuels dans une science peuvent être expliqués, non seulement par des conditions internes et propres au développement de ces sciences, mais aussi et plus fondamentalement par la réorganisation des principes transversaux à plusieurs savoirs à une même époque, concernant la constitution de leur objectivité et les méthodes et conditions impliquées dans la production de ses énoncés. Pourtant, de manière quelque peu surprenante, le projet archéologique s’est avéré, dès sa naissance, incapable de rendre compte du savoir mathématique dans son historicité. Suivant le point de vue de Foucault lui-même, les mathématiques sont par essence non archéologisables. Il s’agira ici de revenir de manière critique sur cette impossibilité, dans le but d’interroger les conditions sous lesquelles la perspective archéologique serait capable de contribuer au problème du changement conceptuel dans le savoir mathématique. Il en résultera une historisation de la notion de formalisation comme régime général du savoir mathématique, émergeant au XIXe siècle et en voie de dissolution face à l’émergence actuelle d’une epistémè informatique ou computationnelle.
  • Carlos Alvarez (UNAM)
    How Far Can an Uncertain Hypothesis Lead us to Discover New Ways in Mathematics?
    In 1736 L. Euler published a brief paper where he formulated a new hypothesis regarding the form of the roots of algebraic equations. At first glance this paper did not have an important influence in the further development of the theory of equation; the hypothesis formulated therein did not become a leading idea and no papers were published later trying to confirm, to prove or even to negate Euler’s hypothesis. However, Euler’s paper formulated a leading questions regarding the theory of equations which, we claim, by the first half of the 18th century could hardly be considered as a mathematical theory. Several problems related to the conceptual constitution of a mathematical theory could be pointed out as emerging after Euler’s paper, several problems related not only to its origins, but mainly to its further constitution as a modern mathematical theory.


Session 4 Representation, Concept & Reference

  • Gaelle Pontarotti (Paris 7)
    Between metaphor and theory: the changing nature of the concept of biological heredity
    In this presentation, I examine the changing nature of the concept of biological heredity. Through a brief historical analysis, I show that this concept has floated between theory and metaphor since its introduction in medical and physiological studies. I more particularly assert that, after the golden age of Genetics, the literature about non-genetic channels of transmission and the return of image-like notions in the scientific discourse may bring biological heredity back to the field of metaphorical concepts. Finally, I ask whether the concept of biological heredity, whose meaning has changed through time, has been continually referring to the same set of phenomena and whether it can, thereby, be considered as one single scientific notion.
  • Erica Torrens (UNAM)
    The phylogenetic tree: Selection and mathematization in the visual display of the evolution of life
    This study examines visual displays about the evolution of life used both in scientific and popular publications. The word "selection" from the title, refers to the action made by scientists to filter, out of an initially chaotic world, the object of interest, to isolate it and simplify it to eventually visualize it. Mathematization, following the idea of Michael Lynch (1988) concerns how visualizations methods attribute mathematical order to natural objects or abstract biological hypothesis. This study will focus on phylogenetic trees, since these visual displays, fundamental to modern biology, are a clear example of a conceptual change that began to take place during the 1960s thanks to the mathematization of systematics. By analyzing the effort to reform the practice of biological taxonomy started by Willi Hennig, some of the distinctive features of mathematization of biology will be highlighted, such as the transformation of raw data coming from the molecular configuration of the organisms into visible objects that are considered "scientific knowledge" by themselves.
  • Anne-Lise Assada (Nantes)
    Continuité dans les sciences et limites de la stabilité référentielle
    A travers la lunette de l’histoire des sciences, on observe des discontinuités dans le développement des sciences (épisodes de révolution), qui se manifestent notamment à travers des ruptures entre les langages scientifiques d’une théorie à l’autre (Kuhn 1970 [1962]). Il s’agit là de l’aspect sémantique du problème de la continuité en sciences, parfois appelé problème de l’incommensurabilité. A première vue, cette idée ruine l’intuition réaliste selon laquelle la science progresse cumulativement vers une meilleure connaissance de la réalité. Une manière d’en réduire la portée est de montrer qu’une certaine stabilité référentielle des discours scientifiques est conservée, même à travers les révolutions scientifiques. Classiquement, une certaine forme de référentialisme (Bird 2004) — la théorie causale de la référence développée à la suite de Kripke (1980) et Putnam (1975) — explique ainsi comment une telle stabilité est possible, et de nombreux philosophes des sciences (par exemple Psillos (1999)) s’appuient en partie sur une telle thèse linguistique pour justifier défendre un point de vue réaliste scientifique, considérant qu’elle permet de répondre au problème de l’incommensurabilité. Mais combien est-il vraiment pertinent de penser la continuité dans le changement conceptuel à travers la notion de stabilité référentielle ? Une bonne théorie de la stabilité référentielle parvient-elle à répondre aux difficultés posées par le changement conceptuel lors des révolutions scientifiques ? Certains philosophes ont défendu le référentialisme (Bird 2004), tandis que d’autres ont formulé des critiques sur la pertinence d’une telle stratégie argumentative (par exemple, sur différents plans, Read & Sharrock, Bishop & Stitch (1998), Kuukannen (2010), Chang (2012)), nous invitant à reconsidérer ce qu’on cherche à expliquer lorsqu’on s’engage dans le débat autour du réalisme scientifique. Je me poserai la question : dans quelle mesure une difficulté philosophique soulevée par l’histoire des sciences (le problème de la continuité dans les sciences) peut-elle se résoudre sous l’angle d’arguments/de théories tirés de la philosophie du langage (les arguments en faveur de la théorie causale de la référence) ? Nous verrons que les pistes soulevées suggèrent plutôt que ce n’est peut-être pas la stratégie philosophique la plus efficace à adopter pour proposer une analyse réaliste des épisodes de discontinuité dans les sciences.


Roundtable on Conceptual Change & Theorie of Reference : Ana Barahona,
Marina Imocrante, Antoni Malet, Françoise Longy, Fernando Valenzuela Castro

  • Ana Barahona (UNAM)
    I will begin with Basalla´s diffusionist model to show how the dichotomy center-periphery influenced historians of science working in non-European science in the second half of the 20th century. The amount of work that Basalla´s model generated was significant in bringing to the fore the local context, although in tension with the global dimension. The transnational approach to the history of science that coalesced at the end of the Cold War, has been subsequently influenced by the effects of globalization, multiculturalism and the formation of circuits of practices, knowledge, and people, in which scientific developments go beyond nation-state borders, being the collaborative networks the units of historical analysis. I will try to show how the transnational turn could solve the tension between the global and the local, pointing to the transnational perspective by using circulation and collaborative networks as historical categories.
  • Marina Imocrante (CNRS - IHPST, Université Franco Italienne)
    Reference stability through conceptual engineering – Conceptual engineering is defined as the on-going enterprise of assessing and improving our representational devices (Cappelen 2018). How is conceptual revision compatible with some form of continuity of interpretation, and diachronic agreement (or disagreement)? After presenting a few examples, I will try to figure out which theory of reference might be suitable for dealing with such cases.
  • Antoni Malet Universitat Pompeu Fabra (Barcelona) & SPHERE (Paris 7)
    Conceptual Change in Mathematics: Historical Perspectives and Interpretive Challenges
    Conceptual change in mathematics takes place in many ways. One kind of conceptual change, one common in recent times, comes through the redefinition of some well-known and wellestablished mathematical object to make it usable on a wider range of objects—think of 19thcentury redefinition(s) of the idea of function—initially identified with the rather informal concept of analytic function, so powerfully and efficiently used by Euler, Lagrange, and tutti quanti in the 18th century. Another and perhaps more interesting sort of conceptual change is to be identified with the emergence of altogether new, downright unprecedented mathematical objects—think of the very notion of function around 1700, a notion that is absent, for instance, in such an important book as L’Hospital’s Analyse des infiniment petits (1696). Or think of the emergence of the notion of group of permutations between Galois and Jordan. Obviously these two kinds of conceptual change answer to different contexts and prompt different sorts of explanations. Still another and highly intriguing way for mathematical concepts to change is exemplified by the fate of early modern indivisibles. They were first in the fringes of mathematics, then morphed into infinitesimals, then played a crucial role in the development of 18th-century analysis and rational mechanics, and then vanished. (I will not enter here into the controversial claim that in the 20th century infinitesimals rose like a phoenix from the ashes of non-standard analysis.) In my remarks I shall briefly characterize these kinds of conceptual change to spell out what challenges they pose both for the historiography as well as for the philosophy of mathematics.
  • Fernando Valenzuela Castro (Paris 1)
    On the grounding of geometrical concepts in the sensible world: from B. Russell to J. Nicod – In the context of his External World Theory of 1916, Russell opens a discussion on the status of sense-data and the legitimacy of its existence through logical analysis. Although Russell’s position does not correspond more than to an outline of some of his ideas on the application of the method of logical analysis to the real world, the protocol of his research suggests the revision of some concepts of physics and geometry. The passage between the perspective system of Russell’s proposal and the geometry of perspectives of Nicod’s is found in their revision of the formal structure of geometry. On Russell’s side, we have an attempt to logically construct the concepts of sensibility and a revision of some concepts of physics (continuity and infinity). And, on Nicod’s side, we find an interpretation or variety of solutions to the axioms of a volume geometry designed to respond to the laws of physics. Our proposal consists of paying special attention to the conception of the formal structure of geometry proposed by Nicod, specifically in its conception of inseparability and point-volume as the basic element of its sensible geometry (Nicod, 1924), and Russell’s conception of projective geometry (Russell, 1897); to understand the relationship that each of our two authors thinks exists between the properties of the sensible world and the concepts of a purely formal system.



FRIDAY JUNE 21


Session 5 Evolution & Epigenetics

  • Bernardo Yanes Macias & Juan Manuel Arguëlle (INAH & Centro Lombardo).
    Academic Sustentability and Sovereignity: the ancient-DNA atlas of humanity. The case of
    Mexican biological anthropology

    Ancient DNA (aDNA) studies is one of the most innovative methodologies for studying human evolution. One of the main evidences through which aDNA can be recovered are the osteological remains or human bones. In this paper we consider three main points regarding the development of aDNA studies in the global arena. First, we think that there is a complex relationship between the advancement of knowledge and the local development of science. At first sight it seems these notions are synonims or at least that they run through parallel lines. However, we consider this is not the case. Second, we want to take into our account the international project that seeks to accumulate the most amount of genetic or genomic information to build what it is known as a ‘global genomic biobank’. We ask ourselves if this aim is indeed a research objective that can be justified in terms of the interest of developing genomic science and the study of human evolution. We think that it might be some other interests that can be at stake, we will try to analize which are those. Finally, as aDNA studies are developed through international collaboration due to different reasons, we maintain that this enterprise can only be developed in the context of sovereign and sustainable scientific and/or academic collaboration. We are aware of the geopolitical and economical assimetries through which the different countries or research centers that take part in this kind of investigation develop their practice.
    • Keywords: Ancient DNA (aDNA), biological anthropology, sovereigntiy, sustentability,
      genomic science
  • Francesca Merlin (Paris 1)
    L’épigénétique : quels changements en biologie ?
    Dans cet exposé je poserai la question de savoir si les recherches en épigénétique représentent un changement révolutionnaire en biologie, en particulier par rapport aux explications classiques (à savoir, génétiques) du développement et de l’évolution. J’analyserai donc, à la lumière des résultats les plus récents en épigénétique, ce qui change et ce qui ne change pas du point de vue conceptuel et épistémologique en biologie du développement et de l’évolution, en focalisant tout particulièrement mon attention sur la signification, la portée et le rôle théorique de certains concepts centraux de la biologie.
  • Jorge Martinez Contreras (UAM)
    La révolution primatologique Japonaise et la naissance du concept d’Évolution Culturelle
    Dans l’histoire de la découverte Occidentale des pongidés (grands singes ou anthropoïdes), on peut en dégager quelques moments marquants : au VIè siècle AEC, la capture de « gorilles » (en fait, des chimpanzés) par Hannon ; au 17è siècle, la mention de l’existence de deux « monstres », les jeckos (chimpanzés) et les pongos (probablement des gorilles), par Battel, ainsi que les descriptions des orang-outangs grâce aux médecins hollandais Bondt et Tulp, ainsi que la première dissection scientifiques d’un chimpanzé, par Edward Tyson, en 1699 (animal qu’il confonda d’ailleurs avec un pygmée [« pygmy »] ou un orang-outang). La description scientifique du gorille a lieu à peine en 1849, et celle du bonobo dans les années 1930. Après la IIe Guerre Mondiale, deux grands courants primatologues surgissent : l’Occidental (dominé par les Anglo-Saxons) et le Japonais. Celui-ci garde des caractéristiques très intéressantes car il privilégie plus l’étude du comportement que le premier, davantage anatomique. Et c’est grâce à leur apport scientifique, mais aussi philosophique, des Japonais que l’on a découvert l’existence de cultures (au sens « humaniste » de ces phénomènes) chez des animaux non humains. Depuis, un grand courant scientifique s’est développe autour du concept d’Évolution Culturelle. Nous voulons, dans notre communication, nous concentrer sur cette époque primatologique récente.
  • Alba Perez Ruiz (Centro Lombardo)
    Models of Social Dynamics in Primates. Competition and cooperation
    Models allow scientists to understand how nature works. Biological, social and ecological factors interact at different levels to influence individual behavior. Animals engage in tradeoffs according to the cost and benefits of their inter-individual interactions and strategies. A model allows us to explore the way in which distinct variables influence complex dynamics of competition and cooperation in primate societies. Models are valuable tools to improve the understanding of non-human primates complex behavior in the field.
    In this work I analyze some aspects about the importance and scope of the application of models in the study of primate behavior. This approach allows the use of relevant mathematical tools in primatology and helps scientist answer questions that more conventional methods have not been able to resolve alone.
  • Laurent Loison (IHPST/CNRS)
    De l’effet Baldwin à l’accommodation génétique. Les enjeux théoriques de l’explication de l’hérédité de l’acquis par la sélection naturelle
    Les travaux de James M. Baldwin à la fin du XIXe siècle ont initié une tradition de recherche visant à rendre compte, par le jeu spécifique d’une forme de sélection naturelle, de certains phénomènes qui ne semblaient pouvoir s’expliquer que par l’hérédité des caractères acquis. Tout au long du XXe siècle et au début du XXIe siècle, ces mécanismes ont connu diverses appellations et différentes élaborations théoriques : « sélection organique », « sélection coïncidente », « effet Baldwin », « sélection stabilisante », « assimilation génétique », « accommodation génétique », etc.
    Cette présentation a pour objet de reprendre l’histoire de ces conceptions demeurées à la marge de la théorie de l’évolution, afin de montrer que :
    (1) elles ne sont pas toutes théoriquement équivalentes
    (2) certaines demeurent potentiellement fécondes


Session 6 Mathematics Schools

  • Anabel Jauregui (UNAM)
    Variations in the Notion of the Angle as a Geometric Magnitude: Euclide and Arnauld
    It is well known that in his treatise Les Nouveaux éléments de géométrie Antoine Arnauld proposed the reconstruction of elementary Euclidean geometry according to a natural order: from the simplest to the most complex objects. Our main interest is to study how that methodological requirement became a mathematical one, that is, its consequences in the very development of elementary geometry. For this purpose, of course, it is appropriate to contrast Les Nouveaux éléments de géométrie with Euclid’s Elements. These treaties differ not only in their deductive procedures, but also in the way of conceiving and relating the main geometric entities. The angle as geometric magnitude is a clear example of this.
    Arnauld develops, in the first part of his treatise a "geometry without angles", in which the notion of distance replaces to angular magnitudes. The angle is introduced only after the geometry of circle has been established. This constitutes a relevant conceptual change regarding Euclid’s Elements, which obeys to a different way of understanding this part of elementary geometry.
  • Ariles Remaki (Paris 7)
    Algèbre et théorie des équations dans la pensée combinatoire chez Leibniz
    A de nombreuses occasions, Leibniz reproche à nombre de ses contemporains leur confiance aveugle dans la puissance de l’algèbre. Contre cette idée, qu’il attribue à Descartes et selon laquelle l’algèbre constituerait une sorte d’Ars Magna capable d’implémenter en son sein n’importe quel problème mathématique, Leibniz place plutôt ses espoirs dans la combinatoire, dont l’algèbre ne serait qu’une partie « médiocre ».
    Ce qu’il y a d’intéressant ici, pour l’histoire des mathématiques, c’est le rôle que semble jouer la combinatoire au sein même de la théorie des équations, bastion et berceau de l’algèbre. Ces travaux algébriques, datant de la fin de la période parisienne, jouent donc un rôle capital, certes, d’une part, comme terrain d’application d’une pensée combinatoire, déjà à l’oeuvre chez Leibniz depuis sa toute jeunesse, mais surtout d’autre part, comme puissant catalyseur d’une nouvelle conception émergente de l’ars combinatoria mathématiquement liée aux notions de formes et de similitudes.
  • Pascal Bertin (SPHERE)
    Le principe de transformation (Transformationsprincip): entre philosophie et mathématiques Le ”principe de transformation”, que Hausdorff désigne également comme sa ”méthode de preuve personnelle”, joue un rôle central dans l’économie de la pensée hausdorffienne – et notamment dans ce texte charnière qu’est le Raumproblem. Plongeant ses racines, aux dires même de Hausdorff, dans les interrogations géométriques de Helmholtz et Erdmann, cette méthode néo-kantienne entrelace spéculations philosophiques et descriptions mathématiques possibles, et apparaît, structurellement, comme une mise en conformité des phénomènes avec l’”ouverture” mathématique. Aussi désignée comme ”principe d’application” (Abbildungsprincip), la méthode accorde, comme nous aurons l’occasion de le constater, une place de plus en plus importante à la théorie des ensembles (notamment en ce qui concerne l’analyse de la propriété de continuité de l’espace et du temps).
    Références principales :
    – F. Hausdorff, Felix Hausdorff - Gesammelte Werke : Philosophisches Werk, Band VII
    (sous la dir. de W. Stegmaier), Berlin : Springer, 2004.
    – F. Hausdorff, ”Das Raumproblem”, in : Ostwalds Annalen der Naturphilosophie, 3, 1903.
  • Eleonora Sammarchi (Paris 7)
    Construire les objets du calcul algébrique. Une étude comparée de la tradition arithmético-algébrique arabe et de la tradition cossique allemande
    Le polynôme, expression algébrique composée de plusieurs termes simples additionnes et/ou soustraits, pourrait être imagine comme un objet mathématique qui nait en même temps que l’algèbre. La lecture des traites arabes d’algèbre montre, toutefois, que sa définition et ses conditions d’existence ne sont pas un fait immédiat, car elles demandent, au préalable, une systématisation du calcul algébrique et une étude approfondie de la notion d’opération. Pendant longtemps les algébristes ont pourtant manipule des objets génériques qui, tout en gardant certaines spécificités, présentaient des analogies avec la notion moderne de polynôme. A ce propos, nous comparerons les textes de deux traditions : celle des arithméticiensalgébristes médiévaux de l’école d’al-Karajī et celle des Rechenmeister (XVIe et XVIIe siècle). Nous nous concentrerons sur les choix linguistiques que les deux traditions adoptent respectivement pour se référer à ces objets (grandeur composée, expression, agrégat, quantité cossique), et sur ce que ces termes désignent mathématiquement.
  • Luis Estrada Gonzáles (UNAM)
    A “Smack of Irrelevance”? On the Logic for Inconsistent mathematics
    Recently, Zach Weber and some of his collaborators have argued that inconsistent mathematics should incorporate the usual proof methods of mainstream mathematics —such as proof by cases, proof by reductio, etc.- and that among the proof methods of mainstream mathematics one should include Weakening. Weakening is an irrelevant proof method in the logical sense: it allows to prove a conditionals merely because there is already a proof of the consequent, even if the antecedent of the conditional proved has nothing to do with the consequent. They claim that such irrelevant proof method is indispensable to prove some central theorems in set theory, like Mostowski’s and even simpler proofs like the identity of co-extensional sets. My purpose here is to show that, on closer examination, there is simply no such irrelevance in the proofs, and that the illusion of irrelevance arises because the shape of the proof methods considered is not fine-grained enough.



VENUE
UNAM-France, Cloître des Cordeliers, Sorbonne Université,
15, rue de l’École de médecine, stairs B, level 3, 75006, Paris, France