Partenaires

logo Sphere
CNRS
Logo Université Paris-Diderot Logo Université Paris1-Panthéon-Sorbonne


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil > Archives > Séminaires des années précédentes > Séminaires 2020-2021 : archives > Approches historiques, philosophiques et anthropologiques des nombres, de la mesure et de la mesurabilité 2020–2021

Axe Interdisciplinarité en Histoire et Philosophie des Sciences

Approches historiques, philosophiques et anthropologiques des nombres, de la mesure et de la mesurabilité 2020–2021




Le Laboratoire SPHERE a ouvert une thématique interdisciplinaire « Approches historiques, philosophiques et anthropologiques des nombres, de la mesure et de la mesurabilité » (voir http://www.sphere.univ-paris-diderot.fr/spip.php?article2019&lang=fr). Un nouveau séminaire est dédié à cette thématique.

Organisation :
Nadine de Courtenay (Univ. de Paris, SPHere), Christine Proust (CNRS, SPHere)

Vers l’année en cours et les archives 2017–

PROGRAMME 2020-2021

Le séminaire, mensuel, se réunit les mercredis

IMPORTANT : En raison de la situation sanitaire actuelle, le séminaire se tiendra en visioconférence, les mercredis. Accès à distance possible : un lien sera envoyé avant la séance à celles et ceux qui en feront la demande
Date Horaire Titre Organisation
14/10/2020 9:30–12:30 Discussion du texte : § 54 de la correspondance de Leibniz-Clarke N. de Courtenay,
S. Rommevaux-Tani
18/11  ! reporté ! Entre mesure et calcul : histoire des instruments mathématiques M. Pegny
16/12 9:30–12:30 Réflexion sur les incertitudes de mesure dans les sciences physiques et les sciences du climat N. de Courtenay,
F. Grégis
13/01/2021  ! reporté ! Histoire des unités de mesure de longueur et de surface C. Proust, C. de Varent
10/02 9:30–12:30 Un problème, plusieurs mesures possibles E. Lejeune,
M. Lacomme,
M. Pegny
10/03 9:30–12:30 Identification et quantification S. Hijmans,
N. de Courtenay
7/04  ! reporté ! Echelles en sciences sociales E. Lejeune
5/05 14:00–18:00 Une approche critique de l’opposition entre les nombres ‘concrets’ et ‘abstraits’ C. Proust,

E. Vandendriessche


Mercredi 14 octobre 2020, 9:30–12:30

Texte discuté : § 54 de la correspondance de Leibniz-Clarke

Organisation : Nadine de Courtenay (HPS, Univ. de Paris, SPHere) et Sabine Rommevaux-Tani (CNRS, SPHere)

Cette séance sera consacrée à l’analyse d’un extrait de la correspondance Leibniz-Clarke portant sur la notion de quantité. Clarke y argumente contre la thèse défendue par Leibniz selon laquelle l’espace et le temps sont de nature purement relationnelle. Voici ce qu’écrit Leibniz :
« Et quant à cette objection que, que l’espace et le temps sont des quantités, ou plutôt des choses douées de quantité, et que la situation et l’ordre ne le sont point ; je réponds que l’ordre a aussi sa quantité, il y a ce qui précède et ce qui suit, il y a distance et intervalle. Les choses relatives ont leur quantité aussi bien que les absolues : par exemple, les raisons ou proportions dans les Mathématiques ont leur quantité, et se mesurent par les logarithmes ; et cependant ce sont des relations. Aussi quoique le temps et l’Espace consistent en rapports, ils ne laissent pas d’avoir leur quantité. » [Cinquième écrit de Leibniz, (54), PUF, p. 150]

Il s’agit d’analyser la réponse de Clarke qui soutient, quant à lui, que les rapports et le proportions ne sauraient être des quantités.


  • Nadine de Courtenay (HPS, Univ. de Paris, SPHere)
    Présentation de la correspondance de Leibniz-Clarke


Mercredi 18 novembre 2020, 9:30–12:30

Entre mesure et calcul : histoire des instruments mathématiques

Séance organisée par M. Pegny

L’étude des instruments constitue une source matérielle majeure pour les historiographies de la mesure et du calcul. Durant cette séance, nous accorderons une attention toute particulière aux instruments analogiques, ces instruments manipulant le continu que le succès du modèle numérique a relégués dans l’oubli, et aux problèmes conceptuels que posent leur classification comme instrument de mesure ou instrument de calcul.

  • Loïc Petitgirard (CNAM)
    Mesurer et calculer : de l’histoire des instruments « réalisant une transformée de Fourier »
    L’exploration de l’histoire des instruments « réalisant une transformée de Fourier » livre une pléiade d’objets qui sont par conception des instruments de mesure doublés d’instruments de calcul. Dans les spectromètres à transformée de Fourier, dans les dispositifs pour la cristallographie par rayons X, dans l’optique de Fourier, la capacité à faire une mesure ne prend sens que parce qu’elle est combinée à une capacité de calcul (d’inversion) de transformée de Fourier. Par principe, et en pratique, ces instruments agrègent et font système de dispositifs dédiés à la mesure et d’organes de calcul. Selon que ces instruments sont analogiques ou numériques, les modalités de cette hybridation mesure / calcul sont différentes. Si on y ajoute les impératifs d’automatisation des procédures et des résultats, la capacité à livrer un résultat en temps-réel, les choix de conception et les types d’instrumentations possibles ont été encore multipliés ….au moins jusqu’à l’introduction et la diffusion massive du célèbre algorithme de FFT (Fast Fourier Transform – 1965). L’exposé vise à donner un aperçu de quelques-unes de ces hybridations, et tentera d’en dresser une typologie permettant de dépasser les catégories classiques : instrument matériel vs instrument mathématique ; instrument de mesure vs instrument de calcul.
  • Maël Pégny (post-doc in AI Ethics, Carl Friedrich von Weiszäcker-Zentrum, Universität Tübingen)
    Mesure ou calcul ? Enjeux historiques et philosophiques de la classification des instruments analogiques
    L’histoire des instruments de calcul analogiques est décisive pour la compréhension de l’histoire des techniques computationnelles, dans la mesure où elle s’inscrit dans le temps long et joue un rôle décisif pour des domaines majeurs de la demande de calcul, comme le calcul astronomique ou la simulation de grands problèmes d’ingénierie. L’examen des sources matérielles pose cependant des problèmes redoutables de délimitation et de classification : qu’est-ce qui doit compter comme instrument de calcul par opposition à un instrument de mesure ? Qu’est-ce qu’un dispositif de calcul automatisé ? Qu’est-ce qu’une machine de calcul par opposition à un dispositif de simulation ou de visualisation ? Répondre à ces questions implique un retour philosophique sur les sens de ces classifications, et les problèmes théoriques qu’elles nous aident à résoudre.


Mercredi 16 décembre, 9:30–12:30

Réflexion sur les incertitudes de mesure dans les sciences physiques et les sciences du climat

Séance organisée par N. de Courtenay (HPS, Univ. Paris Diderot, SPHERE) et Fabien Grégis

  • Fabien Grégis (LIUC Università Cattaneo, Castellanza, & SPHere)
    Savoir ce qu’on ne sait pas ? L’« incertitude de mesure » en métrologie et en physique.
    Dans les sciences expérimentales, il est reconnu qu’un résultat de mesure n’est complet que s’il est présenté avec une marge d’erreur, appelée « incertitude de mesure ». Cette dernière est souvent interprétée comme un jugement porté sur le résultat de mesure. Ce jugement peut être positif lorsqu’il souligne par exemple la précision spectaculaire que nous sommes capables d’atteindre dans certains domaines ; il véhicule au contraire une valeur négative s’il s’agit de pointer des limites dans notre connaissance. Je chercherai à montrer que cette façon de comprendre l’incertitude de mesure se heurte à une difficulté majeure, que les métrologues ont eux-mêmes identifié comme un problème d’ « inconnaissabilité ». Pour cela, j’analyserai les différentes définitions que les métrologues ont proposé pour le concept d’incertitude de mesure, ainsi que la façon dont cette dernière est mobilisée et interprétée en physique de précision. Cela m’amènera à défendre que l’incertitude ne mesure ne caractérise pas la qualité d’un résultat, ni non plus la confiance que l’on peut lui apporter. Il faut plutôt comprendre ce concept comme une information faisant partie intégrante du résultat, et servant d’outil dans le travail plus large de gestion de l’incertitude (au sens plus général) par les scientifiques.
  • Julie Jebeile (Institut de Philosophie & Oeschger Center for Climate Change Research, Université de Berne)
    Pluralisme des modèles et incertitudes dans les sciences du climat
    Les prédictions climatiques ne sont pas tirées d’un unique modèle mais d’un ensemble de modèles développés à travers le monde par les équipes de recherche. L’ensemble, appelé multi-modèle, sert notamment à quantifier les incertitudes climatiques liées aux multiples choix de représentation, et ainsi à calculer les probabilités associées aux possibles changements futurs. Dans cet exposé, j’examinerai les conséquences épistémiques, sur une telle méthode, de l’organisation sociale et pratique de la recherche. J’explorerai les possibilités nouvelles qu’offre toutefois la pluralité des modèles pour produire des connaissances utiles.


Mercredi 10 février, 9:30–12:30

Un problème, plusieurs mesures possibles

Séance organisée par M. Lacomme (Université de Paris–ED 623, SPHere), E. Lejeune (Université de Paris–ED 623, SPHere & LATTICE), M. Pégny (post-doc in AI Ethics, Carl Friedrich von Weiszäcker-Zentrum, Universität Tübingen)

Lors de cette séance, nous réfléchirons aux cas où plusieurs métriques sont envisageables pour répondre à une question. À travers deux études de cas, nous traiterons des enjeux engendrés par un choix de métrique ou de méthode de mesure. Nous aborderons ainsi des questions relatives à la définition des métriques, au choix d’un ensemble de données, à la représentation des données ainsi qu’à la possibilité de comparer des résultats issus de méthodes de mesure différentes.

  • 9:30
    Guillaume Lecointre (MNHN, UMR 7205)
    Mesurer la parenté
    L’arbre généalogique de tout vivant a disparu. On ne sait pas qui descend de qui, même si les ancêtres sont théoriquement requis. Pourtant, nous avons trouvé le moyen d’approcher indirectement l’ancêtre sous forme de portrait-robot. Ce dernier se décrit comme une collection de caractères homologues légués à la descendance. Il se reconstitue à partir d’un exercice qu’on appelle reconstruction phylogénétique, et qui intervient précisément quand on n’a pas les ancêtres sous la main. Il s’agit de mesurer les degrés relatifs d’apparentement par l’emboîtement hiérarchique de partages de caractères, du plus général au plus particulier. Deux figures mathématiques peuvent également représenter ces hiérarchies : des ensembles emboîtés (ensembles plutôt que partitions), ou bien un graphe connexe orienté (un "arbre"). Selon le programme classificatoire fixé par Darwin en 1859 et réalisé par Hennig en 1950, ce graphe fournit directement la classification hiérarchique. Chaque taxon y est défini par des caractères homologues partagés par ses membres (partages plutôt que césures). Les approches par distances ne peuvent pas réaliser ce programme, car en gérant la ressemblance de manière numérisée, elle interdit de pouvoir situer dans l’arbre des caractères homologues. Et donc de pouvoir reconstituer tout portrait-robot. Ce sont des caractères partagés homologues dont ont besoin les évolutionnistes. Les groupes ne peuvent pas être fondés sur des césures, des exclusions : c’est une affaire de cohérence logique. Ces caractères partagés sont la seule façon d’instancier les groupes dans la nature, car ceux-ci n’ont pas d’autre existence matérielle propre (anti-réalisme). Et encore : un caractère acquis (les quatre membres chez les tétrapodes) peut être secondairement perdu (cas des serpents, qui perdent les membres mais restent des tétrapodes par d’autres traits comme l’atlas). Ceci nous amène au mosaïcisme phylogénétique, anti-essentialiste. La pensée phylogénétique permet de reconnaître en nous les traits animaux sous des formes spécifiques. En cela, l’anthropocentrisme est inversé : il ne consiste pas à humaniser l’animal, mais à zoologiser l’humain.
  • 11:00
    Christophe Denis (Laboratoire LIP6, Sorbonne Université)
    Challenges and Opportunities on Using Deep Learning to Better Explain Complex Phenomena
    Joint scientific advances in mathematical modeling and high performance computing have for decades increased the accuracy of numerical simulations in the hope of explaining increasingly complex phenomena. These simulations are built on a hypothetico-deductive model in which the behavior of phenomena is governed by mathematical equations. Some complex and coupled physical simulations, such as used to study the climate change, suffer from a problem of validation and explainability mainly due to by epistemic uncertainties resulting from a lack of scientific knowledge. At the same time, Artificial Intelligence based on Deep Learning has produced impressive results, mainly in the areas of pattern recognition and natural language processing, succeeding the previous dominance of symbolic AI, centered on logical reasoning.
    It is why in 2008 Chris Anderson has reported concerning Deep Learning that the "The data deluge make the scientific method obolete" and "We can stop looking for models. We can analyze the dat without assumptions about what it might show. The correlation is enough". Using machine learning to predict and explain complex phenomena is indeed an ongoing research project in many scientific disciplines. For example, in physics, Machine Learning has been used to better predicting the Kuramoto-Sivashinsky chaotic system. Moreover, a recent new paradigm called agnostic science has been proposed to be able to give by using Deep Learning relevant answers concerning an unknown phenomenon. However, the validation and explanation can not only be performed by examining the correlations between the variables, which is therefore a weak and difficult point in Deep Learnin .
    It is crucial to obtain explanations from the results obtained from the Deep Learning black box outcomes. The explanation is both a product and a process, and have to be adapted to the recipient. For example, an explanation should allow :
    - for a developer, to understand how the application works in order to debug or improve it ;
    - for a user to understand the scope of use and the underlying assumptions ;
    - for an expert, to rule on an audit during an incident.
    This talk presents the main lines of our research project done in collaboration with philosophers of science. The big challenge is to define a general framework to use Deep Learning for generating new scientific knowledge from data or measurements. Our purposes will be illustrated with a deep learning geoscience application dealing with the current inversion algorithms to achieve a finer adjustment of the damping parameters. The first step of this project, done with Franck Varenne has been to underline the epistemic differences between of a machine learning model and a causal mathematical model, then to perform an epistemological clarification between interpretation, explanation and understanding . The second step of this project concerns the explanation assesment. This evaluation framework would be used also outside the scientific knowledge discovery theme for example on domestic or industrial applications based on Deep Learning.


Mercredi 10 mars, 9:30–12:30 (ac)

Identification et quantification

Séance organisée par S. Hijmans (Université de Paris–ED 623, SPHere)
et N. de Courtenay (HPS, Université de Paris, SPHere)

  • Jan Potters (Université d’Anvers)
    Identification and Measurement : On the Experimental Study of the Velocity-Dependency of the Electron’s Charge-to-Mass Ratio
    In his (2006) book on the history of the electron, Theodore Arabatzis argues that during the early years of experiments on the electron, scientists identified the participation of the electron in particular phenomena by measuring the charge-to-mass ratio present. One particular illustration of this claim is provided, he claims, by Walter Kaufmann’s experiments on the velocity-dependency of the charge-to-mass ratio of Becquerel rays : while scientists differed in their theoretical interpretation of the phenomenon, they all agreed that it was the electron that was responsible for the phenomenon because the charge-to-mass ratios measured agreed with those obtained in other experiments.
    In this talk, I will offer an extensive historical discussion of Kaufmann’s experiments and the attempts to replicate his results. This will show that Arabatzis’ claim needs to be nuanced : while all scientists agreed that the electron was involved, there were, especially in the German context, many disputes about the validity of the measured charge-to-mass ratio values. By focusing in more detail on how photographic plates were used in these experiments, I will then argue, by means of Kathryn Olesko’s work, that these disputes, and their situatedness in a particular local context, can possibly be understood in terms of particular precision measurement cultures. As a sort of conclusion, I will then present some reflections on how Arabatzis’ views on experimental identification can be extended to accommodate these kinds of disputes about measurement values.
  • Justin Gabriel (Université de Paris–ED 623, SPHere)
    Identifying cosmic rays in the early age of particle physics : the odd reception of a convincing observation
    At the end of the 1930’s, the community of cosmic ray physics broke out of an important crisis. In his account of this episode, Peter Galison shows how experimentalists and theoreticians struggled to reconcile the discrepancy between measurements and the predictions produced by quantum electrodynamics. Discrepancy was such that the theory, already plagued by an infinite quantities issue, was strongly threatened down to its foundations. The crisis was ended by the experimental evidence of the possibility to split the cosmic rays in two components, of which one was identified as electrons and the other as new unexpected particles. The determination of the mass of these particles has been one of the big issues of the following decade and one of the main projects at the physical laboratory of the Ecole Polytechnique led by Louis Leprince-Ringuet.
    The theoretical crisis has left a lasting mark on Louis Leprince-Ringuet. In my presentation, I will show how his doubts about this theory led him to develop a unique method that was, he said, the only true way to measure the mass of the cosmic rays. During this development he obtained a mass measurement that led him to claim the identification of a new particle.
    I claim that the structural peculiarity of this observation was an important factor of its odd reception. I will show that despite the fact that the arguments of Leprince-Ringuet were deemed convincing, his observation had no room to be received because the identification was only a mass measurement.


Mercredi 5 mai, 14:00–18:00

Une approche critique de l’opposition entre les nombres ‘concrets’ et ‘abstraits’

Les personnes qui souhaitent participer à cette séance sont priées d’envoyer un message avec « mesures 5-5-2021 » pour objet à eric.vandendriessche ( at ) univ-paris-diderot.fr au plus tard le 4 mai

Séance organisée par C. Proust et E. Vandendriessche

This session of the seminar will present some contributions to a forthcoming special issue of the Journal Historia Mathematica (C. Proust and E. Vandendriessche eds.) which goal is to critically analyze the opposition between “concrete numbers” and “abstract numbers” in history and historiography. Some historians, philosophers, and anthropologists have theorized a separation between “numbers” and the entities enumerated or counted with these numbers, and more particularly, between numbers and measurement units attached to them in the expression of measurement values. This perception gave rise to a linear history of oral and written numerations rooted in evolutionary theories and classifications (Smith, Guitel, and many others). To what extent does this separation reflect the practices carried out in societies or social groups under scrutiny by these scholars ? How has the notion of “abstract numbers”—as opposed to those described as “concrete numbers” shaped the history of numerations ? This issue’s goal is to confront common historiography with the great diversity of numeration and measurement systems (and their interrelations), attested to by the various textual and ethnographic sources available to us (Murdoch, Thomas, Lean, etc.).

  • 14:30–15:45
    Débora Ferreira & Gert Schubring (Institut für Didaktik der Mathematik, Bielefeld University, & visiting professor at the Universidade Federal do Rio de Janeiro)
    Complex numbers" and the problem of multiplication between quantities
    We are presenting the discovery of a class of concrete numbers, first named “nombres complexes” by two French textbook authors in the middle of the 18th century, Étienne Camus and Étienne Bézout, in the period of use of non-decimal metrological systems. Bézout’s claim of non-commutativity of the multiplication of two such numbers will be investigated, together with a study of operating with this class of numbers. The presentation will show shortcomings in the understanding of the dimensions – or “species” - of these barely known and researched numbers, as well as a persistence in not mastering the conceptual understanding of the nature of these numbers. The analysis will focus on French textbooks until the second half of the 19th century and includes, among other countries, in particular Brazilian textbooks. Extension to the 19th century allows research on the impact of the change to decimal number systems on concrete numbers.
  • 16:00–17:15
    Christine Chambris (Laboratoire de didactique André Revuz, Université de Cergy-Pontoise) et Jana Visnovska (School of Education, University of Queensland, Australia)
    On history of units in French elementary school arithmetic : The case of proportionality
    The measurement of magnitudes was at the foundation of numbers and calculation in academic mathematics until the 19th century. It provided units and the concrete and abstract numbers that formed the basis of school arithmetic up to mid-20th century in France. Our analysis of changes in teaching resources for proportionality (late 19th to early 21st century) documents how the disappearance of magnitudes in academic knowledge was followed by the loss of the differentiation of the conceptual complexity of mathematical ideas related to proportionality. These changes made teaching and learning about proportionality considerably more difficult, and we later witness their gradual, but not yet systematic, reversal.
  • 17:15–18:00
    Discussion générale









INFORMATIONS PRATIQUES



Accès : Métro ligne 14 / RER C / Station : Bibliothèque François Mitterrand
Métro ligne 6 / Station : Quai de la Gare
Bus 64 / Arrêt : Tolbiac-Bibliothèque François Mitterrand
Bus 62 & 89 / Arrêt : Avenue de France or Bibliothèque François Mitterrand (terminus)
Bus 325 / Arrêt : Watt Plan