Organisation:
Nadine de Courtenay (HPS, Univ. de Paris & SPHere), Christine Proust (CNRS, SPHere)
SCHEDULE 2020-2021
IMPORTANT: Due to the current health situation, the sessions will take place by webconference, on Wednesdays. Link sent on demand | ||||
Date | Time | Theme | Organisation | |
10/14/2020 | 9:30am–12:30am | Discussion on text: § 54 of the Correspundance of Leibniz-Clarke | N. de Courtenay,
S. Rommevaux-Tani | |
11/18 | ! postponed ! | Between measurement and calculation: history of mathematical instruments | M. Pegny | |
12/16 | 9:30am–12:30am | Reflection on measurement uncertainties in physical sciences and climate sciences | N. de Courtenay, F. Grégis | |
2021/01/13 | History of units of measurement of length and surface | C. Proust, C. de Varent | ||
02/10 | 9:30am–12:30am | One problem, several possible measures | E. Lejeune, M. Lacomme, M. Pegny | |
03/10 | 9:30am–12:30am | Identification and quantification | S. Hijmans, N. de Courtenay | |
04/7 | ! postponed! | Social science scales | E. Lejeune | |
05/5 | 2pm–6pm | A critical approach to the opposition between ’concrete’ and ’abstract’ numbers | C. Proust,
E. Vandendriessche |
Wednesday October 14, 2020, 9:30am –12:30am
Discussion of a text: § 54 of the Correspondence of Leibniz-Clarke
Remote access possible: a link will be sent before the session to those who request it. Write to : nadine.decourtenay ( at ) univ-paris-diderot.fr |
Organisation : N. de Courtenay et S. Rommevaux-Tani
This session will be devoted to the analysis of an excerpt from the Leibniz-Clarke correspondence on the notion of quantity. Clarke argues there against Leibniz’s thesis that space and time are purely relational in nature. Here is what Leibniz writes:
« Et quant à cette objection que, que l’espace et le temps sont des quantités, ou plutôt des choses douées de quantité, et que la situation et l’ordre ne le sont point ; je réponds que l’ordre a aussi sa quantité, il y a ce qui précède et ce qui suit, il y a distance et intervalle. Les choses relatives ont leur quantité aussi bien que les absolues : par exemple, les raisons ou proportions dans les Mathématiques ont leur quantité, et se mesurent par les logarithmes ; et cependant ce sont des relations. Aussi quoique le temps et l’Espace consistent en rapports, ils ne laissent pas d’avoir leur quantité. » [Cinquième écrit de Leibniz, (54), PUF, p. 150]
It is a question of analyzing Clarke’s response, who maintains that ratios and proportions cannot be quantities.
- Nadine de Courtenay (HPS, Univ. de Paris, SPHere)
Présentation de la Correspondance de Leibniz-Clarke
- Sabine Rommevaux-Tani (CNRS, SPHere)
Analyse de l’argument de Clarke
Wednesday November 18, 2020, !! postponed !!
Between measurement and calculation: history of mathematical instruments
Remote access: a link will be sent before the session to those who request it. Write to : nadine.decourtenay ( at ) univ-paris-diderot.fr |
Session organised by M. Pegny (IHPST)
The study of the instruments constitutes a major material source for the historiographies of measurement and calculation. During this session, we will pay particular attention to analog instruments, these instruments manipulating the continuum that the success of the digital model has relegated to oblivion, and to the conceptual problems posed by their classification as a measuring instrument or calculating instrument.
- Loïc Petitgirard (CNAM)
Mesurer et calculer : de l’histoire des instruments « réalisant une transformée de Fourier »
L’exploration de l’histoire des instruments « réalisant une transformée de Fourier » livre une pléiade d’objets qui sont par conception des instruments de mesure doublés d’instruments de calcul. Dans les spectromètres à transformée de Fourier, dans les dispositifs pour la cristallographie par rayons X, dans l’optique de Fourier, la capacité à faire une mesure ne prend sens que parce qu’elle est combinée à une capacité de calcul (d’inversion) de transformée de Fourier. Par principe, et en pratique, ces instruments agrègent et font système de dispositifs dédiés à la mesure et d’organes de calcul. Selon que ces instruments sont analogiques ou numériques, les modalités de cette hybridation mesure / calcul sont différentes. Si on y ajoute les impératifs d’automatisation des procédures et des résultats, la capacité à livrer un résultat en temps-réel, les choix de conception et les types d’instrumentations possibles ont été encore multipliés ….au moins jusqu’à l’introduction et la diffusion massive du célèbre algorithme de FFT (Fast Fourier Transform – 1965). L’exposé vise à donner un aperçu de quelques-unes de ces hybridations, et tentera d’en dresser une typologie permettant de dépasser les catégories classiques : instrument matériel vs instrument mathématique ; instrument de mesure vs instrument de calcul.
- Maël Pégny (post-doc in AI Ethics, Carl Friedrich von Weiszäcker-Zentrum, Universität Tübingen)
Mesure ou calcul ? Enjeux historiques et philosophiques de la classification des instruments analogiques
L’histoire des instruments de calcul analogiques est décisive pour la compréhension de l’histoire des techniques computationnelles, dans la mesure où elle s’inscrit dans le temps long et joue un rôle décisif pour des domaines majeurs de la demande de calcul, comme le calcul astronomique ou la simulation de grands problèmes d’ingénierie. L’examen des sources matérielles pose cependant des problèmes redoutables de délimitation et de classification : qu’est-ce qui doit compter comme instrument de calcul par opposition à un instrument de mesure ? Qu’est-ce qu’un dispositif de calcul automatisé ? Qu’est-ce qu’une machine de calcul par opposition à un dispositif de simulation ou de visualisation ? Répondre à ces questions implique un retour philosophique sur les sens de ces classifications, et les problèmes théoriques qu’elles nous aident à résoudre.
Wednesday December 16, 2020, 9:30 am–12:30 am
Reflection on measurement uncertainties in physical sciences and climate sciences
If you wish to participate in this session it is requested to send a message with "zoom-uncertainty" in the subject line to: nadine.decourtenay ( at ) univ-paris-diderot.fr before December 14, 2020 |
Session organised by N. de Courtenay (HPS, University of Paris, SPHere) & Fabien Grégis
- Fabien Grégis (LIUC Università Cattaneo, Castellanza, & SPHere)
Savoir ce qu’on ne sait pas ? L’« incertitude de mesure » en métrologie et en physique.
Dans les sciences expérimentales, il est reconnu qu’un résultat de mesure n’est complet que s’il est présenté avec une marge d’erreur, appelée « incertitude de mesure ». Cette dernière est souvent interprétée comme un jugement porté sur le résultat de mesure. Ce jugement peut être positif lorsqu’il souligne par exemple la précision spectaculaire que nous sommes capables d’atteindre dans certains domaines ; il véhicule au contraire une valeur négative s’il s’agit de pointer des limites dans notre connaissance. Je chercherai à montrer que cette façon de comprendre l’incertitude de mesure se heurte à une difficulté majeure, que les métrologues ont eux-mêmes identifié comme un problème d’ « inconnaissabilité ». Pour cela, j’analyserai les différentes définitions que les métrologues ont proposé pour le concept d’incertitude de mesure, ainsi que la façon dont cette dernière est mobilisée et interprétée en physique de précision. Cela m’amènera à défendre que l’incertitude ne mesure ne caractérise pas la qualité d’un résultat, ni non plus la confiance que l’on peut lui apporter. Il faut plutôt comprendre ce concept comme une information faisant partie intégrante du résultat, et servant d’outil dans le travail plus large de gestion de l’incertitude (au sens plus général) par les scientifiques
- Julie Jebeile (Institut de Philosophie & Oeschger Center for Climate Change Research, University of Bern)
Pluralisme des modèles et incertitudes dans les sciences du climat
Les prédictions climatiques ne sont pas tirées d’un unique modèle mais d’un ensemble de modèles développés à travers le monde par les équipes de recherche. L’ensemble, appelé multi-modèle, sert notamment à quantifier les incertitudes climatiques liées aux multiples choix de représentation, et ainsi à calculer les probabilités associées aux possibles changements futurs. Dans cet exposé, j’examinerai les conséquences épistémiques, sur une telle méthode, de l’organisation sociale et pratique de la recherche. J’explorerai les possibilités nouvelles qu’offre toutefois la pluralité des modèles pour produire des connaissances utiles.
February 10, 2021, 9:30am–12:30am
One problem, several possible measures
Session organized by M. Lacomme (University of Paris–ED 623, SPHere), E. Lejeune (University of Paris–ED 623, SPHere & LATTICE), M. Pégny (post-doc in AI Ethics, Carl Friedrich von Weiszäcker-Zentrum, Universität Tübingen)
- Guillaume Lecointre (MNHN, UMR 7205)
Mesurer la parenté
L’arbre généalogique de tout vivant a disparu. On ne sait pas qui descend de qui, même si les ancêtres sont théoriquement requis. Pourtant, nous avons trouvé le moyen d’approcher indirectement l’ancêtre sous forme de portrait-robot. Ce dernier se décrit comme une collection de caractères homologues légués à la descendance. Il se reconstitue à partir d’un exercice qu’on appelle reconstruction phylogénétique, et qui intervient précisément quand on n’a pas les ancêtres sous la main. Il s’agit de mesurer les degrés relatifs d’apparentement par l’emboîtement hiérarchique de partages de caractères, du plus général au plus particulier. Deux figures mathématiques peuvent également représenter ces hiérarchies : des ensembles emboîtés (ensembles plutôt que partitions), ou bien un graphe connexe orienté (un "arbre"). Selon le programme classificatoire fixé par Darwin en 1859 et réalisé par Hennig en 1950, ce graphe fournit directement la classification hiérarchique. Chaque taxon y est défini par des caractères homologues partagés par ses membres (partages plutôt que césures). Les approches par distances ne peuvent pas réaliser ce programme, car en gérant la ressemblance de manière numérisée, elle interdit de pouvoir situer dans l’arbre des caractères homologues. Et donc de pouvoir reconstituer tout portrait-robot. Ce sont des caractères partagés homologues dont ont besoin les évolutionnistes. Les groupes ne peuvent pas être fondés sur des césures, des exclusions : c’est une affaire de cohérence logique. Ces caractères partagés sont la seule façon d’instancier les groupes dans la nature, car ceux-ci n’ont pas d’autre existence matérielle propre (anti-réalisme). Et encore : un caractère acquis (les quatre membres chez les tétrapodes) peut être secondairement perdu (cas des serpents, qui perdent les membres mais restent des tétrapodes par d’autres traits comme l’atlas). Ceci nous amène au mosaïcisme phylogénétique, anti-essentialiste. La pensée phylogénétique permet de reconnaître en nous les traits animaux sous des formes spécifiques. En cela, l’anthropocentrisme est inversé : il ne consiste pas à humaniser l’animal, mais à zoologiser l’humain.
- 11am
Christophe Denis (Laboratoire LIP6, Sorbonne University)
Challenges and Opportunities on Using Deep Learning to Better Explain Complex Phenomena
Joint scientific advances in mathematical modeling and high performance computing have for decades increased the accuracy of numerical simulations in the hope of explaining increasingly complex phenomena. These simulations are built on a hypothetico-deductive model in which the behavior of phenomena is governed by mathematical equations. Some complex and coupled physical simulations, such as used to study the climate change, suffer from a problem of validation and explainability mainly due to by epistemic uncertainties resulting from a lack of scientific knowledge. At the same time, Artificial Intelligence based on Deep Learning has produced impressive results, mainly in the areas of pattern recognition and natural language processing, succeeding the previous dominance of symbolic AI, centered on logical reasoning.
It is why in 2008 Chris Anderson has reported concerning Deep Learning that the "The data deluge make the scientific method obolete" and "We can stop looking for models. We can analyze the dat without assumptions about what it might show. The correlation is enough". Using machine learning to predict and explain complex phenomena is indeed an ongoing research project in many scientific disciplines. For example, in physics, Machine Learning has been used to better predicting the Kuramoto-Sivashinsky chaotic system. Moreover, a recent new paradigm called agnostic science has been proposed to be able to give by using Deep Learning relevant answers concerning an unknown phenomenon. However, the validation and explanation can not only be performed by examining the correlations between the variables, which is therefore a weak and difficult point in Deep Learnin .
It is crucial to obtain explanations from the results obtained from the Deep Learning black box outcomes. The explanation is both a product and a process, and have to be adapted to the recipient. For example, an explanation should allow:
- for a developer, to understand how the application works in order to debug or improve it;
- for a user to understand the scope of use and the underlying assumptions;
- for an expert, to rule on an audit during an incident.
This talk presents the main lines of our research project done in collaboration with philosophers of science. The big challenge is to define a general framework to use Deep Learning for generating new scientific knowledge from data or measurements. Our purposes will be illustrated with a deep learning geoscience application dealing with the current inversion algorithms to achieve a finer adjustment of the damping parameters. The first step of this project, done with Franck Varenne has been to underline the epistemic differences between of a machine learning model and a causal mathematical model, then to perform an epistemological clarification between interpretation, explanation and understanding . The second step of this project concerns the explanation assesment. This evaluation framework would be used also outside the scientific knowledge discovery theme for example on domestic or industrial applications based on Deep Learning.
Wednesday March 10, 9:30am–12:30am (tbc)
Identification & quantification
If you wish to participate in this session it is requested to send a message with "measures 10-03-2021" in the subject to sarahnhijmans ( at ) gmail.com latest on March 9th |
Session organised byr S. Hijmans (University of Paris–ED 623, SPHere) & N. de Courtenay (HPS, University of Paris, SPHere)
- Jan Potters (Universiteit Antwerpen)
Identification and Measurement: On the Experimental Study of the Velocity-Dependency of the Electron’s Charge-to-Mass Ratio
In his (2006) book on the history of the electron, Theodore Arabatzis argues that during the early years of experiments on the electron, scientists identified the participation of the electron in particular phenomena by measuring the charge-to-mass ratio present. One particular illustration of this claim is provided, he claims, by Walter Kaufmann’s experiments on the velocity-dependency of the charge-to-mass ratio of Becquerel rays: while scientists differed in their theoretical interpretation of the phenomenon, they all agreed that it was the electron that was responsible for the phenomenon because the charge-to-mass ratios measured agreed with those obtained in other experiments.
In this talk, I will offer an extensive historical discussion of Kaufmann’s experiments and the attempts to replicate his results. This will show that Arabatzis’ claim needs to be nuanced: while all scientists agreed that the electron was involved, there were, especially in the German context, many disputes about the validity of the measured charge-to-mass ratio values. By focusing in more detail on how photographic plates were used in these experiments, I will then argue, by means of Kathryn Olesko’s work, that these disputes, and their situatedness in a particular local context, can possibly be understood in terms of particular precision measurement cultures. As a sort of conclusion, I will then present some reflections on how Arabatzis’ views on experimental identification can be extended to accommodate these kinds of disputes about measurement values.
- Justin Gabriel (University of Paris–ED 623, SPHere)
Identifying cosmic rays in the early age of particle physics: the odd reception of a convincing observation
At the end of the 1930’s, the community of cosmic ray physics broke out of an important crisis. In his account of this episode, Peter Galison shows how experimentalists and theoreticians struggled to reconcile the discrepancy between measurements and the predictions produced by quantum electrodynamics. Discrepancy was such that the theory, already plagued by an infinite quantities issue, was strongly threatened down to its foundations. The crisis was ended by the experimental evidence of the possibility to split the cosmic rays in two components, of which one was identified as electrons and the other as new unexpected particles. The determination of the mass of these particles has been one of the big issues of the following decade and one of the main projects at the physical laboratory of the Ecole Polytechnique led by Louis Leprince-Ringuet.
The theoretical crisis has left a lasting mark on Louis Leprince-Ringuet. In my presentation, I will show how his doubts about this theory led him to develop a unique method that was, he said, the only true way to measure the mass of the cosmic rays. During this development he obtained a mass measurement that led him to claim the identification of a new particle.
I claim that the structural peculiarity of this observation was an important factor of its odd reception. I will show that despite the fact that the arguments of Leprince-Ringuet were deemed convincing, his observation had no room to be received because the identification was only a mass measurement.
A critical approach to the opposition between ’concrete’ and ’abstract’ numbers
If you wish to participate in this session it is requested to send a message with "measures 5-5-21" in the subject to eric.vandendriessche ( at ) univ-paris-diderot.fr latest on May 4th |
Session organized by C. Proust & E. Vandendriessche
This session of the seminar will present some contributions to a forthcoming special issue of the Journal Historia Mathematica (C. Proust and E. Vandendriessche eds.) which goal is to critically analyze the opposition between “concrete numbers” and “abstract numbers” in history and historiography. Some historians, philosophers, and anthropologists have theorized a separation between “numbers” and the entities enumerated or counted with these numbers, and more particularly, between numbers and measurement units attached to them in the expression of measurement values. This perception gave rise to a linear history of oral and written numerations rooted in evolutionary theories and classifications (Smith, Guitel, and many others). To what extent does this separation reflect the practices carried out in societies or social groups under scrutiny by these scholars? How has the notion of “abstract numbers”—as opposed to those described as “concrete numbers” shaped the history of numerations? This issue’s goal is to confront common historiography with the great diversity of numeration and measurement systems (and their interrelations), attested to by the various textual and ethnographic sources available to us (Murdoch, Thomas, Lean, etc.).
- 2pm–2:30pmChristine Proust (CNRS, SPHere) & Eric Vandendriessche (CNRS, SPHere)
Introduction: Concrete numbers” versus “abstract numbers”
- 2:30pm–3:45pm
Débora Ferreira & Gert Schubring (Institut für Didaktik der Mathematik, Bielefeld University, & visiting professor at the Universidade Federal do Rio de Janeiro)
Complex numbers" and the problem of multiplication between quantities
We are presenting the discovery of a class of concrete numbers, first named “nombres complexes” by two French textbook authors in the middle of the 18th century, Étienne Camus and Étienne Bézout, in the period of use of non-decimal metrological systems. Bézout’s claim of non-commutativity of the multiplication of two such numbers will be investigated, together with a study of operating with this class of numbers. The presentation will show shortcomings in the understanding of the dimensions – or “species” - of these barely known and researched numbers, as well as a persistence in not mastering the conceptual understanding of the nature of these numbers. The analysis will focus on French textbooks until the second half of the 19th century and includes, among other countries, in particular Brazilian textbooks. Extension to the 19th century allows research on the impact of the change to decimal number systems on concrete numbers.
- 4pm–5:15pm
Christine Chambris (Laboratoire de didactique André Revuz, Université de Cergy-Pontoise) & Jana Visnovska (School of Education, University of Queensland, Australia)
On history of units in French elementary school arithmetic: The case of proportionality
The measurement of magnitudes was at the foundation of numbers and calculation in academic mathematics until the 19th century. It provided units and the concrete and abstract numbers that formed the basis of school arithmetic up to mid-20th century in France. Our analysis of changes in teaching resources for proportionality (late 19th to early 21st century) documents how the disappearance of magnitudes in academic knowledge was followed by the loss of the differentiation of the conceptual complexity of mathematical ideas related to proportionality. These changes made teaching and learning about proportionality considerably more difficult, and we later witness their gradual, but not yet systematic, reversal.
- 17:15pm–6pm
General discussion
Next sessions : the program will be soon on this page and announced via the mailing lists Theuth and Metzger
VENUE: Map
Metro line 14 / RER C / Stop: Bibliothèque François Mitterrand
Metro line 6 / Stop: Quai de la Gare
Bus 64 / Stop: Tolbiac-Bibliothèque François Mitterrand
Buses 62 & 89 / Stop: Avenue de France or Bibliothèque François Mitterrand (terminus)
Bus 325 / Stop: Watt