Partenaires

logo Sphere
CNRS
Logo Université Paris-Diderot Logo Université Paris1-Panthéon-Sorbonne


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil > Archives > Séminaires des années précédentes > Séminaires 2019-2020 : archives > PHiS IA : Philosophy, History & Sociology of Artificial Intelligence 2019–2020

PHiS IA : Philosophy, History & Sociology of Artificial Intelligence 2019–2020


PRESENTATION

The purpose of this seminar is to position itself at the center of the scientific, epistemological, technological and societal transformations that the developments of artificial intelligence engage.

Artificial intelligence is a story that officially begins with the creation of its denomination in 1957 at the Dartmouth conference ; conference that formalizes the discipline in its goals, both epistemological and performative. It is also a "prehistory", from the 19th century, with the appearance of Babbage’s machine and the first programs, until the emergence, after the war, the first fully electronic computers, with integrated memory. The study of these history and prehistory makes it possible to understand how the issues and controversies related to this discipline were built : historically scientific and methodological issues in the context of competition between the connexionist and the symbolic approaches of the human mind ; technological issues, both contingent on the development and deployment of new computational capabilities, and related to the ability to perform functions devolved to cognition ; finally ethical issues in the overcoming of man in his cognitive activities and in the redefinition of human functions. The AI ​​therefore has this dual attribute of being both an accessory of knowledge in the science of cognition and a technology whose purpose is constantly reevaluated in the light of its performance.

Contemporary AI, "machine learning" with deep learning networks based on models simulating biological neural networks, among other examples, have profoundly transformed this discipline into a means, every day more effective , to perform certain tasks once reserved for humans. As a technology, it is increasingly embedded in socioeconomic systems, particularly in business organization, and is becoming a new sociocultural actor as, for example, a tool of medical prognosis or support for energy expenditure management. This rise in power raises many questions, in this case in ethical, ecological, political and philosophical terms. As an accessory of knowledge, it questions the status of scientific theories, the epistemological modalities necessary to maintain the stability of the edifice of our knowledge, as well as the status of neural networks as part of the modeling of the mind. the very definition of what we call "intelligence".

The seminar we propose therefore aims to study AI in its technological / scientific duality, through its historical, philosophical, epistemological, ethical and sociological aspects. In order to understand the modern stakes of this discipline, we will consider it here as defined in its historicity, but also as a scientific tool, tool of knowledge and transformation of knowledge, of understanding, finally as a socio-cultural entity in interaction with its environment, whether it is human or non-human.


Monthly seminar, a proposal of Benoît Duchemann (Univ. Paris Diderot, SPHere), Jean-Pierre Llored (associated researcher at UMR SPHERE ; Teacher-researcher fellow in human and social sciences at Ecole Centrale, Casablanca, Marocco ; visiting teaching fellow au département de philosophie, Université de Bristol, Royaume-Uni ; visiting scholar, Linacre College, University of Oxford, U.K.) and Jean-Jacques Szczeciniarz (HPS, Univ. Paris Diderot, SPHere)


PROGRAM 2019-2020


The sessions take place at the University Paris Diderot, on Thursdays, 2 pm–5 pm, Room Kandinsky, 631B
University Paris Diderot, Building Condorcet, 4, rue Elsa Morante, 75013 Paris *
Map of campus and access

All sessions of SPHERE seminars are suspended from March 15 due to covid-19. We hope to be able to provide further updates and to see you soon.
[To : AbstractsPresentation ]
* Schedule Theme & speakers
1 17/10/2019 Inaugural Session
  • Jean-Gabriel Ganascia (Pr AI, Univ. Paris 6 & LIP6)
    Limitations logiques, épistémologiques et éthiques de l’apprentissage machine [abs.]
2 21/11 Symbolic language processing and NLP connectionist
  • Laure Soulier (Lect. AI, Univ. Paris 6 & LIP6)

    Le symbolique au service du connexionnisme et vice-versa : apprentissage de représentation augmenté, extraction d’information et bases de connaissances [abs.]

  • Juan Luis Gastaldi (ETH Zürich, SPHere)
    La revanche connexionniste : le succès des vecteurs des mots dans le traitement automatique du langage [abs.]
19/12
postponed to 16/04/2020 !!!
History of AI
  • Dominique Cardon (Pr in sociology, Sciences Po & Media Lab)
    La revanche des neurones – la controverse de l’intelligence artificielle [abs.]
  • Frédéric Fürst (Lect. AI, Univ. of Picardie & MIS)
    Intelligence artificielle et astronautique : utopies parallèles [abs.]
3 30/01/2020 Progress, IA and ethics
  • Vincent C. Müller (Pr in philosophy & ethics, Eindhoven Univ. of Technology) : Is it time for robot rights ? [abs]
  • Sonia Desmoulin-Canselier (Droit et Changement Social, UMR 6297, CNRS, Univ. of Nantes)
    La place de l’humain dans un monde algorithmé : questionnements juridiques sur les conditions du déploiement des systèmes algorithmiques d’aide à la décision [abs.]
4 20/02 Philosophy of AI : Perception, Cognition and AI !! session cancelled because strike
  • Gunnar Declerck (Mcf, COSTECH EA 2223, UTC) : Formaliser et mécaniser la cognition. Quelques critiques et comment les désamorcer [abs.]
  • Jean-Michel Roy (Pr, ENS Lyon & ECNU Shanghai) : A quelles conditions un artefact peut-il être intentionnel ? La condition d’incorporation [abs.]
5 26/03 Logic and proof in IA / IA and deliberation
  • JJ Szczeciniarz (Pre, SPHere, University Paris-Diderot) : tba
  • Jean Sallantin (Pre, LIRMM, Univ. of Montpellier)
    Le débat public : un défi à l’IA [abs.]
6 02/04
13:30–16:30
IA for sociology and sociology of AI
  • Francis Chateauraynaud (Dre, GSPR, EHESS)
    L’IA entre expérimentation cognitive, promesse technologique et problème public. Un regard pragmatiste
  • Olessia Kirtchik (Doct. in sociology, EHESS, Paris, & researcher at Institut of historical and theoritical studies in Human Sciences Poletayev, the National Research University, "Haute École d’Économie”, Moscow)

    L’objet insaisissable pour une sociologie de l’IA : critiques et alternatives [abs.]

7 16/04
13:30–16:30
History of AI [session initially scheduled for 19/12/2019]
  • Dominique Cardon (Pr in sociology, Sciences Po & Media Lab)
    La revanche des neurones – la controverse de l’intelligence artificielle [abs.]
  • Frédéric Fürst (Lect. AI, Univ. of Picardie & MIS)
    Intelligence artificielle et Astronautique : utopies parallèles [abs.]
8 07/05 IA, visualization and models
  • Jean-Daniel Fekete (Dre, Inria)
    Visualisation pour l’analyse de réseaux dynamiques et de données en hautes dimensions
  • Franck Varenne (Mcf, ERIAC, Univ. de Rouen, & IHPST)

    Une contribution de l’épistémologie des modèles à l’explicabilité des algorithmes [abs.]



ABSTRACTS

[To : ProgramPresentation ]


Thursday October 17, 2019 : Inaugural Session

  • Jean-Gabriel Ganascia (Pr, AI, Univ. Paris 6 & LIP6)
    Limitations logiques, épistémologiques et éthiques de l’apprentissage machine
    L’écho grandissant que reçoivent les masses de données (Big Data en anglais) et l’apprentissage profond (Deep Learning en anglais) depuis quelques années, masquent mal leurs limitations. On les pare de toutes les vertus au point de laisser entendre qu’elles donneront accès à une « intelligence artificielle forte » qui transformera l’humanité. Pourtant, si ces techniques apportent et apporteront beaucoup dans un grand nombre de secteurs, par exemple dans le domaine médical, pour aider à diagnostiquer des maladies, ou dans le champ social, pour faire de la prédiction et rationaliser certains choix, elles reposent sur l’induction, c’est-à-dire sur le raisonnement qui va du particulier au général. En conséquence, elles sont soumises aux limitations logiques de toute induction que nous tâcherons de rappeler. De plus, comme nous le montrerons, ces techniques permettent de détecter des corrélations qui ne correspondent pas toutes à des relations de causalités, et qui s’avèrent parfois trompeuses, contrairement à ce qu’affirment les tenants des masses de données. Enfin, nous verrons que l’emploi abusif de procédures de décision fondées sur l’apprentissage machine peut avoir des effets prédateurs sur la société, car loin d’être objectifs, les choix qu’elles engagent comportent des biais générateurs d’injustices.


Thursday November 21, 2019 : Traitement symbolique du langage et NLP connexioniste

  • Laure Soulier (LIP6, Professeur à Paris-6)
    Le symbolique au service du connexionnisme et vice-versa : apprentissage 
de représentation augmenté, extraction d’information et bases de 
connaissances
    
Donner du sens aux mots, aux phrases, aux documents... Que ce soit pour la construction d’un moteur de recherche, pour la traduction automatique, ou encore les systèmes de questions-réponses, la compréhension des textes est un enjeu prépondérant en informatique. Les données textuelles ont en premier lieu été représentées sous la forme d’un "sac-de-mots", représentatif des mots présents/absents et facilement manipulable. Cependant, cette structure perd totalement la notion d’ordre des mots, de structure grammaticale et manque cruellement de sémantique.
Une des premières réponses à cette limite a été de considérer les bases de connaissances, structurées en triplet de deux entités et d’une relation, permettant ainsi d’améliorer la compréhension des textes grâce à la "sémantique relationnelle".

    Plus récemment, les avancées en réseaux de neurones (et plus particulièrement l’apprentissage de représentation a émergé comme une nouvelle solution pour capturer la sémantique des mots grâce à 
l’hypothèse distributionnelle conditionnant la représentation des mots à être similaire si les mots apparaissent dans un même contexte.

    Dans cet exposé, nous présenterons dans un premier temps les deux approches de représentation sémantique (relationnelle et distributionnelle), leurs avantages mais aussi leurs limites. En second 
lieu, nous explorerons la combinaison de ces deux approches ; débouchant d’une part sur de l’apprentissage de représentation augmenté/ancré par rapport aux bases de connaissances, et d’autre part sur l’exploitation des réseaux de neurones pour l’extraction d’information et la construction des bases de connaissances.
  • Juan Luis Gastaldi (ETH Zürich, SPHere
    La revanche connexionniste : le succès des vecteurs des mots dans le traitement automatique du langage
    
Si l’efficacité des méthodes symboliques dans le traitement automatique du langage naturel a rendu plus difficile l’arrivée des techniques d’apprentissage profond dans ce domaine, le succès grandissant des modèles basés sur des vecteurs de mots (word embeddings) a été l’occasion d’une adoption massive de ces nouvelles techniques connexionistes. Dans cet exposé, il s’agira de revenir sur l’émergence de ces modèles, pour essayer de comprendre les raisons de leur succès au moyen de la conception du langage qu’ils mettent en œuvre.


Thursday January 30, 2020 : Progress, IA and ethics

  • Vincent C. Müller (Pr in philosophy & ethics, Eindhoven Univ. of Technology)
    Is it time for robot rights ?
    I will investigate the suggestions some authors have made, that we should allocate rights to robots, or to artificial moral agents (AMA) that are able to make complex moral decisions and act upon them. I find little reasons to even consider robot rights now, even if one accepts the assumptions made (some of the issue is the confusion of machine ethics with AI ethics). On a more constructive note, I take a look at the notion of ‘agency’ (‘moral status’, ‘responsibility’, ‘sentience’) in the light of the discussion of embodied and extended cognition. It appears that agency is too easily allocated in the human case, so we should be careful in the case of artificial agents. In AI we should not aim for agency at all, but just for causing the orchestration of intelligent behaviour. If we understand the aims of AI in this way we see that they have no relation to moral status.
  • Sonia Desmoulin-Canselier (Droit et Changement Social, UMR 6297, University of Nantes)
    La place de l’humain dans un monde algorithmé : questionnements juridiques sur les conditions du déploiement des systèmes algorithmiques d’aide à la décision
    
L’innovation et la décision au XXIe siècle sont placées sous le double signe de la collecte massive de données et du traitement algorithmique. Dans tous les secteurs de la vie économique, juridique et sociale, on attend de la « mine d’or » du big data des pistes de recherches innovantes, des informations inédites, des prévisions et des solutions « individualisées » ou « personnalisées ». De telles perspectives ne peuvent toutefois se réaliser sans le recours à de puissants outils informatiques, pour stocker les données, mais surtout pour les traiter et pour effectuer des calculs. Ces systèmes automatisés permettant de formuler une réponse (ou une proposition de réponse) à une question ou un problème donné sont des systèmes algorithmiques. Dans le secteur médical, les solutions d’aide à la décision se sont multipliées : depuis l’aide au diagnostic (analyse des images médicales et détection des signaux morbides, probabilité diagnostique, examens complémentaires) 
jusqu’à la prescription médicamenteuse (risque allergique, incompatibilités entre traitements, posologie) en passant par la prédiction (calcul du risque de récidive). A présent, c’est en matière 
de police (calcul de risque sur une zone géographique ou de risque de récidive pour une personne), d’administration (détermination des affectations dans l’enseignement supérieur, attribution d’une 
autorisation) et de justice (calcul des prestations compensatoire ou des dommages-intérêts) que les algorithmes se déploient. Les enjeux du recours à de tels outils sont nombreux. Leur complexité et leur fonctionnement peuvent mettre en difficulté l’autonomie du décideur et le respect des droits du destinataire de la décision. A partir de quelques exemples, nous étudierons les réponses du droit en vigueur en Europe et en France et nous nous interrogerons sur les évolutions possibles et nécessaires pour faire face à ces enjeux.



Thursday February 20 : Philosophy of IA : Perception, Cognition & AI !! session cancelled because strike

  • Gunnar Declerck (Mcf, COSTECH EA 2223, UTC) : Formaliser et mécaniser la cognition. Quelques critiques et comment les désamorcer
    Le projet de formaliser et de mécaniser la pensée (la cognition sous toutes ses formes) qui anime l’Intelligence Artificielle a rencontré, dès son émergence, des résistances et subi des critiques. En particulier, le philosophe américain Hubert L. Dreyfus a, dès les années 1960, soulevé tout un ensemble d’objections épistémologiques (notamment inspirées d’auteurs de la tradition phénoménologique) contre ce projet. Pour Dreyfus, le genre de compétences sur lesquelles repose le comportement intelligent humain possède un caractère non formalisable et non propositionnel. Le projet de construire des machines intelligentes, répliquant les performances des humains dans des domaines tels que le langage et la perception, à partir de règles formelles manipulant des symboles, est donc, dans son principe même, voué à l’échec. Le comportement intelligent est l’expression de savoir-faire (know-how) irréductibles à des connaissances propositionnelles. Subordonner le comportement à un système de règles spécifiant quoi faire dans un ensemble de situations prédéterminées, c’est précisément perdre ce qui fait son intelligence.
    Bien que j’estime que les critiques de Dreyfus soient solides, je voudrais indiquer dans cette intervention une voie qui permet à mon sens (en tout cas en partie) de les désamorcer, en montrant qu’elles ne valent, pour l’essentiel, que tant que l’on considère le projet de l’IA comme un projet de simulation ou de réplication de l’intelligence – et qu’elles perdent leur fondement dès lors qu’on le considère comme un projet de supplémentation, prothétisation ou augmentation des performances cognitives. Selon cette conception alternative, l’objectif n’est pas de concevoir des machines qui pensent (comme nous, mieux que nous, autrement que nous), mais, selon le mot de Bruno Bachimont (1994, 2004), des machines qui aident à penser, instrumentent l’exercice de la pensée – en bref, des prothèses cognitives. Ces termes déplacent la question des rapports entre la cognition humaine et la machine, puisqu’il ne s’agit plus de comprendre pour faire (modéliser la cognition humaine pour en répliquer artificiellement le fonctionnement), ou même de faire pour comprendre, mais de concevoir des systèmes artificiels qui, en raison de leur fonctionnement, offrent d’augmenter ou pallier les limites de la cognition humaine. La question n’est plus alors de savoir si l’intelligence humaine obéit à des règles, si bien qu’une machine obéissant à des principes computo-symboliques pourra (en principe) en répliquer le fonctionnement. Elle est de savoir si une machine obéissant à ce genre de principes peut constituer une prothèse efficace.
    Pour illustrer cette conception alternative de l’IA, dans la deuxième partie de mon intervention, je prendrai un exemple tiré du champ de l’ingénierie des connaissances, plus précisément des ontologies computationnelles. Les ontologies sont des systèmes de représentation basés sur des langages formels et dont le but est de permettre aux machines de tenir compte du « sens » des données qu’elles manipulent (exploiter leur sémantique). Les ontologies ont également leurs détracteurs : différents auteurs, dans la lignée des critiques de Dreyfus, avancent que les formalismes ontologiques sont trop rigides et trop mécaniques pour capter la mobilité et l’adaptabilité du langage naturel. Je tâcherai de montrer que ces critiques, parce qu’elles présupposent la subordination des ontologies à une exigence épistémique (modéliser de manière fidèle un référent) plutôt qu’opérationnelle (fonctionner et rendre service), sont infondées. Elles perdent leur raison d’être dès lors que l’on considère que la fonction des ontologies n’est pas de représenter de manière fidèle le mobilier et les structures constitutives de la réalité (réalisme) (Smith, 2004 ; Smith & Ceusters, 2010) ou la manière dont l’esprit se représente cette réalité (conceptualisme) (Gangemi et al., 2002 ; Merrill, 2010), mais (i) d’augmenter les capacités de catégorisation, d’accès à l’information et de manipulation de données et documents, et (ii) de normaliser les pratiques de catégorisation et d’encodage.
    • Bachimont, B. (1994). Artéfacture : des machines qui pensent aux machines qui donnent à penser. Techniques & culture, (23-24), 275-306.
      Bachimont B. (2004). Arts et Sciences du numérique : IC et critique de la raison computationnelle, Mémoire d’habilitation à diriger des recherches, Université de Technologie de Compiègne.
      Declerck, G., & Charlet, J. (2011). Intelligence Artificielle, ontologies et connaissances en médecine. Les limites de la mécanisation de la pensée. Revue des Sciences et Technologies de l’Information-Série RIA : Revue d’Intelligence Artificielle, 25(4), 445-472.
      Declerck, G., & Charlet, J. (2014). Pourquoi notre sémantique naïve n’est pas formalisable et pourquoi c’est (presque) sans conséquence sur l’ingénierie ontologique. Intellectica, 61(1), 143-188.
      Dreyfus H.L. (1992). What computers still can’t do. A critique of artificial reason, Cambridge/London : MIT Press.
      Dreyfus H.L., Dreyfus S.E. (1986). Mind over machine : the power of human intuition and expertise in the era of the computer, Oxford, Basil Blackwell Ltd.
      Gangemi, A., Guarino, N., Masolo, C., Oltramari, A., Schneider, L. (2002). Sweetening ontologies with DOLCE. In Knowledge engineering and knowledge management : Ontologies and the semantic Web (pp. 166-181). Springer Berlin Heidelberg.
      Merrill, G.H. (2010). Ontological realism : Methodology or misdirection ? Applied Ontology, 5(2), 79-108.
      Smith, B. (2004). Beyond concepts : ontology as reality representation. In Proceedings of the third international conference on formal ontology in information systems (FOIS 2004), 73-84.
      Smith, B, Ceusters, W. (2010). Ontological realism as a methodology for coordinated evolution of scientific ontologies, Applied Ontology, 5(3-4), 139-188.
  • Jean-Michel Roy (ENS de Lyon & ECNU Shanghai) : A quelles conditions un artefact peut-il être intentionnel ? La condition d’incorporation
    Le projet même d’un intelligence artificielle s’est toujours vu critiqué de manière radicale, questionnant sa possibilité même et non seulement ses implications en termes anthropologiques, sociaux ou éthiques. Son véritable essor dans le contexte de la révolution cognitive des années 50 n’ a pas failli à cette tradition. La critique qui en a alors été développée, et que l’on peut appeler classique dans la mesure où elle est dirigée contre l’IA dite elle-même classique et essentiellement fondée sur les principes du cognitivisme, a pris la forme générale de l’accusation que les artefacts proposés ne réunissaient pas les conditions nécessaires, par leur nature même, à la reproduction de certaines caractéristiques générales essentielles du phénomène de l’intelligence naturelle. Elle s’est en outre focalisée parmi ces propriétés sur celle de l’intentionnalité, beaucoup plus que sur celle de la conscience. Outre que la légitimité d’une telle perspective générale est loin d’aller de soi, cette critique classique présente la faiblesse de demeurer très imprécise dans sa partie positive, c’est à dire dire quant aux conditions qu’il faudrait remplir pour être en mesure de reproduire une caractéristique supposée essentielle telle que celle d’intentionnalité. L’une de celles qui a été proposée est la condition d’incorporation (embodiment). En vertu d’une telle proposition, un artefact ne peut exhiber de l’intentionnalité - et donc de l’intelligence - qu’à la condition que cette intentionnalité soit incorporée. Mais quel sens peut-on et faut-il donner au juste à une telle affirmation ? Dans quelle mesure est-elle en outre recevable ? Une incorporation artificielle est-elle même possible ? Jusqu’à quelle point se trouve-t-elle infirmée ou confirmée par le développement effectif de la recherche en intelligence artificielle ? Telles sont les grandes interrogations qui seront au coeur de cette présentation, qui ambitionne moins d’y apporter des éléments de réponse que d’en élaborer une mise en forme systématique permettant de progresser vers l’obtention de ces éléments de réponse.


Thursday March 19 : Logic and proof in IA / IA and deliberation

  • Jean Sallantin (Pre Univ. de Montpellier & LIRMM)
    Le débat public : un défi à l’IA
    Nous sommes à un moment critique de l’histoire où les modèles qui fondent la gouvernance de notre société sont contestés à toutes les échelles depuis la commune jusqu’aux règles des échanges commerciaux mondialisés de la planète.
    En effet, les citoyens - peut-être parce qu’ils sont plus instruits que par le passé et parce qu’ils ont accès plus facilement à davantage d’informations - revendiquent un pouvoir de décision politique et pas seulement, comme c’est le cas actuellement, de choix de représentants. Voter pour élire des représentants ne satisfait pas leur aspiration légitime à participer aux choix de sociétés dans lesquelles ils vont vivre.
    L’argument souvent mis en avant pour justifier l’absence de parole directe donnée aux citoyens est l’impossibilité matérielle de faire discuter ensemble un grand nombre de personnes.
    En effet, comment mettre en relation conversationnelle des individus qui se trouvent dans des lieux différents et parfois fort éloignés et qui sont disposés à discuter à des moments différents ?
    Si l’on admet qu’il existe une volonté politique de donner aux citoyens le rôle qu’ils revendiquent (ce que montrent le « grand débat » organisé en 2019 ou les lois relatives à l’organisation de référendum populaires), le problème semble donc être essentiellement de nature technique.
    Comment l’intelligence artificielle peut-elle permettre des débats citoyens sur les axes de la société de demain ?


Thursday April 2 : IA for sociology and sociology of AI

  • Olessia Kirtchik (Docteure en sociologie, EHESS, chercheure à l’Institut d’études historiques et théoriques en sciences humaines Poletayev, l’Université Nationale de Recherche "Haute École d’Économie”, Moscou)
    L’objet insaisissable pour une sociologie de l’IA : critiques et alternatives
    Le terme de l’“IA” est extrêmement flou en recouvrant une multiplicité d’applications et d’approches (systèmes experts basés sur des règles, diverses méthodes de l’apprentissage statistique, data mining…) qui possèdent des généalogies et des enjeux très divers. En outre, des efforts appliqués à la résolution de problèmes spécifiques (NLP, robotique, etc.) sont souvent menés à l’intersection de différentes disciplines telles que computer science, statistique, l’ingénierie des systèmes, sciences cognitives, linguistique et bien d’autres … Pour ces raisons, il n’est pas facile de définir l’“IA” en tant qu’objet de recherche en sciences sociales de manière cohérente. Dans cette intervention, je reviendrai sur des critiques de la notion de l’IA et proposerai quelques stratégies et questions de recherche, proprement sociologiques, que peut susciter cet ensemble technoscientifique.


Thursday April 16 : History of AI [session initially scheduled for 19/12/2019]

  • Dominique Cardon (Pr in sociology, Sciences Po & Media Lab)
    La revanche des neurones – la controverse de l’intelligence artificielle
    
Profitant des réussites spectaculaires des techniques de deep learning, les promesses de l’Intelligence artificielle (IA) sont revenues occuper le débat public. Dans cette conférence, on propose de retracer quelques aspects de l’histoire de l’Intelligence artificielle afin de comprendre les défis présents. Le « troisième printemps de l’IA » se caractérise, en effet, par le retour du paradigme connexionniste qui avait été marginalisé lors du « second printemps » de l’Intelligence artificielle dans les années quatre-vingt. La nouvelle vague de promesses de l’IA a pris forme grâce aux opportunités nouvelles offertes par les données massives et aux nouvelles capacités de calcul des ordinateurs. Mais, elle propose surtout une autre manière de rendre les machines « intelligentes ». Il ne s’agit plus de demander aux calculateurs de raisonner, mais bien d’apprendre des données et de former des modèles de prédiction à partir des données. Ce changement de paradigme de l’IA a de nombreuses conséquences : il propose une représentation différentes de la société qui s’appuie sur le comportement des individus plutôt que sur leurs catégories d’appartenance, il ouvre des possibilités d’automatisation du travail, il présente des opportunités nouvelles mais aussi des risques de biais dans les calculs. Cette conférence propose d’examiner les défis éthiques et politiques que pose les développements de l’IA.
    • Les travaux de Dominique Cardon portent sur les usages d’Internet et les transformations de l’espace public numérique. Ses recherches récentes portent sur les réseaux sociaux de l’Internet, les formes d’identité en ligne, l’autoproduction amateur et l’analyse des formes de coopération et de gouvernance dans les grands collectifs en ligne. Il conduit aujourd’hui une analyse sociologique des algorithmes permettant d’organiser l’information sur le web.
      Il a publié La démocratie Internet, Paris, Seuil/La République des idées, 2010, avec Fabien Granjon, Mediactivistes, Paris, Presses de Science po’, 2010 (2ème éd. enrichie : 2013), avec Antonio Casilli, Qu’est-ce que le digital labor ?, Paris, Ina Éditions, 2015, A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil/République des idées, 2015 et, avec Jean-Philippe Heurtin, Chorégraphier la générosité. Le Téléthon, le don et la critique, Paris, Économica, 2016.
  • Frédéric Fürst (Lect. AI, Univ. of Picardie & MIS)
    Intelligence artificielle et Astronautique : utopies parallèles
    
L’intelligence artificielle est un projet lancé en 1956 visant à réaliser des machines dotées d’une intelligence similaire à celle des humains. Les initiateurs du projet, et de nombreux chercheurs en IA depuis cette époque, ont oeuvré avec la conviction que cette ambition était rationnelle et réaliste. Mais au fil des décennies, l’objectif initial, qu’on appelle IA forte, est apparu de plus en plus utopique et a fini par se diluer et se morceler en un ensemble d’objectifs bien plus modestes, ce qu’on nomme l’IA faible. Bien que critiqué dans sa faisabilité et pour ses implications sociales et éthiques, l’intelligence artificielle n’en demeure pas moins un champ des sciences et techniques dynamique et qui suscite toujours autant d’enthousiasme. Les années 1950 ont également vu la naissance d’un autre domaine scientifique et technique fantasmatique : l’astronautique. En retraçant 
l’histoire de l’IA en parallèle avec celle de l’astronautique, on mettra en évidence des analogies entre les deux, au-delà de leur aspect utopique et de leur corrélation chronologique.


Thursday May 7 : IA, visualization and models

  • Franck Varenne (Lect., Univ. of Rouen, ERIAC, & IHPST)
    Une contribution de l’épistémologie des modèles à l’explicabilité des algorithmes
    Il y a aujourd’hui une demande croissante d’explicabilité pour les algorithmes assurant des fonctions de modèles de prédiction ou de décision (médicale, juridique, etc.) et qui utilisent pour ce faire des techniques formelles d’apprentissage machine : régression, classification bayésienne, arbres de décision, forêts aléatoires, machine à vecteurs de supports, réseaux de neurones et leur perfectionnement, le deep learning. Comme on s’en doute, cette demande d’explicabilité, très discutée actuellement dans la littérature, est riche et n’est pas dépourvue d’ambiguïtés ainsi que plusieurs auteurs l’ont déjà signalé (Herman, 2017 ; Gilpin et al. 2018). Il convient d’abord de distinguer les différents types de sujets humains, cibles de cette explicabilité : ce peut être le modélisateur du problème, le programmeur, l’utilisateur final ou le bénéficiaire de la décision. Il convient ensuite de distinguer ce qui, de l’algorithme, doit être explicable : l’algorithme proprement dit, ou bien ses données et ses représentations (les ontologies), ses processus ou encore son seul résultat. Il convient enfin de distinguer ce que, dans ce contexte, cette demande d’explicabilité entend par « explication », à la différence d’« interprétation » et de « compréhension ». Cet exposé se penchera sur ce troisième axe de questionnement. Il présentera les premiers résultats d’un travail de collaboration que je mène actuellement avec Christophe Denis (LIP6, ACASA). Il tâchera de montrer en quoi une épistémologie qui se concentre sur la pluralité des fonctions épistémiques des modèles scientifiques, sur leurs critères distinctifs, tout en mettant l’accent sur leurs articulations et leurs déterminations réciproques peut contribuer à clarifier cette demande d’explicabilité.
    Références :
    • [1] Denis, C., Varenne, F., « Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique », Conférence Nationale en Intelligence Artificielle 2019, Actes de la CNIA@PFIA 2019, J. Lang (dir.), Toulouse, pp. 60-69, https://hal.sorbonne-universite.fr/hal-02184519. Actes de la CNIA@PFIA 2019 : https://www.irit.fr/pfia2019/wp-content/uploads/2019/07/actes_CNIA_PFIA2019.pdf
    • [2] Gilpin, L. H., Bau, D., Yuan, B. Z., Bajwa, A. Specter, M., Kagal, L., “Explaining Explanations : An Approach to Evaluating Interpretability of Machine Learning”, https://arxiv.org/abs/1806.00069, 2018.
    • [3] Herman, B., “The Promise and Peril of Human Evaluation for Model Interpretability”, Thirsty-first Conference on Neural Information Processing Systems, 2017, https://arxiv.org/abs/1711.07414
    • [4] Varenne, F., From Models to Simulations, London, Routledge, 2018.




VENUE



Building Condorcet, University Paris Diderot, 4, rue Elsa Morante, 75013 - Paris*. Plan.

Metro : lignes 14 and RER C, arrêt : Bibliothèque François Mitterrand ou ligne 6, arrêt : Quai de la gare. Bus : 62 and 89 (arrêt : Bibliothèque rue Mann), 325 (arrêt : Watt), 64 (arrêt : Tolbiac-Bibliothèque François Mitterrand)