Partenaires

logo Sphere
CNRS
Logo Université Paris-Diderot Logo Université Paris1-Panthéon-Sorbonne


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil > Archives > Séminaires des années précédentes > Séminaires 2019-2020 : archives > PHiS IA : Philosophie, Histoire et Sociologie de l’Intelligence Artificielle 2019–2020

PHiS IA : Philosophie, Histoire et Sociologie de l’Intelligence Artificielle 2019–2020


PRESENTATION

L’objet de ce séminaire est de se positionner au centre des transformations scientifiques, épistémologiques, technologiques et sociétales que les développements de l’intelligence artificielle engagent.

L’intelligence artificielle relève d’une histoire qui commence officiellement avec la création de cette dénomination en 1957 à la conférence de Dartmouth ; conférence qui formalise la discipline dans ses objectifs tant épistémologiques que performatifs. Elle relève aussi d’une « préhistoire », dès le XIXe siècle, avec l’apparition de la machine de Babbage et les premiers programmes, jusqu’à l’émergence, après-guerre, des premiers ordinateurs entièrement électroniques, avec mémoire intégrée. L’étude de cette histoire et de cette préhistoire permet de comprendre comment les enjeux et les controverses liés à cette discipline se sont construits : enjeux historiquement scientifiques et méthodologiques dans le cadre de la concurrence entre l’approche connexionniste et l’approche symbolique de l’esprit humain ; enjeux technologiques, à la fois contingents au développement et au déploiement de capacités calculatoires nouvelles, et liés à la capacité à performer des fonctions dévolues à la cognition ; enfin enjeux éthiques dans le dépassement de l’homme dans ses activités cognitives et dans la redéfinition des fonctions humaines. L’IA possède donc ce double attribut d’être à la fois un accessoire de connaissance dans la science de la cognition et une technologie dont la finalité est sans cesse réévaluée à l’aune de ses performances.

L’IA contemporaine, le machine learning avec les réseaux d’apprentissage profond basés sur des modèles simulant les réseaux de neurones biologiques, entre autres exemples, ont transformé profondément cette discipline en ce qu’elle devient un moyen, chaque jour plus efficace, pour réaliser certaines tâches autrefois réservées aux humains. En tant que technologie, elle s’insère de plus en plus au sein des systèmes socioéconomiques, en particulier dans l’organisation des entreprises, et devient un nouvel acteur socioculturel en tant, par exemple, qu’outil du pronostic médical ou support de la gestion des dépenses énergétiques. Cette montée en puissance pose de nombreuses questions, en l’occurrence en termes éthiques, écologiques, politiques, et philosophiques. En tant qu’accessoire de connaissance, elle interroge le statut des théories scientifiques, les modalités épistémologiques nécessaires à maintenir la stabilité de l’édifice de nos connaissances, ainsi que le statut des réseaux de neurones dans le cadre de la modélisation de l’esprit humain et la définition même de ce que nous appelons « intelligence ».

Le séminaire que nous proposons a donc pour objet l’étude de l’IA dans sa dualité technologique/ scientifique, à travers ses aspects historique, philosophique, épistémologique, éthique et sociologique. De façon à comprendre les enjeux modernes de cette discipline, nous l’envisagerons ici comme définie dans son historicité, mais aussi en tant qu’outil scientifique, outil de connaissance et de transformation des connaissances, de compréhension, enfin en tant qu’entité socioculturelle en interaction avec son environnement, que ce dernier soit humain ou non-humain.



Séminaire mensuel proposé par Benoît Duchemann (Univ. Paris Diderot, SPHere), Jean-Pierre Llored (chercheur associé à l’UMR SPHERE ; enseignant-chercheur en sciences humaines et sociales à l’Ecole Centrale de Casablanca, Maroc ; visiting teaching fellow au département de philosophie, Université de Bristol, Royaume-Uni ; visiting scholar au Linacre College, Université d’Oxford, Royaume-Uni) et Jean-Jacques Szczeciniarz (HPS, Univ. Paris Diderot, SPHere)

Vers l’année en cours

PROGRAMME 2019-2020


Les séances ont toujours lieu à l’Université Paris Diderot, le jeudi, 14:00–17:00, en salle Kandinsky, 631B
Université Paris Diderot, bâtiment Condorcet, 4, rue Elsa Morante, 75013 Paris *
Plan du campus et accès

RésumésPrésentation
Toutes les séances de séminaires et les journées d’étude SPHERE sont suspendues à partir du 15 mars en raison du Covid-19. Dès que cela sera possible, nous vous tiendrons informés des éventuels reports sur l’année 2020-21. Prenez bien soin de vous, de tous, et à bientôt.
* Date Thème et intervenants
1 17/10/2019 Séance inaugurale
  • Jean-Gabriel Ganascia (Pr d’IA, Paris 6 & LIP6)
    Limitations logiques, épistémologiques et éthiques de l’apprentissage machine [résumé]
2 21/11 Traitement symbolique du langage et NLP connexioniste
  • Laure Soulier (Pr d’IA, Paris 6 & LIP6)
    Le symbolique au service du connexionnisme et vice-versa : apprentissage de représentation augmenté, extraction d’information et bases de connaissances [résumé]
  • Juan Luis Gastaldi (ETH Zürich, SPHere)
    La revanche connexionniste : le succès des vecteurs des mots dans le traitement automatique du langage [résumé]
19/12
reporté au 16/04/2020
Histoire de l’IA
  • Dominique Cardon (Pr de sociologie, Sciences Po & Media Lab) : La revanche des neurones – la controverse de l’intelligence artificielle [résumé]
  • Frédéric Fürst (Mcf en IA, Université de Picardie & MIS)
    Intelligence artificielle et Astronautique : utopies parallèles [résumé]
3 30/01/2020 Progrès, IA et éthique
  • Vincent C. Müller (Pr de philosophie et d’éthique, Eindhoven Univ. of Technology) : Is it time for robot rights ? [résumé]
  • Sonia Desmoulin-Canselier (Laboratoire Droit et Changement Social, UMR 6297 CNRS, Université de Nantes)
    La place de l’humain dans un monde algorithmé : questionnements juridiques sur les conditions du déploiement des systèmes algorithmiques d’aide à la décision [résumé]
4 20/02 Philosophie de l’IA : Perception, Cognition et IA !! séance annulée pour cause de grève
  • Gunnar Declerck (Mcf, COSTECH EA 2223, UTC) : Formaliser et mécaniser la cognition. Quelques critiques et comment les désamorcer [résumé]
  • Jean-Michel Roy (Pr, ENS Lyon & ECNU Shanghai) : A quelles conditions un artefact peut-il être intentionnel ? La condition d’incorporation [résumé]
5 26/03 Logique et preuve en IA / IA et délibération
  • J.-J. Szczeciniarz (Pre, SPHere, Université Paris-Diderot) : titre à venir
  • Jean Sallantin (Pre, LIRMM, Univ. de Montpellier)
    Le débat public : un défi à l’IA [résumé]
6 02/04
 ! 13:30–16:30
IA pour la sociologie et sociologie de l’IA
  • Francis Chateauraynaud (Dre, GSPR, EHESS) :
    L’IA entre expérimentation cognitive, promesse technologique et problème public. Un regard pragmatiste
  • Olessia Kirtchik (Doc en sociologie, EHESS, Paris, & chercheure à l’Institut d’études historiques et théoriques en sciences humaines Poletayev, l’Université Nationale de Recherche "Haute École d’Économie”, Moscou)
    L’objet insaisissable pour une sociologie de l’IA : critiques et alternatives [résumé]
7 16/04
 ! 13:30–16:30
Histoire de l’IA [report du 19 décembre 2019]
  • Dominique Cardon (Pr de sociologie, Sciences Po & Media Lab) : La revanche des neurones – la controverse de l’intelligence artificielle [résumé]
  • Frédéric Fürst (Mcf en IA, Université de Picardie & MIS)
    Intelligence artificielle et Astronautique : utopies parallèles [résumé]
8 07/05 IA, visualisation et modèles
  • Jean-Daniel Fekete (Dre, Inria) :
    Visualisation pour l’analyse de réseaux dynamiques et de données en hautes dimensions
  • Franck Varenne (Mcf, ERIAC, Univ. de Rouen, & IHPST)
    Une contribution de l’épistémologie des modèles à l’explicabilité des algorithmes [résumé]



RÉSUMÉS



Jeudi 17 octobre 2019 : séance inaugurale

  • Jean-Gabriel Ganascia (Pr d’IA, Université Paris-6 & LIP6)
    Limitations logiques, épistémologiques et éthiques de l’apprentissage machine
    L’écho grandissant que reçoivent les masses de données (Big Data en anglais) et l’apprentissage profond (Deep Learning en anglais) depuis quelques années, masquent mal leurs limitations. On les pare de toutes les vertus au point de laisser entendre qu’elles donneront accès à une « intelligence artificielle forte » qui transformera l’humanité. Pourtant, si ces techniques apportent et apporteront beaucoup dans un grand nombre de secteurs, par exemple dans le domaine médical, pour aider à diagnostiquer des maladies, ou dans le champ social, pour faire de la prédiction et rationaliser certains choix, elles reposent sur l’induction, c’est-à-dire sur le raisonnement qui va du particulier au général. En conséquence, elles sont soumises aux limitations logiques de toute induction que nous tâcherons de rappeler. De plus, comme nous le montrerons, ces techniques permettent de détecter des corrélations qui ne correspondent pas toutes à des relations de causalités, et qui s’avèrent parfois trompeuses, contrairement à ce qu’affirment les tenants des masses de données. Enfin, nous verrons que l’emploi abusif de procédures de décision fondées sur l’apprentissage machine peut avoir des effets prédateurs sur la société, car loin d’être objectifs, les choix qu’elles engagent comportent des biais générateurs d’injustices.


Jeudi 21 novembre 2019 : Traitement symbolique du langage et NLP connexioniste

  • Laure Soulier (LIP6, Professeur à Paris-6)
    Le symbolique au service du connexionnisme et vice-versa : apprentissage 
de représentation augmenté, extraction d’information et bases de 
connaissances
    
Donner du sens aux mots, aux phrases, aux documents... Que ce soit pour la construction d’un moteur de recherche, pour la traduction automatique, ou encore les systèmes de questions-réponses, la compréhension des textes est un enjeu prépondérant en informatique. Les données textuelles ont en premier lieu été représentées sous la forme d’un "sac-de-mots", représentatif des mots présents/absents et facilement manipulable. Cependant, cette structure perd totalement la notion d’ordre des mots, de structure grammaticale et manque cruellement de sémantique.
Une des premières réponses à cette limite a été de considérer les bases de connaissances, structurées en triplet de deux entités et d’une relation, permettant ainsi d’améliorer la compréhension des textes grâce à la "sémantique relationnelle".

    Plus récemment, les avancées en réseaux de neurones (et plus particulièrement l’apprentissage de représentation a émergé comme une nouvelle solution pour capturer la sémantique des mots grâce à 
l’hypothèse distributionnelle conditionnant la représentation des mots à être similaire si les mots apparaissent dans un même contexte.

    Dans cet exposé, nous présenterons dans un premier temps les deux approches de représentation sémantique (relationnelle et distributionnelle), leurs avantages mais aussi leurs limites. En second 
lieu, nous explorerons la combinaison de ces deux approches ; débouchant d’une part sur de l’apprentissage de représentation augmenté/ancré par rapport aux bases de connaissances, et d’autre part sur l’exploitation des réseaux de neurones pour l’extraction d’information et la construction des bases de connaissances.
  • Juan Luis Gastaldi (ETH Zürich, SPHere
    La revanche connexionniste : le succès des vecteurs des mots dans le traitement automatique du langage
    
Si l’efficacité des méthodes symboliques dans le traitement automatique du langage naturel a rendu plus difficile l’arrivée des techniques d’apprentissage profond dans ce domaine, le succès grandissant des modèles basés sur des vecteurs de mots (word embeddings) a été l’occasion d’une adoption massive de ces nouvelles techniques connexionistes. Dans cet exposé, il s’agira de revenir sur l’émergence de ces modèles, pour essayer de comprendre les raisons de leur succès au moyen de la conception du langage qu’ils mettent en œuvre.


Jeudi 30 janvier 2020 : Progrès, IA et éthique

  • Vincent C. Müller (Pr de philosophie et d’éthique, Eindhoven Univ. of Technology)
    Is it time for robot rights ?
    
I will investigate the suggestions some authors have made, that we should allocate rights to robots, or to artificial moral agents (AMA) that are able to make complex moral decisions and act upon them. I find little reasons to even consider robot rights now, even if one accepts the assumptions made (some of the issue is the confusion of machine ethics with AI ethics). On a more constructive note, I take a look at the notion of ‘agency’ (‘moral status’, ‘responsibility’, ‘sentience’) in the light of the discussion of embodied and extended cognition. It appears that agency is too easily allocated in the human case, so we should be careful in the case of artificial agents. In AI we should not aim for agency at all, but just for causing the orchestration of intelligent behaviour. If we understand the aims of AI in this way we see that they have no relation to moral status.
  • Sonia Desmoulin-Canselier (Droit et Changement Social, UMR 6297, Université de Nantes)
    La place de l’humain dans un monde algorithmé : questionnements juridiques sur les conditions du déploiement des systèmes algorithmiques d’aide à la décision
    
L’innovation et la décision au XXIe siècle sont placées sous le double signe de la collecte massive de données et du traitement algorithmique. Dans tous les secteurs de la vie économique, juridique et sociale, on attend de la « mine d’or » du big data des pistes de recherches innovantes, des informations inédites, des prévisions et des solutions « individualisées » ou « personnalisées ». De telles perspectives ne peuvent toutefois se réaliser sans le recours à de puissants outils informatiques, pour stocker les données, mais surtout pour les traiter et pour effectuer des calculs. Ces systèmes automatisés permettant de formuler une réponse (ou une proposition de réponse) à une question ou un problème donné sont des systèmes algorithmiques. Dans le secteur médical, les solutions d’aide à la décision se sont multipliées : depuis l’aide au diagnostic (analyse des images médicales et détection des signaux morbides, probabilité diagnostique, examens complémentaires) 
jusqu’à la prescription médicamenteuse (risque allergique, incompatibilités entre traitements, posologie) en passant par la prédiction (calcul du risque de récidive). A présent, c’est en matière 
de police (calcul de risque sur une zone géographique ou de risque de récidive pour une personne), d’administration (détermination des affectations dans l’enseignement supérieur, attribution d’une 
autorisation) et de justice (calcul des prestations compensatoire ou des dommages-intérêts) que les algorithmes se déploient. Les enjeux du recours à de tels outils sont nombreux. Leur complexité et leur fonctionnement peuvent mettre en difficulté l’autonomie du décideur et le respect des droits du destinataire de la décision. A partir de quelques exemples, nous étudierons les réponses du droit en vigueur en Europe et en France et nous nous interrogerons sur les évolutions possibles et nécessaires pour faire face à ces enjeux.



Jeudi 20 février : Philosophie de l’IA : Perception, Cognition et IA !! séance annulée pour cause de grève

  • Gunnar Declerck (Mcf, COSTECH EA 2223, UTC) : Formaliser et mécaniser la cognition. Quelques critiques et comment les désamorcer
    Le projet de formaliser et de mécaniser la pensée (la cognition sous toutes ses formes) qui anime l’Intelligence Artificielle a rencontré, dès son émergence, des résistances et subi des critiques. En particulier, le philosophe américain Hubert L. Dreyfus a, dès les années 1960, soulevé tout un ensemble d’objections épistémologiques (notamment inspirées d’auteurs de la tradition phénoménologique) contre ce projet. Pour Dreyfus, le genre de compétences sur lesquelles repose le comportement intelligent humain possède un caractère non formalisable et non propositionnel. Le projet de construire des machines intelligentes, répliquant les performances des humains dans des domaines tels que le langage et la perception, à partir de règles formelles manipulant des symboles, est donc, dans son principe même, voué à l’échec. Le comportement intelligent est l’expression de savoir-faire (know-how) irréductibles à des connaissances propositionnelles. Subordonner le comportement à un système de règles spécifiant quoi faire dans un ensemble de situations prédéterminées, c’est précisément perdre ce qui fait son intelligence.
    Bien que j’estime que les critiques de Dreyfus soient solides, je voudrais indiquer dans cette intervention une voie qui permet à mon sens (en tout cas en partie) de les désamorcer, en montrant qu’elles ne valent, pour l’essentiel, que tant que l’on considère le projet de l’IA comme un projet de simulation ou de réplication de l’intelligence – et qu’elles perdent leur fondement dès lors qu’on le considère comme un projet de supplémentation, prothétisation ou augmentation des performances cognitives. Selon cette conception alternative, l’objectif n’est pas de concevoir des machines qui pensent (comme nous, mieux que nous, autrement que nous), mais, selon le mot de Bruno Bachimont (1994, 2004), des machines qui aident à penser, instrumentent l’exercice de la pensée – en bref, des prothèses cognitives. Ces termes déplacent la question des rapports entre la cognition humaine et la machine, puisqu’il ne s’agit plus de comprendre pour faire (modéliser la cognition humaine pour en répliquer artificiellement le fonctionnement), ou même de faire pour comprendre, mais de concevoir des systèmes artificiels qui, en raison de leur fonctionnement, offrent d’augmenter ou pallier les limites de la cognition humaine. La question n’est plus alors de savoir si l’intelligence humaine obéit à des règles, si bien qu’une machine obéissant à des principes computo-symboliques pourra (en principe) en répliquer le fonctionnement. Elle est de savoir si une machine obéissant à ce genre de principes peut constituer une prothèse efficace.
    Pour illustrer cette conception alternative de l’IA, dans la deuxième partie de mon intervention, je prendrai un exemple tiré du champ de l’ingénierie des connaissances, plus précisément des ontologies computationnelles. Les ontologies sont des systèmes de représentation basés sur des langages formels et dont le but est de permettre aux machines de tenir compte du « sens » des données qu’elles manipulent (exploiter leur sémantique). Les ontologies ont également leurs détracteurs : différents auteurs, dans la lignée des critiques de Dreyfus, avancent que les formalismes ontologiques sont trop rigides et trop mécaniques pour capter la mobilité et l’adaptabilité du langage naturel. Je tâcherai de montrer que ces critiques, parce qu’elles présupposent la subordination des ontologies à une exigence épistémique (modéliser de manière fidèle un référent) plutôt qu’opérationnelle (fonctionner et rendre service), sont infondées. Elles perdent leur raison d’être dès lors que l’on considère que la fonction des ontologies n’est pas de représenter de manière fidèle le mobilier et les structures constitutives de la réalité (réalisme) (Smith, 2004 ; Smith & Ceusters, 2010) ou la manière dont l’esprit se représente cette réalité (conceptualisme) (Gangemi et al., 2002 ; Merrill, 2010), mais (i) d’augmenter les capacités de catégorisation, d’accès à l’information et de manipulation de données et documents, et (ii) de normaliser les pratiques de catégorisation et d’encodage.
    • Bachimont, B. (1994). Artéfacture : des machines qui pensent aux machines qui donnent à penser. Techniques & culture, (23-24), 275-306.
      Bachimont B. (2004). Arts et Sciences du numérique : IC et critique de la raison computationnelle, Mémoire d’habilitation à diriger des recherches, Université de Technologie de Compiègne.
      Declerck, G., & Charlet, J. (2011). Intelligence Artificielle, ontologies et connaissances en médecine. Les limites de la mécanisation de la pensée. Revue des Sciences et Technologies de l’Information-Série RIA : Revue d’Intelligence Artificielle, 25(4), 445-472.
      Declerck, G., & Charlet, J. (2014). Pourquoi notre sémantique naïve n’est pas formalisable et pourquoi c’est (presque) sans conséquence sur l’ingénierie ontologique. Intellectica, 61(1), 143-188.
      Dreyfus H.L. (1992). What computers still can’t do. A critique of artificial reason, Cambridge/London : MIT Press.
      Dreyfus H.L., Dreyfus S.E. (1986). Mind over machine : the power of human intuition and expertise in the era of the computer, Oxford, Basil Blackwell Ltd.
      Gangemi, A., Guarino, N., Masolo, C., Oltramari, A., Schneider, L. (2002). Sweetening ontologies with DOLCE. In Knowledge engineering and knowledge management : Ontologies and the semantic Web (pp. 166-181). Springer Berlin Heidelberg.
      Merrill, G.H. (2010). Ontological realism : Methodology or misdirection ? Applied Ontology, 5(2), 79-108.
      Smith, B. (2004). Beyond concepts : ontology as reality representation. In Proceedings of the third international conference on formal ontology in information systems (FOIS 2004), 73-84.
      Smith, B, Ceusters, W. (2010). Ontological realism as a methodology for coordinated evolution of scientific ontologies, Applied Ontology, 5(3-4), 139-188.
  • Jean-Michel Roy (ENS de Lyon & ECNU Shanghai) : A quelles conditions un artefact peut-il être intentionnel ? La condition d’incorporation
    Le projet même d’un intelligence artificielle s’est toujours vu critiqué de manière radicale, questionnant sa possibilité même et non seulement ses implications en termes anthropologiques, sociaux ou éthiques. Son véritable essor dans le contexte de la révolution cognitive des années 50 n’ a pas failli à cette tradition. La critique qui en a alors été développée, et que l’on peut appeler classique dans la mesure où elle est dirigée contre l’IA dite elle-même classique et essentiellement fondée sur les principes du cognitivisme, a pris la forme générale de l’accusation que les artefacts proposés ne réunissaient pas les conditions nécessaires, par leur nature même, à la reproduction de certaines caractéristiques générales essentielles du phénomène de l’intelligence naturelle. Elle s’est en outre focalisée parmi ces propriétés sur celle de l’intentionnalité, beaucoup plus que sur celle de la conscience. Outre que la légitimité d’une telle perspective générale est loin d’aller de soi, cette critique classique présente la faiblesse de demeurer très imprécise dans sa partie positive, c’est à dire dire quant aux conditions qu’il faudrait remplir pour être en mesure de reproduire une caractéristique supposée essentielle telle que celle d’intentionnalité. L’une de celles qui a été proposée est la condition d’incorporation (embodiment). En vertu d’une telle proposition, un artefact ne peut exhiber de l’intentionnalité - et donc de l’intelligence - qu’à la condition que cette intentionnalité soit incorporée. Mais quel sens peut-on et faut-il donner au juste à une telle affirmation ? Dans quelle mesure est-elle en outre recevable ? Une incorporation artificielle est-elle même possible ? Jusqu’à quelle point se trouve-t-elle infirmée ou confirmée par le développement effectif de la recherche en intelligence artificielle ? Telles sont les grandes interrogations qui seront au coeur de cette présentation, qui ambitionne moins d’y apporter des éléments de réponse que d’en élaborer une mise en forme systématique permettant de progresser vers l’obtention de ces éléments de réponse.


Jeudi 19 mars : Logique et preuve en IA / IA et délibération

  • Jean Sallantin (Pre Univ. de Montpellier & LIRMM)
    Le débat public : un défi à l’IA
    Nous sommes à un moment critique de l’histoire où les modèles qui fondent la gouvernance de notre société sont contestés à toutes les échelles depuis la commune jusqu’aux règles des échanges commerciaux mondialisés de la planète.
    En effet, les citoyens - peut-être parce qu’ils sont plus instruits que par le passé et parce qu’ils ont accès plus facilement à davantage d’informations - revendiquent un pouvoir de décision politique et pas seulement, comme c’est le cas actuellement, de choix de représentants. Voter pour élire des représentants ne satisfait pas leur aspiration légitime à participer aux choix de sociétés dans lesquelles ils vont vivre.
    L’argument souvent mis en avant pour justifier l’absence de parole directe donnée aux citoyens est l’impossibilité matérielle de faire discuter ensemble un grand nombre de personnes.
    En effet, comment mettre en relation conversationnelle des individus qui se trouvent dans des lieux différents et parfois fort éloignés et qui sont disposés à discuter à des moments différents ?
    Si l’on admet qu’il existe une volonté politique de donner aux citoyens le rôle qu’ils revendiquent (ce que montrent le « grand débat » organisé en 2019 ou les lois relatives à l’organisation de référendum populaires), le problème semble donc être essentiellement de nature technique.
    Comment l’intelligence artificielle peut-elle permettre des débats citoyens sur les axes de la société de demain ?


Jeudi 2 avril : IA pour la sociologie et sociologie de l’IA

  • Olessia Kirtchik (Docteure en sociologie, EHESS, chercheuse à l’Institut d’études historiques et théoriques en sciences humaines Poletayev, l’Université Nationale de Recherche "Haute École d’Économie”, Moscou)
    L’objet insaisissable pour une sociologie de l’IA : critiques et alternatives
    Le terme de l’“IA” est extrêmement flou en recouvrant une multiplicité d’applications et d’approches (systèmes experts basés sur des règles, diverses méthodes de l’apprentissage statistique, data mining…) qui possèdent des généalogies et des enjeux très divers. En outre, des efforts appliqués à la résolution de problèmes spécifiques (NLP, robotique, etc.) sont souvent menés à l’intersection de différentes disciplines telles que computer science, statistique, l’ingénierie des systèmes, sciences cognitives, linguistique et bien d’autres … Pour ces raisons, il n’est pas facile de définir l’“IA” en tant qu’objet de recherche en sciences sociales de manière cohérente. Dans cette intervention, je reviendrai sur des critiques de la notion de l’IA et proposerai quelques stratégies et questions de recherche, proprement sociologiques, que peut susciter cet ensemble technoscientifique.


Jeudi 16 avril, 13:30–16:30 : Histoire de l’IA

  • Frédéric Fürst (Mcf en IA, Université de Picardie & MIS)
    Intelligence artificielle et Astronautique : utopies parallèles
    
L’intelligence artificielle est un projet lancé en 1956 visant à réaliser des machines dotées d’une intelligence similaire à celle des humains. Les initiateurs du projet, et de nombreux chercheurs en IA depuis cette époque, ont oeuvré avec la conviction que cette ambition était rationnelle et réaliste. Mais au fil des décennies, l’objectif initial, qu’on appelle IA forte, est apparu de plus en plus utopique et a fini par se diluer et se morceler en un ensemble d’objectifs bien plus modestes, ce qu’on nomme l’IA faible. Bien que critiqué dans sa faisabilité et pour ses implications sociales et éthiques, l’intelligence artificielle n’en demeure pas moins un champ des sciences et techniques dynamique et qui suscite toujours autant d’enthousiasme. Les années 1950 ont également vu la naissance d’un autre domaine scientifique et technique fantasmatique : l’astronautique. En retraçant 
l’histoire de l’IA en parallèle avec celle de l’astronautique, on mettra en évidence des analogies entre les deux, au-delà de leur aspect utopique et de leur corrélation chronologique.
  • Dominique Cardon (Pr de sociologie, Sciences Po & Media Lab)
    La revanche des neurones – la controverse de l’intelligence artificielle
    
Profitant des réussites spectaculaires des techniques de deep learning, les promesses de l’Intelligence artificielle (IA) sont revenues occuper le débat public. Dans cette conférence, on propose de retracer quelques aspects de l’histoire de l’Intelligence artificielle afin de comprendre les défis présents. Le « troisième printemps de l’IA » se caractérise, en effet, par le retour du paradigme connexionniste qui avait été marginalisé lors du « second printemps » de l’Intelligence artificielle dans les années quatre-vingt. La nouvelle vague de promesses de l’IA a pris forme grâce aux opportunités nouvelles offertes par les données massives et aux nouvelles capacités de calcul des ordinateurs. Mais, elle propose surtout une autre manière de rendre les machines « intelligentes ». Il ne s’agit plus de demander aux calculateurs de raisonner, mais bien d’apprendre des données et de former des modèles de prédiction à partir des données. Ce changement de paradigme de l’IA a de nombreuses conséquences : il propose une représentation différentes de la société qui s’appuie sur le comportement des individus plutôt que sur leurs catégories d’appartenance, il ouvre des possibilités d’automatisation du travail, il présente des opportunités nouvelles mais aussi des risques de biais dans les calculs. Cette conférence propose d’examiner les défis éthiques et politiques que pose les développements de l’IA.
    • Les travaux de Dominique Cardon portent sur les usages d’Internet et les transformations de l’espace public numérique. Ses recherches récentes portent sur les réseaux sociaux de l’Internet, les formes d’identité en ligne, l’autoproduction amateur et l’analyse des formes de coopération et de gouvernance dans les grands collectifs en ligne. Il conduit aujourd’hui une analyse sociologique des algorithmes permettant d’organiser l’information sur le web.
      Il a publié La démocratie Internet, Paris, Seuil/La République des idées, 2010, avec Fabien Granjon, Mediactivistes, Paris, Presses de Science po’, 2010 (2e éd. enrichie : 2013), avec Antonio Casilli, Qu’est-ce que le digital labor ?, Paris, Ina Éditions, 2015, A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil/République des idées, 2015 et, avec Jean-Philippe Heurtin, Chorégraphier la générosité. Le Téléthon, le don et la critique, Paris, Économica, 2016.


Jeudi 7 mai : IA, visualisation et modèles

  • Franck Varenne (Mcf, Université de Rouen, ERIAC & IHPST)
    Une contribution de l’épistémologie des modèles à l’explicabilité des algorithmes
    Il y a aujourd’hui une demande croissante d’explicabilité pour les algorithmes assurant des fonctions de modèles de prédiction ou de décision (médicale, juridique, etc.) et qui utilisent pour ce faire des techniques formelles d’apprentissage machine : régression, classification bayésienne, arbres de décision, forêts aléatoires, machine à vecteurs de supports, réseaux de neurones et leur perfectionnement, le deep learning. Comme on s’en doute, cette demande d’explicabilité, très discutée actuellement dans la littérature, est riche et n’est pas dépourvue d’ambiguïtés ainsi que plusieurs auteurs l’ont déjà signalé (Herman, 2017 ; Gilpin et al. 2018). Il convient d’abord de distinguer les différents types de sujets humains, cibles de cette explicabilité : ce peut être le modélisateur du problème, le programmeur, l’utilisateur final ou le bénéficiaire de la décision. Il convient ensuite de distinguer ce qui, de l’algorithme, doit être explicable : l’algorithme proprement dit, ou bien ses données et ses représentations (les ontologies), ses processus ou encore son seul résultat. Il convient enfin de distinguer ce que, dans ce contexte, cette demande d’explicabilité entend par « explication », à la différence d’« interprétation » et de « compréhension ». Cet exposé se penchera sur ce troisième axe de questionnement. Il présentera les premiers résultats d’un travail de collaboration que je mène actuellement avec Christophe Denis (LIP6, ACASA). Il tâchera de montrer en quoi une épistémologie qui se concentre sur la pluralité des fonctions épistémiques des modèles scientifiques, sur leurs critères distinctifs, tout en mettant l’accent sur leurs articulations et leurs déterminations réciproques peut contribuer à clarifier cette demande d’explicabilité.
    Références :
    • [1] Denis, C., Varenne, F., « Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique », Conférence Nationale en Intelligence Artificielle 2019, Actes de la CNIA@PFIA 2019, J. Lang (dir.), Toulouse, pp. 60-69, https://hal.sorbonne-universite.fr/hal-02184519. Actes de la CNIA@PFIA 2019 : https://www.irit.fr/pfia2019/wp-content/uploads/2019/07/actes_CNIA_PFIA2019.pdf
    • [2] Gilpin, L. H., Bau, D., Yuan, B. Z., Bajwa, A. Specter, M., Kagal, L., “Explaining Explanations : An Approach to Evaluating Interpretability of Machine Learning”, https://arxiv.org/abs/1806.00069, 2018.
    • [3] Herman, B., “The Promise and Peril of Human Evaluation for Model Interpretability”, Thirsty-first Conference on Neural Information Processing Systems, 2017, https://arxiv.org/abs/1711.07414
    • [4] Varenne, F., From Models to Simulations, London, Routledge, 2018.




INFORMATIONS PRATIQUES



Bâtiment Condorcet, Université Paris Diderot, 4, rue Elsa Morante, 75013 - Paris*. Plan.
Calculer votre itinéraire avec le site de la RATP

Metro : lignes 14 and RER C, arrêt : Bibliothèque François Mitterrand ou ligne 6, arrêt : Quai de la gare. Bus : 62 and 89 (arrêt : Bibliothèque rue Mann), 325 (arrêt : Watt), 64 (arrêt : Tolbiac-Bibliothèque François Mitterrand)

Vers le haut de la page