<?xml version="1.0" encoding="UTF-8" ?>
<feed xmlns="http://www.w3.org/2005/Atom">
    <title>Intelligence artificielle et sciences sociales | Cairn.info</title>
    <icon>https://shs.cairn.info/build/assets/cairn-B7RWiji2.png</icon>
    <id>tag:cairn.info,2005:rss/liste-lecture/448457</id>
    <rights>Cairn.info 2026</rights>

    <link href="https://stm.cairn.info/rss/liste-lecture/448457" rel="self" type="application/atom+xml" />
    <link href="https://stm.cairn.info?lang=fr" type="text/html" />

    <updated></updated>

                            <entry>
    <id>tag:cairn.info,2005:numero:HERM_ROMEL_2020_01</id>
    <title type="html"><![CDATA[
        Le transhumanisme : une anthologie
                    (2020)
            ]]></title>
        <link href="https://shs.cairn.info/le-transhumanisme-une-anthologie--9791037005717?lang=fr" type="text/html" rel="alternate" />
            <published>2020-11-24T00:00:00+01:00</published>
                <updated>2024-01-25T14:34:51+01:00</updated>
                <summary type="html"><![CDATA[<div class="book-body">Considéré à ses débuts comme une
sous-culture d’origine californienne ou un mouvement de
futurologie, le courant de pensée du transhumanisme est aujourd’hui
discuté dans des cercles académiques, politiques et médiatiques
sans cesse élargis. Il propose une vision du monde, porteuse de
valeurs et de récits sur l’humain, la nature et la technologie. La
place qu’il prend dans nos sociétés confrontées à une
technicisation croissante est révélatrice de la pertinence, sinon
de ses réponses, du moins de ses questions. Un corpus
transhumaniste s’est ainsi constitué depuis trente&#160; ans,
rassemblant des textes de nature variée&#160; : certains sont des
articles académiques, d’autres sont issus de revues plus
confidentielles, d’autres encore ont eu une existence numérique.
Ils sont spéculatifs ou fictionnels, programmatiques owu critiques,
et souvent tout cela à la fois. Leurs auteurs sont des romanciers,
des philosophes, des activistes… C’est cette dimension hétéroclite
et hybride, signe d’une pensée en mouvement qui se construit sous
nos yeux, que cette anthologie entend révéler.<br />
<br />
<br />
<br />
&#160;</div>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                    Pages 1 à 3 | Pages de début
                                    </li>
                            <li>
                    Pages 5 à 14 | Introduction
                                            |  Franck Damour,  Stanislas Deprez,  Alberto Romele
                                    </li>
                            <li>
                    Pages 17 à 27 | 1. Julian Huxley ou l’invention du transhumanisme&#160;?
                                            |  Jean-Yves Goffi
                                    </li>
                            <li>
                    Pages 29 à 42 | 2. L’ultra-humain selon Teilhard de Chardin
                                            |  François Euvé
                                    </li>
                            <li>
                    Pages 43 à 53 | 3. Nikolaï Fiodorov ou la voie russe du transhumanisme&#160;?
                                            |  Julija Naett Vidovic
                                    </li>
                            <li>
                    Pages 55 à 68 | 4. John Desmond Bernal&#160;: quand le transhumaniste était
marxiste
                                            |  Benjamin Norguet
                                    </li>
                            <li>
                    Pages 69 à 85 | 5. L’<i>emotion machine</i> de Marvin Minsky
                                            |  Fernand Doridot
                                    </li>
                            <li>
                    Pages 89 à 103 | 6. Neil R. Jones&#160;: quand la science-fiction rêve d’éternité
                                            |  Ugo Bellagamba
                                    </li>
                            <li>
                    Pages 105 à 117 | 7. Le surhumain selon Robert Ettinger
                                            |  Franck Damour
                                    </li>
                            <li>
                    Pages 119 à 135 | 8. Robert Anton Wilson&#160;: ésotérisme, science et transhumain
                                            |  Rémi Sussan
                                    </li>
                            <li>
                    Pages 137 à 151 | 9. Max More, aux racines du transhumanisme du XXI<sup>e</sup>
siècle
                                            |  Salomé Bour
                                    </li>
                            <li>
                    Pages 153 à 169 | 10. Vernor Vinge et l’invention de la Singularité
                                            |  Franck Damour
                                    </li>
                            <li>
                    Pages 171 à 185 | 11. Le rapport NBIC
                                            |  Apolline Taillandier
                                    </li>
                            <li>
                    Pages 187 à 196 | 12. La Déclaration Transhumaniste&#160;: matrice fragile du
mouvement
                                            |  Gabriel Dorthe
                                    </li>
                            <li>
                    Pages 199 à 212 | 13. Libérer l’éthique avec Nick Bostrom et Toby Ord&#160;? (ou
comment j’ai appris à ne plus m’en faire et à aimer la technique)
                                            |  Fabrizio De Filippi,  Alberto Romele
                                    </li>
                            <li>
                    Pages 213 à 228 | 14. Anders Sandberg&#160;: éthique du cerveau augmenté
                                            |  Vincent Calais
                                    </li>
                            <li>
                    Pages 229 à 247 | 15. Julian Savulescu et la bienfaisance procréatrice
                                            |  David Doat
                                    </li>
                            <li>
                    Pages 249 à 263 | 16. James Hughes&#160;: le <i>Citizen Cyborg</i>, de l’humain à la
personne
                                            |  Stanislas Deprez
                                    </li>
                            <li>
                    Pages 265 à 283 | 17. Martine Rothblatt&#160;: transhumanisme et transgenderisme
                                            |  Laurence Allard
                                    </li>
                            <li>
                    Pages 285 à 302 | 18. Humain 2.0&#160;: le «&#160;corps-culture&#160;» de Ray
Kurzweil
                                            |  Marina Maestrutti
                                    </li>
                            <li>
                    Pages 303 à 319 | 19. Lepht Anonym&#160;: transhumanisme de cuisine
                                            |  Gabriel Dorthe
                                    </li>
                            <li>
                    Pages 321 à 322 | Les auteurs
                                    </li>
                            <li>
                    Pages 323 à 327 | Pages de fin
                                    </li>
                    </ul>
    ]]></content>
</entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0029</id>
    <title type="html"><![CDATA[
        Quatre nuances de régulation de l’intelligence artificielle |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-29?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:21+01:00</updated>
            <summary type="html"><![CDATA[En enquêtant sur les débats autour des enjeux de la régulation de
l’IA, nous avons observé que les problèmes définitionnels étaient
au cœur de conflits normatifs sur les moyens d’assujettir l’IA à un
«&#160;contrôle&#160;social&#160;», qu’il soit technique, éthique,
juridique ou politique. En prenant comme fil rouge de l’analyse les
significations variées de l’IA, cet article vise à participer à la
compréhension des tensions normatives sur son contrôle. Nous
proposons une cartographie des lieux, des acteurs et des approches
qui donne à voir comment les débats autour du contrôle de l’IA se
structurent selon quatre arènes normatives différenciées,
soit&#160;: les spéculations transhumanistes sur les dangers d’une
superintelligence et le problème du contrôle de son alignement aux
valeurs humaines&#160;; l’auto-responsabilisation des chercheurs
développant une science entièrement consacrée à la certification
technique des machines&#160;; les dénonciations des effets néfastes
des systèmes d’IA sur les droits fondamentaux et le contrôle des
rééquilibrages des pouvoirs&#160;; enfin, la régulation européenne
du marché par le contrôle de la sécurité du fait des produits et
service de l’IA.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0129</id>
    <title type="html"><![CDATA[
        Robots <i>vs</i> algorithmes |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-129?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:09+01:00</updated>
            <summary type="html"><![CDATA[Signée par Elon Musk, Stephen Hawking, Steve Wozniak et Noam
Chomsky, une lettre ouverte publiée en 2015 alerte sur les risques
existentiels auxquels l’humanité doit faire face en raison des
nouveaux développements de l’IA. Elle constitue un moment clé de la
réactivation d’un ensemble de ressources narratives et normatives
visant à porter sur la place publique un débat critique relatif aux
progrès de l’IA. Par vagues successives, les promesses et les
risques de l’intelligence artificielle sont venus occuper de façon
spectaculaire la discussion publique. À partir de méthode de TAL
appliquée à un large corpus de la presse anglo-saxonne, cet article
montre que le thème des algorithmes et de l’IA occupe un espace
croissant dans la sphère médiatique depuis 5&#160;ans. Le corpus se
structure autour de deux espaces sémantiques qui constituent deux
régimes dominants de critique, l’un fondé sur les injustices
produites par les algorithmes et l’autre sur les peurs de
l’autonomie de l’IA et des robots. L’analyse comparée de ces
espaces montre qu’ils mobilisent des agents technologiques et
humains, des troubles et une temporalité distincts. En développant
un discours critique sur les méfaits de ces technologies, la sphère
médiatique contribue à forger l’opinion publique mais aussi à
définir les formes d’acceptabilité de ces agents calculateurs.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0169</id>
    <title type="html"><![CDATA[
        Les narvals et les licornes se&#160;cachent-ils pour mourir&#160;? |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-169?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-25T11:49:04+01:00</updated>
            <summary type="html"><![CDATA[L’annonce de la vente de l’entreprise montréalaise Element AI à
Service Now inc. à la fin de 2020 a été accueillie avec stupeur par
la grande majorité des acteurs de l’écosystème québécois et
canadien en intelligence artificielle. Comment avait-elle pu
prétendre si rapidement au statut de narval&#160;–&#160;celui d’une
entreprise canadienne ayant une capitalisation de plus d’un
milliard de dollars&#160;–, être encensée par l’État, les médias et
les milieux économiques pour être rachetée quelques années plus
tard «&#160;pour une bouchée de pain&#160;»&#160;? Dans cet
article, le cas Element AI, c’est-à-dire autant son ascension que
sa chute, est présenté comme étant idéal-typique d’une
«&#160;cybernétisation du pouvoir&#160;» dans laquelle la
régulation se veut facilitatrice, à distance et à même de percevoir
contrôle et communication comme les deux pôles d’une unique boucle
de rétroaction. Si l’émergence d’Element AI est marquée par sa
recherche de «&#160;supercrédibitité&#160;», de partenariats tous
azimuts et de justifications jusqu’à éthiques, sa débâcle, elle,
est le signe d’un désordre et d’une désynchronisation qui n’est pas
allée sans réprimandes et contredits, même de la part de l’État. Ce
passage de la justification à la critique est riche d’enseignement
même si, ou plutôt parce qu’il pointe en direction aujourd’hui de
ce qui est un vide au sein de cet écosystème et la manière dont il
peine à se projeter dans un avenir même proche.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0179</id>
    <title type="html"><![CDATA[
        Le principe d’explicabilité de l’IA et son application dans les
organisations |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-179?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:48:09+01:00</updated>
            <summary type="html"><![CDATA[L’Explicabilité de l’Intelligence Artificielle (IA) est citée par
la littérature comme un pilier de l’éthique de l’IA. Mais rares
sont les études qui explorent sa réalité organisationnelle. Cette
étude propose de remédier à ce manque, à travers des interviews
d’acteurs en charge de concevoir et déployer des IA au sein de 17
organisations. Nos résultats mettent en lumière la substitution
massive de l’explicabilité par la mise en avant d’indicateurs de
performance&#160;; la substitution de l’exigence de compréhension
par une exigence d’accountability (rendre des comptes)&#160;; et la
place ambiguë des experts métiers au sein des processus de
conception, mobilisés pour valider l’apparente cohérence
d’algorithmes «&#160;boîtes noires&#160;» plutôt que pour les
ouvrir et les comprendre. Dans la pratique organisationnelle,
l’explicabilité apparaît alors comme suffisamment indéfinie pour
faire coïncider des injonctions contradictoires. Comparant les
prescriptions de la littérature et les pratiques sur le terrain,
nous discutons du risque de cristallisation de ces problématiques
organisationnelles via la standardisation des outils de gestion
utilisés dans le cadre de (ou à la place de) l’effort
d’explicabilité des IA.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0145</id>
    <title type="html"><![CDATA[
        L’émergence d’enjeux éthiques lors d’expérimentations de logiciels
d’intelligence artificielle |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-145?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:48:04+01:00</updated>
            <summary type="html"><![CDATA[Cet article croise les regards de la sociologie de l’innovation et
de l’éthique des technologies. Il met en évidence la portée
heuristique du concept d’expérimentation pour penser l’éthique de
l’Intelligence Artificielle (IA), et ce dans le domaine de la
radiologie. Plus précisément, nous mobilisons trois déclinaisons du
concept d’expérimentation (experiment in and with technology, tacit
experiment) pour décrire et analyser quatre environnements de
travail où des logiciels de détection à base d’IA (en sénologie et
en traumatologie) sont testés. Nous soulignons les modalités
d’appropriation (ou de rejet) de ces dispositifs mais aussi les
préoccupations éthiques qui en résultent, en nous appuyant sur les
dérivés du concept d’expérimentation susmentionnés. Cette éthique
de l’IA renvoie à trois séries d’interrogations&#160;: la première
porte sur le pilotage, le périmètre, l’apprentissage durant ces
expérimentations et finalement sur le caractère (plus ou moins)
démocratique de ces dernières&#160;; la deuxième sur la justesse de
ce que livrent ces logiciels et par conséquent les risques
d’erreurs engendrés, dans le cadre d’une délégation (au moins
partielle) du travail d’analyse à des algorithmes&#160;; enfin, la
troisième sur la qualité du service rendu et son équité, au sein du
système de santé, ainsi que sur le contenu d’identités
professionnelles. L’éthique de l’IA s’encastre alors dans des
situations concrètes d’usage et s’incarne dans des univers
professionnels, à la différence des éthiques «&#160;à
principes&#160;» et «&#160;au futur&#160;».]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0111</id>
    <title type="html"><![CDATA[
        «&#160;Mais l’algo, là, il va mimer nos erreurs&#160;!&#160;» |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-111?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:47:59+01:00</updated>
            <summary type="html"><![CDATA[Les techniques d’apprentissage automatique traitent
algorithmiquement des données fournies en entrée. Celles-ci font,
au préalable, l’objet d’un travail d’annotation manuelle visant à
en identifier les éléments saillants à des fins d’entraînement des
modèles. Fastidieux et souvent déconsidéré, ce travail du clic
façonne pourtant une «&#160;vérité&#160;» de référence pour l’IA,
qui conditionne en grande partie les résultats produits. Cet
article étudie les modalités d’exécution de ce travail et ses
effets à partir de l’étude du cas de la conception d’un outil
d’anonymisation automatique des décisions de justice au sein de la
Cour de cassation. Enquête ethnographique et par entretiens
permettent de mettre en évidence la pluralité des compétences
mobilisées par les acteurs chargés de l’annotation des données.
L’article montre l’importance des systèmes représentationnels et
moraux dans la mise en œuvre de cette activité, et donc, pour le
fonctionnement de l’IA.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0071</id>
    <title type="html"><![CDATA[
        La prédiction du risque en justice pénale aux états-unis&#160;:
l’affaire propublica-compas |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-71?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-25T11:47:54+01:00</updated>
            <summary type="html"><![CDATA[Un article publié par le média Pro Publica en 2016 considère que le
logiciel Compas, utilisé aux États-Unis pour la prédiction de la
récidive, porte préjudice à la population noire&#160;: «&#160;It’s
biased against blacks&#160;». La publication crée une onde de choc
dans l’espace public et alimente les débats sur l’équité des
algorithmes et sur le bien-fondé de ces outils de prédiction du
risque. Ces débats étaient jusque-là confinés dans des sphères de
spécialistes. En partant de l’affaire ProPublica-Compas, nous avons
exploré les différents embranchements de la controverse dans
l’arène des «&#160;data sciences&#160;» et dans celle du monde de
la justice. Si, dans l’espace médiatique, l’affaire Compas illustre
les dérives liées aux algorithmes et vient renforcer les
inquiétudes autour de l’intelligence artificielle (peur du
remplacement, du renforcement des inégalités et de l’opacité), dans
le monde académique deux arènes s’emparent de l’affaire. Dans
l’arène des data sciences, les chercheurs discutent des critères
d’équité et de leur incompatibilité, montrant à quel point la
traduction d’un principe moral en indicateurs statistiques est
problématique. Ils débattent également de la supériorité supposée
de la machine sur l’homme dans les tâches de prédiction. Dans
l’arène de la justice pénale, espace beaucoup plus hétérogène,
l’affaire ProPublica-Compas renforce la prise de conscience qu’il
est nécessaire de mieux évaluer les outils avant de les utiliser,
de comprendre comment les juges s’approprient ces outils en
contexte et amène les ONG qui défendent les prisonniers et les
législateurs à changer de posture par rapport à ces outils de
prédiction. Tandis que l’arène des data sciences fonctionne dans un
entre-soi disciplinaire, focalisé sur les données et les
algorithmes hors contexte, dans l’arène juridique, qui assemble des
acteurs hétérogènes, la question de l’inscription des outils dans
la pratique professionnelle occupe une place centrale.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RDNA_820_0023</id>
    <title type="html"><![CDATA[
        Les enjeux de l’IA pour la Défense de demain |
        L’intelligence artificielle et ses enjeux pour la Défense
                    | Revue Défense Nationale
            (2019/5 N° 820)
            ]]></title>
        <link href="https://shs.cairn.info/revue-defense-nationale-2019-5-page-23?lang=fr" type="text/html" rel="alternate" />
    <published>2019-05-01T00:00:00+02:00</published>
    <updated>2024-01-17T23:53:46+01:00</updated>
            <summary type="html"><![CDATA[L’IA est un enjeu majeur pour la Défense de demain. Cette prise de
conscience est bien réelle et doit se traduire de façon concrète.
Trois voies doivent nécessiter des efforts. Les infrastructures
avec un cloud national, le traitement des données et, enfin, les
ressources humaines. La France dispose d’atouts réels qu’il faut
conforter.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RETM_310_0007</id>
    <title type="html"><![CDATA[
        Éditorial. Quelle éthique pour l’intelligence artificielle&#160;? |
        Éthique et intelligence artificielle
                    | Revue d&#039;éthique et de théologie morale
            (2020/3 N° 307)
            ]]></title>
        <link href="https://shs.cairn.info/revue-d-ethique-et-de-theologie-morale-2020-3-page-7?lang=fr" type="text/html" rel="alternate" />
    <published>2020-09-30T00:00:00+02:00</published>
    <updated>2024-01-17T23:51:48+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:CDLJ_1902_0205</id>
    <title type="html"><![CDATA[
        L'Intelligence artificielle, technologie de la vision numérique du
monde |
        Les défis de la justice numérique
                    | Les Cahiers de la Justice
            (2019/2 N° 2)
            ]]></title>
        <link href="https://droit.cairn.info/revue-les-cahiers-de-la-justice-2019-2-page-205?lang=fr" type="text/html" rel="alternate" />
    <published>2019-07-09T00:00:00+02:00</published>
    <updated>2024-01-17T23:50:00+01:00</updated>
            <summary type="html"><![CDATA[RésuméLa notion d'Intelligence artificielle est décrite à partir de
quatre polarités&#160;: ses buts, son rapport au calcul, ses
méthodes d'investigation et les connaissances qu'elle produit. On
décrit ces polarités avant d'en venir à une hypothèse générale sur
le rapport de l'Intelligence artificielle et de
l'informatique&#160;: l'Intelligence artificielle vise à confirmer
la vision alphabétique et numérique du monde déployée par
l'informatique.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_240_0031</id>
    <title type="html"><![CDATA[
        L’intelligence artificielle dans l’espace public&#160;: du domaine
scientifique au problème public |
        « Éthique de l’IA » : enquêtes de terrain
                    | Réseaux
            (2023/4 N° 240)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2023-4-page-31?lang=fr" type="text/html" rel="alternate" />
    <published>2023-09-21T00:00:00+02:00</published>
    <updated>2024-01-17T23:48:23+01:00</updated>
            <summary type="html"><![CDATA[L’article analyse la publicisation de l’intelligence artificielle
(IA) et sa constitution en problème public, sous l’étiquette
«&#160;éthique de l’IA&#160;», du point de vue des discours et des
acteurs circulants entre arènes médiatique, scientifique et
politique. Pour saisir l’ampleur de cette dynamique d’ensemble, il
prend un objet peu exploré, la mise en relation entre ces trois
arènes, c’est-à-dire les mécanismes de circulation et de
déformation des discours, les conflits de définition, et les
reconfigurations qui en résultent pour le domaine et pour les modes
d’existence publique de l’IA. Articulant des méthodes quantitatives
et qualitatives, l’enquête s’appuie sur trois types de données
issues des arènes médiatique, politique et scientifique
françaises&#160;: un corpus d’articles de presse relatifs à l’IA
couvrant une période de près de 20 ans (2000-2019)&#160;; des
entretiens auprès d’acteurs du débat public (scientifiques,
journalistes, institutionnels)&#160;; des rapports publics
(2006-2019). Portée par l’augmentation de la puissance de calcul et
la disponibilité de larges bases de données d’entraînement, la
«&#160;vague de l’IA&#160;» dans l’espace public se produit à la
faveur de facteurs convergents – technologiques, économiques,
médiatiques et politiques – sans être le reflet d’une véritable
«&#160;révolution scientifique&#160;», promue par les médias et les
entreprises mais contestée dans les récits des chercheurs.
L’article montre ainsi comment la vie publique de l’IA prend forme
à la croisée de registres discursifs concurrents et souvent
incommensurables. De plus, si les discours sur l’IA et son éthique
sont très présents dans l’espace public et émergent comme un
«&#160;problème public&#160;» devenu un enjeu de régulation, ils ne
s’appuient pas véritablement sur un «&#160;public concerné&#160;»
(Dewey, 2012) en dehors des sphères spécialisées, qui serait engagé
dans un travail d’enquête et de mobilisations collectives. Ainsi,
la dernière «&#160;vague de l’IA&#160;» et la montée en puissance
des questions éthiques semblent plutôt marquer une économicisation
avancée du domaine, de plus en plus soumis aux intérêts privés,
face à laquelle chercheurs et politiques cherchent à se
positionner.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_232_0009</id>
    <title type="html"><![CDATA[
        Contrôler les IA |
        Contrôler l'intelligence artificielle&#160;?
                    | Réseaux
            (2022/2 N° 232-233)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2022-2-page-9?lang=fr" type="text/html" rel="alternate" />
    <published>2022-05-23T00:00:00+02:00</published>
    <updated>2024-01-17T23:47:40+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_220_0009</id>
    <title type="html"><![CDATA[
        Pourquoi ethnographier les&#160;interactions avec les agents
conversationnels&#160;? |
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2-page-9?lang=fr" type="text/html" rel="alternate" />
    <published>2020-05-22T00:00:00+02:00</published>
    <updated>2024-01-17T23:46:55+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_220_0021</id>
    <title type="html"><![CDATA[
        «&#160;Tisser des liens&#160;» |
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2-page-21?lang=fr" type="text/html" rel="alternate" />
    <published>2020-05-22T00:00:00+02:00</published>
    <updated>2024-01-17T23:46:35+01:00</updated>
            <summary type="html"><![CDATA[L’article plaide pour un genre d’IA capable de créer des liens
sociaux avec des interlocuteurs humains. La démonstration prend
pour point de départ les deux histoires concurrentes concernant les
origines de l’Intelligence Artificielle. Dans l’une, l’objectif de
l’IA était d’inventer des machines capables de simuler tous les
aspects de l’intelligence humaine. Dans l’autre, il s’agissait de
construire des machines qui s’adaptent étroitement au comportement
humain naturel. Si la première histoire est mieux connue, l’auteure
défend l’idée selon laquelle la seconde aurait été plus féconde,
car elle place l’humain au cœur de l’entreprise. Ancré dans cette
perspective historique, l’article présente plusieurs exemples
d’agents conversationnels qui s’engagent dans ce type de
comportement social adaptatif. Les résultats des expériences menées
avec ces agents sociaux montrent qu’en fait ils améliorent les
relations entre les personnes et les systèmes. Cependant, ils
améliorent également les performances dans la tâche que les agents
conversationnels et les humains accomplissent ensemble.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:RES_211_0173</id>
    <title type="html"><![CDATA[
        La revanche des neurones |
        Machines prédictives
                    | Réseaux
            (2018/5 n° 211)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2018-5-page-173?lang=fr" type="text/html" rel="alternate" />
    <published>2018-11-02T00:00:00+01:00</published>
    <updated>2024-01-17T23:45:42+01:00</updated>
            <summary type="html"><![CDATA[Depuis 2010, les techniques prédictives basées sur l’apprentissage
artificiel (machine learning), et plus spécifiquement des réseaux
de neurones (deep learning), réalisent des prouesses spectaculaires
dans les domaines de la reconnaissance d’image ou de la traduction
automatique, sous l’égide du terme d’“Intelligence artificielle”.
Or l’appartenance de ces techniques à ce domaine de recherche n’a
pas toujours été de soi. Dans l’histoire tumultueuse de l’IA, les
techniques d’apprentissage utilisant des réseaux de
neurones&#160;–&#160;que l’on qualifie de
“connexionnistes”&#160;–&#160;ont même longtemps été moquées et
ostracisées par le courant dit “symbolique”. Cet article propose de
retracer l’histoire de l’Intelligence artificielle au prisme de la
tension entre ces deux approches, symbolique et connexionniste.
Dans une perspective d’histoire sociale des sciences et des
techniques, il s’attache à mettre en évidence la manière dont les
chercheurs, s’appuyant sur l’arrivée de données massives et la
démultiplication des capacités de calcul, ont entrepris de
reformuler le projet de l’IA symbolique en renouant avec l’esprit
des machines adaptatives et inductives de l’époque de la
cybernétique.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:numero:LCB_GANAS_2017_01</id>
    <title type="html"><![CDATA[
        Intelligence artificielle
                    (2017)
            ]]></title>
            <subtitle type="html">
            <![CDATA[Vers une domination programmée&#160;?]]>
        </subtitle>
        <link href="https://shs.cairn.info/intelligence-artificielle-vers-une-domination--9791031802138?lang=fr" type="text/html" rel="alternate" />
            <published>2017-04-27T00:00:00+02:00</published>
                <updated>2023-12-11T21:34:08+01:00</updated>
                <summary type="html"><![CDATA[<p>Aujourd’hui, les ordinateurs sont présents dans toutes nos
activités quotidiennes. Une machine a vaincu le champion du monde
du jeu de go, on construit automatiquement des connaissances à
partir d’immenses masses de données <i>(Big Data)</i>, des
automates reconnaissent la parole articulée et comprennent des
textes écrits en langage naturel… Les machines seraient-elles
vraiment devenues intelligentes, posséderaient-elles un esprit,
voire une conscience&#160;?</p>
<p>La complexité de l’intelligence artificielle dépasse notre
entendement immédiat et suscite nombre d’idées reçues. Ainsi,
l’intelligence artificielle reproduirait l’activité de notre
cerveau, elle ferait que les ordinateurs ne se trompent jamais et…
qu’à terme nous en devenions les esclaves.</p>
<p>Jean-Gabriel Ganascia, en distinguant la réalité du pur
fantasme, nous permet de comprendre ce qui se joue avec
l’intelligence artificielle, quelles sont ses potentialités et ce
qu’elle ne sera jamais… sauf au cinéma.</p>
<p>Suite à des études de physique et de philosophie, Jean-Gabriel
Ganascia s’est spécialisé en intelligence artificielle puis en
modélisation cognitive. Professeur à l’université Pierre et Marie
Curie, il dirige l’équipe ACASA (Agents cognitifs et apprentissage
symbolique automatique) au sein du laboratoire d’informatique de
Paris-VI.</p>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                    Pages 3 à 8 | Pages de début
                                    </li>
                            <li>
                    Pages 9 à 10 | Définition
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 11 à 16 | Introduction
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 17 à 23 | «&#160;Alan Turing est l’inventeur de l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 25 à 29 | «&#160;Désormais des machines passent le test de Turing.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 31 à 35 | «&#160;L’intelligence artificielle n’est pas une science.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 37 à 42 | «&#160;L’intelligence artificielle est une idée neuve.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 43 à 47 | «&#160;Les Japonais sont les champions de l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 49 à 53 | «&#160;La recherche en intelligence artificielle est menée par les
GAFA.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 55 à 58 | «&#160;L’intelligence artificielle pallie les défaillances de notre
intelligence.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 59 à 65 | «&#160;Nous passerons bientôt de l’intelligence artificielle faible
à l’intelligence artificielle forte.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 67 à 73 | «&#160;Il n’y a rien à craindre avec les ordinateurs, il suffit de
les débrancher.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 75 à 80 | «&#160;L’intelligence artificielle reproduit l’activité de notre
cerveau.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 81 à 84 | «&#160;L’intelligence artificielle n’est pas naturelle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 85 à 88 | «&#160;Les ordinateurs raisonnent de façon binaire.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 89 à 91 | «&#160;Les ordinateurs ne se trompent jamais.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 93 à 99 | «&#160;Les ordinateurs sont invincibles aux échecs et au go.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 101 à 106 | «&#160;Le “<i>Deep Learning</i>” révolutionne l’intelligence
artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 107 à 115 | «&#160;Une machine ne peut pas être créative.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 117 à 122 | «&#160;Les machines n’ont pas d’émotions ni de conscience.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 123 à 127 | «&#160;Les machines n’ont pas d’intuition.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 129 à 132 | «&#160;Avec l’intelligence artificielle émotive, nous confierons
bientôt les personnes âgées aux robots.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 133 à 136 | «&#160;Les voitures autonomes sont programmées pour tuer leurs
passagers.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 137 à 141 | «&#160;Le “<i>Big Data</i>” menace la démocratie.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 143 à 149 | «&#160;Les “robots tueurs” remplaceront bientôt les soldats.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 151 à 155 | «&#160;Il faut donner des droits aux robots.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 157 à 162 | «&#160;Nous ne sommes pas prêts pour le tsunami technologique qui
advient.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 163 à 167 | «&#160;L’intelligence artificielle n’a pas tenu ses
promesses.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 169 à 173 | «&#160;Les robots nous mettront tous au chômage.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 175 à 180 | «&#160;Demain, nous serons les esclaves des machines.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 181 à 186 | «&#160;Il n’y a pas ou plus de débouchés professionnels en
intelligence artificielle.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 187 à 191 | «&#160;L’intelligence artificielle constitue un danger existentiel
majeur et inéluctable pour l’humanité.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 193 à 197 | «&#160;Grâce à l’intelligence artificielle, nous téléchargerons nos
consciences et deviendrons immortels&#160;!&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 199 à 202 | «&#160;La machine est l’avenir de l’homme.&#160;»
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 203 à 205 | Conclusion
                                            |  Jean-Gabriel Ganascia
                                    </li>
                            <li>
                    Pages 207 à 211 | Glossaire
                                    </li>
                            <li>
                    Pages 213 à 215 | Pour aller plus loin
                                    </li>
                            <li>
                    Pages 216 à 216 | Pages de fin
                                    </li>
                    </ul>
    ]]></content>
</entry>
                                <entry>
    <id>tag:cairn.info,2005:article:DIO_269_0107</id>
    <title type="html"><![CDATA[
        L’intelligence artificielle n’existe-t-elle vraiment pas&#160;?
Quelques éléments de clarification autour d’une science
controversée |
        Varia
                    | Diogène
            (2020/1 n° 269-270)
            ]]></title>
        <link href="https://shs.cairn.info/revue-diogene-2020-1-page-107?lang=fr" type="text/html" rel="alternate" />
    <published>2021-08-16T00:00:00+02:00</published>
    <updated>2023-12-11T21:33:01+01:00</updated>
            <summary type="html"><![CDATA[Depuis dix ans et avec le mouvement big data, l’intelligence
artificielle a le vent en poupe. Les acteurs politiques et
économiques retrouvent ainsi un intérêt à promouvoir activement
l’intelligence artificielle dans le même temps que les chercheurs
issus de tous les horizons scientifiques orientent de plus en plus
leurs travaux vers cet objet d’étude qui, bien souvent et à tort,
leur apparaît nouveau. Cet engagement collectif est nécessaire
contenu de l’immensité des enjeux humains, sociaux et économiques
qui sont associés au développement de l’intelligence artificielle.
Le problème est qu’il s’accompagne d’un tapage médiatique qui tend
à embrouiller les débats et les travaux. Un exemple frappant est le
fait qu’il existe aujourd’hui plusieurs spécialistes renommés qui
expriment l’idée que l’intelligence artificielle n’existe
pas&#160;! De telle sorte que, même dans la communauté
scientifique, il est parfois difficile d’identifier ce qu’est
l’intelligence artificielle. Cet article vise à lever le voile sur
cette obscurité.]]></summary>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:article:SCPO_CARDO_2019_01_0385</id>
    <title type="html"><![CDATA[
        Intelligence artificielle |
        Culture numérique
                    (2019)
            ]]></title>
        <link href="https://shs.cairn.info/culture-numerique--9782724623659-page-385?lang=fr" type="text/html" rel="alternate" />
    <published>2019-03-07T00:00:00+01:00</published>
    <updated>2023-12-11T21:32:09+01:00</updated>
    </entry>
                                <entry>
    <id>tag:cairn.info,2005:numero:RES_220</id>
    <title type="html"><![CDATA[
        Ethnographies des agents conversationnels
                    | Réseaux
            (2020/2 N° 220-221)
            ]]></title>
        <link href="https://shs.cairn.info/revue-reseaux-2020-2?lang=fr" type="text/html" rel="alternate" />
            <published>2020-05-22T00:00:00+02:00</published>
                <updated>2023-12-11T21:28:42+01:00</updated>
                <summary type="html"><![CDATA[<p>Assistants vocaux, <i>chatbots</i> textuels, robots humanoïdes :
la diffusion croissante d’agents conversationnels dans la société
fascine, effraye, soulève des questionnements d’ordre
philosophique, éthique, juridique, technique, politique et moral.
Présents à travers une diversité d’artefacts, ces agencements
technologiques sont capables de produire des paroles ou bien des
écrits pendant des interactions avec des humains et de simuler des
compétences humaines, des rôles sociaux ou encore des formes de
relations sociales. Depuis le milieu des années 2000, nous
assistons ainsi pour la première fois à des rencontres inédites «
grandeur nature » entre des formes de l’intelligence artificielle
conversationnelle et des utilisateurs ordinaires dans leur vie
quotidienne, en dehors des murs des laboratoires. Les agents
conversationnels ont d’abord rejoint les rangs des produits offerts
par les plus importants acteurs du numérique : Google, Microsoft,
Apple ou Amazon proposent des enceintes connectées pour
l’environnement domestique capables d’interagir vocalement avec les
utilisateurs. Mais ces agents ne sont que le fer-de-lance d’un
marché plus vaste, qui comprend également les robots
conversationnels textuels (<i>chatbots</i>) prenant en charge
différentes interactions de service et les robots humanoïdes.
Utilisés massivement dans l’assistance technique et commerciale,
les <i>chatbots</i> peuvent par exemple accuser réception d’une
requête d’un client, repérer le problème posé et rechercher la
solution dans des bases de données. Si les services rendus par ces
robots conversationnels les rapprochent d’autres applications web,
ils s’en distinguent néanmoins par l’utilisation du langage
naturel. Enfin, venant s'incarner dans des organismes artificiels
matérialisés – les robots humanoïdes – les agents conversationnels
se sont enrichis de modalités diverses, par exemple les pointeurs
ou les possibilités de mouvement permettant de désigner un objet
dans l'environnement ou encore la capacité à détecter la présence
de personnes, de reconnaître des émotions et d’exprimer des
simulacres émotionnels. Aujourd’hui, les premiers robots d'accueil
ou d'assistance fabriqués par cette nouvelle informatique «
affective » commencent à passer les limites des laboratoires pour
entrer dans les musées ou les situations commerciales. Comment
penser les conséquences sociales d’une telle diversité à la fois de
formes technologiques et des situations sociales dans lesquelles
l’IA conversationnelle vient s’inscrire ? C’est ce défi que le
présent dossier de <i>Réseaux</i> se propose de commencer à relever
en rassemblant un premier ensemble en français de travaux
empiriques sur les interactions avec les agents intelligents.
Comment interagit-on avec des agents artificiels ? Quelles
relations les personnes développent-elles avec ces machines
parlantes ? Quel sens et quelle place ces machines prennent-elles
dans notre vie quotidienne ? Comment reconfigurent-elles nos
activités à la maison, au travail, dans l’espace public ? Comment
nous affectent-elles et quelles formes d’attachement peuvent-elles
susciter ?</p>
<p>Les enquêtes réunies dans ce dossier de <i>Réseaux</i> montrent
que la recherche en sciences sociales gagne à se saisir
empiriquement – avec le regard ajusté aux pratiques propres aux
démarches ethnographiques – de la diversité des contextes, des
interactions, et des projets auxquels les trois principaux types
d’agents conversationnels sont aujourd’hui associés. Pour penser la
complexité des infrastructures technologiques associées à ces
applications de l’IA et leurs conséquences sur notre vie en société
ce numéro propose de s’appuyer sur les résultats d’enquêtes portant
à la fois sur la conception, l’appropriation ou les interactions
avec ces différents agents. Résolument empirique et descriptif, le
parti pris de ce dossier est également pluraliste en accueillant
une diversité de manières de faire des ethnographies de l’IA.
Réunissant des travaux ancrés dans l’ethnométhodologie, l’analyse
conversationnelle, la vidéo-ethnographie, la linguistique
interactionnelle, la sociologie économique ou l’anthropologie
sociale il témoigne de la fécondité des approches observationnelles
pour prendre la mesure des transformations technologiques et
sociales contemporaines à l’échelle des pratiques.</p>
<p>Coordonné par Marc Relieu et Julia Velkovska</p>
<p>Illustration de couverture : © Brett Jordan, bit.ly/3dDsQjN</p>
]]></summary>
        <content type="html"><![CDATA[
        <ul>
                            <li>
                    Pages 9 à 20 | Pourquoi ethnographier les&#160;interactions avec les agents
conversationnels&#160;?
                                            |  Julia Velkovska,  Marc Relieu
                                    </li>
                            <li>
                    Pages 21 à 45 | «&#160;Tisser des liens&#160;»
                                            |  Justine Cassell,  Julia Velkovska,  Marc Relieu
                                    </li>
                            <li>
                    Pages 47 à 79 | Les relations aux machines «&#160;conversationnelles&#160;»
                                            |  Julia Velkovska,  Moustafa Zouinar,  Clair-Antoine Veyrier
                                    </li>
                            <li>
                    Pages 81 à 111 | Une approche configurationnelle des leurres conversationnels
                                            |  Marc Relieu,  Merve Sahin,  Aurélien Francillon
                                    </li>
                            <li>
                    Pages 113 à 150 | Répondre aux questions d’un robot
                                            |  Karola Pitsch,  Marc Relieu,  Julia Velkovska
                                    </li>
                            <li>
                    Pages 151 à 193 | «&#160;Je dois y aller&#160;». Analyses de séquences
de&#160;clôtures entre humains et&#160;robot
                                            |  Christian Licoppe,  Nicolas Rollet
                                    </li>
                            <li>
                    Pages 195 à 222 | Construire la «&#160;compréhension&#160;» d’une machine
                                            |  Charlotte Esteban
                                    </li>
                            <li>
                    Pages 223 à 251 | Concevoir des machines anthropomorphes
                                            |  Joffrey Becker
                                    </li>
                            <li>
                    Pages 253 à 291 | Robots, élevage et&#160;techno-capitalisme
                                            |  Philippe Le Guern
                                    </li>
                            <li>
                    Pages 293 à 299 | Henri BOULLIER, <i>Toxiques légaux&#160;: comment les firmes
chimiques ont mis la main sur le contrôle de leurs produits</i>,
Paris, La Découverte, 2019, 200&#160;p.
                                            |  Mathieu Baudrin
                                    </li>
                            <li>
                    Pages 300 à 304 | Manuel CERVERA-MARZAL, <i>Post-vérité&#160;: pourquoi il faut s’en
réjouir</i>, Lormont, Le Bord de l’Eau, coll. «&#160;La
bibliothèque du MAUSS&#160;», 2019, 122&#160;p.
                                            |  Ana Cristina Suzina
                                    </li>
                            <li>
                    Pages 305 à 307 | Michel GROSSETTI, Jean-François BARTHE et Nathalie CHAUVAC, <i>Les
start-up, des entreprises comme les autres&#160;? Une enquête
sociologique en France</i>, Paris, Sorbonne Université Presses,
coll. «&#160;L’intelligence du social. Sociologie
économique&#160;», 2018, 156&#160;p.
                                            |  Arnaud Saint-Martin
                                    </li>
                    </ul>
    ]]></content>
</entry>
            </feed>
