Contexte du chapitre

L’IA comme médiation

Depuis l’émergence des technologies numériques, le mot « outil » s’est imposé pour désigner les logiciels et le matériel informatique que nous utilisons. Ce mot entraîne une certaine manière d’envisager notre rapport aux technologies qui nous entourent :

  • à la manière d’un marteau ou d’une scie, l’outil est extérieur à nous et nous entretenons rapport individuel avec lui ;
  • il est déjà là dans une forme figée ;
  • il nous faut apprendre à l’utiliser tel qu’il l’exige, nous y faire, transformer nos gestes pour nous l’approprier.

L’outil produit donc avant tout un rapport d’usager devant apprendre les bonnes pratiques (pratiques qui sont d’ailleurs souvent dictées de l’extérieur voire transmises par des personnes « expertes »). D’autres rapports possibles comme celui du bricoleur ou du « hacker » sont marginalisés, tandis que ceux de la conceptrice et encore plus de la technicienne deviennent peu visibles. En outre, un outil, ça se perfectionne. Aussi le discours ambiant est-il souvent accompagné de l’idéal du progrès et de l’innovation. Ce sont ces valeurs qui dynamisent la marche en avant des nouvelles technologies et cherchent à légitimer le fait qu’elles s’imposent à tous et à chacune.

L’intelligence artificielle ne déroge pas à cette conception. Depuis son émergence, les formations à l’IA se focalisent sur l’apprentissage du « bon usage » de cette nouvelle technologie, sans interroger son existence, sans chercher à la transformer d’une manière qui pourrait peut-être nous convenir, sans questionner l’idéal de progrès que l’intelligence artificielle véhicule.

Nous pouvons pointer un premier problème de ce discours : il nous focalise toujours sur « ce qu’il faudrait faire », ce qui nous empêche d’observer ce que nous faisons réellement, ce que nous faisons déjà. Or nous faisons énormément puisque les technologies de la communication et de l’information sont devenues omniprésentes dans notre quotidien. Elles nous accompagnent désormais dans des activités fondamentales de notre existence : communiquer, produire des textes et des images, nous informer sur les actualités, acquérir de nouvelles connaissances, etc. Dans ce chapitre, nous prendrons le temps d’observer et de décrire ces activités : Comment est-ce que nous nous y prenons au fond ? Quelles pratiques diverses sont les nôtres actuellement ? Pourquoi opérons-nous ces choix-là plutôt que d’autres ? Et, surtout, comment l’intelligence artificielle vient-elle bouleverser — ou non — nos pratiques existantes ?

Nous pourrions nous interroger dans la solitude de l’usager individuel de l’outil « intelligence artificielle ». Mais pour pouvoir comprendre ce qui se passe au moment de l’émergence des logiciels d’intelligence artificielle (et de manière plus générale des technologies de l’information et de la communication), il faudra prêter attention à deux dimensions supplémentaires : 1) ce qui se passe pour les autres (non-)usagères, 2) les impacts sur les relations entre les personnes. En effet, les technologies de l’information et de la communication opèrent une médiation. En ce sens, elles mettent en relation, de différentes façons, des êtres humains parfois proches, parfois lointains, parfois conscients de cette opération, parfois à leur insu. Ainsi, par exemple, les grands modèles de langage sont des médiateurs entre les auteurs des textes qui servent d’entraînement et l’usager du logiciel. Mais le logiciel Whatsapp sert aussi de médiation dans les relations entretenues par les usagères. Ces dimensions doivent être pensées conjointement pour avoir une image la plus juste possible des modifications qu’entraîne l’émergence des logiciels d’intelligence artificielle.

Le milieu de l’IA

Pour pouvoir observer de plus près ces médiations et les conditions matérielles dans lesquelles elles s’opèrent, il est intéressant de penser au milieu de l’intelligence artificielle, de la situer quelque part. Ce milieu est double : il y a un milieu physique et un milieu symbolique.

a) Un milieu physique : les logiciels d’intelligence artificielle ont besoin d’un milieu physique favorable pour se déployer. De la même manière qu’il nous serait impossible de discuter en l’absence d’air, nous ne pouvons pas utiliser un logiciel de génération d’images sans la présence de serveurs, d’une capacité de calcul suffisamment puissante, de l’extraction minière des composants nécessaires aux machines, des infrastructures électriques, du réseau internet, etc. La liste est longue. Comme la crise environnementale nous le rappelle, ces technologies ne pourraient pas exister sans ce milieu physique, ni sans une organisation du travail, de conception et d’entretien pour répondre à leurs besoins.

b) Un milieu symbolique : les technologies de l’information et de la communication organisent notre manière de nous informer et de communiquer depuis toujours. Que ce soit le langage parlé, l’écriture, l’imprimerie, les chiffres ou les images, chacune de ses manières d’« informer » et de « communiquer » impose ses propres contraintes. Alors que l’écriture permet de garder une trace et favorise un travail architectural de la pensée par l’organisation grâce aux titres et sous-titres, le langage parlé fait travailler la mémoire et permet la répétition ou l’insistance par des inflexions de la voix (il est plus musical qu’architectural), etc. Les transformations des milieux symboliques ont des répercussions fortes sur nos existences, c’est-à-dire qu’elles ont un impact structurel sur notre société : une justice basée sur des textes de loi favorise les personnes qui comprennent ces textes et ces modalités (écrites), mais défavorise les analphabètes en les condamnant à se fier à autrui. Les logiciels d’intelligence artificielle transforment donc également notre manière d’échanger des signes et des symboles (textes, images, sons et musiques, nombres). Les contenus qu’ils produisent sont porteurs de significations pour les êtres humains et agissent donc aussi sur les milieux symboliques.

Tentons de voir ce que cela change d’observer les transformations, voire les bouleversements, liés à l’émergence de l’intelligence artificielle en se rendant attentifs aux médiations qu’elle opère et aux milieux dans lesquelles elle se déploie plutôt qu’en se plaçant dans la perspective d’un outil que nous prenons en main :

  • Si nous restons dans la perspective de l’outil, nous pourrions croire que l’usager seul est impacté par l’émergence de l’intelligence artificielle. Celui-ci doit apprendre de nouvelles pratiques et faire avec les nouvelles contraintes que son outil lui impose. Or, si c’est le milieu médiatique qui est transformé, les bouleversements touchent tout le monde, usagère ou pas, en maîtrise ou non de ce nouvel outil. Par exemple, si la majorité des travailleurs de l’associatif recourent aux grands modèles de langage pour rédiger des rapports aux pouvoirs subsidiants, la demande future pourrait peut-être se faire plus exigeante et les rapports plus intéressants ; si la majorité des personnes recourent au même logiciel pour choisir le cadeau à offrir à une amie à l’occasion de son anniversaire, la diversité des cadeaux à acheter et à offrir, voire ce que recevoir un cadeau signifie, risquent également d’être impactés. Prenons un exemple d’une transformation passée, celle opérée par le smartphone — adopté aujourd’hui par la grande majorité de la population. L’émergence de cette technologie a touché des dimensions de la vie de chacun, usager ou non, que nous le voulions ou pas et a créé une nouvelle norme sociale : acheter des tickets de train par application plutôt qu’au guichet ou à la machine, accéder à son compte en banque via une application, communiquer avec ses proches en visioconférence plutôt qu’au téléphone, etc. Ce sont finalement nos habitudes et nos normes sociales communes qui se sont transformées. Et pas toujours de manière homogène, que ce soit entre classes d’âges (enfants, adolescents, adultes et personnes âgées) ou classes sociales (personnes dans la précarité ou porteur d’un handicap visuel, technicienne, etc). Cela peut même créer de nouvelles communautés, par exemples celles qui refusent la transformation de leur milieu, qui rejettent le smartphone dans ce cas-ci. C’est donc la question des fractures sociales potentielles qui échappe à la perspective de l’outil. D’autant plus dans un contexte où les tensions entre groupes sociaux ne font qu’augmenter.
  • La maîtrise de l’usage de l’outil qui reviendrait à la volonté de chacun des usagers (une fois en maîtrise d’un générateur d’images, l’usager obtiendrait ce qu’il veut du moment qu’il sait ce qu’il veut faire et ce que la machine peut réaliser) s’oppose ici à l’imprévisibilité des transformations d’un milieu, pour les usagers comme pour les conceptrices. Celles-ci ne peuvent pas prévoir quelles transformations des rapports sociaux les nouvelles technologies vont opérer. Un concepteur ne peut pas facilement prévoir quelle nouvelle technologie va s’imposer et l’histoire recèle nombre d’exemples où des technologies ont échoué. Par exemple, le Metavers de Meta (anciennement Facebook) n’a jamais pu percer chez le grand public et ce malgré une campagne marketing longue et très coûteuse. Dans la perspective de l’outil, la question qui se pose est de savoir ce que nous voulons faire ou pas (parce que c’est possible de le prédire). La perspective du milieu déplace la question : qu’est-ce qui nous échappe et qu’est-ce qui a échappé à la conceptrice ? Quelles seront et ne seront pas ou plus les nouvelles pratiques dans le nouveau milieu transformé ? Ces questions permettent de se rendre attentifs de manière plus complète aux effets réels des nouvelles technologies sur nos existences.
  • Alors que l’outil s’impose d’un coup au moment de son apparition, comme s’il était déjà là, sans histoire (nous avons un marteau dans la main), la transformation du milieu est progressive, elle peut être tantôt brutale (elle nous affecte alors fortement), tantôt discrète. L’émergence des grands modèles de langage est progressive et nous pourrions même supposer qu’elle n’est pas terminée car elle n’est pas stabilisée (par exemple, ces technologies ne sont pas rentables pour les entreprises qui les déploient, le modèle économique n’est pas encore établi…). Si nous considérons l’émergence de ces nouvelles technologies comme une transformation de notre milieu, nous pourrons être attentives aux changements qui ne sont pas toujours faciles à observer : ils peuvent nous échapper, parce que nous ne parvenons pas à les cerner, parce que des petites transformations permanentes sont réalisées par les entreprises qui les déploient, parce qu’ils sont complexes et que leurs causes sont multiples, parce qu’ils ne nous touchent pas tous de la même manière.

Nous pouvons prendre une analogie avec la transformation des textes de loi1 : même si de nouvelles applications de lois dans l’enseignement touchent seulement une frange de la population à court terme (les enseignantes et les travailleurs du milieu scolaire ainsi que les élèves), les conséquences concernent le corps social dans son ensemble. L’éducation d’aujourd’hui n’est plus celle d’hier, parce que les règles que nous nous donnons collectivement ont changé. Les changements sont tantôt opérés de manière brutale, tantôt discrets au point qu’ils pourraient passer inaperçus. Il faudra du temps et du recul pour les observer, avec des effets qui peuvent s’avérer bien plus profonds que ce que nous voyons apparaître au départ (d’autant plus si nous nous donnons initialement des indicateurs qui passent à côté de certains effets que personne n’avait prévus). Les transformations opérées ne sont pas totalement prévisibles ni pour le gouvernement, ni pour les citoyennes.

Transformer les médias, comme les textes de loi, c’est transformer nos conditions d’existence. Cela revient à transformer notre cadre de vie, physique et symbolique. Ce chapitre vise à nous situer collectivement dans ces milieux. Nous l’écrivons au pluriel, car ils ne sont pas toujours partagés par tout le monde ; certains milieux sont partagés par certaines communautés et nous appartenons à plusieurs d’entre elles avec des pratiques potentiellement différentes pour chacune d’elles (nous ne communiquons pas de la même manière avec notre famille, nos amis, notre compagnon ou nos collègues). Nous gagnons à les observer de près, dans le détail, pour pouvoir observer ces différences de pratiques entre nous. L’émergence des logiciels d’« intelligence artificielle » n’aura pas les mêmes effets en fonction du milieu dont nous sommes issus.

Atelier 1 -  Petites histoires de nos usages

Enjeux

L’intelligence artificielle (et les technologies de l’information et de la communication en général) peut être mobilisée dans différentes dimensions de nos existences que nous dessinons ici à gros traits : le travail (synthétiser des informations nécessaires à la rédaction d’un appel à projets, produire un résumé pour des participants à une formation, créer une affiche ou un site internet) - les désirs, la vie affective et intime (demander conseil pour offrir un cadeau à une amie, pour langer un nouveau-né, explorer les causes possibles d’un symptôme) - la vie publique (écrire une lettre pour des pouvoirs publics, obtenir un résumé d’un texte de loi…). Cet atelier d’écriture vise à articuler une histoire, une anecdote personnelle à une question que celle-ci nous pose. Si nous nous intéressons à l’intelligence artificielle, c’est qu’elle nous touche dans une — ou plusieurs — dimensions de notre existence. Se poser une question, c’est mettre en évidence ce sur quoi nous désirons nous attarder, ce sur quoi nous souhaiterions réfléchir collectivement. C’est aussi une manière de concevoir collectivement un mini-programme de recherche à partir des questions qui émergent.

Présentation de l’atelier et consignes

Chaque participante écrit un petit texte pendant une quinzaine de minute à partir des consignes suivantes :

  1. Identifier une pratique précise de l’IA que vous avez déjà expérimentée, que ce soit dans votre travail, dans votre vie affective, dans la vie publique ou dans vos loisirs.

  2. Décrire le contexte dans lequel elle intervient : à quelles occasions l’avez-vous utilisée ? Était-ce seul ou à plusieurs ? Avec qui le logiciel vous a-t-il mis en lien ?

  3. Interrogez-vous sur les motifs de votre choix de l’utiliser à ce moment-là (quelle est votre intention ?), de cette façon-là (quel est le dispositif technique utilisé ? Avez-vous utilisé un smartphone, une tablette, un ordinateur ? Comment avez-vous choisi le logiciel ?). Une autre manière de vous adresser cette question serait de vous demander si vous auriez fait quelque chose dans le même contexte si l’IA n’existait pas (l’IA vous permet-elle de faire de nouvelles choses ou de le faire d’une façon que vous jugez plus riche ?).

  4. Terminer le texte par une question.

Au moment d’écrire, les participantes essaient de raconter une histoire qui met en évidence le milieu dans lequel l’expérience a lieu (quels sont les acteurs de l’histoire ? Quelles sont leurs habitudes ?…).

Variations possibles

  1. Les consignes de cet atelier d’écriture suppose que les personnes qui y répondent ont déjà eu une pratique des logiciels d’intelligence artificielle. Ce n’est pas toujours le cas et l’expérience peut être trop pauvre pour mettre en évidence quelque chose qui compte pour la personne qui y répond. Si une participante n’a pas de pratique d’IA, il est possible d’écrire une histoire qu’on se raconte et qui circule (comme une rumeur) à son sujet et qui a marqué, quelque chose qu’on a entendu ou qu’on a lu et qui nous a troublés. Cela peut également être une anecdote racontée par une proche. Les participants terminent leur texte par une question.

  2. Cet atelier peut être proposé comme un temps particulier du deuxième atelier de ce chapitre, au moment d’entamer le Temps 3 en sous-groupe (voir ci-dessous).

Debriefing

Les texte sont mis en commun en favorisant les prises de parole qui étoffent les questions posées par l’émergence des logiciels d’intelligence artificielle. Au moment de la lecture, deux rôles sont confiés à des participantes volontaires :

  1. Produire une synthèse des problématiques soulevées par les textes lus : quelles sont les différentes facettes des questions posées par l’intelligence artificielle qui apparaissent dans les textes ? La thématique de l’intelligence artificielle est riche, il s’agira ici de préciser les dimensions qui importent pour le groupe qui travaille autour du livret.

  2. Relever quelques éléments qui permettent de mettre en évidence des différences entre les milieux médiatiques qui apparaissent dans les récits. Avec quoi et avec qui les logiciels d’intelligence artificielle mettent-ils en relation leurs usagers ? Quelles sont les médiations qu’ils opèrent ?

Atelier 2 - Enquête sur nos pratiques médiatiques

Enjeux

Alors que nous nous concentrons souvent sur les pratiques médiatiques que nous devrions adopter, nous nous attardons en général très peu sur l’observation et la description fine de nos pratiques actuelles. Cet atelier vise à mener une enquête sur notre milieu médiatique à partir d’une liste de questions (non-exhaustive) qui servent avant tout à préciser les multiples dimensions possibles lors de ce travail d’observation. Dans ce livret, nous avons choisi de nous concentrer sur nos manières de nous informer : elles ne doivent pas dicter ce qu’il convient d’observer, mais plutôt indiquer l’esprit du travail d’observation proposé. L’atelier est individuel dans un premier temps afin de se concentrer chacune sur la description de ses pratiques singulières. Une mise en commun a lieu dans un second temps de sorte à mettre en évidence les ressemblances et différences de pratiques : partageons-nous le même milieu ? À quelles occasions ne le partageons-nous pas ?

Présentation de l’atelier et consignes

Dans un premier temps, nous menons une enquête personnelle sur la manière dont nous nous informons. Nous indiquons ci-dessous quelques sous-questions pour essayer de caractériser le(s) milieu(x) médiatique(s) que nous arpentons pour rechercher des informations. Ces questions servent à nourrir votre enquête, elles ne sont pas exhaustives et peuvent être reformulées pour coller davantage à votre contexte.

Temps 1 : Enquête individuelle

  • Dans nos métiers, quels sont les médias que nous consultons ? Et pourquoi en choisissons-nous certains et pas d’autres ? (radio, TV, réseaux sociaux, livres, e-books, podcast, plateformes numériques, via des moteurs de recherche, flux RSS, blogs…). Nous pouvons détailler les médias choisis (quelle radio et quelles émissions ? Dans quel contexte l’écoutons-nous ? Sur quelles machines ?…) et les raisons qui nous poussent à opérer ces choix.
  • À quels types d’informations (textes, images, audio/vidéo, nombres) sommes-nous exposés ? Quelle est la longueur des articles / livres / films /… que nous consultons ? Y a-t-il des formes d’expressions que nous privilégions (par exemple le texte ou l’audio-visuel) ? Est-ce la même chose pour notre travail et nos loisirs ? Certains types d’informations sont-ils réservés au travail ou aux loisirs ?
  • Le média est-il consulté d’une traite ? Devons-nous y revenir à plusieurs reprises ? Quand les consultons-nous ? À quelle fréquence revenons-nous au même média ? Avons-nous des pratiques de veille (consulter des médias régulièrement afin d’être au courant de ce que ces médias publient, éventuellement sur des thématiques particulières) ? Lesquelles ? Pourquoi ?
  • Quels types d’information retenons-nous des médias que nous consultons ? Les cherchons-nous volontairement (par exemple, choisir un podcast pour travailler sur un sujet précis) ? Quelles stratégies avons-nous développer pour nous en souvenir ?
  • Quand nous recherchons une information, préférons-nous regarder une vidéo, lire un texte, écouter un podcast pour trouver une information ? Est-ce variable en fonction de l’information recherchée ?
  • La présence d’un comité éditorial permet de savoir quel genre d’informations nous trouverons dans un journal (le comité éditorial de Médor ne suit pas les mêmes lignes éditorial que Le Figaro, ce que les lecteurs savent en achetant leur journal). Avec la transformation des médias, les pratiques éditoriales se transforment. Sur les réseaux sociaux, il n’y a pas de ligne éditoriale officielle, mais il existe cependant une modération des contenus (certains pouvant être supprimés), et une hiérarchisation des informations sur base de critères qui ne sont pas toujours connus des usagères. Ces nouvelles pratiques médiatiques posent de nouvelles questions : Y a-t-il une modération des contenus (par un algorithme, par un comité de rédaction ou par la communauté) dans les médias que nous consultons ? Faisons-nous attention à la manière dont les contenus sont modérés ? Choisissons-nous les médias en fonction de la manière dont les contenus sont modérés ? À partir de quels critères avons-nous confiance dans les contenus que nous consultons (choix du média, de l’auteur, etc) ? Est-il aisé de vérifier la fiabilité des informations ?
  • Des lois encadrent ce qui peut être fait d’une œuvre ou de la production de données. En particulier le droit d’auteur et le RGPD. Quand et comment ses contraintes affectent notre travail et nos loisirs ? Par exemple, choisissons-nous une banque d’image libre de droits ou préférons-nous payer aux ayants droit pour utiliser ou réutiliser une œuvre ? Quand nous voulons organiser une activité dans un cadre professionnel ou privé avec d’autres participantes, et que nous avons besoin de certaines informations personnelles, comment cela affecte-il la mise place de notre activité ?
  • Qu’est-ce que nous faisons des informations que nous collectons ? Comment gardons-nous une mémoire des médias consultés ? Pouvons-nous facilement retrouver les informations que nous citons ? Essayons-nous d’être fidèle ? La transformons-nous (volontairement) ? Sommes-nous en mesure de citer nos sources ? Opérons-nous des synthèses entre différentes sources ?
  • Quel est le rapport au temps que nous cultivons au moment de nous informer ? Par exemple : une concentration profonde où nous ne voyons pas le temps passé ; lire pour tuer le temps, parce que nous nous ennuyons. Comment qualifier le régime d’attention dans lequel nous nous trouvons à ce moment-là ?
  • À quelles tensions, à quelles difficultés faisons-nous face dans vos pratiques actuelles ? Qu’est-ce qui est insatisfaisant ?

Temps 2 : Par petits groupes de 3-4 personnes (premier temps)

Les réponses à ces questions seront mises en commun, en particulier la dernière, afin d’observer comment ces milieux informationnels sont partagés (ou non).

Temps 3 : Discussion collective2

Chaque petit groupe relève quelques éléments de la discussion qui a précédé. En fonction de ce qui est mis en commun, la discussion en grand groupe permettra d’observer comment l’émergence des algorithmes d’intelligence artificielle transforme notre milieu. Les participants (usagers ou non3) sont-ils affectés par cette transformation de leur milieu ?

Nous vivons un moment particulier de l’histoire de ces algorithmes : ils sont nouveaux et nous pouvons nous rendre davantage sensibles aux transformations qu’ils opèrent alors que celles-ci seront difficiles à détecter une fois que leur présence dans notre milieu sera normalisée. Alors que les discours marketing nous avertissent que les intelligences artificielles sont partout, nous tâcherons d’observer précisément ce qu’il en est depuis notre perspective singulière. Voici quelques exemples de questions qui pourront servir de point de départ à la discussion :

  • Où se trouvent les intelligences artificielles dans nos pratiques médiatiques ?
  • Leur présence est-elle manifeste ? Visible ? Uniquement accessible à des techniciennes qui connaissent les algorithmes ? Quand les avons-nous repérées pour la première fois ?
  • À partir d’un exemple concret (par exemple : la première entrée d’un moteur de recherche qui est un texte généré par un grand modèle de langage) : Comment cela nous affecte-t-il ? Qu’est-ce que cela nous a fait la première fois que nous l’avons vu apparaître ? Est-ce que cela nous a attiré ?
  • Plus largement : Si nous assistons à une transformation de notre milieu, quelles sont nos réactions à ces transformations : qu’est-ce que cela nous fait ?
  • Avons-nous déjà utilisé volontairement une intelligence artificielle ? Dans quel but ? À quelles occasions ? Aurions-nous cherché la même information par un autre moyen auparavant ? Si oui, comment nous y serions-nous pris ?
  • Comment les intelligences artificielles transforment-elles actuellement nos pratiques médiatiques ? Quelles sont les nouvelles pratiques qui apparaissent ou disparaissent (pour nous-mêmes ou pour d’autres) ? Voyons-nous plus ou moins d’informations sur tel ou tel sujet ? Est-ce qu’il est plus difficile ou plus facile d’accéder à certaines informations (par exemple des sujets de pointe ou des textes didactiques) ?
  • Les IA apportent-elles des solutions à des problèmes que nous avions déjà observés ? De nouvelles difficultés apparaissent-elles ?
  • Comment réagissons-nous à l’absence d’autrice identifiable derrière les contenus générés ?

Variations possibles

  1. Nos manières de communiquer de nous informer sont imbriquées, il peut être artificiel de vouloir les séparer. Il est inutile voire contre-productif de vouloir les séparer à tout prix. Si nous avons choisi ici de nous concentrer sur nos manières de nous informer, c’est surtout pour avoir un point de départ circonscrit pour entamer la réflexion.

  2. L’enquête sur nos pratiques médiatiques gagne à être menée sur un temps un peu plus long (quelques jours voire quelques semaines), par exemple à la manière d’un journal à tenir quotidiennement, afin d’être au plus proche des pratiques réelles. Ces observations peuvent être rapportées plus tard dans le collectif. Les effets produits par les médias sur nous ne sont pas toujours faciles à percevoir à moins de se donner des moyens d’y être attentives. Ce journal est à mi-chemin entre un journal intime qui augmente notre conscience des événements de la journée et de leur retentissement affectif sur nous (en particulier notre attention se portera aux difficultés et aux tensions que nous rencontrons afin d’observer ce qui nous pose problème déjà actuellement) et un relevé plus technique et plus objectif de nos usages, comme un médecin nous demanderait de relever ce qu’on mange précisément et à quelle heure pour identifier le régime dans lequel on se trouve.

  3. Si ce sont des problèmes particuliers qui nous occupent (par exemple : la désinformation, l’esprit critique, l’économie de l’attention…), les questions pourront être précisées pour les traiter davantage. Par exemple, savoir comment nous choisissons les sources et les autrices que nous lisons, comment nous pouvons avoir confiance en ces ressources, permet d’amorcer l’observation de la façon dont nous nous y prenons pour exercer notre esprit critique, mais aussi de préciser peut-être ce qui nous pose problème pour l’exercer déjà aujourd’hui.

Debriefing

Les effets que nous pouvons attendre de ce travail d’observation et de description sont de différentes natures. Ils pourront être précisés au moment du debriefing par chacune des participantes. Parmi les effets possibles, en voici quelques uns :

  • Peut-être avions-nous déjà l’habitude de discuter collectivement de nos pratiques médiatiques ; peut-être est-ce nouveau. Dans les deux cas, notre manière de mettre des mots sur nos expériences, de les raconter, pourra être transformée. La façon dont nous parlons de l’intelligence artificielle avec nos proches pourrait également être altérée.
  • En général, l’émergence des logiciels d’intelligence artificielle ne laisse pas indifférent. La description collective de nos pratiques médiatiques actuelles pourrait transformer nos affects. Par exemple, nous pourrions observer que d’autres personnes que nous éprouvent des difficultés similaires dans leurs pratiques médiatiques et réfléchir ensemble à la manière de les transformer.
  • Même si les médias contraignent nos modes de communication et d’information (nous ne pouvons pas faire ce que nous voulons), les usagers (individuellement et collectivement) ont toujours développé des stratégies d’appropriation voire de détournement pour s’en emparer d’une manière qui leur convient davantage4. La mutualisation de la description des pratiques médiatiques permet de s’inspirer les unes les autres des pratiques actuelles voire d’inventer ensemble de nouvelles manières de faire.

Footnotes

  1. L’analogie ne tient pas si nous nous intéressons à qui décide des transformations du milieu. Laisser les décisions aux mains d’un état démocratique ou d’une entreprise marchande qui ne dépend pas de la souveraineté de l’Etat qui gouverne pose d’autres questions que nous aborderons au chapitre 4.

  2. Les pratiques de discussion philosophique collective que PhiloCité a l’habitude d’animer sont présentées dans le livre de PhiloCité, Philosopher par le dialogue, Éd. Vrin (2020). Ces méthodes sont également présenter sur le blog Dans la caverne de PhiloCité (www.philocite.eu/blog).

  3. L’atelier 1 de ce chapitre peut également servir d’introduction à ce moment de l’atelier 2.

  4. Cette idée est dépliée pour les usages du smartphone dans la thèse de Nicolas Nova, Smartphones, Une enquête anthropologique, Métispresses (2020).