Contexte du chapitre

Éviter la moralisation

Lorsqu’on considère les logiciels d’intelligence artificielle comme des outils, la question des valeurs est souvent posée de manière morale. En effet, l’usager est face à un outil qu’il devra apprendre à bien utiliser. C’est un rapport individuel de l’usagère à la machine et des injonctions morales lui dictent les « bonnes pratiques » à adopter et les « mauvaises pratiques » à éviter. En d’autres termes, il n’appartiendrait qu’à l’usager d’être un bon ou un mauvais usager, et ce, sans que celui-ci se questionne sur l’idéal qui permet de définir le bon ou le mauvais usage.. Cette conception implique au passage la supposition d’une maîtrise de l’outil. On peut en effet le maîtriser puisqu’il est prévisible. On est donc responsable de son usage. Pour prendre un exemple provocateur, si une arme existe et qu’elle est entre nos mains, il nous suffira d’apprendre à l’utiliser à bon escient. Et c’est notre responsabilité qui est engagée si ce n’est pas le cas. Plus proche de nous : c’est notre responsabilité de ne pas passer trop de temps sur le smartphone ou les réseaux sociaux. Et si nous sommes sensibles aux enjeux écologiques posés par l’IA par exemple, il reviendra à l’usagère d’apprendre à écrire de « bons prompts », ceux qui consomment le moins de ressources énergétiques possibles.

Cette conception occulte une première question : même si les moyens techniques pour inventer des grands modèles de langage sont disponibles, même si ceux-ci sont déjà là, est-ce que nous souhaitons les utiliser ? Plus encore : Méritent-ils d’être inventés ? Doivent-ils exister ? C’est précisément l’absence de ce questionnement qui divise le champ social en « technophiles » et « technophobes ». Car l’histoire des techniques est parcourue de mouvements de résistance aux machines. Des mouvements luddites du XIX^e^ siècle qui se sont opposés à l’industrialisation en Angleterre en brisant des machines jusqu’aux mouvements néo-luddites actuels, il s’agit de supprimer purement et simplement la machine. Cette résistance par la seule désobéissance violente indique aussi le rapport de force entre des personnes puissantes et des personnes impuissantes : les secondes subissent des transformations de leur milieu de vie décidées par les premières. C’était le cas entre les patrons des manufactures textiles et les ouvrières et artisans au XIXe siècle ; c’est le cas aujourd’hui entre les GAFAM et des citoyennes dans le contexte du capitalisme numérique.

Nous assistons de plus aujourd’hui à un enflement des technologies1 de l’information et de la communication qui nous accompagnent dans (quasiment ?) toutes les dimensions de notre existence. Ces technologies « s’imposent à nous » : parce que les entreprises nous les offrent « gratuitement », et que des administrations nous incitent à les utiliser, nous pourrions dire qu’« on nous les impose ». D’un autre côté, « ça s’impose » dans des normes sociales et des habitudes partagées, parce que ces technologies sont pratiques, simplifient la vie, font gagner du temps… La question de leur existence et de leur usage devient une nécessité dès lors que ces technologies sont omniprésentes. Elles recouvrent tous les pans de nos milieux de vie, nous ne pouvons pas y échapper.

Toute résistance n’a pas à prendre une forme violente pour mériter que l’on se penche dessus. Il importe d’observer où cela résiste pour chacun d’entre nous, là où des tensions apparaissent quand une nouvelle machine émerge. C’est l’attachement à nos métiers, à nos manières de faire, d’agir, d’aimer, d’être en relation, etc. que les nouvelles technologies mettent en question. Celles-ci ne sont toutefois pas seulement entre les mains des géants du numérique, le numérique ne forme pas un tout homogène. D’autres logiciels cohabitent avec ceux délivrés par les géants du numérique, notamment les logiciels libres qui sont d’autant d’exemples d’une tentative de résistance2, mais aussi de la création de nouvelles manières de faire exister le numérique.

Discuter les conflits de valeurs

Réfléchir en termes d’outil pose encore un autre problème : nous ne pouvons pas nous contenter de nous adresser la question des attachements de manière individuelle, nous devons nous la poser collectivement. Car la machine ne vient pas seulement toucher à nos attachements singuliers. Et puisque son émergence ne touche pas chacune de la même manière, il est nécessaire d’observer à la fois les résistances et réactions communes et celles que nous ne partageons pas au sein d’un groupe social, d’une communauté. C’est ici que la conception d’un logiciel d’intelligence artificielle comme « acteur culturel » (voir Chapitre 3 – Culture technique : entrer dans le monde des machines) qui transforme son milieu de manière imprévisible (voir Chapitre 2 – Se repérer par rapport à l’IA dans nos pratiques médiatiques quotidiennes) montre sa richesse et son importance.

Lorsque le milieu est transformé par l’apparition de la machine, ce sont les conflits de valeurs entre nous qui se rejouent autrement. La nouvelle machine peut aussi faire apparaître des conflits latents. Dans les luttes luddites, par exemple, les valeurs capitalistes de rendement entrent en contradiction avec le désir du travail bien fait de l’artisan. Des conflits de valeurs peuvent aussi s’exprimer entre usagères. Toutefois, il ne faudrait tomber à nouveau dans l’opposition grossière et non réfléchie entre « technophiles » et « technophobes ». Par exemple, on évitera de se dire que les réseaux sociaux et Whatsapp nourrissent les personnes éprouvant le désir d’être en contact permanent avec leurs proches alors qu’elles terrifient quelqu’un qui a besoin de solitude et de déconnexion. En effet, une telle position du problème fait obstacle à la discussion. On peut être à la fois technophile et technophobe, de façon variable, selon les nécessités, selon les techniques. Mais de telles nuances ne sont possibles qu’à condition d’observer, d’expliciter et de questionner les tensions que les techniques suscitent inévitablement entre nous et en nous.

Par ailleurs, de tels conflits de valeurs sont imprévisibles. Ils ne sont pas issus d’un plan dans la tête de la conceptrice. Qui aurait pu imaginer par exemple que l’application Tinder émerge, transformant par son existence même nos manières d’entamer une relation amoureuse ? On n’aurait pas pu la prévoir, certes, mais cela n’empêche pas qu’on la comprenne rétrospectivement. Cette application qui propose une modalité de rencontre amoureuse sur base d’une photo et d’un court texte s’inscrit en effet dans une histoire sociale et technique (les bals de village, les agences matrimoniales, les sites de rencontre, etc.). Les concepteurs de l’application ne pouvaient néanmoins prédire avec certitude, ni qu’elle survivrait, ni les effets qu’elle produirait sur nos manières d’entrer en relation. Si nous considérons Tinder comme un acteur culturel de notre société, avec un mode d’existence particulier (voir Chapitre 3), nous pouvons observer les effets du logiciel sur notre société, en particulier quelle nouvelle configuration du milieu social et technique il fait émerger. Nous pouvons donc être attentives à de nouvelles questions : Quelles sont les transformations à l’œuvre qui nous échappent, malgré nous et malgré la volonté du concepteur ?

Nous pourrions encore croire à ce stade que les conflits de valeurs se jouent uniquement entre les êtres humains (usagères, concepteurs, entreprises, techniciennes). Mais si nous considérons que les machines sont des acteurs culturels, cela nous oblige à observer les tensions qui se jouent également à l’intérieur même de la machine. Celle-ci est soumise à des contraintes techniques, d’ordre physique, biologique, mathématique, avec lesquelles la machine doit composer (elle n’est pas le pur produit de l’imagination des concepteurs). Face à ces contraintes, les conceptrices opèrent des choix en fonction des critères qui sont à la fois techniques et humains, elles font des compromis. La machine est ainsi elle-même aux prises avec des conflits de valeurs : Est-ce l’accessibilité partout dans le monde qui sera privilégié ? Ou la limitation des ressources énergétiques ? Le fait de parvenir à produire des textes les plus cohérents possibles ? Ou ceux qui ressemblent le plus à ce que des êtres humains pourraient produire ? Ou ceux qui sont créatifs ?

Ce dernier chapitre vise d’abord à observer et à expliciter ces conflits de valeurs. Les tensions sont au moins de trois ordres : a) à l’intérieur de la machine, b) entre la machine et les êtres humains, c) entre les êtres humains. Nous nous demanderons ensuite ce que nous faisons face à ces conflits de valeurs.

Atelier 1 : Esprit critique et analyse d’images

Enjeux de l’atelier

Travailler l’« esprit critique » apparaît comme essentiel alors que les logiciels d’intelligence artificielle génèrent des textes, des images, des musiques, des vidéos… sans qu’une autrice soit identifiable, ni ses intentions. Encore faut-il préciser ce que nous entendons par « esprit critique ». Il a tendance aujourd’hui à se réduire à un certain type de questionnement : savoir si c’est une machine ou un être humain qui est à l’origine du contenu produit ; essayer de le détecter dans un contexte où cela devient de plus en plus difficile ; et finalement, quand il s’agit d’un contenu de savoir, observer si le contenu produit est « vrai » ou « faux ». Les efforts se concentrent alors sur la lutte contre la désinformation ou sur le « décryptage » des informations, un terme aussi omniprésent que vague et réducteur.

Cette version de l’esprit critique suppose qu’il existe des faits, des réalités objectives et sans biais qu’on peut énoncer. Le travail de l’esprit critique s’arrête au moment où on s’est assuré de l’objectivité des faits. Il existe des risques à cette approche de l’esprit critique : 1) installer un rapport de méfiance par rapport aux informations qui nous parviennent (qui pourrons-nous encore croire ?), 2) se concentrer uniquement sur la question du vrai et du faux sans nous donner la peine d’observer plus finement quelles sont les raisons de croire, d’adhérer aux informations.

Nous partons ici de l’hypothèse que les informations passent toujours par des filtres (autant de l’auteur que de l’auditrice) qu’il est utile d’observer (le journal dans lequel l’information est publiée, le point de vue de l’autrice, son intention, sa formation, son milieu socio-économique, le contexte dans lequel l’information est mise en forme…). Ces filtres sont observables et objectivables par l’auditrice à partir du moment où on se donne la peine de s’y attarder. Dans la même optique, il ne s’agit pas tant de corriger tous les biais des informations (ce travail serait infini), mais plutôt de rendre visible les biais, de les reconnaître. C’est cette version de l’esprit critique que nous poursuivrons ici, en l’adaptant au cas particulier des logiciels d’intelligence artificielle.

Le fonctionnement des logiciels d’intelligence artificielle brouille les catégories avec lesquelles nous avions l’habitude d’observer la fiabilité, la solidité des contenus auxquels nous avons accès et les filtres de l’« auteur » : il n’y a pas d’autrice de texte, elles ne sont issues d’une perspective identifiable (historique, sociale, culturelle, politique…), il n’y a pas de comité de rédaction affiché, les critères de valorisation des données d’entraînement des logiciels ne sont pas connus (les concepteurs de logiciels ne les révèlent pas)… Quels repères pouvons-nous retrouver dans ce nouveau paysage médiatique ?

Pour ce faire, nous tâcherons de déplacer la focale, en nous concentrant sur la génération d’images. Alors que le réflexe dominant est de se demander si une image a été générée par un être humain ou une machine, nous déplaçons la question : quel que soit le concepteur de l’image (une personne seule ou assistée d’une IA), nous nous demandons plutôt quel genre de message sur le monde se trouve dans l’image. L’esprit critique se situe aussi là : quel que soit le contenu (vrai ou faux), d’être attentive au message que celui-ci délivre. Qu’est-ce que l’image dit du monde dans lequel nous vivons ? Quel message fait-il passer ? Quel genre de monde les générateurs d’images sont-ils occupés à façonner ? Qu’est-ce que ces images valorisent ? Être attentif de manière systématique à ces enjeux face aux images générées par les modèles d’intelligence artificielle permettra peut-être de nous rendre un peu plus sensibles à l’esthétique promue par les entreprises qui détiennent ces logiciels. Ceci nous permettra d’objectiver un peu plus les « filtres » qui sont les leurs. Quelles sont les valeurs inscrites dans les machines par leurs conceptrices (peut-être même à leur insu) ? Et nous demander également comment ces valeurs nous affectent personnellement : comme nous choisissons les magazines que nous allons consulter, avons-nous envie d’être exposés aux images générées par des logiciels d’intelligence artificielle ? À quelles occasions ?

Présentation de l’atelier et consignes

Première séquence

L’animateur de l’atelier dispose d’un stock d’images qui fonctionne par deux : une image de départ prise par une photographe (amateure ou professionnelle) et une image générée en deux temps par des logiciels d’intelligence artificielle : dans un premier temps, un grand modèle de langage génère une description textuelle de l’image initiale ; celle-ci est soumise ensuite à un logiciel de génération d’images qui génère la seconde image(voir annexe3).

Les participants travaillent en sous-groupes de 2 ou 3 personnes. Chaque sous-groupe reçoit une première image sans savoir si celle-ci a été produite par un logiciel ou non. On suspend cette question, en considérant a priori que les deux images sont également dignes d’intérêt. Chaque sous-groupe constitue collectivement une lecture de l’image en répondant à une série de questions pour travailler leur interprétation commune :

  • Que se passe-t-il dans l’image ?
  • Quelles sont les couleurs qui apparaissent ? Les formes (leur position, leur orientation, leur dimension respective) ? Y a-t-il des motifs récurrents ? Des lignes dominantes ? Des orientations qui structurent l’image ?4
  • Y a-t-il des dissonances dans l’image ? Des éléments qui paraissent incongrus ?
  • De quelle esthétique l’image se rapproche-t-elle ? Où pourrait-elle avoir été publiée ?
  • Si cette image avait une autrice, quelle pourrait être son intention ? Qu’est-ce qui l’intéresse ?

Dans un second temps, les deux sous-groupes qui ont travaillé sur les images qui fonctionnent ensemble sont rassemblés. Ils reçoivent la description de l’image générée par le grand modèle de langage sur base de l’image initiale. Des questions structurent ce deuxième temps en sous-groupes (de 4 à 6 personnes) :

  • Chaque sous-groupe présente sa lecture de l’image sur laquelle il a travaillé.
  • Comparaison des deux images avec la description textuelle : quelles sont les différences entre les deux images ? Quels sont les éléments de la description qui apparaissent dans les deux images ? Ceux qui ont été omis ? Quelles sont les ambiguïtés de la description textuelle qui sont visibles dans le passage d’une image à l’autre ?
  • Est-il possible de se mettre d’accord sur l’image qui a été générée par les logiciels d’intelligence artificielle ? Qu’est-ce qui permet de le savoir ?

Deuxième séquence

Les participantes travaillent en sous-groupes de 2 ou 3 personnes. Chaque sous-groupe travaille sur une photographie prise par un photographe (amateur ou professionnel). De la même manière que lors de la première séquence, une description textuelle de l’image initiale est produite, cette fois-ci par les participantes. La description est dactylographiée de sorte à la soumettre à un générateur d’images.

Chaque sous-groupe pourra alors observer l’image produite et se demander ce qui a manqué dans la description, ce qui pourrait être précisé, les ambiguïtés du texte qui ont pu mener à l’image produite… de la même manière que dans la première séquence.

Variations possibles

  1. La deuxième séquence est l’occasion de comparer des logiciels de génération d’images, en soumettant une description identique à des logiciels différents afin de comparer les résultats. Il est également possible de tester ainsi l’évolution des logiciels en comparant des versions plus ou moins récentes d’un même logiciel. Alors que les « hallucinations » et les éléments incongrus dans les images générées étaient fréquents il y a plusieurs années, ils se font de plus en plus rares.
  2. Dans la deuxième séquence, il est également possible de soumettre plusieurs fois la même description d’images au même logiciel. Celui-ci ne générera pas exactement la même image puisque son fonctionnement est basé sur un algorithme statistique. Les images générées pourront également être comparées.

Debriefing

  1. Il est utile de se demander quel genre d’images les générateurs d’images valorisent par défaut (sans ajustement de la part de l’usagère). Qu’est ce que ces images donnent à voir et, éventuellement, qu’est-ce qu’elles ne donnent pas à voir ? Comment pourrait-on qualifier les représentations du monde que ces logiciels génèrent ? Et si on tient compte du fait qu’une image n’est pas qu’une représentation du monde, mais qu’elle en fait partie et participe donc de son façonnement, quel genre du monde ces images contribuent-elles à façonner ? Par ailleurs, les images générées ont-elles des caractéristiques communes ? Lesquelles ? Correspondent-elles aux a priori que nous avions par rapport aux logiciels de génération d’images ?
  2. Si ces images construisent un monde, nous pouvons également nous demander ce que cela nous fait d’être exposés à ces images. Où pourrions-nous les retrouver avec plaisir ? Où pourrions-nous nous attendre à les voir apparaître (parce qu’elles renvoient à une représentation du monde partagée) ? Avons-nous envie d’utiliser ces logiciels ? À quelles fins ?
  3. Si nous suivons l’hypothèse de la philosophe Marie-José Mondzain, « nous voyons infiniment plus de choses que ce que nous pouvons en dire et nous sommes capables de dire infiniment plus de choses que ce que nous voyons »5. La description textuelle de l’image reste dès lors toujours partielle, l’image étant inépuisable par le texte et inversement. Les générateurs d’images proposent une certaine modalité de mise en relation entre le texte et l’image. Parvenons-nous à produire l’image que nous décrivons ? Avec quel niveau d’exigence sur l’image produite ? Mettre plus de mots permet-il d’avoir une image plus à propos ? Est-ce toujours le cas ?
  4. Cet atelier peut également servir à s’interroger sur le fonctionnement des générateurs d’images, notamment les contraintes statistiques avec lesquelles ils doivent composer. Il peut alors être mis en relation avec le deuxième atelier du Chapitre 3.

Atelier 2 : Des valeurs dans la machine

Enjeux

Au Chapitre 3, nous avons plongé dans le monde des objets techniques en étudiant le fonctionnement d’un logiciel d’intelligence artificielle et les conditions techniques de son existence. À l’issue de ce livret, il est temps de revenir sur les grandes entreprises qui conçoivent et mettent à disposition ces logiciels. En pariant sur le fait que notre perspective est enrichie par une plus grande familiarité avec les machines, c’est-à-dire par une culture technique plus importante.

Malgré leur puissance financière démesurée, les grandes entreprises d’intelligence artificielle sont aussi aux prises avec le réel, elles doivent composer avec les contraintes imposées par le bon fonctionnement des logiciels qu’elles produisent. Face à ces contraintes, elles opèrent des choix à la fois techniques et humains (un design de l’interface avec l’usager, un déploiement du logiciel, un modèle économique, une organisation du travail, etc.). Il s’agit dès lors d’observer les valeurs que ces entreprises colportent en observant de plus près les choix qu’elles opèrent parmi toutes les possibilités techniques et humaines possibles. À partir de l’observation des valeurs qui se trouvent dans nos machines, nous pouvons mettre en évidence indirectement ce qui importe pour les entreprises, quel monde construisent les technologies qu’elles développent.

L’émergence des logiciels d’intelligence artificielle s’ancre dans un contexte socio-historique et politique particulier6. Depuis l’arrivée d’internet (au départ, un réseau décentralisé), le marché du numérique s’est progressivement concentrée entre les mains de quelques entreprises surnommées GAFAM. Ces entreprises imposent en effet une certaine culture du numérique (facilité d’usage, opacité du fonctionnement, etc.) ainsi que des modèles économiques particuliers (« service gratuit », captologie, économie de l’attention, collecte de données et ciblage publicitaire, etc.).

Puisque ces valeurs sont inscrites dans les machines, nous pouvons les observer. Nous nous demanderons ce que les logiciels d’intelligence artificielle valorisent et dévalorisent. Comment celles-ci rentrent en tensions avec nos valeurs ? Mettre des mots sur les valeurs (les nôtres et celles des machines) est un travail collectif. Il vise à objectiver les valeurs des grandes entreprises à partir de nos perceptions singulières. Et, finalement, mieux nous positionner collectivement par rapport aux machines.

Présentation de l’atelier et consignes

Les participantes dressent collectivement un tableau reprenant les valeurs actuelles qui sont comprises à l’intérieur d’un objet technique spécifique (par exemple un générateur de texte comme ChatGPT). Ce tableau comporte deux colonnes :

  1. les valeurs techniques internes à la machine, celles qui proviennent
    • des contraintes physiques (par exemple, débit d’informations disponibles sur le réseau internet, refroidissement des serveurs)
    • des contraintes mathématiques (par exemple, les théorèmes mathématiques qui décrivent les lois statistiques) ;
  2. les valeurs humaines, qui proviennent des contextes économique (qu’est-ce qui permet aux entreprises de tirer leur épingle du jeu ?), culturel (quelles sont les pratiques médiatiques dominantes ?), juridique (quelles sont les dispositions légales en vigueur ?) dans lequel l’objet technique évolue.

Les deux catégories ne sont pas étanches ; elles sont là pour nous aider à observer les différentes valeurs qui sont à l’œuvre au sein de la machine.
En particulier, elles visent à ne pas passer à côté des valeurs inscrites dans les contraintes liées au fonctionnement de la machine. La méconnaissance du fonctionnement de la machine ne doit néanmoins pas avoir d’effet inhibant pour les participants.

TIP

L’enjeu de l’exercice ne consiste pas à distinguer les deux catégories (valeurs techniques et valeurs humaines), mais bien de mettre des mots collectivement sur les valeurs du logiciel.

Valeurs techniques (qui découlent des contraintes internes à la machine)Valeurs humaines
ÊTRE DANS LA MOYENNE : Utiliser les mots les plus fréquentsÊTRE ACCESSIBLE : Être utilisable quel que soit le niveau de littératie numérique, quel que soit le public

Une manière d’entrer dans les valeurs humaines de la machine est de se concentrer sur les entreprises qui les conçoivent : que cherchent-elles à produire ? Comment parviennent-elles à leurs fins malgré les contraintes techniques auxquelles la machine est soumise ?

Il est important de s’attarder sur chacune des valeurs et de prendre le temps de mettre des mots car nous n’avons pas la même sensibilité, nous ne percevons pas la machine exactement de la même manière. Par exemple, est-ce que la valeur technique de la machine, c’est d’être dans la moyenne (c’est-à-dire de véhiculer des discours dominants, avec les mots les plus fréquents) ou est-ce plutôt d’être plausible (c’est-à-dire d’être le plus cohérent, de ressembler le plus à un discours écrit par un être humain) ? Elles seront travaillées collectivement en faisant droit aux sensibilités de tous les participants.

Une fois que le tableau de valeurs paraît suffisamment riche, l’atelier peut se poursuivre en observant les tensions entre les valeurs. Dans un premier temps, les participantes examinent les tensions entre deux (ou plusieurs) valeurs humaines. Par exemple, si dans les valeurs humaines apparaissent à la fois le fait d’être accessible à tout le monde et le fait d’être utile : le texte généré sur une thématique particulière ne sera pas satisfaisant pour un spécialiste de la thématique. Le jargon utilisé ne correspondra probablement pas à ce qui est attendu, des erreurs apparaîtront probablement dans le texte pour un lecteur averti, etc. Dans un second temps, les participants explorent les tensions entre des valeurs techniques et des valeurs humaines. Par exemple, si le grand modèle de langage génère des textes « dans la moyenne » et qu’il poursuit l’objectif d’être utile pour tout le monde, les usagers qui cherchent à générer des contenus originaux, ne parviendront pas à leurs fins, sauf à fournir eux-mêmes cette originalité. Nous pourrions même craindre que la signification du mot « original » soit transformée avec l’émergence de l’intelligence artificielle. Des tensions peuvent également exister entre plusieurs valeurs techniques, auquel cas les conceptrices des logiciels opèrent des choix (voir Chapitre 3). Par exemple, une tension existe entre produire une réponse rapide et produire un texte fidèle à la requête de l’usager.

Variation possible

Si nous souhaitons aller un peu plus loin dans l’atelier, il peut être intéressant de faire l’atelier avec des logiciels d’intelligence artificielle différents. Les valeurs sont-elles les mêmes ? Sommes-nous capables d’observer des différences de valeurs entre les logiciels ? Évoluent-elles au cours du temps ? Les choix de modération des contenus sont éclairants : ChatGPT interdisait jusqu’en 2025 des contenus érotiques ; DeepSeek ne peut pas générer de contenus à propos de certains événements historiques comme les manifestations de la place Tian’anmen de 1989.

Certains logiciels permettent aux usagères de changer des paramètres (par exemple : vitesse d’exécution, qualité du résultat, résultat plus ou moins original…). Ces paramètres peuvent également être explorés. Cette expérimentation met en évidence le degré d’appropriation potentiel pour l’usager.

Debriefing

  1. Est-ce facile de mettre des mots collectivement sur les valeurs ? Est-ce aisé de se mettre d’accord ? Les valeurs techniques sont-elles perceptibles pour l’ensemble du groupe ? Qu’est-ce qui pourrait nous permettre d’entrer davantage dans les contraintes techniques du logiciel (ou de l’objet technique choisi) ?
  2. Parmi les valeurs qui apparaissent dans le tableau, y en a-t-il qui dérangent, qui entrent en tension avec les valeurs des participantes (personnellement et collectivement) ? Celles-ci sont-elles prêtes à composer avec ces valeurs (éventuellement, pour certains usages, dans certaines dimensions de leur existence) ? Des valeurs paraissent-elles problématiques pour les participants ? Sont-elles rédhibitoires (pour certains usages, dans certaines dimensions de votre existence) ? Est-ce partagé au sein du groupe ?
  3. Y a-t-il une valeur qui n’est pas suffisamment prise en compte par les concepteurs de la machine et qui serait souhaitable ? Par exemple : être économe en ressources (eau, électricité, matériaux) ; augmenter la capacité de l’usager à quitter le logiciel en ne l’incitant pas à poser une autre question ; etc. Comment pourrions-nous transformer la machine pour qu’elle soit plus conforme à nos valeurs ? Est-ce imaginable ?
  4. Lorsque nous faisons face à un problème concret, le réflexe dominant est de trouver une solution technique (c’est la sacralisation de la machine qui est abordée au Chapitre 3 ; elle peut solutionner tous les problèmes). Comme l’exercice le montre, un logiciel d’intelligence artificielle mobilise une série de valeurs qui peut créer d’autres tensions par ailleurs. Il est donc judicieux de les observer. Peut-être est-ce effectivement une solution qui convient, peut-être pas. Quelles autres solutions pourraient être envisagées (avec ou sans autres objets techniques) ? Si nous faisons l’impasse sur cette discussion, les logiciels d’intelligence artificielle risquent de nous emmener dans une direction imprévue sans même que nous nous en rendions compte.
  5. Les logiciels d’intelligence artificielle évoluent et les valeurs qu’ils véhiculent aussi. Pouvons-nous observer ces transformations ? Comment qualifier les anciennes et les nouvelles valeurs ? Est-ce que cela transforme également nos affects par rapport au logiciel ?

Footnotes

  1. Voir Jacques Ellul, La Technique ou l’enjeu du siècle, Éd. Economica (2008)

  2. Voir Sébastien Broca, Pris dans la toile, De l’utopie d’internet au capitalisme numérique, Éd. Seuil (2025).

  3. Un stock d’images est disponible en Annexe : Ressources pour les ateliers. Elles sont accompagnées des descriptions générées par le grand modèle de langage. La qualité des images de départ est importante, en particulier si les images sont agrandies, la pixellisation rendant l’exercice plus difficile.

  4. Pour aller plus loin dans la lecture d’images, voir par exemple le syllabus Apprendre à lire des images disponible sur le blog Dans la caverne de PhiloCité.

  5. Citation de Marie-José Mondzain dans l’émission Éducation à l’image, pour quoi faire ? (épisode 4/7) en 2014. Vidéo disponible sur Dailymotion.

  6. Pour aller plus loin, voir Sébastien Broca, Pris dans la toile, De l’utopie d’internet au capitalisme numérique, Éd. Seuil (2025).