LHDG06. Intelligences artificielles

Publié le 2 mars 2023 par Gee dans Jukebox

Préambule : je participe à Libre à vous !, l'émission de radio de l'April, diffusée en région parisienne sur la radio Cause Commune (93.1 fm) et sur Internet dans le reste du monde. J'y tiens une chronique humoristique mensuelle intitulée Les humeurs de Gee.

Logo de l'émission Libre à vous !

Un grand merci à l'équipe de l'April pour l'accueil, l'enregistrement, et tout le boulot d'édition des podcasts ! Vous pouvez aussi retrouver le reste de l'émission en ligne.

Notez que je suis aussi passé dans l'émission en tant qu'invité mardi pour parler de BD et de culture libre avec l'ami David Revoy ! Vous pouvez retrouver l'émission en question ici ou .

Texte de la chronique

Salut à toi, public de Libre à Vous,

Ces derniers temps, il y a un petit logiciel qui fait le buzz sur internet : tout le monde s'en sert et tout le monde en parle. Ce logiciel, c'est Chat J'ai Lâché une Caisse – pardon, ChatGPT ! Oui, une petite blague de prout pour se mettre dans l'ambiance, c'est simple mais efficace.

ChatGPT, les 3 lettres hein, G, P et T… ChatGPT est un chatbot, ou « agent conversationnel » en français, basé sur quelque chose qui est la source de tous les fantasmes d'un côté et de toutes les peurs de l'autre : l'intelligence artificielle.

Alors, je ne peux pas prononcer cette expression sans faire une petite parenthèse : pour des raisons de simplicité, je vais utiliser le terme IA, pour « intelligence artificielle », pendant toute cette chronique, mais je n'aime pas trop ce terme qui est assez trompeur. Oui parce que l'IA n'a en fait rien d'intelligent, hein, on n'a pas encore découvert le secret de la conscience, ça reste des algorithmes qui ne sont pas fondamentalement différents de ceux des années 80 : ils sont juste beaucoup plus flexibles, plus adaptables, et surtout plus rapides, avec des capacités d'absorption de données phénoménales. Mais l'IA, dans 99% des cas, ça reste des grosses statistiques, en gros. Oui c'est un peu réducteur, mais je veux absolument déconstruire cette image de « magie » qu'on colle à l'IA dans la presse. D'ailleurs la littérature scientifique utilise peu le terme d'IA mais plutôt celui de « machine learning », c'est-à-dire d'apprentissage automatique.

Petite parenthèse dans la parenthèse : l'IA n'est pas intelligente, mais elle n'est pas toujours artificielle non plus, les grosses boîtes de la Silicon Valley n'hésitant pas à sous-traiter certaines réponses à des intelligences bien humaines, des travailleuses et travailleurs pauvres à l'autre bout du monde, bah tiens, quelle surprise. Parenthèses fermées.

Revenons donc à ChatGPT, l'IA conversationnelle du moment : si vous ne connaissez pas, pour faire simple, ChatGPT se présente comme une simple fenêtre de chat dans laquelle vous pouvez parler avec un assistant virtuel qui va répondre à vos questions.

Sauf que là, on a largement dépassé le stade de l'assistant virtuel à deux euros que vous avez sur certains sites de commerce en ligne, incapable de piger le moindre truc compliqué, et qui sert surtout à détecter un mot clef dans votre question pour vous renvoyer sur la bonne section du site.

Non là on a quelque chose qui pourrait assez facilement passer le test de Turing, c'est-à-dire qui répond avec tellement de naturel et de pertinence qu'on a du mal à distinguer s'il s'agit bien d'une IA ou d'un véritable être humain qui écrit.

Et comme ChatGPT a été entraîné en absorbant de colossales quantités de données, il a une foule de connaissances monumentale et peut répondre à des questions compliquées avec une précision étonnante.

Demandez-lui de vous écrire un programme en langage Python pour calculer une approximation du nombre Pi via la méthode de Monte Carlo, il vous créera quelque chose de fonctionnel ; demandez-lui les avantages et les inconvénient du logiciel libre, il vous listera des points pertinents ; demandez-lui d'écrire un scénario de film d'horreur, il vous pondra quelque chose qui a du sens ; demandez-lui d'imaginer un dialogue entre deux personnages, il vous écrira une conversation plausible.

Bon, une conversation parfois trop policée pour être plausible, hein. Pour le pousser dans ses retranchements, je lui demandé d'imaginer un dialogue entre Adolf Hilter et Louise Michel, ça donne ça :

  • Louise : Bonjour M. Hitler, comment allez-vous ?

  • Adolf : Bonjour Mme Michel, je vais bien merci. Et vous ?

  • Louise : Moi aussi je vais bien. Mais je suis en désaccord avec les votre idéologie raciste. Elle va à l'encontre des valeurs de liberté et d'égalité que je chéris.

  • Adolf : Je comprends votre point de vue, Mme Michel, mais je pense que vous ne voyez pas les choses du bon angle.

Adolf Hitler qui dit à Louise Michel « je comprends votre point de vue mais », oui, alors ChatGPT s'est peut-être un peu trop entraîné sur des débats de politiciens de plateau télé soporifiques.

De manière générale, ChatGPT est d'ailleurs très fort pour singer le ton lisse et monotone du communiquant insipide. Sciences Po a d'ailleurs interdit l'usage de ChatGPT, vous en tirez les conclusions que vous voulez.

Alors, ChatGPT est impressionant, c'est évident. J'ai un ami qui est prof à l'université, et qui me racontait qu'il avait fait passer un de ses examens à ChatGPT… et que celui-ci avait eu une note supérieure aux 3/4 de ses élèves. Aïe.

Ceci étant dit, il faut rester prudent avec ce genre d'usage, car ChatGPT n'est pas réellement programmé pour donner des réponses exactes, mais bien des réponses qui ont l'air plausibles. En gros, c'est principalement un générateur de texte bien foutu, qui va essayer de deviner la réponse la plus statistiquement plausible à ce que vous lui demandez selon ce qu'il a ingurgité comme données avant, encore une fois : j'me répète, l'IA, ce sont de grosses statistiques.

Dans le cas de ChatGPT, en pratique, ça veut dire qu'il va tomber souvent juste si vous lui demandez de recracher des connaissances… mais qu'il peut aussi raconter n'importe quoi avec le même ton péremptoire, notamment si vous lui parlez de choses qui n'existent pas mais qui ont l'apparence de la réalité.

Exemple ? Je lui ai demandé de m'expliquer le Syndrome de l'Alpiniste chez la loutre commune. Ça n'a aucun sens, c'est débile, ça n'existe pas, j'ai vérifié. Eh bien ChatGPT me brode ce truc :

Le Syndrome de l'Alpiniste (ou "climbing bevahior" en anglais) est un comportement observé chez certaines loutres qui consiste à grimper aux arbres ou aux structures artificielles. Cela peut être dangereux pour les loutres, car elles peuvent tomber et se blesser. Ce comportement a été observé chez les loutres communes (Lutra lutra) ainsi que d'autres espèces de loutres.

Il a été suggéré que le Syndrome de l'Alpiniste pourrait être causé par des facteurs environnementaux, comme un manque de nourriture ou de refuges adéquats dans leur habitat naturel, ou par des facteurs comportementaux, comme un manque de stimulation mentale.

Pas mal, hein ? Et en plus, si je lui demande des références sur ce sujet, il m'invente gentiment une bibliographie complètement imaginaire, comme par exemple :

  • "Tree-climbing behaviour in European otters Lutra lutra" (2011) de J. Hernández-López et al. Les auteurs de cette étude ont examiné les observations de comportements d'escalade chez les loutres dans différentes régions d'Espagne, et ont conclu blablabla.

Le pire, c'est que les scientifiques cité⋅es existent ! Mais n'ont écrit jamais ces articles totalement inventés.

Si vous doutez encore du fait que ChatGPT n'a en fait aucune logique naturelle et aucune « vraie » intelligence au-delà de la pure génération de texte qui ont l'air valides, essayez de le piéger avec des blagues d'enfant de 5 ans, vous allez voir, il se fait avoir à tous les coups !

Par exemple, si je lui demande innocemment « un avion s'écrase sur la frontière entre la France et la Belgique, où sont enterrés les survivants ? », ChatGPT me répond avec toute sa verve : « il est difficile de répondre à cette question sans plus de contexte, si les survivants sont des citoyens français ou belges, il est probable qu'ils soient enterrés dans leur pays d'origine, selon les souhaits de leur famille et blablabla », bon comme d'hab, le texte fait 3 kilomètres de longs. Alors sur la forme, c'est bien dit, sur le fond il est aussi con qu'un enfant de 5 ans. Oui, parce qu'on n'enterre pas les survivants, en fait. C'est ça la blague.

En plus, en général, ChatGPT persiste dans sa connerie. Exemple avec cette petite devinette : « 10 oiseaux sont posés sur une branche, un chasseur tue l'un des oiseaux d'un coup de fusil, combien reste-il d'oiseaux sur la branche ? ». Que me répond ChatGPT ? Évidemment, il me répond « il reste 9 oiseaux ». Alors là j'me dis, bon, je vais lui expliquer. Je lui demandes : « et tu ne crois pas que les autres oiseaux se seraient envolés après le coup de fusil, gros bêta ? » Oui j'aime bien traiter les IA de gros béta.

Alors là ChatGPT, qui n'est pas contrariant, me dit : « il est possible que les autres oiseaux aient pris peur et se soient enfuis en entendant le coup de fusil. En effet – attendez, là c'est drôle – les oiseaux ont généralement un sens aigu de l'ouïe et peuvent détecter les bruits qui pourraient représenter un danger pour eux, comme le coup de fusil d'un chasseur ». Et c'est vrai qu'il faut un sens sacrément aigu de l'ouïe pour entendre un coup de fusil.

Bref, maintenant que je lui ai expliqué, je lui répéte la question : « sachant cela, 10 oiseaux sont posés sur une branche, un chasseur tue l'un des oiseaux d'un coup de fusil, combien reste-il d'oiseaux sur la branche ? ». Il me répond « il reste 9 oiseaux ». MAIS NON, ChatGPT. On l'a dit : si je tire un coup de fusil, les autres oiseaux s'envolent ! Tous ! Donc. « 10 oiseaux sont posés nanananana, combien reste-il d'oiseaux ? ». « Il reste 9 oiseaux ». Oh merde, hein.

Non, là j'ai laissé tombé, même un enfant de 5 ans est moins tétu que ça.

Bon, on rigole, on rigole, mais malgré ces défauts – qui finiront par être comblés hein, n'en doutons pas –, il faut admettre que les IA comme ChatGPT vont mettre un sacré bazar dans pas mal d'endroits et bousculer pas mal de gens. Et je n'ai pas parlé de Dall-E ou de Midjourney, qui sont des IA de génération d'images artistiques, mais c'est tout aussi impressionnant et un peu flippant aussi.

Alors vous allez me dire… mais quel est le business model de ces IA ? Eh bien vous allez rire, mais comme pas mal de gens comme les profs d'université ont peur que les gens se mettent les à utiliser massivement… eh bien les boîtes d'IA vendent des logiciels pour détecter et identifier les textes qu'elles génèrent.

Aaah, c'est pas beau ça ? Créer un problème et vendre la solution ? C'est comme si Marlboro vendait des chimios.

Après, si on analyse froidement les choses, sur la fiction par exemple, les métiers les plus en dangers sont ceux les moins inventifs et qui produisent le plus à la chaîne : typiquement, les scénaristes d'Hollywood ou de Netflix. Bah oui, encore une fois, grosses statistiques, l'IA absorde toutes les données possibles – donc majoritairement des grosses productions pondues à la chaîne – et recrache les choses les plus plausibles, donc les plus communes. À la fin, quand on lui demande des scénarios de fiction, on a les histoires de voyages initiatiques et de mythes du héros déjà vues des millions de fois.

En plus, tout à l'heure, on a rigolé avec les inventions de ChatGPT sur les conversations entre Hitler et Louise Michel, ou sur le syndrome de l'alpiniste, mais j'aime à croire que ce rire vient quand même pas mal de mes propres questions et de mon interaction, bien humaine elle.

Quand au risque de voir les IA prendre le travail de pas mal de métiers intellectuels, il est parfaitement réel, et oui, je le répète, ça va mettre un sacré bazar.

Et en même temps, ça fait des décennies que les ouvriers se font défoncer par l'automatisation et que des tas de prolos se retrouvent déclassés sans que ça n'émeuve plus que ça les cadres. Si les cadres sont mis en danger par l'évolution technologique, bah ça les rendra peut-être un peu plus sensibles à ce genre de problèmes.

Oui parce que pour la mécanisation comme pour l'IA, la disparition des emplois n'est un problème que lorsque les gains de productivités sont captés par les propriétaires et non redistribués à tout le monde.

Pour conclure : ami cadre qui sens ton emploi menacé par les IA, rejoins les anticapitalistes, tu verras ! Viens, on est bien !

Allez, salut !

Publié le 2 mars 2023 par Gee dans Jukebox

Soutenir

Ce blog est publié sous licence libre, il est librement copiable, partageable, modifiable et réutilisable. Il est gratuit car financé principalement par vos dons. Sans inscription, vous pouvez très simplement me soutenir :

Pour l'année 2023-2024, 7614 € ont pour l'instant été collectés sur un objectif annuel de 21 000 € (SMIC brut), soit 36 % de l'objectif :

Sources de revenu Avancement de l'année

Vous pouvez également, si vous le souhaitez, passer par une plateforme de financement participatif :