IA : apocalypse, opportunité ou bullshit?

Sur l’IA, tout le monde a un avis, même tata Jeanine!

Comme tous ceux qui suivent de près l’actualité web, lorsque ChatGPT a été mis à disposition du grand public début 2023, je me suis rué dessus. J’ai joué avec toute une matinée, j’ai trouvé ça génial, puis j’ai fait le coq à table devant mes collègues qui restaient médusés devant mon exposé.

Comme souvent dans ces conversations, chacun y allait de son petit commentaire : « on vit dans un monde de fou » ; « c’est un truc de geek » ; « est-ce qu’il fait le café aussi ? »…

6 mois plus tard, on ne parlait quasiment plus que d’IA dans les médias, même la guerre en Ukraine paraissait s’être déroulée au moyen-âge. Mes collègues m’avaient catégorisé « expert IA », et ne manquaient pas de m’intégrer dans les débats de la pause café.

Il n’y a pas à dire, quoi qu’on en pense, quels que soient les vices ou les vertus qu’on lui prête, l’intelligence artificielle s’est imposée comme objet social vis-à-vis duquel nous n’avons plus le choix que de nous positionner, un peu comme l’écologie il y a quelques années.

Lire la suite… :point_down:

Salut Louis!

J’ai vraiment apprécié la lecture de ton article. Ceux qui me connaissent vont se douter que j’ai un point de vue un peu différent sur cette technologie.

C’est évident que les LLM vont avoir un impact important sur le métier d’auteur/blogueur/écrivain…

À première vue, les interventions de ces modèles peuvent sembler « fade » et qui manquent de jugement. Ceci étant dit, je pense que tu arrives à cette conclusion parce que la plupart des gens pensent que le texte produit par le LLM devrait être parfait du premier coup.

Combien de fois, lorsque tu rédiges un paragraphe, est-ce que tu effaces et recommences?

Personnellement, 70% de ce que j’écris ne se rend jamais dans l’article final. Il y a un travail d’auto-édition important.

Un LLM n’est qu’un modèle statistique pour prédire les prochains mots en fonction d’un contexte donné. En soit, ce qu’il produit est assez rudimentaire.

Par contre, lorsqu’on l’utilise en tant « qu’engin de cognition » et qu’on le force à s’auto-évaluer, le LLM devient ce qu’on appel un « agent autonome » et c’est là que la magie prend forme!

J’avais fait un article sur le sujet ici:

Dans l’exemple de l’article, une équipe de chercheurs ont créé une simulation où une 20e d’agents autonomes ont co-existé dans un petit jeu vidéo. Au final, les IA ont collaboré pour organiser un petit party de Saint-Valentin.

Mais imaginons un instant que, à la place d’avoir différents « personnages dans une simulation » on créer différents LLMs qui ont pour objectif de se valider entre-eux.

Le personnage A est le blogueur, le personnage B est l’éditeur et le personnage C est le lecteur.

Et, en plus de tout ça, on impose non seulement une structure à l’article, mais aussi une liste de références à intégrer dans le texte ainsi que des contraintes au niveau du style de langage.

Donc tu dis: l’article doit contenir X sections. La section 1 représente ceci, la section 2 représente cela, etc.

Tu donnes en exemple 2 ou 3 articles complets que TU as rédigés qui suivent exactement cette structure (ajoute des notes pour indiquer les segments).

Par la suite, tu demandes au personnage A de soumettre un plan d’un nouvel article qui doit absolument suivre cette structure, mais en intégrant les références A, B et C.

Ce que je viens de décrire est le premier prompt.

Ensuite, tu créer une 2e conversation avec ChatGPT, mais cette fois-ci, tu es le personnage A (l’auteur) qui soumet son travail à l’éditeur!

L’éditeur a donc comme instruction de donner du feedback constructif à l’auteur. Mais avant, il doit évaluer le travail fourni par le blogueur en fonction de 3 ou 4 critères.

Pour l’aider, tu peux fournir un exemple concret avec les notes que tu aurais toi-même donné.

Pour chaque score en bas d’un seuil qui tu détermines, l’éditeur demande à l’auteur de retravailler le texte et de le soumettre à nouveau. Cette boucle peut se faire autant de fois que nécessaire.

Une fois que la structure est approuvée, l’auteur peut se mettre au travail sur le texte et un processus similaire peut être mis en place pour retravailler chaque section du texte.

Une fois que le personnage A et B sont satisfaits, le personnage C (le lecteur) peut finalement intervenir et mentionner tous les endroits où il a perdu intérêt envers le texte et ré-envoyer le contenu dans le processus d’édition.

Bien sûr, on ne fait pas tout ça en passant par le site de ChatGPT, ce serait vraiment trop long! On passe directement par l’API. C’est possible de mettre ce genre de structure en place en utilisant des outils comme AutoGPT et LangChain. Pour les gens qui ne savent pas programmer, il y a aussi Zapier.

La morale de l’histoire est que, si on souhaite utiliser un LLM dans un flow de travail, il faut voir le LLM comme n’importe quel employé.

La plupart des rédacteurs produisent des textes insipides sans style qui ne méritent pas d’être lus. Pour produire quelque chose de qualité, ça prend un éditeur sévère. En ce sens, le LLM n’est pas meilleur que le journaliste. Pour produire quelque chose de qualité, il doit avoir un éditeur sévère!

De la même façon qu’un auteur peut s’auto-éditer, le LLM peut également agir en tant que son propre éditeur! Le plus beau dans tout ça, c’est qu’il va prendre son rôle au sérieux. Lorsque tu lui dis qu’il est un éditeur qui se nomme Maxime, il est CONVAINCU qu’il est un éditeur et qu’il s’appelle Maxime. Lorsque tu lui dis qu’il est un auteur au nom de Mathieu, il est CONVAINCU qu’il est un auteur du nom de Mathieu.

Pour accomplir une tâche, les employés suivent tous un processus. Parfois, ce processus est implicite, parfois, il est explicite.

Par contre, il y a toujours un processus. Pour un humain, c’est normal et c’est quelque chose qui se fait automatiquement.

Pour un LLM, tu dois créer le processus à l’avance et prévoir la réflexion nécessaire à la production du texte.

Et, le plus beau, c’est que tout ce que je viens de décrire permet la production de centaines d’articles de blogues pour quelques dizaines de dollars. Par la suite, un éditeur humain peut décider de ce qu’il va (ou non) publier.

Je vais terminer mon analyse comme ça…

Est-ce que ChatGPT peut, en un seul prompt, créer un article rempli de nuance et rendre l’auteur obsolète?

Bien sûr que non, c’est absurde.

Par contre, est-ce que les agents autonomes vont finir par créer de meilleures œuvres que ceux créer par des humains? J’en ai aucun doute. La réponse est oui.

J’aimerais sortir un peu du contexte d’écriture journalistique pendant un instant pour parler d’une étude mené sur /r/AskDocs.

Ils ont pris 600 réponses fournies par de vrais docteurs, ont généré des réponses aux mêmes questions par ChatGPT et ont fait évaluer les réponses par des professionnels de la santé selon la qualité et l’empathie des réponses:

Overall, en plus de fournir de meilleures réponses, ChatGPT l’a fait en ayant plus « d’empathie ».

Pour répondre à ce paragraphe de ton article:

L’IA n’a effectivement aucune de ces caractéristiques. Ce n’est qu’un modèle statistique.

Par contre, un chien ou un chat n’a pas ces caractéristiques non plus et ça ne nous empêche pas d’analyser leur comportement comme s’ils étaient aussi complexes que des humains. On a une tendance à anthropomorphiser tout et n’importe quoi.

L’IA n’a peut-être pas d’émotions, mais NOUS on en a! Et un bon IA sait comment les exploiter.

1 « J'aime »

Merci Louis et Olivier! Très intéressant! J'aime beaucoup l'analyse de Louis et suis assez d'accord en général. Toutefois, pour avoir testé Chat GPT comme Olivier le dit ("Bien sûr, on ne fait pas tout ça en passant par le site de ChatGPT, ce serait vraiment trop long!" > oui, c'est long, je confirme, mais moins long que de tout faire à la mitaine!), je vois bien que l'IA nous réserve des surprises. Je ne connaissais pas Auto-GPT, et là, j'apprends que le langage Python est enseigné à l'école. Alors on a intérêt à rester dans la course en gardant un œil là-dessus!
Je fais partie des bibittes rares qui ont une facilité avec les programmes informatiques et qui pourtant, s'en tient loin tant que c'est possible. Tu sais, il y a 15 ans, la fille qui était capable de dépanner tout le monde avec son cell ou son ordi mais qui n'en avait pas à elle tant que l'utilité n'était pas réelle? Ben voilà, maintenant j'ai un blog bien référencé. Bref, je me tiens loin des IA tant que c'est possible, mais là, je sens que va falloir se rapprocher et regarder comment l'utiliser à bon escient! Et j'avoue que je trouve ça à la fois épeurant et excitant… À suivre!

Merci pour ton message Lili et je trouve que tu touches un point intéressant! Tu te souviens au début de l’ère du iPhone? C’était la course aux applications. « There’s an app for that! »

Des centaines de milliers d’applications mobiles et, au final, qu’est-ce qu’on utilise?

Email, navigateur, messagerie, finances, prise de notes, médias sociaux, musique, shopping (ex. Amazon).

C’est pas mal ça!

J’ai l’impression que c’est un peu la même chose avec l’IA. Les développeurs sont un peu en train de lancer un gros tas de spaghetti sur le mur pour voir ce qui va coller.

90% des « apps » vont, au final, être inutiles. Mais une poignée d’apps risquent de tout changer!

L’image est parfaite! Oui, gardons l’œil ouvert sur LE spagett’ qui va coller… (perso, mon cell est quasi redevenu un téléphone pur et dur… je rêve même d’un dumbphone!)

1 « J'aime »