Source [Causeur] : Sciences-Po vient d’interdire l’usage de ChatGPT, l’application qui permet à tous les empêchés de la plume ou du clavier de produire en un temps record des textes bourrés d’idées reçues — de crainte sans doute, persifle notre chroniqueur, que l’on ne distingue pas les produits de l’Intelligence Artificielle et ceux de nos futurs énarques.
David Cayla, un économiste qui ne dit pas que des âneries, s’est fendu d’un tweet ravageur dès qu’il a appris que Sciences-Po avait décidé d’interdire à ses élèves l’usage de ChatGPT. « La stricte interdiction de #ChatGPT à Sciences Po révèle que cette école se sent menacée par une IA qui est capable de construire de belles phrases à partir de tout sujet, sans comprendre de quoi elle parle, et en faisant régulièrement des erreurs grossières. » Et toc.
Rappel des faits pour ceux qui sortent à peine de leur grotte d’hibernation. Chloé Woitier, journaliste Tech au Figaro, vous explique en direct live ce qu’est cette application : la capacité à générer du texte — sans grand souci d’originalité et avec une capacité réelle d’erreurs grandioses — à partir de cohortes de mots et de phrases mis en mémoire. En fait, il s’agit de ce que l’on appelle en rhétorique un texte-centon, fabriqué à partir de collages de citations. Vous en avez un joli exemple ici.
Une chance pour les tire-au-flanc
Rien de nouveau — si ce n’est la capacité à produire un résultat de façon quasi instantanée. Voilà qui nous arrange bien, se disent déjà les élèves peu besogneux qui s’aperçoivent à 7 heures du matin qu’ils ont une dissertation-maison à rendre à 10 heures. En gros, le résultat vaut une petite moyenne.
A lire aussi, du même auteur: 64 ans, un horizon déjà largement fictif
Laurence Plazanet, professeur de littérature à l’université de Clermont-Auvergne, note que « nourri de la vaste littérature disponible sur la toile, littérature qu’il remâche suivant des algorithmes statistiques et probabilistes aptes à se reprogrammer eux-mêmes, dit-on, selon des procédures que cessent de maîtriser leurs programmeurs initiaux, ChatGPT patauge dans le prêt-à-penser. » Et d’ajouter : « Pas un instant ce robot éclairé ne pense. »
Intelligence artificielle, un oxymore
Comprenons bien que ces deux mots, « intelligence artificielle », sont ce que l’on appelle en stylistique un oxymore — une contradiction en soi. Comme « obscure clarté », « nuit blanche », « homme fidèle » ou « femme intelligente »…
(C’étaient les exemples que je citais en cours pour expliquer l’oxymore. Protestations immédiates des uns et des autres, comme vous l’imaginez, mais du coup, par l’exemple provocateur, la notion s’ancrait dans les mémoires.)
Ce qu’il y a d’intelligent dans la machine y a été mis par des hommes. Lorsqu’un ordinateur vous bat aux échecs, c’est que vous êtes moins fort que la cohorte de grands maîtres qui l’ont programmé — ce qui est assez logique.
Que Sciences-Pipeau s’en émeuve est en revanche très inquiétant — et très drôle : les grandes intelligences qui nourriront les ministères et parviendront peut-être un jour au sommet (pensez, François Hollande, Ségolène Royal, Dominique de Villepin appartenaient à la même promo de l’ENA) se sentent menacées par un robot qui mécaniquement débite des platitudes. « Faut vous dire, Monsieur, que chez ces gens-là, on n’pense pas, Monsieur, on n’pense pas », chantait Brel. La machine à débiter des lieux communs, dont Flaubert s’est si ardemment moqué dans le discours du sous-préfet (c’est dans Madame Bovary) vous est désormais accessible.
Retrouver l'intégralité de l'article en cliquant ici
- Une vague bleue
- SNCF: l’exemplaire ponctualité
- Harcèlement scolaire: ce que Gabriel Attal peut...
- Poitiers, Rennes, Marseille… la France orange m...
- L’Eglise catholique, piñata favorite de la gauche
- Doliprane: un symbole cher payé
- Responsables, mais plus coupables
- OQTF, un feuilleton français
- Attal / Borne: petit arrangement en lousdé
- Après Philippine, elles ne veulent plus sortir...