On dit oui ou on diverge ?

Toujours la même histoire, je continue de m’interroger quasi-quotidiennement sur cette satanée IA générative, et je lis des tas d’articles, et en ce moment : beaucoup de développeurs qui réfléchissent aux transformations de leur métier avec cette technologie. On n’est moins dans un tableau complètement noir ou manichéen, même si tout le monde s’accorde sur le fait que ça fait diminuer sa propre maîtrise du code, et que in fine c’est un problème1, en tout cas dans une période transitoire. Mais en se projetant un peu, ou en ayant justement du recul, on peut aussi lire cela comme une énième ère de changement, et qui verra sa conclusion dans le rétablissement d’un nouveau status quo.

En attendant on aura de toute façon cramé la planète avec ces conneries, et principalement pour mettre un filtre Ghibli sur des photos (franchement, pour le moment c’est ce qu’il y a eu de plus cool ^^ ). Mais je reviens toujours à Socrate qui aurait dit il y a quelques années que l’écriture même était un abêtissement des gens par rapport à la transmission et l’enseignement oral.

L’apprentissage par l’écriture serait vain en ce qu’il ne fournirait qu’une apparence de savoir, et dispenserait l’apprenant de compréhension propre. L’écriture ne devrait ainsi jamais être qu’un aide-mémoire pour s’aider à retrouver un mouvement de pensée à oraliser.

De mon propre article qui citait un article de Wikipédia.

Et 2500 ans plus tard…

L’offshore des années 2000 n’a pas supprimé tous les jobs dans l’informatique alors qu’on pouvait le craindre, et malgré tout on entraîne aujourd’hui allègrement des IA pour nous remplacer dans la joie et la bonne humeur.

Alors qu’on a pleinement conscience de la perte considérable d’intellect avec l’usage de l’IA, mais comme de celle du calcul mental avec la calculatrice, d’une certaine construction et d’une gymnastique de l’esprit en lisant des livres plutôt qu’en consommant des vidéos, malgré tout on migre toutes nos activités vers le virtuel et l’écran, et on vide nos existences tangibles, nos expérience *IRL*. Or dans un processus d’écriture de logiciel par exemple, penser améliore la pensée ! Et il est à redouter que la création de logiciels s’appauvrisse graduellement car même si les modèles s’améliorent grandement, cela ne reste que de la réécriture. Comme si au moment où l’IA entrait dans nos vies, elle ne faisait plus que nous resservir la même sauce ad vitam et nous figeait inexorablement.

(On le voit bien dans Wall-E où génération après génération, les gens ne deviennent que des légumes débiles alimentés par des réseaux sociaux et des pubs à la con.)

Ou alors, on va utiliser l’outil comme une couche de plus. Et cela va peut-être libérer la créativité de certains dans le sens où nous en sommes à un point ou l’intention et l’idée lorsqu’elle est écrite est suffisante pour s’incarner en texte et images, et même en « fonction » (comme du code). Et on ne peut pas démentir ces usages et l’intérêt très superficiel que cela revêt. Ma grand-mère trouvait ça terrible que je sois aussi nul en calcul mental, et elle accablait les calculatrices (et mes parents). C’était déjà le même phénomène, c’est juste que les proportions que cela prend fait qu’on aura rendu le monde entier stupide en deux générations. ^^

Et pourtant la société ne s’est pas encore écroulée, alors qu’on prédisait déjà cela depuis des lustres avec chaque génération qui dit que l’actuelle est une catastrophe en terme de : capacité à lire, à se concentrer, à apprendre, à mémoriser, à se cultiver, ou même comme récemment à lire l’heure avec des aiguilles2. Mais il est vrai aussi que le cadre de référence de chaque génération étant (peut-être) diminué par rapport à la précédente, on ne rend moins compte de la chute. Car ce qui reste standard c’est bien que les vieux se plaignent des jeunes, et toujours avec une condescendance qui me frappe et me choque.

L’aide à la reformulation, l’écriture sous contrainte, la synthèse de documents, tout cela est rendu incroyablement efficace, même si en effet, on perd la faculté d’ensuite faire cela par nous-même. Mais je vois aussi que quand je geek par exemple, l’IA me permet d’aller bien au-delà de mes capacités de base en informatique. Je n’aurais clairement jamais pu avoir mon propre serveur et avoir appris comme j’ai appris sans le secours de l’IA. Et cela m’a permis de vraiment maîtriser et comprendre de nouvelles choses. Pour comprendre des logs php et débuguer un problème avec mon blog par exemple, cela m’a vraiment énormément servi, alors qu’avant j’aurais été juste coincé. (J’aurais pu passer aussi des heures à chercher des réponses sur des forums, mais je ne le faisais pas.) En revanche, est-ce que le jeu en vaut la chandelle ? Non, pas vraiment. Mais l’outil a indéniablement une utilité, même si la productivité qu’on promeut de son usage est sans doute un miroir aux alouettes. Est-ce qu’à partir d’un outil, on peut construire au-dessus des trucs incroyables ? Je ne sais pas, mais l’informatique est justement un terrain qui a commencé avec des cartes perforées pour seule interface, et on est aujourd’hui sur un degré d’abstraction, couche après couche, qui est extraordinaire. Mais de là à passer de l’intention au programme ? On pousse peut-être le bouchon un peu loin (Maurice).

Exactement comme les mêmes ingénieurs logiciels utilisent des frameworks et des librairies préexistantes pour accélérer leurs développements, ou les designers des formes toutes faites dans Photoshop qu’ils adaptent et retouchent à l’envi ? La différence majeure, et c’est là peut-être le vrai sujet : c’est la disparition de l’humain qui est aux manettes et son remplacement par un algorithme. On en voit déjà les affreux résultats avec nos « timelines » qui s’emmerdifient jour après jour. Et pour les quelques cas où les algos sont utiles (comme la suggestion de certaines personnes à suivre, ou de musiques sur une plateforme ou même de certains biens basés sur des comportements précédents), je me suis rendu compte que cela n’était vraiment pas valable en terme de ROI3 par rapport à une bonne sérendipité d’un pote qui me dit4 : « oh tiens écoute ça, oh regarde ce lien, oh j’ai lu ce bouquin, oh j’ai vu ce film, oh ce mec devrait te plaire (il a une grosse teube), oh t’as vu mon dernier téléphone !! ».

Mais on en revient à ce refus de l’IA, et pourquoi l’IA et pourquoi pas carrément les smartphones ? Et je reviens à mon luddisme et ses tentations révolutionnaires bien manichéennes… Après je me demande si la simple usure de la planète n’est pas un bon indicateur, et donc il faudrait aussi revenir bien à 100 ans en arrière en gros, ou bien carrément aux temps d’Adolphe Dumoulin ? Revenons à un temps, ou créons un nouvel équilibre où les refus technologiques devront simplement coïncider avec une resynchronisation de nos dépenses en deçà d’une planète par an (nous sommes à 1,7 aujourd’hui5). Mais pour mener cela à l’échelle planétaire, de manière homogène et démocratique, ce n’est même plus une vue de l’esprit, c’est sans doute de la pure utopie…

Car les capitalistes (que nous sommes aussi évidemment) viendront avec des idées simplistes mais qui parlent, et notamment : voulez-vous renoncer aux progrès médicaux ? C’est pas bien les Internets mon garçon ?

Bah voilà, retour à la case départ. Toujours aussi paumé, et mon empreinte écologique numérique ne s’est pas améliorée6 avec ma manière de pérorer comme un hamster dans ma roue tout en usant des kWh. ^^

[Les liens qui émaillaient ce post viennent de la revue de Morgan, merci à lui et ses cacahouètes !]

  1. Je mets de côté l’entrainement ubuesque sur des données volées, avec des personnes exploitées et dans un cadre environnemental déplorable… ↩︎
  2. Ce qui est exactement mon cas et sans doute parce que je n’ai eu que des montres en chiffres depuis toujours. Je me suis mis sérieusement à cette lecture quand j’ai voulu avoir une montre avec des aiguilles, à la vingtaine. On s’y fait très bien, même tardivement. ↩︎
  3. Return on Investment, retour sur investissement donc. Je plaisante bien sûr mais c’est pour signifier que le coût économique et environnemental de la mise en place de l’algo, son cacul et la vie privée qui disparaît, tout ça ne vaut pas le micro-bénéfice de la découverte d’un artiste sympa. ↩︎
  4. Ou bien d’un blogueur que je vais lire avec bonheur. ^^ ↩︎
  5. Il faudrait 2,9 planètes par an si le monde entier consommait comme un français. ↩︎
  6. Ni ma productivité d’être humain, de citoyen et de travailleur. ↩︎

Une réflexion sur « On dit oui ou on diverge ? »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

:sourire: 
:clindoeil: 
:huhu: 
:bisou: 
:amitie: 
:mainbouche: 
:rire: 
:gene: 
:triste: 
:vomir: 
:huhuchat: 
:horreur: 
:chatlove: 
:coeur: 
:doigt: 
:merde: 
:ok: 
:narval: 
:mitochondrie: 
:croa: