La fin des IAricots !

Arthur Perret propose un très bon papier qui évoque lui-même des liens récents faisant le point sur l’IA qui réduit concrètement des quantités de jobs, mais qui diminue aussi l’expertise des postes en question. C’est d’ailleurs assez incohérent avec le fait de devoir vérifier ce qui est créé par les IA génératives. Et au-delà aussi, les experts ont d’abord été des non-experts qui on appris en faisant, mais comme on ne fait plus, alors comment devient-on expert et vérificateur ?

Il cite deux articles que j’ai trouvés absolument passionnants, avec Frédéric Lordon du Monde Diplo qui revient sur des considérations très sociologiques mais plutôt parlantes sur l’explication marxiste de ce que l’IA est en train de faire à notre tissu économique. Et on peut aussi découvrir un article tout à fait indispensable de Régis Portalez qui contribue à un blog collaboratif de polytechniciens. L’auteur explique comme il a lui-même changé de vie, et invite à devenir plombier ou usineur, les seuls types d’emploi ou on ne sera pas *encore* trop concurrencés par la robotisation, mais pas de souci l’ubérisation passera bien avant. ^^

Plusieurs personnes témoignent des récentes grandes améliorations dans la qualité des modèles permettant de faire du dév, et indéniablement, avec la motivation capitaliste à extirper de la valeur, même si ça détruit tout sur son passage (hommes et environnements), cela marche déjà très bien et de mieux en mieux. Tristan Nitot évoque même un petit effet de bord positif selon lui, mais avec tellement de caveats qu’il est difficilement défendable ou possiblement généralisable. En revanche, cela montre bien l’inexorable conquête de la technologie, et pour le moment très peu de relais de croissance (mais ce n’est pas pour cela qu’ils n’arriveront pas, Inch Allah).

Une réflexion sur « La fin des IAricots ! »

  1. Hier je suis aussi tombée sur un article qui explique comment l’IA fausse (distort, en anglais) la perception de la réalité, pas seulement avec les hallucinations mais avec sa façon de toujours nous donner les réponses qu’on veut et de façon toujours positive. On se retrouve très vite et sans s’en rendre compte dans un « echo chambre. » L’article est un peu difficile à lire, mais c’est très intéressant et grave: https://arxiv.org/abs/2602.14270 Citation de l’article: « Unlike hallucinations, which introduce false-hoods, sycophancy is a bias in the selection of the data people see. When AI systems are trained to be helpful, they may inadvertently prioritize data that validates the user’s narrative over data that gets them closer to the truth. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

:sourire: 
:clindoeil: 
:huhu: 
:bisou: 
:amitie: 
:mainbouche: 
:rire: 
:gene: 
:triste: 
:vomir: 
:huhuchat: 
:horreur: 
:chatlove: 
:coeur: 
:doigt: 
:merde: 
:ok: 
:narval: 
:mitochondrie: 
:croa: