On ne nous a pas demandé notre avis.

L'intelligence artificielle et la grande décision qu'on n'a pas prise.

Il y a une chose qui me frappe dans tout le débat sur l'intelligence artificielle : personne n'a vraiment décidé que ça allait se passer comme ça.

Pas collectivement, en tout cas. Pas démocratiquement. Pas avec une vraie question posée au monde : est-ce qu'on veut ça, et à quelle condition ?

Ça s'est juste... déployé. Un outil après l'autre. Une compagnie après l'autre. Une mise à pied après l'autre. Et nous, on regarde passer le train en se demandant si on était censé monter dedans ou pas.


Ce n'est pas la première fois. Mais c'est différent.

Je sais ce qu'on va me répondre. Que chaque grande révolution technologique a fait peur. L'imprimerie allait tuer la mémoire. L'électricité allait détruire l'artisanat. L'automobile allait mettre les cochers au chômage. Et pourtant l'humanité a survécu, s'est adaptée, a créé de nouveaux métiers.

C'est vrai. Mais il y a quelque chose d'important qu'on oublie quand on sort cet argument-là : dans ces transitions-là, il fallait quand même des humains pour faire tourner les machines. L'automobile a tué le métier de cocher, mais elle a créé des mécaniciens, des ingénieurs, des chauffeurs, des constructeurs de routes. La machine avait besoin des gens.

L'IA, elle, apprend à se passer de nous. C'est fondamentalement différent. Elle ne remplace pas une tâche physique répétitive. Elle remplace le jugement, la créativité, la rédaction, l'analyse, le service. Les choses qu'on croyait à l'abri parce qu'elles étaient humaines.

Un ami à moi travaillait en communication. Bon rédacteur, dix ans d'expérience. L'été passé, son employeur a adopté un outil d'IA générative. Son poste a été « optimisé ». Il cherche encore sa place dans un marché qui rétrécit pour les gens qui font exactement ce qu'il fait.

Ce n'est pas une anecdote isolée. C'est une tendance.


On ne manque pas de données là-dessus. Les compagnies qui licencient le font rarement pour des raisons financières. Elles le font pour réallouer vers l'IA. Ce n'est pas une crise. C'est un choix.

Le problème n'est pas l'outil. C'est l'absence de conversation.

Je veux être claire : je ne suis pas contre l'intelligence artificielle. J'en utilise moi-même, régulièrement, et ça m'aide. Ce serait hypocrite de prétendre le contraire.

Ce qui me dérange, ce n'est pas la technologie. C'est comment on en est arrivés là.

Des décisions qui touchent des millions de travailleurs, des secteurs entiers, la façon dont on produit de la connaissance, dont on crée, dont on communique. Ces décisions ont été prises dans des salles de conférence à San Francisco, à Seattle, à Shenzhen. Par des gens dont l'objectif principal est de générer du rendement pour leurs actionnaires.

Ce n'est pas un complot. C'est juste comment ça fonctionne quand on laisse le marché décider seul.

Et nous, les travailleurs, les citoyens, les utilisateurs, on est arrivés après. On s'adapte. On « se réinvente ». On suit des formations. On pivote. Comme si c'était notre responsabilité individuelle de courir assez vite pour ne pas se faire dépasser par une décision collective qu'on n'a jamais eu à prendre.

L'économie de l'attention, acte deux

On a déjà vécu quelque chose de similaire avec les réseaux sociaux. Facebook, Twitter, Instagram. Ça aussi, ça s'est déployé vite, sans trop qu'on comprenne ce que ça allait faire à notre rapport à l'information, à la politique, à la santé mentale des adolescents.

On a compris après coup. Les études ont suivi. Les régulateurs ont réagi. Trop lentement, trop timidement, souvent trop tard.

Là avec l'IA, on est au même carrefour. Sauf que l'impact potentiel est d'un ordre de grandeur plus grand. Les réseaux sociaux ont changé comment on se parle. L'IA change comment on pense, comment on travaille, comment on produit de la connaissance. La différence n'est pas de nature, elle est d'échelle.

Et on refait le même pattern : laisser aller, observer, réagir trop tard.

L'Europe a adopté l'AI Act, le premier cadre légal global sur l'IA. Ce n'est pas parfait. Les lobbies ont travaillé fort pour l'affaiblir. Mais au moins quelqu'un a posé la question : à quelles conditions est-ce qu'on laisse cette technologie décider des choses importantes ? C'est la bonne question. Elle aurait dû être posée partout, par tout le monde, bien avant.

Ce qu'on délègue sans le nommer

Il y a une dimension de tout ça qu'on parle peu : ce qu'on est en train de déléguer à ces systèmes, et ce que ça dit de nous.

Quand une IA rédige un texte à notre place, analyse un dossier médical, suggère une peine dans un contexte judiciaire, évalue un CV, on lui délègue du jugement. Du jugement qui était humain, situé, imparfait, mais humain. Avec une responsabilité attachée.

Quand l'IA se trompe, qui est responsable ? La compagnie qui a fait le modèle ? Celle qui l'a déployé ? Le gestionnaire qui a appuyé sur « approuver » sans vraiment vérifier ? La réponse, pour l'instant, est floue. Et le flou, en matière de responsabilité, profite toujours aux mêmes.

Il y a aussi quelque chose de plus subtil. Plus on délègue nos tâches cognitives à des machines, moins on les exerce. C'est vrai pour l'écriture, pour l'analyse, pour la mémorisation. Les muscles qu'on n'utilise pas s'atrophient. Je ne dis pas que c'est inévitablement catastrophique, mais ça mérite qu'on en parle, non ?

On peut encore choisir

Je ne veux pas finir là-dessus de façon catastrophiste parce que ce n'est pas comme ça que je le vis, ni comment je vois les choses.

L'IA va continuer de se développer. Les modèles vont continuer de s'améliorer. Des emplois vont disparaître et d'autres vont apparaître. Probablement. Prédire exactement lesquels, personne ne peut le faire honnêtement.

Mais on peut exiger que cette transformation se fasse avec nous plutôt que sur nous. On peut exiger de la transparence sur la façon dont ces outils prennent leurs décisions. On peut exiger que les entreprises qui profitent de l'IA contribuent à des filets de sécurité pour ceux qu'elle déplace. On peut exiger des règles avant que les dommages soient faits, pas après.

Ce ne sont pas des positions anti-technologie. C'est juste de la politique. De la vraie.

Mon ami en communications n'est pas contre l'IA non plus, d'ailleurs. Il l'utilise maintenant dans son nouveau contrat, parce qu'il n'a pas le choix. Ce qu'il aurait voulu, c'est qu'on lui demande son avis avant. Qu'il ait eu son mot à dire dans la décision.

C'est pas grand-chose comme demande. C'est même la base.













Suivant
Suivant

Quand la vidéo est fausse : comment reconnaître un deepfake et se protéger