#UpToDate

#UpToDate

Le confort algorithmique cache un prix très élevé. Celui de votre cerveau !

Savez-vous ce que nous perdons chaque jour à céder nos arbitrages à l'IA sous prétexte d’efficacité ?

Avatar de PPC
PPC
avr. 08, 2026
∙ abonné payant

#UpToDate 363

credit photo : seelab

Ce qui compte avec l’IA, ce ne sont pas les outils. Ce sont vos usages et la valeur que vous en tirez. Pour vous. C’est exactement là que j’interviens. Ici et en conférence aussi.


Vous êtes maintenant 4.495 à me lire, alors bienvenue dans cette édition du mercredi.


#UpToDate fonctionne en deux temps.

Le mercredi, c’est ce que vous lisez en ce moment, je pars d’un épisode de Connected Mate et j’en tire un outil, une méthode, quelque chose de pratico-pratique.

Le samedi, je relis, je relie, je dégage ce qui compte dans ce que j’ai repéré. Pas pour vous informer davantage. Pour vous aider à décider mieux.



NoteTaker AI est la première application de Connected Mate. Disponible gratuitement sur l’AppStore, elle transcrit une conversation ou une réunion, et produit un résumé structuré sans partager vos données. Ici, l’IA fonctionne directement sur votre appareil, pas dans le Cloud chez-on-ne-sait-qui. Rien n’est envoyé dans le cloud. Rien n’est stocké ailleurs. C’est ce qu’on appelle privacy by design.



Harari, on peut le lire comme un livre sur l’hubris. Famine réduite, épidémies maîtrisées, violence en recul… On connaît le tableau.

Mais ce n’est pas ça qui m’a interpellé. Avant, on priait. On acceptait. Maintenant on ouvre un ticket. La phrase peut faire sourire une demi-seconde. Puis elle laisse quelque chose de glacial, parce qu’elle embarque une truc bizarre : si tout est corrigeable, quelqu’un doit corriger. Et celui qui corrige finit par piloter. Toujours.

Je ne sais pas si Harari l’a voulu comme ça. Mais c’est peut-être la vraie question du livre. On a tellement réduit ce qui faisait mal qu’on a aussi, sans trop s’en rendre compte, réduit ce qui obligeait à choisir.

Et si c’était ça, la reddition ?​​​​​​​​​​​​​​​​ J’en parle souvent avec des pairs qui bossent dans des contextes très différents. Grandes structures, ETI, peu importe. Ce qu’ils décrivent c’est quelque chose qui s’est installé sans qu’on l’ait vraiment décidé. Un tableau de bord qu’on regarde de moins en moins d’un oeil critique. Un modèle prédictif qu’on ne questionne plus parce qu’il tourne bien depuis six mois. Et la réunion où on posait de vraies questions devient, sans qu’on s’en rende compte, celle où on commente des outputs.

On s’est fait piéger et on se fait piéger par le confort. Le confort de céder un peu de jugement contre moins de friction, moins d’incertitude… donc moins de responsabilité. C’est la faute à personne mais ça existe quand même. C’est la faute de personne, mais c’est la faute de chacun. Les jeux d’acteurs font le reste, souvent mieux qu’un plan de destruction par fragmentation.

Ça arrive en fait par de petits délestages qui semblent tous défendables au moment où on les fait. C’est ça le piège. Pas les grands renoncements. Les petits. Ceux qui ne se voient pas tout de suite mais qui sèment les graines qui font les mauvaises herbes. Et comme me le disait un ami, les mauvaises herbes ont tendance à se multiplier encore et encore…

La question n’est donc pas de savoir jusqu’où ira l’IA. C’est de savoir à partir de quand une organisation ne fait plus la différence entre s’appuyer sur un outil et s’y soumettre. Ce n’est pas la même chose. Et la frontière, dans la pratique, est beaucoup moins visible qu’on ne le pense.​​​​​​​​​​​​​​​​


•••

🎧 Si vous souhaitez écouter la conversation complète, l’épisode est disponible sur Apple Podcasts, Spotify et Deezer.



Une phrase à garder ou à faire tourner :

“Le vrai risque de l’IA n’est pas qu’elle pense à notre place. C’est qu’on s’habitue à ne plus arbitrer.”

Référez un ami



Avec les mates, on a décidé de monter un événement. Mardi 14 avril. Le thème ? Comment on devient vraiment souverain. Pour de vrai.

Inscription gratuite ici



Si cette newsletter vous est utile :

Cliquez sur le ❤️ en haut ou en bas. C’est le signal le plus simple pour me dire que ça vous aide vraiment.

Et si quelqu’un dans votre entourage devrait lire ça, partagez-lui.

Partager

***


Harari fait peur, c’est son métier. Ce qui m’intéresse davantage, c’est le mécanisme qui rend déjà visible la classe inutile, aujourd’hui, dans des entreprises tout à fait ordinaires.

On ne perd pas notre place face aux machines parce qu’elles deviendraient supérieures en tout. On la perd parce qu’on a accepté, souvent sans s’en rendre compte, de réduire la valeur du jugement humain au profit de ce qui se quantifie. Si vous pensez qu’une meilleure prédiction est une meilleure décision, la suite va vous intéresser.

C’est ce qu’on va explorer dans la partie Premium d’aujourd’hui. Pas la théorie. Le mécanisme, les endroits où ça apparaît déjà, et les repères concrets pour ne pas subir sans comprendre.

Si vous n’êtes pas encore abonné Premium, c’est donc le bon moment.​​​​​​​​​​​​​​​​

Avatar de User

Continuez la lecture de ce post gratuitement, offert par PPC.

Ou achetez un abonnement payant.
© 2026 PPC · Confidentialité ∙ Conditions ∙ Avis de collecte
Lancez votre SubstackObtenir l’app
Substack est le foyer de la grande culture