Une étude de huit mois menée dans une entreprise tech américaine révèle un paradoxe troublant : l’intelligence artificielle générative, censée libérer du temps, intensifie au contraire la charge de travail. Designers qui codent, pauses déjeuner transformées en sessions de prompting, multitâche permanent… L’enquête de deux chercheuses de Berkeley décortique les mécanismes invisibles d’un épuisement professionnel d’un genre nouveau.
Ce que dit l’étude : une enquête de terrain inédite
Publiée le 9 février 2026, l’étude menée par Aruna Ranganathan, professeure associée à UC Berkeley, et Xingqi Maggie Ye, doctorante à Berkeley Haas, repose sur une méthodologie aussi rigoureuse qu’immersive. Pendant huit mois, d’avril à décembre, les deux chercheuses ont observé une entreprise technologique américaine d’environ 200 employés, deux jours par semaine, en situation réelle.
Le protocole combine observation in situ, analyse des canaux de communication internes et plus de 40 entretiens approfondis auprès d’employés issus de différents métiers : ingénierie, produit, design, ressources humaines. Cette triangulation des données confère un poids incontestable aux conclusions. Contrairement aux enquêtes déclaratives classiques, les chercheuses ont pu documenter l’écart entre le discours officiel sur l’IA et les pratiques quotidiennes réelles.
Le verdict tombe sans ambiguïté : au lieu d’alléger la charge de travail comme le promettent les éditeurs de solutions IA, ces outils provoquent ce que les auteurs nomment une « intensification invisible du travail ». Cette intensification ne se traduit pas nécessairement par des heures supplémentaires comptabilisées, mais par une accélération du rythme, une dilatation des responsabilités et une colonisation des temps morts.
Les trois mécanismes d’intensification identifiés
L’étude décortique trois dynamiques distinctes mais interconnectées qui, ensemble, créent cette surcharge invisible.
L’expansion insidieuse des tâches
Premier phénomène observé : le « scope creep », ou expansion rampante du périmètre de travail. L’IA générative permet techniquement à chacun d’empiéter sur des territoires professionnels qui n’étaient pas les siens. Les designers, par exemple, se mettent à générer du code fonctionnel grâce à des assistants comme GitHub Copilot ou Cursor. Les product managers créent eux-mêmes des contenus marketing élaborés via ChatGPT ou Claude, tâches auparavant déléguées à des spécialistes.
En apparence, cette polyvalence semble positive. En réalité, elle dilue les rôles, impose un apprentissage informel non planifié et non reconnu, et surtout ajoute du travail qui n’est jamais comptabilisé dans les évaluations de charge. Un designer interrogé témoigne : « Avant, je transmettais mes maquettes au développeur. Maintenant, on attend que je livre aussi le code de base. Ça ne figure nulle part dans mon contrat, mais c’est devenu la norme. »
L’effacement des frontières temporelles
Deuxième mécanisme : la disparition progressive des temps de récupération. Les chercheuses ont constaté un usage massif de l’IA pendant les déjeuners, les pauses café, voire les trajets. L’accessibilité immédiate de ces outils transforme chaque interstice de la journée en opportunité de « travail ambiant ».
Une employée raconte : « Je me surprends à poser des questions à ChatGPT pendant que je mange mon sandwich. Techniquement, je suis en pause, mais mon cerveau n’a jamais décroché. » Cette porosité entre temps professionnel et temps personnel entraîne une perte mesurable de la récupération cognitive, pourtant essentielle à la performance et à la santé mentale sur le long terme.
L’IA, parce qu’elle se présente comme un assistant conversationnel bienveillant et toujours disponible, gomme la sensation de « travail » à proprement parler. Solliciter un collègue pendant le déjeuner serait perçu comme intrusif ; dialoguer avec Claude ou GPT-4 semble anodin. Pourtant, le coût cognitif reste identique.
Le piège du multitâche permanent
Troisième dynamique : l’effet « partenaire numérique » qui incite au multitâche. Parce que l’IA peut gérer plusieurs flux en parallèle — rédiger un draft pendant qu’elle debug du code et effectue une recherche documentaire —, les employés se sentent capables d’orchestrer simultanément plusieurs projets.
Cette illusion de maîtrise se heurte aux limites cognitives humaines. Les recherches en neurosciences démontrent que le context switching répété dégrade la qualité décisionnelle et augmente la charge mentale. Un ingénieur témoigne : « J’ai l’impression d’être plus productif parce que je jongle entre cinq tâches, mais en fin de journée, je suis épuisé et je ne suis sûr de rien. »
Des conséquences concrètes sur les individus et l’organisation
Santé mentale et épuisement professionnel
Les entretiens menés révèlent une augmentation tangible de la fatigue cognitive et des signaux précoces de burnout. Les employés décrivent une sensation de vitesse constante, l’impossibilité de « souffler », et une perte progressive du sens de leur contribution. « Je produis plus, mais je ne sais plus pourquoi », confie une product manager.
Ce coût humain se double d’un risque organisationnel : turnover accru, absentéisme et baisse de l’engagement. Or, ces effets sont d’autant plus pernicieux qu’ils restent difficiles à attribuer clairement à l’IA, masqués derrière des discours de modernisation et d’efficacité.
Des métriques de productivité faussées
Le « workload creep », cette accumulation silencieuse de tâches non planifiées, fausse radicalement les indicateurs de performance. Les managers constatent une augmentation quantitative des livrables — plus de lignes de code, plus de maquettes, plus de documents —, mais peinent à évaluer la qualité et la robustesse de ces productions.
L’illusion d’efficacité quantitative masque une dégradation qualitative : décisions moins réfléchies, architectures techniques moins solides, contenus moins nuancés. Un responsable RH interrogé note : « Nous célébrons des sprints plus courts, mais nous passons ensuite trois fois plus de temps en corrections et ajustements. »
Dilution des responsabilités et dialogue social affaibli
La gouvernance organisationnelle elle-même est impactée. La vitesse des livrables dépasse la capacité des managers à évaluer les charges réelles. Les responsabilités se diluent : qui est responsable d’un code généré par IA puis retouché par trois personnes ? La dépendance croissante aux prompts crée une forme d’externalisation cognitive qui affaiblit le dialogue social traditionnel.
Les rituels de collaboration — revues de code, ateliers de conception, brainstormings — sont perçus comme des ralentissements alors qu’ils constituent le socle de l’apprentissage collectif et de la décision partagée.
Solutions opérationnelles : vers une « pratique de l’IA »
Face à ces constats, les chercheuses ne se contentent pas de pointer les risques. Elles proposent un cadre opérationnel qu’elles nomment la « pratique de l’IA », inspiré des bonnes pratiques en santé cognitive et en organisation du travail.
Instaurer des pauses intentionnelles
Première recommandation : créer des plages temporelles explicitement sans IA. Exemples concrets : politiques « no-AI lunch », micro-pauses obligatoires toutes les 90 minutes, mesure du respect de ces règles via des indicateurs RH. L’objectif est de restaurer la récupération cognitive, dont l’absence constitue le principal facteur d’épuisement observé.
Certaines entreprises pionnières testent déjà des « IA curfews », périodes de déconnexion collective, sur le modèle des politiques de déconnexion numérique.
Séquencer les tâches et limiter le context switching
Deuxième levier : recommander des blocs de travail dédiés. Exemple opérationnel documenté : deux heures de deep work sans sollicitation d’assistants IA, suivies d’une session d’une heure d’itération assistée. Cette alternance préserve la réflexion profonde tout en bénéficiant des gains de l’IA sur les tâches d’exécution.
Le principe du batching — regrouper les tâches similaires — s’applique aussi à l’usage de l’IA : préparer l’ensemble des prompts en amont, puis traiter les réponses par lot, plutôt que d’osciller en permanence.
Maintenir un ancrage humain
Troisième pilier : institutionnaliser la revue humaine systématique des outputs IA. Pair programming, code review renforcée, rituels de collaboration préservés deviennent des garde-fous indispensables. L’IA doit rester un outil de préparation, pas de décision finale.
Un responsable technique témoigne : « Nous avons instauré une règle : tout code généré par IA doit être relu par deux humains avant merge. Ça ralentit un peu, mais la qualité a bondi. »
Enjeux stratégiques et vision à long terme
Le risque d’une norme sectorielle toxique
Si ces dynamiques ne sont pas corrigées, l’effet observé pourrait s’institutionnaliser à l’échelle d’un secteur entier. Le « workload creep » deviendrait la nouvelle norme, avec des coûts sociaux majeurs : explosion des troubles psychosociaux, pression réglementaire accrue sur les entreprises, perte d’attractivité du secteur tech.
Les premiers signaux apparaissent déjà dans certaines entreprises de la Silicon Valley, où les départs volontaires d’employés épuisés par ce rythme insoutenable se multiplient.
Redéfinir les compétences et les rôles
L’étude identifie deux trajectoires possibles. La première, constructive : une redéfinition concertée des métiers, intégrant formation, redesign des fiches de poste et reconnaissance des nouvelles compétences hybrides. La seconde, toxique : dilution des responsabilités, mauvaise allocation des talents, fuite des meilleurs profils vers des organisations plus soucieuses de santé cognitive.
L’enjeu stratégique pour l’attraction et la rétention des talents est considérable. Les entreprises qui sauront articuler IA et bien-être humain disposeront d’un avantage compétitif décisif.
Recommandations pour dirigeants et décideurs
Les auteurs appellent les dirigeants, DRH et DSI à mesurer l’impact réel de l’IA via des indicateurs adaptés : taux de récupération cognitive, qualité décisionnelle, sentiment de contrôle des employés. Elles recommandent de piloter explicitement les politiques d’usage de l’IA, d’intégrer la santé cognitive dans les KPIs stratégiques, et d’anticiper la conformité réglementaire à venir.
Les entreprises qui institutionnalisent une « pratique de l’IA » centrée sur l’humain ne font pas seulement œuvre de responsabilité sociale. Elles se positionnent favorablement pour la prochaine vague de régulation et construisent un avantage concurrentiel durable.
Conclusion : l’urgence d’un pilotage éclairé
L’étude de Ranganathan et Ye constitue un signal d’alarme documenté. Elle révèle que l’IA générative, déployée sans garde-fous, transforme le gain de temps promis en piège d’intensification invisible. Les trois mécanismes identifiés — expansion des tâches, effacement des frontières et multitâche permanent — convergent vers un épuisement professionnel d’un genre nouveau.
Les leviers d’action existent : pauses intentionnelles, séquençage des tâches, ancrage humain renforcé. Mais leur mise en œuvre exige une volonté managériale et une gouvernance explicite. Managers et équipes produit sont appelés à expérimenter ces règles, monitorer leurs effets et publier leurs résultats en interne pour nourrir un apprentissage collectif.
L’étude appelle également à des recherches complémentaires : élargissement à d’autres secteurs que la tech, échantillons plus vastes, analyse longitudinale sur plusieurs années. Le rôle des régulateurs sera également déterminant pour éviter que l’intensification du travail ne devienne la norme invisible du XXIe siècle.
L’IA peut effectivement nous soulager. À condition que nous apprenions à la pratiquer, et non à la subir.
