L’idée paraissait encore futuriste : l’intelligence artificielle capable d’endosser les responsabilités d’un PDG. Pourtant, Sundar Pichai affirme que ce scénario est désormais plausible à court terme. À l’heure où les géants de la tech envisagent ouvertement un leadership partiellement automatisé, la question n’est plus théorique : elle redessine déjà les contours du pouvoir dans l’entreprise.
Cette déclaration surprenante, formulée lors d’un interview avec la BBC, remet en question la pérennité du leadership humain au sommet de la hiérarchie entrepreneuriale.
Selon Pichai, cette transformation majeure devrait se produire dans les douze prochains mois. Le dirigeant de l’entreprise de Mountain View explique que l’évolution actuelle conduit l’IA à passer du statut d’assistant à celui d’agent autonome. Il est même allé jusqu’à affirmer que les fonctions d’un PDG comptent parmi les tâches les plus simples qu’une intelligence artificielle pourrait accomplir un jour.
Cette projection soulève des interrogations légitimes sur la nature même de la gouvernance d’entreprise. Pichai n’a pas précisé quelles fonctions de direction seraient automatisées en premier, mais il a prévenu que certains emplois disparaîtraient, tandis que d’autres devraient évoluer et se transformer.
Une transformation déjà envisagée par plusieurs leaders de la tech
Le patron de Google n’est pas le seul à envisager cette perspective. Sam Altman, le PDG d’OpenAI, a déjà affirmé que l’IA accomplirait son travail mieux que lui, ajoutant qu’il serait enthousiaste le jour où cela se produirait. Sebastian Siemiatkowski, le PDG de Klarna, a également déclaré sur X que la technologie était capable de remplacer tous les emplois, y compris le sien.
Ces commentaires reflètent un sentiment plus large dans le secteur. Une enquête menée par edX auprès de 500 dirigeants révèle que 49 % d’entre eux estiment que la majorité, voire la totalité, de leurs fonctions devraient être automatisées par l’intelligence artificielle.
Tout le monde ne partage pas cet avis. Jensen Huang, le PDG de Nvidia, a catégoriquement répondu par la négative lorsqu’on lui a demandé si l’IA pouvait le remplacer. Bien qu’il reconnaisse que la technologie surpasse les humains dans certaines tâches, il estime qu’elle est encore très éloignée de pouvoir répliquer l’ensemble des capacités humaines au travail.
Les responsabilités stratégiques que l’IA pourrait assumer
Certains aspects du travail de direction se prêtent effectivement à l’automatisation. Les systèmes d’IA excellent dans le traitement des tâches répétitives basées sur les données, telles que la modélisation financière, l’évaluation des risques et l’analyse prédictive. Les dirigeants utilisent déjà l’apprentissage automatique pour prévoir les tendances du marché, anticiper la demande et optimiser l’allocation des ressources en temps réel.
Les cycles de décision gourmands en données sont une autre dimension qui peut être déléguée aux algorithmes. Les PDG analysent en effet régulièrement des états financiers, des prévisions et des rapports internes avant de prendre des décisions routinières. Ces processus reposent sur des informations structurées que les algorithmes traitent plus rapidement et avec moins d’erreurs que les êtres humains.
La modélisation stratégique et les tests de scénarios sont également des domaines dans lesquels l’automatisation progresse. Lorsqu’un dirigeant évalue des stratégies d’entrée sur le marché ou des ajustements tarifaires, une grande partie du travail consiste à projeter des résultats, à tester des hypothèses et à comparer des alternatives. Les modèles modernes peuvent exécuter des milliers de scénarios stratégiques simultanément, ce qui rend cet aspect du métier de plus en plus compatible avec les algorithmes.
La surveillance opérationnelle et la détection d’anomalies dépendent de tableaux de bord permettant de suivre les performances, de repérer les écarts et de décider du moment d’intervenir. Cette supervision repose principalement sur la reconnaissance de schémas, comme l’observation de métriques, l’identification d’anomalies et la signalisation de risques. Les systèmes automatisés peuvent reproduire cette couche de surveillance avec une précision continue en temps réel.
Les limites humaines que les machines ne peuvent pas reproduire
Les limites de l’automatisation apparaissent lorsque le leadership requiert du jugement, de la confiance ou une clarté morale. Le jugement dans les situations ambiguës constitue un premier obstacle majeur. Les PDG ne se contentent pas de lire des chiffres ; ils interprètent le contexte, y compris les pressions politiques, les signaux culturels, les évolutions réglementaires et leurs conséquences, qui ne figurent pas dans les tableaux.
Ces situations exigent un jugement fondé sur l’expérience. L’IA a du mal à évaluer des valeurs concurrentes, à naviguer dans des informations incomplètes ou à comprendre des conséquences qui dépassent les schémas de données.
La construction de la confiance et le leadership humain constituent une deuxième barrière. L’autorité d’un PDG découle de sa crédibilité, notamment de sa capacité à convaincre ses employés en période de crise, à persuader un conseil d’administration en cas de conflit ou à rassurer les investisseurs après un revers. Il s’agit de tâches relationnelles ancrées dans l’émotion, la réputation et la présence.
Un système d’IA ne peut pas construire de la confiance, endosser la responsabilité de ses erreurs ou assumer les conséquences de ses décisions.
Le raisonnement éthique et la prise de risques moraux constituent une troisième limite fondamentale. La direction implique souvent de décider ce qui doit être fait, et non pas seulement ce qui est efficace. Les licenciements, les compromis en matière de sécurité ou les arbitrages concernant la vie privée nécessitent un jugement moral qui va au-delà de l’optimisation. Les algorithmes ne peuvent pas prendre de décisions fondées sur des valeurs ni porter le poids éthique de conséquences réelles.
Un tournant majeur pour la gouvernance des entreprises
Les déclarations de Pichai révèlent un changement dans la façon dont les PDG envisagent leur propre pertinence. Pendant des décennies, les débats sur l’automatisation ont tourné autour des ateliers de production et des opérations administratives. Désormais, ils atteignent le sommet de l’organigramme.
Lorsque les dirigeants d’entreprises valorisées à plusieurs milliers de milliards de dollars commencent à décrire leur rôle comme étant facilement remplaçable par l’IA, le centre de gravité se déplace. La question n’est plus de savoir si l’automatisation atteindra le leadership, mais quelle forme prendra-t-il lorsque l’IA deviendra un candidat crédible pour ce poste.
Si les dirigeants considèrent que leur rôle peut être délégué à un algorithme, alors la définition de la supervision stratégique, de la responsabilité et du jugement est en train d’être réécrite en catimini. Les propos de Pichai, à la tête de l’une des entreprises technologiques les plus influentes au monde, montrent que cette réécriture a déjà commencé.
Parallèlement, le PDG d’Alphabet a mis en garde contre le risque d’une bulle spéculative autour de l’intelligence artificielle. Il a comparé l’explosion actuelle des investissements, qui s’élève à 1 000 milliards de dollars, à la bulle Internet, affirmant qu’aucune entreprise ne serait épargnée en cas d’effondrement.
La question cruciale de la fiabilité des systèmes IA
Pichai a également reconnu que les modèles d’IA pouvaient commettre des erreurs. Lors de son entretien avec la BBC, il a souligné que les utilisateurs ne devaient pas faire aveuglément confiance aux outils d’intelligence artificielle. Le dirigeant a déclaré que Google déployait tous les efforts nécessaires pour fournir des informations aussi précises que possible, mais que les limites de la technologie actuelle étaient une réalité.
Cette mise en garde intervient alors que Google a dû faire face à des critiques concernant le déploiement de ses AI Overviews, entaché par des réponses erronées et inexactes. La tendance des produits d’IA générative à relayer des informations trompeuses ou fausses préoccupe les experts.
Gina Neff, professeure d’intelligence artificielle responsable à l’université Queen Mary de Londres, a déclaré à la BBC que ces systèmes inventaient des réponses pour satisfaire les utilisateurs, ce qui posait problème. Elle a souligné la différence entre demander une recommandation de film et poser des questions sensibles sur la santé, le bien-être mental, la science ou l’actualité.
Elle a également exhorté Google à assumer davantage de responsabilités quant à la précision de ses produits d’IA, plutôt que de transférer cette charge aux consommateurs. Selon elle, l’entreprise demande maintenant à corriger ses propres examens pendant qu’elle détruit l’école.
Le secteur technologique attendait le lancement du modèle d’IA grand public de Google, Gemini 3.0, qui commence à regagner des parts de marché face à ChatGPT. L’entreprise a dévoilé ce modèle mardi, affirmant qu’il inaugurerait une nouvelle ère d’intelligence au cœur de ses propres produits, comme son moteur de recherche.
Suivez toute l’actualité d’Essential Homme sur Google Actualités, sur notre chaîne WhatsApp, ou recevoir directement dans votre boîte mail avec Feeder.
Les enjeux décisifs pour Google en 2025
Pichai a indiqué que 2025 serait une année charnière pour la stratégie de Google en matière d’intelligence artificielle. L’entreprise a commencé, en mai, à intégrer son chatbot Gemini à son moteur de recherche, en introduisant un nouveau mode IA qui permet aux utilisateurs de dialoguer avec un expert.
Cette initiative s’inscrit dans les efforts du géant technologique pour rester compétitif face à des services d’IA comme ChatGPT, qui menacent la domination de Google dans le domaine de la recherche en ligne. Les commentaires du PDG confirment des recherches menées par la BBC plus tôt cette année, qui ont révélé que les chatbots d’IA résumaient de manière inexacte des articles d’actualité.
Les assistants IA de ChatGPT, Microsoft Copilot, Google Gemini et Perplexity AI ont tous reçu du contenu provenant du site web de la BBC, puis ont été interrogés à ce sujet. Les réponses contenaient des inexactitudes importantes. D’après des conclusions plus larges de la BBC, malgré des améliorations, les assistants IA continuent de déformer l’actualité dans 45 % des cas.
Pichai a reconnu qu’il existait une tension entre la vitesse à laquelle la technologie est développée et la manière dont les mesures d’atténuation sont intégrées pour prévenir les effets potentiellement néfastes. Pour Alphabet, gérer cette tension signifie faire preuve d’audace et de responsabilité. Le PDG a affirmé que l’entreprise avançait rapidement dans cette période parce que les consommateurs l’exigeaient.
Le géant technologique a également augmenté ses investissements dans la sécurité de l’IA proportionnellement à ses investissements dans cette technologie. Il a donné l’exemple d’une technologie open source permettant de détecter si une image a été générée par l’IA.
Interrogé sur les récentes déclarations du milliardaire Elon Musk, qui s’inquiète que DeepMind, désormais propriété de Google, puisse créer une dictature de l’IA, Pichai a déclaré qu’aucune entreprise ne devrait posséder une technologie aussi puissante que l’intelligence artificielle.
Il a toutefois ajouté qu’il existe aujourd’hui de nombreuses entreprises dans l’écosystème de l’IA. S’il n’y avait qu’une seule entreprise à développer la technologie de l’IA et que tous les autres devaient l’utiliser, il serait également préoccupé, mais nous sommes très loin de ce scénario actuellement, a-t-il conclu.



