Si 2025 a été l’année où l’IA a subi un contrôle d’ambiance, 2026 sera celle où la technologie deviendra pratique. L’attention se détourne déjà de la construction de modèles linguistiques toujours plus grands pour se concentrer sur le travail plus difficile de rendre l’IA utilisable. Concrètement, cela implique de déployer des modèles plus petits là où ils sont adaptés, d’intégrer l’intelligence dans des dispositifs physiques et de concevoir des systèmes qui s’intègrent harmonieusement dans les flux de travail humains.
Les experts interrogés par TechCrunch voient 2026 comme une année de transition, passant du scaling intensif à la recherche de nouvelles architectures, des démonstrations tape-à-l’œil à des déploiements ciblés, et des agents qui promettaient l’autonomie à ceux qui augmentent réellement la manière dont les gens travaillent.
La fête n’est pas terminée, mais l’industrie commence à dégriser.
Les lois du scaling ne suffiront plus
Crédits image :Amazon En 2012, Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton ont publié l’article ImageNet qui montrait comment les systèmes d’IA pouvaient « apprendre » à reconnaître des objets dans des images en analysant des millions d’exemples. Cette méthode était coûteuse en ressources de calcul, mais rendue possible grâce aux GPU. Résultat ? Une décennie de recherche intense en IA, les scientifiques s’efforçant d’inventer de nouvelles architectures pour différentes tâches.
Cela a culminé autour de 2020, lorsque OpenAI a lancé GPT-3, démontrant que le simple fait d’agrandir le modèle par cent permettait de débloquer des capacités comme la programmation et le raisonnement sans entraînement explicite. Cela marque la transition vers ce que Kian Katanforoosh, PDG et fondateur de la plateforme d’agents IA Workera, appelle « l’ère du scaling » : une période définie par la croyance que plus de calculs, plus de données et des modèles transformers plus grands mèneraient inévitablement aux prochaines grandes avancées de l’IA.
Aujourd’hui, de nombreux chercheurs pensent que l’industrie de l’IA commence à atteindre les limites des lois du scaling et va de nouveau entrer dans une ère de recherche.
Yann LeCun, ancien chief AI scientist de Meta, s’est longtemps opposé à la dépendance excessive au scaling et a souligné la nécessité de développer de meilleures architectures. Et Sutskever a déclaré dans une récente interview que les modèles actuels plafonnent et que les résultats du pré-entraînement stagnent, ce qui indique un besoin de nouvelles idées.
Rejoignez la liste d’attente pour Disrupt 2026
Ajoutez-vous à la liste d’attente pour Disrupt 2026 afin d’être le premier averti lors de la sortie des billets Early Bird. Les éditions précédentes ont accueilli Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil et Vinod Khosla sur scène — parmi plus de 250 leaders du secteur animant plus de 200 sessions conçues pour stimuler votre croissance et affûter votre avantage. De plus, rencontrez des centaines de startups innovant dans tous les secteurs.
Rejoignez la liste d’attente pour Disrupt 2026
Ajoutez-vous à la liste d’attente pour Disrupt 2026 afin d’être le premier averti lors de la sortie des billets Early Bird. Les éditions précédentes ont accueilli Google Cloud, Netflix, Microsoft, Box, Phia, a16z, ElevenLabs, Wayve, Hugging Face, Elad Gil et Vinod Khosla sur scène — parmi plus de 250 leaders du secteur animant plus de 200 sessions conçues pour stimuler votre croissance et affûter votre avantage. De plus, rencontrez des centaines de startups innovant dans tous les secteurs.
« Je pense que très probablement, dans les cinq prochaines années, nous allons trouver une architecture meilleure, significativement supérieure aux transformers, » a déclaré Katanforoosh. « Et si ce n’est pas le cas, il ne faudra pas s’attendre à beaucoup d’améliorations sur les modèles. »
Parfois, moins c’est plus
Les grands modèles linguistiques excellent dans la généralisation des connaissances, mais de nombreux experts affirment que la prochaine vague d’adoption de l’IA en entreprise sera portée par des modèles linguistiques plus petits et plus agiles, capables d’être ajustés pour des solutions spécifiques à un domaine.
« Les SLM ajustés seront la grande tendance et deviendront un élément de base utilisé par les entreprises IA matures en 2026, car les avantages en termes de coût et de performance stimuleront leur utilisation par rapport aux LLM prêts à l’emploi, » a déclaré Andy Markus, chief data officer chez AT&T, à TechCrunch. « Nous avons déjà vu les entreprises s’appuyer de plus en plus sur les SLM car, s’ils sont correctement ajustés, ils égalent les modèles généraux plus gros en précision pour les applications métiers, tout en étant excellents en termes de coût et de rapidité. »
Cet argument a déjà été avancé par la startup française d’IA open-weight Mistral : elle affirme que ses petits modèles surperforment en fait les modèles plus grands sur plusieurs benchmarks après ajustement.
« L’efficacité, la rentabilité et l’adaptabilité des SLM les rendent idéaux pour des applications sur mesure où la précision est primordiale, » a déclaré Jon Knisley, stratège IA chez ABBYY, une société d’IA d’entreprise basée à Austin.
Alors que Markus pense que les SLM joueront un rôle clé dans l’ère agentique, Knisley estime que la nature des petits modèles les rend plus adaptés au déploiement sur des dispositifs locaux, « une tendance accélérée par les avancées de l’edge computing ».
Apprendre par l’expérience
Crédits image :World Labs/TechCrunch Les humains n’apprennent pas seulement par le langage ; nous apprenons en expérimentant le fonctionnement du monde. Mais les LLM ne comprennent pas vraiment le monde ; ils prédisent simplement le prochain mot ou concept. C’est pourquoi de nombreux chercheurs pensent que le prochain grand saut viendra des world models : des systèmes d’IA qui apprennent comment les choses bougent et interagissent dans des espaces 3D afin de pouvoir faire des prédictions et agir.
Les signes montrant que 2026 sera une grande année pour les world models se multiplient. LeCun a quitté Meta pour créer son propre laboratoire de world model et chercherait une valorisation de 5 milliards de dollars. DeepMind de Google travaille sur Genie et a lancé en août son dernier modèle qui construit des world models interactifs en temps réel à usage général. Aux côtés des démonstrations de startups comme Decart et Odyssey, World Labs de Fei-Fei Li a lancé son premier world model commercial, Marble. De nouveaux venus comme General Intuition ont levé en octobre 134 millions de dollars en amorçage pour enseigner le raisonnement spatial aux agents, et la startup de génération vidéo Runway a sorti en décembre son premier world model, GWM-1.
Si les chercheurs voient un potentiel à long terme dans la robotique et l’autonomie, l’impact à court terme devrait d’abord se voir dans les jeux vidéo. PitchBook prévoit que le marché des world models pour le gaming pourrait passer de 1,2 milliard de dollars entre 2022 et 2025 à 276 milliards d’ici 2030, grâce à la capacité de la technologie à générer des mondes interactifs et des personnages non-joueurs plus réalistes.
Pim de Witte, fondateur de General Intuition, a déclaré à TechCrunch que les environnements virtuels pourraient non seulement transformer le jeu vidéo, mais aussi devenir des terrains d’essai cruciaux pour la prochaine génération de modèles fondamentaux.
Nation agentique
Les agents n’ont pas été à la hauteur du battage médiatique en 2025, en grande partie parce qu’il est difficile de les connecter aux systèmes où le travail s’effectue réellement. Sans accès aux outils et au contexte, la plupart des agents sont restés confinés à des workflows pilotes.
Le Model Context Protocol (MCP) d’Anthropic, un « USB-C pour l’IA » permettant aux agents IA de dialoguer avec des outils externes tels que des bases de données, moteurs de recherche et API, a comblé ce manque de connectivité et s’impose rapidement comme la norme. OpenAI et Microsoft ont publiquement adopté le MCP, et Anthropic l’a récemment offert à la nouvelle Agentic AI Foundation de la Linux Foundation, qui vise à aider à la standardisation des outils open source agentiques. Google a également commencé à mettre en place ses propres serveurs MCP managés pour connecter les agents IA à ses produits et services.
Avec le MCP réduisant la friction pour connecter les agents aux systèmes réels, 2026 sera probablement l’année où les workflows agentiques passeront enfin des démos à la pratique quotidienne.
Rajeev Dham, partenaire chez Sapphire Ventures, affirme que ces avancées permettront aux solutions agent-first d’occuper des « rôles de système d’enregistrement » dans tous les secteurs.
« À mesure que les agents vocaux gèrent davantage de tâches de bout en bout, telles que la prise en charge et la communication client, ils deviendront également les systèmes de base sous-jacents, » a déclaré Dham. « Nous verrons cela dans divers secteurs comme les services à domicile, la proptech et la santé, ainsi que dans des fonctions transversales comme la vente, l’informatique et le support. »
Augmentation, pas automatisation
Crédits image :Photo par Igor Omilaev sur Unsplash Bien que des workflows plus agentiques puissent susciter des craintes de licenciements, Katanforoosh de Workera n’en est pas si sûr : « 2026 sera l’année des humains, » dit-il.
En 2024, chaque entreprise d’IA prédisait qu’elle automatiserait les emplois au point de ne plus avoir besoin d’humains. Mais la technologie n’en est pas encore là, et dans une économie instable, ce discours n’est pas vraiment populaire. Katanforoosh estime que l’an prochain, nous réaliserons que « l’IA n’a pas fonctionné de façon aussi autonome que nous le pensions », et la conversation se concentrera davantage sur la manière dont l’IA sert à augmenter les flux de travail humains, plutôt qu’à les remplacer.
« Et je pense que beaucoup d’entreprises vont commencer à embaucher, » ajoute-t-il, notant qu’il s’attend à voir de nouveaux rôles dans la gouvernance de l’IA, la transparence, la sécurité et la gestion des données. « Je suis plutôt optimiste quant à un taux de chômage moyen inférieur à 4% l’année prochaine. »
« Les gens veulent être au-dessus de l’API, pas en dessous, et je pense que 2026 sera une année importante pour cela, » ajoute de Witte.
Passer au physique
Crédits image :David Paul Morris/Bloomberg / Getty Images Les avancées dans des technologies telles que les petits modèles, les world models et l’edge computing permettront davantage d’applications physiques du machine learning, affirment les experts.
« L’IA physique se généralisera en 2026 alors que de nouvelles catégories de dispositifs alimentés par l’IA, y compris la robotique, les AV, les drones et les wearables commenceront à arriver sur le marché, » a confié Vikram Taneja, responsable d’AT&T Ventures, à TechCrunch.
Si les véhicules autonomes et la robotique sont des cas d’usage évidents pour l’IA physique, qui continueront sans doute à croître en 2026, la formation et le déploiement restent coûteux. Les wearables, en revanche, constituent une porte d’entrée moins onéreuse avec l’adhésion des consommateurs. Les lunettes intelligentes comme les Ray-Ban Meta commencent à proposer des assistants capables de répondre à des questions sur ce que vous regardez, et de nouveaux formats comme les bagues santé alimentées par l’IA et les montres connectées normalisent l’inférence permanente et portée sur soi.
« Les fournisseurs de connectivité vont travailler à optimiser leur infrastructure réseau pour soutenir cette nouvelle vague de dispositifs, et ceux qui feront preuve de flexibilité dans leur offre de connectivité seront les mieux positionnés, » a déclaré Taneja.

