Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnCommunautéPlus
Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux

Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux

晚点Latepost晚点Latepost2026/01/08 02:32
Afficher le texte d'origine
Par:晚点Latepost
Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 0 Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 1

Ce qui détermine réellement la prochaine phase du paysage, ce sont encore deux éléments fondamentaux : l’architecture des modèles et le paradigme d’apprentissage. Parallèlement, une direction claire pourrait émerger du côté des applications : l’année de l’explosion de l’IA remplaçant divers métiers/tâches.


AuteurShen Yuan

ÉditeurSong Wei


LatePost a appris en exclusivité que le 8 janvier, jour de l’introduction en bourse de Zhipu, Tang Jie, professeur au département d’informatique de l’Université Tsinghua, fondateur et scientifique en chef de Zhipu, a publié une lettre interne annonçant le lancement prochain du nouveau modèle de génération GLM-5.


Tang Jie a déclaré que c’est “un jour excitant dans la vie de Zhipu”. Il n’a pas directement répondu à la controverse sur le modèle commercial des sociétés de grands modèles ni donné d’objectif de commercialisation pour Zhipu en 2026, mais a souligné que ce qui compte réellement, c’est qu’il y ait “des utilisateurs” : seule une théorie, une technologie ou un produit qui aide un plus grand nombre de personnes représente une réussite importante pour Zhipu dans sa course à l’AGI.

Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 2

DeepSeek a eu un impact retentissant sur les entreprises chinoises de grands modèles. Beaucoup estiment que le succès phénoménal de DeepSeek a d’abord affecté la niche de Zhipu ; les deux possèdent une équipe académique similaire et Zhipu a également apporté une contribution majeure à l’écosystème open source des grands modèles.


La lettre interne indique que Zhipu a atteint comme prévu en 2025 la stratégie fixée en début d’année : publier un modèle “pour stabiliser la position” en avril, un modèle “pour entrer à la table” à la mi-année (devenir l’un des meilleurs) et un modèle Top 1 en fin d’année.


Cette stratégie de retour complet à la recherche sur les modèles fondamentaux est la réponse de Zhipu au choc de DeepSeek. Le 23 décembre, le modèle de base GLM-4.7 de Zhipu a été mis en ligne et open source. Selon l’Artificial Analysis (indice AA), le GLM-4.7 se classe premier parmi les modèles nationaux et sixième mondial ex aequo avec Claude 4.5 Sonnet.


Outre le lancement de GLM-5, la lettre interne présente également les trois axes techniques sur lesquels Zhipu se concentrera en 2026 : la conception de nouvelles architectures de modèles, des paradigmes de RL (apprentissage par renforcement) plus génériques et l’exploration de l’apprentissage continu et de l’évolution autonome des modèles. Tous ces axes visent à renforcer les capacités des modèles fondamentaux.


Avec l’élévation des capacités des modèles fondamentaux, les agents et les grands modèles de domaine finiront tous par se combiner avec les modèles fondamentaux, et l’IA ne signifiera même pas nécessairement la création de nouvelles applications. “L’application des grands modèles doit aussi revenir aux principes premiers.” Tang Jie a déclaré sur Weibo l’an passé que 2026 sera l’année de l’explosion de l’IA remplaçant différents métiers.

En 2025, Zhipu a également connu une réorganisation assez importante, en réduisant la taille de ses équipes To C, R&D et génération vidéo, et en open-sourçant successivement des résultats tels qu’AutoGLM.


Depuis la sortie de ChatGPT, plus de trois années de développement rapide pour l’IA, “le secteur n’a pas vraiment de consensus, tout le monde avance simplement.” a déclaré Tang Jie lors d’un échange interne.


Voici la lettre ouverte complète de Tang Jie, publiée en exclusivité par LatePost avec l’autorisation de Zhipu.


Faire l’AGI avec l’esprit “café”


Lors d’une visite courte à l’Université des Sciences et Technologies de Hong Kong, j’ai croisé le professeur Yang Qiang dans le café du rez-de-chaussée du laboratoire. Je lui ai dit que j’avais bu trop de café ces derniers jours, que je devenais accro, et que je devais me calmer.


Le professeur Yang a répondu : “Pourquoi vouloir arrêter ? Être accro n’est pas nécessairement une mauvaise chose. Si nous pouvions être aussi accros à la recherche qu’au café, pourquoi ne réussirions-nous pas nos recherches ?”


En effet, “être accro” représente tout le sel de la vie. Que ce soit dans la recherche ou autre chose, tant qu’on reste concentré et qu’on travaille dur, on finira par réussir.


“Faire penser les machines comme les humains” a toujours été la vision et l’idéal de Zhipu, et l’unique objectif auquel les membres de Zhipu se consacrent sans relâche.


Fin 2018, inspirés par la théorie des deux systèmes de la cognition humaine, nous avons conçu un système “cognitif” machine doté de pensée rapide et de pensée lente. En 2019, nous avons officiellement fondé Zhipu et commencé à explorer l’AGI, avec l’ambitieuse vision de “faire penser les machines comme les humains”.


Le plus grand défi ici est peut-être que, jusqu’à aujourd’hui, personne, y compris nous-mêmes, n’a pu donner de définition précise à l’AGI ni indiquer clairement la voie technologique à suivre. Peut-être est-ce là tout le charme de l’exploration de l’AGI.


Nous vivons un moment exceptionnel dans l’histoire, un moment où la technologie transforme à nouveau radicalement le monde. Les grands modèles sont non seulement la base clé de l’intelligence artificielle générale, mais aussi le moteur central susceptible de révolutionner la productivité.


En regardant en arrière, une des raisons essentielles pour lesquelles nous sommes arrivés jusqu’ici, c’est que nous avons toujours persévéré à développer des technologies d’IA réellement utilisables par les utilisateurs. Seules les théories, technologies ou produits réellement utilisés peuvent devenir des réalisations majeures sur la route de l’AGI. Bien sûr, toutes les innovations ne réussissent pas, et nous avons eu beaucoup d’échecs dans des projets risqués, mais cela nous a appris à puiser de la force dans l’échec, à devenir plus forts et à mieux comprendre l’AGI. Plus important encore, cela nous a appris à ne pas nous concentrer uniquement sur les gains à court terme, mais à viser sur le long terme : aider les utilisateurs, le pays, et faire progresser la science et la technologie mondiale sont devenus des objectifs de long terme pour Zhipu.


En 2020, nous avons lancé notre propre architecture d’algorithmes de grands modèles, GLM, et commencé à entraîner un modèle fondamental de 10 milliards de paramètres. Le modèle a connu un grand succès, de nombreuses entreprises, dont Meituan, l’ont testé. C’était une tentative audacieuse, car à l’époque, les “petits modèles” BERT dominaient. Mais ce succès était encore loin de l’AGI de nos rêves. En partie parce que la quantité de connaissances du modèle n’était pas suffisante, mais aussi parce que le modèle ne savait pas encore raisonner comme un humain.


De 2021 à 2022, le développement des grands modèles n’a pas été fluide. La plupart des gens n’acceptaient pas ce plan fou de “faire penser les machines comme les humains”, comparable à un alunissage, ni ne le voyaient comme une opportunité majeure de transformation technologique, ou avaient peur d’échouer. Nous avons tout de même décidé de tenter le pari, en entraînant un grand modèle de 130 milliards de paramètres avec davantage de données.


Cette décision était difficile, car elle ne devait pas affecter le rythme global de l’entreprise. Nous avons donc créé deux petites équipes d’innovation : l’une en charge de l’entraînement du modèle, qui allait devenir le “trio GLM” de la société ; l’autre, indépendante, en charge de la construction de la plateforme MaaS (Model as a Service). À l’époque, ces deux équipes ignoraient peut-être même l’existence de l’autre. À la mi-2022, GLM-130B a été entraîné, et de nombreux détails techniques ont attiré l’attention mondiale ; la plateforme MaaS, aujourd’hui bigmodel.cn, a été lancée avec ses premiers utilisateurs API. Ensuite, nous avons officiellement créé l’Institut d’IA, dédié à la R&D de la prochaine génération de grands modèles, et le département MaaS, chargé de fournir des services API de grands modèles. Parfois, il faut trouver des gens assez audacieux pour rêver (voire déployer des efforts particuliers pour cela) : un objectif ambitieux détermine peut-être la moitié du succès.


En 2023, lors d’une discussion avec un entrepreneur de premier plan en Chine (en réalité, beaucoup plus jeune que moi) sur l’impact potentiel de l’IA, nous étions d’accord pour dire que l’IA allait bouleverser la recherche, les navigateurs, et apporter un tout nouvel assistant IA à chacun ; qu’avec cet assistant IA, nous n’aurions plus besoin d’app store, mais plutôt d’une “API store”, dont la logique fondamentale pourrait bien révolutionner les systèmes d’exploitation existants ; et qu’ensuite, la révolution la plus profonde concernerait l’ordinateur lui-même, car à ce moment-là, nous n’aurions plus besoin d’un ordinateur pour les humains, mais d’un ordinateur adapté à l’IA.


La signification de cette transformation serait immense, car elle remodelerait complètement la logique fondamentale des ordinateurs, remettant en cause le pilier des 80 dernières années de l’informatique : l’architecture de Von Neumann. À ce stade, nous avons ressenti que notre investissement dans l’IA n’était pas assez “all-in”.


La réalité est aussi cruelle : “all-in” requiert non seulement une conviction ferme, mais aussi des ressources financières et humaines puissantes, ainsi qu’une anticipation précise. 2023-2024 a été l’année d’explosion des grands modèles dans le monde, les grandes entreprises ont toutes tout misé sur les grands modèles, et la Chine a connu un pic entrepreneurial, la “bataille des cent modèles” et la prolifération d’assistants IA.


Nous avons aussi commis des erreurs, tant techniques que commerciales. Avec le recul, la raison en est peut-être qu’en poursuivant l’AGI, nous nous sommes parfois égarés, séduits par les gains ou la fièvre à court terme. L’AGI est une révolution technologique, la technologie est égalitaire, ouverte et transparente, faite pour être accessible à tous et en faire bénéficier le plus grand nombre.


L’arrivée de DeepSeek nous a alors réveillés. Lors de la création de son entreprise en 2023, Wen Feng m’a parlé ; je n’avais pas réalisé à quel point il était passionné par l’AGI. Merci à lui pour les réflexions nouvelles qu’il m’a apportées. L’engagement inébranlable envers la technologie AGI, l’exploration continue de ses frontières, ainsi qu’une anticipation précise de l’avenir sont les axes que Zhipu doit continuer à améliorer et à sublimer. Ces deux années nous ont beaucoup appris, surtout en “apprentissage par renforcement” sur l’AGI, la gouvernance de l’entreprise et la concurrence commerciale.


L’année écoulée, nous avons en fait procédé à un “renforcement” assez systématique. Nous avons lancé les slogans “persévérance” et “accomplissement”, demandant à tous de rester persévérants, humbles et confiants, et de s’accomplir en accomplissant le travail de chacun chez Zhipu.


En début d’année, tout était difficile. Les performances du modèle n’étaient pas à la hauteur des attentes, une guerre des prix faisait rage dans tout le pays, et il fallait trouver une percée précise pour sortir de l’impasse.


Nous avons tenu bon et finalement trouvé une percée avec le Coding.


Si la sortie de GLM-4.1 en avril ressemblait à un test symbolique, la sortie de GLM-4.5 fin juillet a presque tenu du combat décisif. Toutes les équipes techniques, plateformes et métiers travaillaient d’arrache-pied, jour et nuit. Nous avons enfin remporté une victoire attendue, suivie par GLM-4.6 et GLM-4.7 qui ont permis à nos modèles de rivaliser avec les meilleurs modèles internationaux. Notre GLM-4.7 a obtenu le SOTA des modèles open source et nationaux dans de nombreux benchmarks, dont AA et l’Arena. Les retours des utilisateurs sur le Coding et les agents ont également été excellents. 150 000 développeurs de 184 pays utilisent GLM Coding Plan. Après la sortie de GLM-4.7, le revenu annuel récurrent (ARR) de la plateforme MaaS a dépassé 500 millions (dont plus de 200 millions à l’étranger), passant de 20 millions à 500 millions (multiplié par 25) en seulement 10 mois.


En résumé, du côté des modèles, nous avons mené à terme la stratégie fixée en début d’année : un modèle “pour stabiliser la position” en avril, un modèle “pour entrer à la table” à la mi-année (devenir l’un des meilleurs) et un modèle Top 1 en fin d’année. Ceci pose une base solide pour continuer à viser les sommets technologiques de l’AGI.


Notre “souveraineté de l’IA” a également connu de nouveaux progrès : la plateforme MaaS nationale de Malaisie a été construite sur le modèle open source Z.ai, faisant de GLM le modèle national malaisien. L’expansion internationale de l’IA souveraine est née de mon inspiration lors d’une réunion avec le Secrétaire général, qui appelait à “faire sortir l’IA chinoise du pays”. Honnêtement, je ne savais pas comment faire, mais notre équipe internationale a su relever le défi et a franchi une étape historique pour l’exportation des grands modèles chinois. Sur le plan commercial, nous avons osé la concurrence et atteint à nouveau l’objectif de doubler le chiffre d’affaires annuel.


Dans un contexte mêlant difficultés et opportunités, aujourd’hui, nous sommes devenus, d’une manière presque impossible, la première société mondiale cotée spécialisée dans les grands modèles, ce qui démontre la reconnaissance du marché pour notre valeur technologique et commerciale. “Make impossible possible” — souvenez-vous, nous l’avons déjà dit ?


Cette année, la plus grande transformation n’est peut-être pas celle de Zhipu, mais celle d’une génération de jeunes en première ligne, qui ont réalisé de nombreuses choses qui semblaient impossibles.


En 2026, l’objectif de l’entreprise est de devenir un leader international des grands modèles. L’an dernier, beaucoup de discussions tournaient autour des applications et de l’écosystème des grands modèles.


Ce qui détermine réellement la prochaine phase du paysage, ce sont encore deux éléments fondamentaux : l’architecture des modèles et le paradigme d’apprentissage. Parallèlement, une direction claire pourrait émerger du côté des applications : l’année de l’explosion de l’IA remplaçant divers métiers/tâches.


Sur la base de ce jugement, en 2026, nous allons nous concentrer sur :


  • GLM-5. GLM-5 sera bientôt dévoilé, et grâce au scaling supplémentaire et à de nombreuses innovations techniques, nous croyons que GLM-5 apportera de nouvelles expériences et permettra à l’IA d’accomplir encore plus de tâches réelles pour vous.

  • Une conception d’architecture de modèle entièrement nouvelle. L’architecture Transformer, en usage depuis près de 10 ans, montre déjà certaines limites, notamment en ce qui concerne le coût de calcul pour des contextes très longs, les mécanismes de mémoire et de mise à jour, etc. Il est donc nécessaire d’explorer de nouvelles architectures, de découvrir de nouveaux paradigmes de scaling et d’améliorer l’efficacité des calculs via la co-conception puce-algorithme.

  • Un RL doté d’une capacité de généralisation accrue. Le paradigme RLVR dominant, bien qu’efficace en mathématiques et en programmation, présente des limitations croissantes du fait de sa dépendance à des environnements vérifiables construits artificiellement. Cette année, il faut explorer des paradigmes RL plus génériques, permettant à l’IA non seulement d’exécuter des tâches spécifiques sur ordre humain, mais aussi de comprendre et mener à bien des tâches de longue durée, de plusieurs heures voire de plusieurs jours.

  • L’exploration la plus difficile consiste à ouvrir la voie à l’apprentissage continu et à l’évolution autonome. Les modèles d’IA dominants aujourd’hui sont essentiellement statiques une fois déployés. Ils acquièrent leurs connaissances via un apprentissage unique, très coûteux, puis deviennent progressivement obsolètes en application. Cela diffère radicalement du cerveau humain, qui apprend et évolue continuellement grâce à une interaction permanente avec le monde. Nous devons anticiper le prochain paradigme d’apprentissage — l’apprentissage en ligne (Online Learning) ou l’apprentissage continu (Continual Learning).


Nous ne sommes pas une entreprise traditionnelle, et nous n’avons pas l’intention de le devenir. Nous voulons être une entreprise native IA, où tout est possible : créer la prochaine génération de modèles toujours plus intelligents, développer des produits et services IA pour les utilisateurs. Nous voulons faire de l’IA l’assistant le plus efficace de chaque individu, l’aider à accomplir ses tâches. Nous pensons aussi utiliser l’IA pour gouverner l’entreprise, réduire les coûts et accroître l’efficacité, et atteindre plus d’équité.


Avec le temps, une entreprise finit souvent par s’habituer à faire la même chose, à n’apporter que des améliorations progressives, ce qui bride la capacité d’innovation. Mais à l’ère de l’IA, tout est disruptif ; il faut parfois accepter un certain “inconfort” pour rester innovant, pour pouvoir proposer des idées révolutionnaires et ouvrir la voie au prochain grand secteur de croissance.


C’est pourquoi nous avons créé en interne un nouveau département : le X-Lab, qui vise à rassembler plus de jeunes talents par une approche ouverte, à explorer le front de la recherche, à concevoir de nouvelles architectures de modèles, de nouveaux paradigmes cognitifs et à incuber de nouveaux projets, qu’ils soient logiciels ou matériels. Nous allons aussi élargir nos investissements externes, non seulement en renforçant les liens stratégiques avec les entreprises déjà financées, mais aussi en ouvrant de nouveaux territoires pour connecter toute l’industrie et faire prospérer l’ensemble de l’écosystème. Au X-Lab, la mission de chacun est de mener une innovation totalement disruptive, en gardant l’AGI comme fil conducteur.


Aujourd’hui est un jour excitant dans la vie de Zhipu, un jalon important dans son histoire, et le début d’une toute nouvelle ère. J’aime vraiment la marque Z.ai, le Z étant la dernière lettre de l’alphabet, et symbolisant l’ultime destination ; nous espérons atteindre l’ultime intelligence dans notre quête de l’AGI, c’est notre but. Nous sommes très enthousiastes :


- Avoir une mission ambitieuse, changer le monde

- Se concentrer sur l’intérêt à long terme, avec une vision d’avenir

- Se concentrer encore plus sur l’essence de l’AGI

- Dynamiser le développement des grands entrepreneurs et entreprises grâce à l’IA

- Saisir les opportunités de développement grâce à une anticipation plus précise

- Enfin, nous espérons réellement apporter une IA différente à la société humaine et faire progresser concrètement le bien-être de l’humanité.


C’est un moment de joie incomparable, une joie qui n’est pas celle d’un instant de dopamine, mais celle, accumulée sur la route de l’exploration de l’AGI, de l’endorphine : elle nous rend plus concentrés, pragmatiques, et persévérants !


Tang Jie

2026.1.8

Source de l’image de couverture : « Dune 2 »

- FIN -

Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 3 Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 4 Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 5 Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 6 Exclusivité LatePost | Zhipu entre en bourse, Tang Jie demande dans une lettre interne un retour complet à la recherche sur les modèles fondamentaux image 7

0
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !
© 2025 Bitget