Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnPlazaMehr
LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen

LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen

晚点Latepost晚点Latepost2026/01/08 02:32
Original anzeigen
Von:晚点Latepost
LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 0 LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 1

Was die nächste Phase wirklich bestimmt, sind immer noch zwei grundlegende Faktoren – Modellarchitektur und Lernparadigma. Gleichzeitig könnte sich auf der Anwendungsseite eine klare Richtung abzeichnen: Das Jahr des explosionsartigen Durchbruchs von AI bei der Substitution verschiedener Berufsfelder/Aufgaben.


TextShen Yuan

RedaktionSong Wei


LatePost hat exklusiv erfahren, dass am 8. Januar, dem Tag des Börsengangs von Zhipu, Professor Tang Jie vom Fachbereich Informatik der Tsinghua Universität sowie Gründer und Chefwissenschaftler von Zhipu, in einer internen Mitteilung ankündigte, dass demnächst das neue Modell GLM-5 veröffentlicht wird.


Tang Jie sagte, heute sei „ein aufregender Tag im Leben von Zhipu“. Er ging nicht direkt auf die umstrittenen Geschäftsmodelle großer Modellunternehmen ein oder nannte ein Kommerzialisierungsziel von Zhipu für 2026, betonte jedoch, dass es für Zhipu auf dem Weg zur AGI ein wichtiger Erfolg ist, wenn Theorien, Technologien oder Produkte „wirklich genutzt werden“ und mehr Menschen helfen können.

LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 2

DeepSeek hat die chinesischen Unternehmen für große Modelle beeindruckt. Viele meinen, dass der phänomenale Erfolg von DeepSeek zunächst Zhipus Ökosphäre getroffen hat – beide verfügen über fast identische akademische und forschungsbezogene Teams, zudem hat Zhipu ebenfalls erheblich zur Open-Source-Community für große Modelle beigetragen.


Im internen Schreiben heißt es, dass Zhipu 2025 wie geplant die zu Jahresbeginn festgelegte Strategie erfüllt hat: Im April ein Modell zur „Stabilisierung der Position“, zur Jahresmitte ein Modell „am Tisch“ (one of the best) und zum Jahresende ein Top-1-Modell zu veröffentlichen.


Diese umfassende Rückbesinnung auf die Grundlagenforschung an Modellen ist Zhipus Antwort auf den Einfluss von DeepSeek. Am 23. Dezember wurde das Basismodell GLM-4.7 von Zhipu online gestellt und als Open Source bereitgestellt. Der Artificial Analysis (AA Intelligenz-Index) zeigt, dass GLM-4.7 das bestplatzierte chinesische Modell ist und sich mit Claude 4.5 Sonnet den sechsten Platz weltweit teilt.


Neben der Veröffentlichung von GLM-5 nennt das interne Schreiben drei technologische Schwerpunkte von Zhipu für 2026: ein völlig neues Modellarchitektur-Design, ein allgemeineres RL- (Reinforcement Learning) Paradigma und die Erforschung von kontinuierlichem Lernen und autonomer Evolution von Modellen. Alle diese Ansätze zielen auf eine Verbesserung der Basismodellfähigkeiten ab.


Mit der Verbesserung der Basismodellfähigkeiten werden Agenten und domänenspezifische große Modelle letztlich mit dem Basismodell kombiniert. Sogar AI bedeutet nicht unbedingt, dass neue Anwendungen geschaffen werden müssen. „Auch die Anwendungen großer Modelle müssen zu den ersten Prinzipien zurückkehren.“ sagte Tang Jie in einem Weibo-Post im vergangenen Jahr, 2026 werde das Jahr des Durchbruchs von AI bei der Substitution verschiedener Berufsfelder sein.

2025 hat Zhipu zudem eine umfassendere organisatorische Umstrukturierung durchlaufen, die den To-C-, Produktentwicklungs- und Videoproduktionsteams eine Reduktion bescherte; Ergebnisse wie AutoGLM wurden sukzessive als Open Source bereitgestellt.


Seit der Veröffentlichung von ChatGPT hat sich AI in den vergangenen dreieinhalb Jahren rasant entwickelt. „Es gibt keinen echten Konsens in der Branche – alle gehen einfach voran“, so Tang Jie in einem internen Austausch.


Nachfolgend der vollständige offene Brief von Tang Jie, exklusiv veröffentlicht mit Genehmigung von Zhipu durch LatePost.


Mit dem „Kaffee“-Geist AGI entwickeln


Während eines kurzen Aufenthalts an der Hong Kong University of Science and Technology traf ich Professor Yang Qiang zufällig im Café im Erdgeschoss des Labors. Ich sagte, ich hätte in den letzten Tagen zu viel Kaffee getrunken, fast schon süchtig, und müsste mal eine Pause machen.


Herr Yang sagte: „Warum aufhören? Sucht muss nicht unbedingt schlecht sein. Wenn wir so süchtig nach Forschung wären wie nach Kaffee, könnten wir doch gar nicht scheitern, oder?“


Stimmt – „Sucht“ ist das Faszinierende im Leben. Egal ob Forschung oder andere Dinge: Mit Fokus und Engagement wird man es gut machen.


„Maschinen denken lassen wie Menschen“ ist seit jeher die Vision und das Ideal von Zhipu – und das einzige Ziel, für das das Team von Zhipu unermüdlich kämpft.


Ende 2018, inspiriert von der Zwei-System-Theorie der menschlichen Kognition, entwickelten wir ein maschinelles „Kognitions“-System mit schnellem und langsamem Denken. 2019 gründeten wir offiziell Zhipu, um AGI zu erforschen und die Vision zu verwirklichen, Maschinen wie Menschen denken zu lassen.


Die größte Herausforderung ist vielleicht, dass auch heute noch niemand – auch wir nicht – eine präzise Definition von AGI oder einen konkreten technischen Pfad zu AGI geben kann. Vielleicht liegt gerade darin der Reiz der AGI-Forschung.


Wir befinden uns in einem außergewöhnlichen Moment der Geschichte – ein Moment, in dem Technologie die Welt erneut disruptiv verändert. Große Modelle sind nicht nur das Fundament der allgemeinen künstlichen Intelligenz, sondern könnten auch der Motor für den Wandel der Produktivität werden.


Rückblickend ist ein wichtiger Grund, warum wir es bis heute geschafft haben, dass wir immer daran festhalten, AI-Technologien zu entwickeln, die die Nutzer wirklich gebrauchen können. Nur Theorien, Technologien oder Produkte, die wirklich genutzt werden, werden letztlich zu wichtigen Erfolgen auf dem Weg zur AGI. Natürlich gelingt nicht jede Innovation. Viele riskante Projekte sind gescheitert, aber gerade daraus haben wir Stärke gezogen. Das hat Zhipu stärker gemacht und unser Verständnis von AGI vertieft. Noch wichtiger ist, dass wir dadurch den Fokus auf das Praktische richten und nicht nur kurzfristige Erträge anstreben: Nutzer unterstützen, dem Land helfen und den globalen wissenschaftlichen Fortschritt fördern – das sind die langfristigen Ziele von Zhipu.


2020 führten wir unsere eigene Modellarchitektur GLM ein und begannen, ein Basismodell mit 10 Milliarden Parametern zu trainieren. Das Modell war erfolgreich und wurde von vielen Unternehmen, darunter Meituan, getestet – ein kühner Versuch, denn damals dominierten noch kleine BERT-Modelle. Dennoch war dieser Erfolg noch weit von unserer AGI-Vision entfernt. Teilweise lag das an der noch zu geringen Wissensbasis, zum anderen daran, dass das Modell noch nicht wie ein Mensch schlussfolgern konnte.


Von 2021 bis 2022 verlief die Entwicklung großer Modelle nicht reibungslos. Die meisten glaubten nicht an die „Maschinen denken wie Menschen“-Vision – das schien eine verrückte Mondlandungsmission zu sein. Viele sahen darin keine große technologische Chance oder fürchteten das Scheitern. Wir entschieden uns trotzdem für eine Wette und trainierten mit noch mehr Daten ein Modell mit 130 Milliarden Parametern.


Diese Entscheidung war schwierig, da sie das Gesamtentwicklungstempo des Unternehmens nicht beeinträchtigen durfte. Daher gründeten wir zwei spezialisierte kleine Innovationsteams – eines für das Modelltraining (die späteren „GLM Drei Musketiere“), das andere für den Aufbau einer MaaS-Plattform. Damals wussten die beiden Teams womöglich nichts voneinander. Mitte 2022 war das Training von GLM-130B abgeschlossen. Viele der feinen Designs erregten weltweite Aufmerksamkeit. Gleichzeitig ging die MaaS-Plattform online (jetzt bigmodel.cn) und gewann die ersten echten API-Nutzer. Später gründeten wir offiziell das AI-Institut für die Entwicklung der nächsten Modellgeneration und die MaaS-Plattform-Abteilung für den externen API-Service. Manchmal muss man Menschen mit genügend großen Träumen finden (und gezielt mehr Energie investieren, um solche Leute zu finden) – ein kühnes Ziel entscheidet vielleicht schon zur Hälfte über den Erfolg.


2023 sprach ich mit einem der führenden chinesischen Gründer (eigentlich ist er viel jünger als ich) über die möglichen Veränderungen durch AI. Wir waren uns einig, dass AI Suche und Browser umkrempeln und jedem einen neuen AI-Assistenten bringen wird. Vielleicht braucht man dann keinen App-Store mehr, sondern einen „API-Store“ für AI. Dessen grundlegende Logik könnte bestehende Betriebssysteme revolutionieren. Vielleicht wird die noch größere Revolution der Computer selbst sein, weil wir dann Computer nicht mehr für Menschen, sondern für AI brauchen.


Die Bedeutung dieser Veränderung ist immens. Sie wird die grundlegende Logik von Computern komplett neu gestalten und die seit 80 Jahren bestehende Grundlage der Computertechnik – die Von-Neumann-Architektur – in Frage stellen. Als wir darüber sprachen, dachten wir beide, dass wir für AI noch nicht genug „All-in“ sind.


Die Realität ist hart: All-in erfordert nicht nur Überzeugung, sondern auch starke finanzielle und personelle Unterstützung sowie präzise Voraussicht. 2023 bis 2024 waren die Durchbruchjahre der großen Modelle weltweit. Große Unternehmen gingen „All-in“, in China entstand ein Gründungsboom. Hunderte von Modellen und AI-Assistenten schossen aus dem Boden.


Damals haben wir vielleicht auch Fehler gemacht – technische wie kommerzielle. Im Rückblick lag es wohl daran, dass wir uns auf dem Weg zur AGI manchmal von kurzfristigen Erträgen und Hypes ablenken ließen. AGI ist eine technologische Revolution – Technologie ist demokratisch, offen, transparent und muss allen zugutekommen.


Das Auftreten von DeepSeek war ein Weckruf für uns. Wenfeng sprach bei seiner Gründung 2023 mit mir. Damals wusste ich nicht, wie sehr er sich für AGI engagierte. Ich danke ihm für viele neue Anregungen. Die Hingabe an AGI, das Streben nach dem oberen Limit von AGI und die präzise Prognose der Zukunft sind für Zhipu die nächsten Felder für Verbesserung. Diese Jahre haben uns viel gelehrt – noch wichtiger: Sie haben unser Verständnis von AGI, Unternehmensführung und Wettbewerbsfähigkeit durch „Reinforcement Learning“ gestärkt.


Im vergangenen Jahr haben wir in gewisser Weise ein systematisches „Reinforcement“ durchgeführt. Wir riefen die Slogans „Willensstärke“ und „Erfolg“ aus, forderten Beständigkeit und Besonnenheit – jeder soll die Aufgabe in seiner Hand meistern und sich selbst verwirklichen.


Zu Jahresbeginn war alles sehr schwierig. Die Modellergebnisse entsprachen nicht den Erwartungen, landesweit tobte ein Preiskampf – ein präziser Durchbruch war nötig, um sich zu behaupten.


Wir hielten durch und fanden schließlich mit Coding den entscheidenden Durchbruch.


Wenn die Veröffentlichung von GLM-4.1 im April ein symbolischer Testballon war, dann war die Veröffentlichung von GLM-4.5 Ende Juli eine wahre Entscheidungsschlacht. Alle Technik-, Plattform- und Geschäftsteams arbeiteten Tag und Nacht. Am Ende errangen wir einen lange ersehnten Sieg, gefolgt von GLM-4.6 und GLM-4.7, die uns bei den Modellfähigkeiten auf Augenhöhe mit internationalen Topmodellen brachten. Unser GLM-4.7 erzielte in Bewertungen wie AA und Arena SOTA bei Open-Source- und chinesischen Modellen. Auch das Nutzererlebnis bei Coding- und Agent-Anwendungen war exzellent. 150.000 Entwickler aus 184 Ländern nutzten den GLM Coding Plan. Nach dem Release von GLM-4.7 überschritt das annualisierte ARR der MaaS-Plattform 500 Millionen Yuan (davon über 200 Millionen aus dem Ausland). Das Wachstum von 20 auf 500 Millionen (25-fach) gelang in nur zehn Monaten.


Insgesamt haben wir auf Modellebene die zu Jahresbeginn gesetzte Strategie erfüllt: Im April ein Modell zur Konsolidierung, zur Jahresmitte ein Topmodell (one of the best), zum Jahresende ein Top-1-Modell. Das ist ein wichtiger Grundstein für den weiteren Aufstieg zur technologischen Spitze der AGI.


Auch unsere „souveräne AI“ macht große Fortschritte: Die nationale MaaS-Plattform Malaysias wurde auf Basis des Open-Source-Modells Z.ai entwickelt, und GLM wurde das nationale Modell Malaysias. Die Internationalisierung der souveränen AI wurde nach dem Gespräch mit dem Generalsekretär durch dessen Aufruf „Chinesische AI muss ins Ausland gehen“ inspiriert. Ehrlich gesagt wusste ich nicht, wie das gehen sollte. Aber unser internationales Team war kämpferisch und hat einen Meilenstein für die Internationalisierung chinesischer großer Modelle gesetzt. Im Geschäftsfeld haben wir es erneut geschafft, das Umsatzziel des Jahres zu verdoppeln.


Inmitten all dieser Schwierigkeiten und Chancen sind wir heute in einer beinahe unmöglichen Position zur weltweit ersten Aktie für große Modelle geworden. Das zeigt die Anerkennung unseres technischen und geschäftlichen Werts durch den Markt. „Make impossible possible“ – erinnern Sie sich, dass wir das einmal gesagt haben?


In diesem Jahr haben sich vielleicht nicht Zhipu, sondern eine Gruppe junger Leute an vorderster Front am meisten verwandelt. Sie haben viele scheinbar unmögliche Dinge tatsächlich geschafft.


2026 ist das Ziel des Unternehmens, ein führendes internationales Unternehmen für große Modelle zu werden. Im vergangenen Jahr diskutierten viele über Anwendungen und Ökosysteme großer Modelle.


Was die nächste Phase wirklich bestimmt, sind immer noch zwei grundlegende Faktoren – Modellarchitektur und Lernparadigma. Gleichzeitig könnte sich auf der Anwendungsseite eine klare Richtung abzeichnen: Das Jahr des explosionsartigen Durchbruchs von AI bei der Substitution verschiedener Berufsfelder/Aufgaben.


Auf dieser Grundlage werden wir uns 2026 auf Folgendes konzentrieren:


  • GLM-5. Bald wird GLM-5 veröffentlicht. Durch weiteres Scaling und viele neue technologische Verbesserungen wird GLM-5 viele neue Erfahrungen bringen und AI dabei helfen, noch mehr reale Aufgaben zu bewältigen.

  • Völlig neues Modellarchitektur-Design. Die seit fast zehn Jahren weit verbreitete Transformer-Architektur zeigt inzwischen einige Schwächen, wie etwa hohe Rechenkosten bei sehr langen Kontexten, Gedächtnis- und Aktualisierungsmechanismen. All das erfordert die Erforschung neuer Modellarchitekturen, das Entdecken neuer Scaling-Paradigmen und die Steigerung der Recheneffizienz durch Chip-Algorithmus-Kollaboration.

  • RL mit stärkerer Generalisierungsfähigkeit. Das derzeit verbreitete RLVR-Paradigma war zwar in Mathematik und Code erfolgreich, aber die Abhängigkeit von künstlich konstruierten, überprüfbaren Umgebungen wird immer deutlicher. Dieses Jahr müssen wir ein allgemeineres RL-Paradigma erforschen, damit AI nicht nur unter menschlichen Anweisungen spezifische Aufgaben löst, sondern auch Langzeitaufgaben von Stunden oder sogar Tagen verstehen und ausführen kann.

  • Die größte Herausforderung ist die Eröffnung des Wegs zu kontinuierlichem Lernen und autonomer Evolution. Die Intelligenz aller aktuellen AI-Modelle ist nach der Bereitstellung grundsätzlich statisch. Sie erwerben Wissen in einem einmaligen, kostenintensiven Trainingsprozess und veralten dann allmählich. Das unterscheidet sich grundlegend vom menschlichen Gehirn, das durch ständige Interaktion mit der Welt lernt und sich weiterentwickelt. Wir müssen vorausschauend das nächste Lernparadigma – Online-Lernen oder kontinuierliches Lernen – angehen.


Wir sind kein traditionelles Unternehmen und wollen auch keines werden. Wir möchten ein AI-natives Unternehmen sein, in dem alles möglich ist: Wir entwickeln kontinuierlich bessere Modelle der nächsten Generation und schaffen AI-zentrierte Produkte und Dienstleistungen für die Nutzer. Wir wollen AI zum besten Helfer für alle machen und damit Aufgaben erledigen. Wir glauben außerdem, dass AI zur Unternehmensführung beitragen sollte – für Effizienz und mehr Fairness.


Mit der Zeit gewöhnen sich Unternehmen oft an Routinen und schrittweise Verbesserungen, was die Innovationskraft einschränkt. Doch im AI-Zeitalter ist alles disruptiv. Wir brauchen ein bisschen „Unbehagen“, um innovativ zu bleiben und revolutionäre Ideen für das nächste große Wachstumsfeld zu entwickeln.


Deshalb haben wir intern bei Zhipu eine neue Abteilung, das X-Lab, gegründet. Sie soll mit offenen Strukturen mehr junge Leute für Pionierforschung gewinnen, darunter neue Modellarchitekturen, neue kognitive Paradigmen und die Inkubation neuer Projekte – nicht nur im Software- oder Hardwarebereich. Gleichzeitig werden wir auch externe Investitionen ausweiten, nicht nur durch strategische Allianzen mit bestehenden Beteiligungen, sondern auch durch die Erschließung neuer Bereiche, um die Branche und das Ökosystem gemeinsam zu stärken. Im X-Lab ist es die Mission jedes Einzelnen, völlig disruptive Innovationen zu schaffen, die letztlich zur AGI-Hauptlinie zurückkehren.


Heute ist ein aufregender Tag im Leben von Zhipu, ein wichtiger Meilenstein in unserer Geschichte und der Beginn einer neuen Ära. Ich mag die Marke Z.ai sehr – Z ist der letzte Buchstabe des Alphabets und steht für das ultimative Ziel. Wir hoffen, im Streben nach AGI das ultimative Ziel der Intelligenz zu erreichen – das ist unser Ziel. Wir sind sehr begeistert:


- Wir haben ein ambitioniertes, weltveränderndes Vorhaben

- Wir denken langfristig und in die Zukunft

- Wir sind fokussierter und erforschen das Wesen von AGI

- Wir ermöglichen mit AI das Wachstum großartiger Unternehmer und Unternehmen

- Wir nutzen präzisere Prognosen, um Unternehmenschancen zu ergreifen

- Am Ende hoffen wir, dass wir der Menschheit eine andere AI bringen und das Wohlergehen der Menschheit konkret fördern können.


Dies ist ein unvergleichlich glücklicher Moment – dieses Glück ist kein kurzfristiges Dopamin, sondern die durch die AGI-Forschung angesammelte Endorphinausschüttung. Sie macht uns konzentrierter, bodenständiger und lässt uns beständig voranschreiten!


Tang Jie

2026.1.8

Titelbildquelle: „Dune 2“

- FIN -

LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 3 LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 4 LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 5 LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 6 LatePost Exklusiv | Zhipu geht an die Börse, interne Mitteilung von Tang Jie fordert vollständige Rückkehr zur Grundlagenforschung an Basismodellen image 7

0
0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!
© 2025 Bitget