OpenAI und Anthropic testen gegenseitig Modelle auf Halluzinationen und Sicherheitsprobleme
Jinse Finance berichtet, dass OpenAI und Anthropic kürzlich gegenseitig die Modelle des jeweils anderen evaluiert haben, um mögliche Probleme zu identifizieren, die in den eigenen Tests übersehen wurden. Beide Unternehmen erklärten am Mittwoch in ihren jeweiligen Blogs, dass sie in diesem Sommer Sicherheitsprüfungen an den öffentlich verfügbaren AI-Modellen des jeweils anderen durchgeführt und untersucht haben, ob die Modelle zu Halluzinationen neigen oder sogenannte „Misalignment“-Probleme aufweisen, also nicht wie von den Entwicklern beabsichtigt funktionieren. Diese Bewertungen wurden abgeschlossen, bevor OpenAI GPT-5 veröffentlichte und Anthropic Anfang August Opus 4.1 herausbrachte. Anthropic wurde von ehemaligen OpenAI-Mitarbeitern gegründet.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Der US-Dollar-Index steigt leicht auf 98,233, während der Euro gegenüber dem US-Dollar leicht fällt.
Die öffentliche Beta-Version von Jupiter Lend ist jetzt online.
Im Trend
MehrKrypto-Preise
Mehr








