Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnWeb3PlazaMehr
Traden
Spot
Krypto kaufen und verkaufen
Margin
Kapital verstärken und Fondseffizienz maximieren
Onchain
Onchain gehen, ohne auf Blockchain zuzugreifen
Convert & Block-Trade
Mit einem Klick und ganz ohne Gebühren Krypto tauschen.
Erkunden
Launchhub
Verschaffen Sie sich frühzeitig einen Vorteil und beginnen Sie zu gewinnen
Kopieren
Elite-Trader mit einem Klick kopieren
Bots
Einfacher, schneller und zuverlässiger KI-Trading-Bot
Traden
USDT-M Futures
Futures abgewickelt in USDT
USDC-M-Futures
Futures abgewickelt in USDC
Coin-M Futures
Futures abgewickelt in Kryptos
Erkunden
Futures-Leitfaden
Eine Reise ins Futures-Trading vom Anfänger bis Fortgeschrittenen
Futures-Aktionen
Großzügige Prämien erwarten Sie
Übersicht
Eine Vielzahl von Produkten zur Vermehrung Ihrer Assets
Simple Earn
Jederzeit ein- und auszahlen, um flexible Renditen ohne Risiko zu erzielen.
On-Chain Earn
Erzielen Sie täglich Gewinne, ohne Ihr Kapital zu riskieren
Strukturiert verdienen
Robuste Finanzinnovationen zur Bewältigung von Marktschwankungen
VIP & Wealth Management
Premium-Services für intelligente Vermögensverwaltung
Kredite
Flexible Kreditaufnahme mit hoher Vermögenssicherheit
Britische Gesetzgeber warnen: KI-Sicherheitsversprechen werden zur bloßen Augenwischerei

Britische Gesetzgeber warnen: KI-Sicherheitsversprechen werden zur bloßen Augenwischerei

ainvest2025/08/29 17:52
Original anzeigen
Von:Coin World

- 60 britische Abgeordnete beschuldigen Google DeepMind, gegen KI-Sicherheitszusagen verstoßen zu haben, indem detaillierte Sicherheitsberichte für Gemini 2.5 Pro verzögert wurden. - Das Unternehmen veröffentlichte drei Wochen nach dem Start eine vereinfachte Modellkarte, die keine Transparenz hinsichtlich Tests durch Dritte und der Beteiligung von Regierungsbehörden bietet. - Google behauptet, seine Zusagen durch die Veröffentlichung eines technischen Berichts Monate später eingehalten zu haben, doch Kritiker argumentieren, dass dies das Vertrauen in die Sicherheitsprotokolle untergräbt. - Ähnliche Probleme bei Meta und OpenAI verdeutlichen branchenweite Bedenken hinsichtlich der Transparenz.

Eine Gruppe von 60 britischen Abgeordneten hat einen offenen Brief unterzeichnet, in dem sie Google DeepMind beschuldigt, seine Verpflichtungen zur KI-Sicherheit nicht einzuhalten, insbesondere im Hinblick auf die verzögerte Veröffentlichung detaillierter Sicherheitsinformationen für das Gemini 2.5 Pro-Modell [1]. Der Brief, veröffentlicht von der politischen Aktivistengruppe PauseAI, kritisiert das Unternehmen dafür, dass es zum Zeitpunkt der Veröffentlichung des Modells keine umfassende Model Card bereitgestellt hat – ein zentrales Dokument, das beschreibt, wie das Modell getestet und entwickelt wurde [1]. Dieses Versäumnis stelle, so die Unterzeichner, einen Verstoß gegen die Frontier AI Safety Commitments dar, die auf einem internationalen Gipfel im Februar 2024 eingegangen wurden. Zu den Unterzeichnern gehörte auch Google, das sich verpflichtete, öffentlich über Modellfähigkeiten, Risikobewertungen und die Beteiligung Dritter an Tests zu berichten [1].

Google veröffentlichte Gemini 2.5 Pro im März 2025, stellte jedoch zu diesem Zeitpunkt keine vollständige Model Card zur Verfügung, obwohl behauptet wurde, das Modell übertreffe die Konkurrenz bei wichtigen Benchmarks [1]. Stattdessen wurde drei Wochen später eine vereinfachte Model Card mit sechs Seiten veröffentlicht, die von einigen Experten für KI-Governance als unzureichend und besorgniserregend bezeichnet wurde [1]. Der Brief hebt hervor, dass das Dokument keine wesentlichen Details zu externen Bewertungen enthielt und nicht bestätigte, ob Regierungsbehörden wie das U.K. AI Security Institute an den Tests beteiligt waren [1]. Diese Auslassungen werfen Bedenken hinsichtlich der Transparenz der Sicherheitspraktiken des Unternehmens auf.

Als Reaktion auf die Kritik erklärte ein Google DeepMind-Sprecher zuvor gegenüber Fortune, dass jeder Hinweis darauf, das Unternehmen würde seine Verpflichtungen nicht einhalten, "unzutreffend" sei [1]. Das Unternehmen erklärte außerdem im Mai, dass ein detaillierterer technischer Bericht veröffentlicht werde, sobald die endgültige Version der Gemini 2.5 Pro-Modellfamilie verfügbar sei. Ein umfassenderer Bericht wurde schließlich Ende Juni veröffentlicht, Monate nachdem die vollständige Version verfügbar war [1]. Der Sprecher bekräftigte, dass das Unternehmen seine öffentlichen Verpflichtungen, einschließlich der Seoul Frontier AI Safety Commitments, erfülle und dass Gemini 2.5 Pro strengen Sicherheitsprüfungen unterzogen worden sei, einschließlich Bewertungen durch unabhängige Dritte [1].

Der Brief weist außerdem darauf hin, dass die fehlende Model Card für Gemini 2.5 Pro anderen Zusagen von Google zu widersprechen scheint, wie den White House Commitments von 2023 und einem freiwilligen Code of Conduct on Artificial Intelligence, der im Oktober 2023 unterzeichnet wurde [1]. Die Situation ist nicht einzigartig für Google. Auch Meta wurde für seine minimale und eingeschränkte Model Card für das Llama 4-Modell kritisiert, während OpenAI sich entschied, keinen Sicherheitsbericht für sein GPT-4.1-Modell zu veröffentlichen, da es nicht als Frontier-Modell eingestuft wurde [1]. Diese Entwicklungen deuten auf einen breiteren Trend in der Branche hin, bei dem Sicherheitsangaben weniger transparent gemacht oder ganz weggelassen werden.

Der Brief fordert Google auf, seine Verpflichtungen zur KI-Sicherheit zu bekräftigen, indem der Zeitpunkt der Bereitstellung klar als der Moment definiert wird, in dem ein Modell öffentlich zugänglich wird, und indem zugesichert wird, Sicherheitsbewertungsberichte für alle zukünftigen Modellveröffentlichungen nach einem festen Zeitplan zu veröffentlichen. Zudem wird volle Transparenz für jede Veröffentlichung gefordert, einschließlich der Nennung der beteiligten Regierungsbehörden und unabhängigen Dritten sowie der genauen Testzeiträume [1]. Lord Browne of Ladyton, ein Unterzeichner des Briefes und Mitglied des House of Lords, warnte, dass es zu einem gefährlichen Wettlauf um die Einführung immer leistungsfähigerer KI-Systeme ohne angemessene Schutzmaßnahmen kommen könnte, wenn führende KI-Unternehmen Sicherheitsverpflichtungen als optional betrachten [1].

Quelle:

Britische Gesetzgeber warnen: KI-Sicherheitsversprechen werden zur bloßen Augenwischerei image 0
0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!

Das könnte Ihnen auch gefallen

AiCoin Tagesbericht (05. September)

AICoin2025/09/05 23:57

Am Vorabend eines 5-Billionen-Marktes: Wo liegen die Investitionsmöglichkeiten von Embodied Intelligence × Web3?

Embodied Intelligence x Web3, strukturierte Lösungsansätze treiben investierbare Chancen voran.

深潮2025/09/05 23:45
Am Vorabend eines 5-Billionen-Marktes: Wo liegen die Investitionsmöglichkeiten von Embodied Intelligence × Web3?

40 Millionen Finanzierung, Vitalik beteiligt sich, Etherealize möchte als „Sprachrohr“ für Ethereum agieren

Das Ziel, das traditionelle Finanzwesen mit Ethereum zu revolutionieren, muss nicht unbedingt durch DeFi erreicht werden.

深潮2025/09/05 23:41
40 Millionen Finanzierung, Vitalik beteiligt sich, Etherealize möchte als „Sprachrohr“ für Ethereum agieren