Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Aprovechar el mundo on-chain sin esfuerzo
Convert y trade en bloque
Convierte cripto con un solo clic y sin comisiones
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copiar
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
Legisladores del Reino Unido advierten: Las promesas de seguridad en IA se están convirtiendo en pura fachada

Legisladores del Reino Unido advierten: Las promesas de seguridad en IA se están convirtiendo en pura fachada

ainvest2025/08/29 17:52
Mostrar el original
Por:Coin World

- 60 legisladores británicos acusan a Google DeepMind de incumplir sus compromisos de seguridad en inteligencia artificial al retrasar la publicación de informes detallados de seguridad para Gemini 2.5 Pro. - La empresa publicó una ficha técnica simplificada tres semanas después del lanzamiento, careciendo de transparencia sobre pruebas de terceros y la participación de organismos gubernamentales. - Google afirma que cumplió con sus compromisos al publicar un informe técnico meses después, pero los críticos sostienen que esto mina la confianza en los protocolos de seguridad. - Problemas similares en Meta y OpenAI resaltan preocupaciones a nivel de toda la industria sobre la opacidad.

Un grupo de 60 legisladores del Reino Unido firmó una carta abierta acusando a Google DeepMind de no cumplir con sus compromisos de seguridad en IA, especialmente en relación con el retraso en la publicación de información detallada sobre la seguridad de su modelo Gemini 2.5 Pro [1]. La carta, publicada por el grupo activista político PauseAI, critica a la empresa por no proporcionar una “model card” completa al momento del lanzamiento del modelo, un documento clave que detalla cómo fue probado y construido el modelo [1]. Según argumentan, este incumplimiento constituye una violación de los Frontier AI Safety Commitments asumidos en una cumbre internacional en febrero de 2024, donde los firmantes —incluido Google— se comprometieron a informar públicamente sobre las capacidades de los modelos, evaluaciones de riesgos y la participación de evaluadores externos [1].

Google lanzó Gemini 2.5 Pro en marzo de 2025, pero no publicó una “model card” completa en ese momento, a pesar de afirmar que el modelo superaba a sus competidores en los principales benchmarks [1]. En su lugar, tres semanas después se publicó una “model card” simplificada de seis páginas, que algunos expertos en gobernanza de IA calificaron como insuficiente y preocupante [1]. La carta destaca que el documento carecía de detalles sustanciales sobre evaluaciones externas y no confirmaba si agencias gubernamentales, como el U.K. AI Security Institute, participaron en las pruebas [1]. Estas omisiones generan preocupaciones sobre la transparencia de las prácticas de seguridad de la empresa.

En respuesta a las críticas, un vocero de Google DeepMind declaró previamente a Fortune que cualquier sugerencia de que la empresa incumplió sus compromisos era “inexacta” [1]. La empresa también afirmó en mayo que se publicaría un informe técnico más detallado cuando estuviera disponible la versión final de la familia de modelos Gemini 2.5 Pro. Finalmente, un informe más completo fue publicado a fines de junio, varios meses después de que la versión completa estuviera disponible [1]. El vocero reiteró que la empresa está cumpliendo con sus compromisos públicos, incluidos los Seoul Frontier AI Safety Commitments, y que Gemini 2.5 Pro fue sometido a rigurosos controles de seguridad, incluidas evaluaciones por parte de terceros independientes [1].

La carta también señala que la ausencia de la “model card” para Gemini 2.5 Pro parecía contradecir otros compromisos asumidos por Google, como los White House Commitments de 2023 y un Código de Conducta voluntario sobre Inteligencia Artificial firmado en octubre de 2023 [1]. La situación no es exclusiva de Google. Meta enfrentó críticas similares por su “model card” mínima y limitada para el modelo Llama 4, mientras que OpenAI optó por no publicar un informe de seguridad para su modelo GPT-4.1, citando que no era un modelo de frontera [1]. Estos hechos sugieren una tendencia más amplia en la industria, donde las divulgaciones sobre seguridad son cada vez menos transparentes o directamente omitidas.

La carta insta a Google a reafirmar sus compromisos de seguridad en IA definiendo claramente el despliegue como el momento en que un modelo se vuelve accesible al público, comprometiéndose a publicar informes de evaluación de seguridad en un plazo establecido para todos los lanzamientos futuros de modelos, y brindando total transparencia en cada lanzamiento al nombrar las agencias gubernamentales y terceros independientes involucrados en las pruebas, junto con los plazos exactos de las mismas [1]. Lord Browne of Ladyton, firmante de la carta y miembro de la Cámara de los Lores, advirtió que si las principales empresas de IA tratan los compromisos de seguridad como opcionales, podría desencadenarse una peligrosa carrera por desplegar sistemas de IA cada vez más potentes sin las salvaguardas adecuadas [1].

Fuente:

Legisladores del Reino Unido advierten: Las promesas de seguridad en IA se están convirtiendo en pura fachada image 0
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!

También te puede gustar

Los accionistas de Asset Entities aprueban la fusión con Strive de Ramaswamy para crear una empresa de tesorería de bitcoin

La empresa combinada pasará a llamarse Strive, Inc. y continuará cotizando en Nasdaq bajo el símbolo ASST. Las acciones de ASST cerraron la sesión del martes con una suba del 17% y aumentaron otro 35% en las operaciones posteriores al cierre tras la noticia de la aprobación de la fusión.

The Block2025/09/10 21:57
Los accionistas de Asset Entities aprueban la fusión con Strive de Ramaswamy para crear una empresa de tesorería de bitcoin

POP Culture Group compra 33 millones de dólares en Bitcoin y planea expandirse hacia tenencias de tesorería cripto relacionadas con el entretenimiento

Quick Take POP Culture Group (ticker CPOP) compró sus primeros 300 BTC, por un valor aproximado de 33 millones de dólares. La empresa planea construir un “fondo diversificado de criptomonedas” que incluirá otros activos de alto crecimiento y tokens relacionados con “la industria pan-entretenimiento de Web3”.

The Block2025/09/10 21:57
POP Culture Group compra 33 millones de dólares en Bitcoin y planea expandirse hacia tenencias de tesorería cripto relacionadas con el entretenimiento

WSPN habla sobre la "Stablecoin 2.0": ¿Podrá iniciar una nueva era en el mercado de las stablecoins?

Todos los esfuerzos apuntan finalmente a un objetivo central: maximizar el valor de la experiencia del usuario.

ChainFeeds2025/09/10 21:23
WSPN habla sobre la "Stablecoin 2.0": ¿Podrá iniciar una nueva era en el mercado de las stablecoins?