Legisladores del Reino Unido advierten: Las promesas de seguridad en IA se están convirtiendo en pura fachada
- 60 legisladores británicos acusan a Google DeepMind de incumplir sus compromisos de seguridad en inteligencia artificial al retrasar la publicación de informes detallados de seguridad para Gemini 2.5 Pro. - La empresa publicó una ficha técnica simplificada tres semanas después del lanzamiento, careciendo de transparencia sobre pruebas de terceros y la participación de organismos gubernamentales. - Google afirma que cumplió con sus compromisos al publicar un informe técnico meses después, pero los críticos sostienen que esto mina la confianza en los protocolos de seguridad. - Problemas similares en Meta y OpenAI resaltan preocupaciones a nivel de toda la industria sobre la opacidad.
Un grupo de 60 legisladores del Reino Unido firmó una carta abierta acusando a Google DeepMind de no cumplir con sus compromisos de seguridad en IA, especialmente en relación con el retraso en la publicación de información detallada sobre la seguridad de su modelo Gemini 2.5 Pro [1]. La carta, publicada por el grupo activista político PauseAI, critica a la empresa por no proporcionar una “model card” completa al momento del lanzamiento del modelo, un documento clave que detalla cómo fue probado y construido el modelo [1]. Según argumentan, este incumplimiento constituye una violación de los Frontier AI Safety Commitments asumidos en una cumbre internacional en febrero de 2024, donde los firmantes —incluido Google— se comprometieron a informar públicamente sobre las capacidades de los modelos, evaluaciones de riesgos y la participación de evaluadores externos [1].
Google lanzó Gemini 2.5 Pro en marzo de 2025, pero no publicó una “model card” completa en ese momento, a pesar de afirmar que el modelo superaba a sus competidores en los principales benchmarks [1]. En su lugar, tres semanas después se publicó una “model card” simplificada de seis páginas, que algunos expertos en gobernanza de IA calificaron como insuficiente y preocupante [1]. La carta destaca que el documento carecía de detalles sustanciales sobre evaluaciones externas y no confirmaba si agencias gubernamentales, como el U.K. AI Security Institute, participaron en las pruebas [1]. Estas omisiones generan preocupaciones sobre la transparencia de las prácticas de seguridad de la empresa.
En respuesta a las críticas, un vocero de Google DeepMind declaró previamente a Fortune que cualquier sugerencia de que la empresa incumplió sus compromisos era “inexacta” [1]. La empresa también afirmó en mayo que se publicaría un informe técnico más detallado cuando estuviera disponible la versión final de la familia de modelos Gemini 2.5 Pro. Finalmente, un informe más completo fue publicado a fines de junio, varios meses después de que la versión completa estuviera disponible [1]. El vocero reiteró que la empresa está cumpliendo con sus compromisos públicos, incluidos los Seoul Frontier AI Safety Commitments, y que Gemini 2.5 Pro fue sometido a rigurosos controles de seguridad, incluidas evaluaciones por parte de terceros independientes [1].
La carta también señala que la ausencia de la “model card” para Gemini 2.5 Pro parecía contradecir otros compromisos asumidos por Google, como los White House Commitments de 2023 y un Código de Conducta voluntario sobre Inteligencia Artificial firmado en octubre de 2023 [1]. La situación no es exclusiva de Google. Meta enfrentó críticas similares por su “model card” mínima y limitada para el modelo Llama 4, mientras que OpenAI optó por no publicar un informe de seguridad para su modelo GPT-4.1, citando que no era un modelo de frontera [1]. Estos hechos sugieren una tendencia más amplia en la industria, donde las divulgaciones sobre seguridad son cada vez menos transparentes o directamente omitidas.
La carta insta a Google a reafirmar sus compromisos de seguridad en IA definiendo claramente el despliegue como el momento en que un modelo se vuelve accesible al público, comprometiéndose a publicar informes de evaluación de seguridad en un plazo establecido para todos los lanzamientos futuros de modelos, y brindando total transparencia en cada lanzamiento al nombrar las agencias gubernamentales y terceros independientes involucrados en las pruebas, junto con los plazos exactos de las mismas [1]. Lord Browne of Ladyton, firmante de la carta y miembro de la Cámara de los Lores, advirtió que si las principales empresas de IA tratan los compromisos de seguridad como opcionales, podría desencadenarse una peligrosa carrera por desplegar sistemas de IA cada vez más potentes sin las salvaguardas adecuadas [1].
Fuente:

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Los accionistas de Asset Entities aprueban la fusión con Strive de Ramaswamy para crear una empresa de tesorería de bitcoin
La empresa combinada pasará a llamarse Strive, Inc. y continuará cotizando en Nasdaq bajo el símbolo ASST. Las acciones de ASST cerraron la sesión del martes con una suba del 17% y aumentaron otro 35% en las operaciones posteriores al cierre tras la noticia de la aprobación de la fusión.

POP Culture Group compra 33 millones de dólares en Bitcoin y planea expandirse hacia tenencias de tesorería cripto relacionadas con el entretenimiento
Quick Take POP Culture Group (ticker CPOP) compró sus primeros 300 BTC, por un valor aproximado de 33 millones de dólares. La empresa planea construir un “fondo diversificado de criptomonedas” que incluirá otros activos de alto crecimiento y tokens relacionados con “la industria pan-entretenimiento de Web3”.

Más de 460 millones de dólares ingresan a los Ethereum ETF: impacto en ETH y perspectivas de precio
WSPN habla sobre la "Stablecoin 2.0": ¿Podrá iniciar una nueva era en el mercado de las stablecoins?
Todos los esfuerzos apuntan finalmente a un objetivo central: maximizar el valor de la experiencia del usuario.

En tendencia
MásPrecios de las criptos
Más








