Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Aprovechar el mundo on-chain sin esfuerzo
Convert y trade en bloque
Convierte cripto con un solo clic y sin comisiones
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copiar
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
Cofundador de Ethereum advierte que la gobernanza liderada por IA podría ser explotada y pide supervisión en info-finanzas

Cofundador de Ethereum advierte que la gobernanza liderada por IA podría ser explotada y pide supervisión en info-finanzas

CoinotagCoinotag2025/09/15 02:38
Mostrar el original
Por:Jocelyn Blake

  • Vitalik Buterin advierte que la gobernanza liderada por IA puede ser manipulada mediante jailbreaks e integraciones de aplicaciones.

  • El investigador de seguridad Eito Miyamura demostró cómo las integraciones de aplicaciones pueden exponer datos privados a explotaciones de IA.

  • Se recomienda arquitecturas de info finance con modelos diversos y controles humanos aleatorios para reducir el riesgo sistémico.

Riesgo de gobernanza de la IA: Vitalik Buterin advierte que la gobernanza liderada por IA puede ser explotada—lee el análisis, la evidencia y las salvaguardas recomendadas. Descubrí qué deberían hacer los desarrolladores y los responsables de políticas a continuación.




¿Qué es el riesgo de gobernanza de la IA?

El riesgo de gobernanza de la IA es la amenaza de que sistemas autónomos de IA encargados de la toma de decisiones—especialmente la asignación de recursos—puedan ser manipulados para producir resultados dañinos. Vitalik Buterin enfatiza que sin controles en capas, los atacantes pueden usar prompts e integraciones para subvertir la lógica de decisión y redirigir fondos o datos.

¿Cómo pueden ser manipulados los sistemas de IA?

Los agentes de IA pueden ser engañados usando prompts de jailbreak incrustados en entradas cotidianas. El investigador de seguridad Eito Miyamura demostró una explotación donde una invitación de calendario o una integración de aplicación podría entregar un comando oculto que, una vez procesado por una IA, expone el contenido de correos electrónicos o archivos.

Estas explotaciones muestran que las integraciones de aplicaciones (ejemplos: Gmail, Notion, Google Calendar mencionados como contexto) amplían la superficie de ataque. Los atacantes pueden crear entradas que parecen benignas pero que cambian el comportamiento del modelo cuando se leen durante tareas rutinarias.

¿Por qué Vitalik Buterin se opone a la gobernanza de IA completamente autónoma?

Buterin argumenta que la gobernanza autónoma de IA amplifica el riesgo sistémico. Recomienda un enfoque de “info finance” donde múltiples modelos independientes compiten y son auditados por jurados humanos y controles automáticos aleatorios. Esta combinación está diseñada para revelar fallas del modelo rápidamente y mantener incentivos para el desarrollo honesto.

¿Cómo reducir el riesgo de gobernanza de la IA?

La mitigación práctica requiere defensas en capas:

  1. Limitar el alcance: restringir que los sistemas automatizados muevan fondos unilateralmente o tomen decisiones finales de gobernanza.
  2. Diversidad de modelos: desplegar múltiples modelos y comparar resultados para detectar anomalías.
  3. Supervisión humana: requerir revisión humana para decisiones de alto riesgo y mantener registros de auditoría.
  4. Filtrado de entradas: sanear y marcar entradas no confiables de aplicaciones y calendarios compartidos.
  5. Incentivos y auditorías: recompensar a auditores independientes y mantener programas de recompensas por errores.


¿Qué evidencia respalda estas preocupaciones?

Demostraciones reportadas por investigadores de seguridad han expuesto cómo las integraciones de aplicaciones pueden ser abusadas. Eito Miyamura (EdisonWatch) mostró un escenario donde una entrada de calendario aparentemente inocua podría desencadenar la exfiltración de datos una vez leída por una IA conversacional. Tales demostraciones subrayan vectores de ataque en el mundo real.

Comparación: Gobernanza de IA vs Info Finance Característica Gobernanza de IA (Autónoma) Info Finance (propuesta de Buterin)
Control de decisiones Solo IA IA asistida + revisión humana
Resiliencia a la manipulación Baja sin salvaguardas Mayor debido a la diversidad de modelos
Transparencia Resultados del modelo opacos Auditorías y controles aleatorios
Alineación de incentivos Riesgo de manipulación Incentivos para auditores y desarrolladores honestos

Preguntas frecuentes

¿Una IA realmente puede ser engañada o manipulada por prompts?

Sí. Las demostraciones han mostrado que prompts bien diseñados o comandos ocultos en las entradas pueden alterar el comportamiento de la IA. Las salvaguardas prácticas incluyen la sanitización de entradas, el uso de múltiples modelos y puntos de control humanos para prevenir manipulaciones maliciosas.

¿Deberían las DAOs entregar la gobernanza a la IA?

La evidencia actual sugiere que entregar el control completo a la IA es prematuro. Los diseños híbridos que requieren aprobación humana para acciones críticas reducen el riesgo catastrófico mientras aprovechan la IA para análisis y recomendaciones.


Puntos clave

  • El riesgo de gobernanza de la IA es real: Las demostraciones muestran que la IA puede ser manipulada mediante prompts e integraciones.
  • La supervisión humana es esencial: Requerir revisión humana y registros de auditoría para decisiones de alto impacto.
  • Info finance ofrece un camino más seguro: Múltiples modelos, controles aleatorios e incentivos pueden reducir la explotación.

Conclusión

La advertencia de Vitalik Buterin destaca que la IA en la gobernanza presenta peligros sistémicos significativos si se implementa sin salvaguardas. La evidencia de investigadores de seguridad muestra que existen explotaciones prácticas. Adoptar un modelo de info finance—combinando diversidad de modelos, auditorías continuas y supervisión humana obligatoria—ofrece un camino pragmático hacia adelante. Los responsables de políticas y desarrolladores deberían priorizar auditorías y estructuras de incentivos ahora.

Publicado: 15 de septiembre de 2025 | 02:50

Autor: Alexander Stefanov — Reportero en COINOTAG

Menciones de fuente (texto plano): Vitalik Buterin, Eito Miyamura, EdisonWatch, ChatGPT, Gmail, Notion, Google Calendar.

Por si te lo perdiste: Los ingresos de Tron impulsados por stablecoins pueden estar reforzando su dominio en el mercado
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!