La empresa de inteligencia artificial de Elon Musk, xAI, renunció oficialmente a su estatus de corporación de beneficio público en Nevada sin anunciar la medida, a pesar de que originalmente toda la empresa se construyó en torno a esa etiqueta.
Los documentos presentados en Nevada confirmaron que, para el 9 de mayo de 2024, xAI ya no era una PBC. La compañía también se fusionó con X (anteriormente Twitter) el 28 de marzo, y la documentación actualizada no restableció la designación de beneficio. Esto ocurrió mientras Elon aún estaba en los tribunales demandando a OpenAI y Sam Altman, acusándolos de traicionar su misión original sin fines de lucro.
La etiqueta PBC, con la que xAI comenzó en 2023, implicaba que Elon había prometido públicamente priorizar el bien social junto con las ganancias y publicar actualizaciones periódicas sobre el progreso no financiero de la compañía. Ninguna de estas actualizaciones se publicó.
Entonces la etiqueta desapareció. Y ni siquiera el abogado de Elon parecía enterarse. Marc Toberoff, su abogado en la demanda contra OpenAI, presentó un documento judicial en mayo de 2025 en el que seguía llamando a xAI "una corporación de beneficio público fundada por Musk para ayudar a acelerar la investigación científica mediante IA". Eso ocurrió meses después de que Nevada ya hubiera eliminado la designación de PBC.
xAI ignora las normas de contaminación en el centro de datos de Memphis
Justo después de eliminar la etiqueta de corporación de beneficios, xAI puso en marcha turbinas de gas natural en su nuevo centro de datos en Memphis, Tennessee, donde entrena y opera el chatbot Grok. La empresa y su proveedor de energía, Solaris Energy Infrastructure, habían prometido instalar sistemas de control de contaminación en las turbinas. Esto aún no ha sucedido.
Un estudio de la Universidad de Tennessee en Knoxville reveló que las operaciones de xAI agravaron los problemas de calidad del aire existentes en la zona. La NAACP presentó una demanda acusando a xAI de infringir la Ley de Aire Limpio.
Los ejecutivos de Legal Advocates for Safe Science and Technology (LASST), la organización sin fines de lucro que extrajo los registros corporativos de xAI de Nevada, dijeron que la compañía usó la etiqueta de beneficio como marca y luego la descartó sin dar explicaciones.
Vivian Dong, directora de programación de LASST, dijo a CNBC: “Una vez que comienzas a canalizar miles de millones de dólares a una industria y sigues lo que es estrictamente un motivo de lucro, a veces los mejores ángeles pasan a un segundo plano”.
Tyler Whitmer, director ejecutivo de LASST, dijo que la organización quiere que las empresas de IA sean honestas sobre los riesgos de seguridad y cumplan sus promesas a los inversores, los usuarios y el público.
La profesora de derecho Michal Barzuza, de la Universidad de Virginia, declaró a la CNBC que ninguna empresa seriamente comprometida con la rendición de cuentas pública se establecería en Nevada, ya que las leyes estatales dificultan que los accionistas demanden a ejecutivos o directores. "Menos litigios, pero también significa menos o ninguna rendición de cuentas", afirmó.
Según la ley de Nevada, una PBC sigue siendo una empresa con fines de lucro, pero legalmente puede considerar objetivos sociales más amplios. Aun con ese requisito tan bajo, xAI no presentó ninguno de los informes sociales y ambientales anuales que se esperan de una PBC de Nevada.
El chatbot Grok propaga el odio mientras xAI retrasa la información de seguridad
Mientras el lío legal crecía, Grok seguía descontrolándose. El chatbot, desarrollado por xAI, está disponible como producto independiente y también está integrado en los sistemas de infoentretenimiento de X y Tesla.
En 2025, Grok publicó múltiples publicaciones falsas y ofensivas en X, incluyendo contenido antisemita, elogios a Hitler y teorías conspirativas como el "genocidio blanco" en Sudáfrica. También promovió argumentos negacionistas del cambio climático.
El 9 de julio, xAI lanzó Grok 4, una nueva versión del modelo del chatbot. Sin embargo, no se divulgó información pública sobre cómo se probó el modelo ni qué medidas de seguridad se implementaron para prevenir el abuso. xAI no dijo nada.
En comparación, competidores como OpenAI, Google DeepMind y Anthropic (que todavía opera como un PBC de Delaware) publicaron documentos que muestran qué controles de seguridad realizaron antes de implementar nuevos modelos.
Aunque esas empresas también han sido criticadas por no hacer lo suficiente, al menos dijeron algo. La empresa de Elon no lo hizo.
CNBC afirmó haber enviado reiteradas solicitudes a xAI en julio y agosto solicitando información sobre las pruebas de seguridad de Grok 4. xAI las ignoró. El 20 de agosto, casi dos meses después del de Grok 4 , xAI actualizó discretamente su "ficha de modelo" para incluir algunas líneas sobre seguridad y pruebas. Fue la primera y única vez que la compañía reconoció cualquier tipo de supervisión.
En mayo, OpenAI respondió a la presión de ex empleados y grupos cívicos al anunciar que su junta directiva sin fines de lucro mantendría el control de la empresa, incluso durante su transición a una PBC.
¿Quieres tu proyecto frente a las mentes de Crypto's Top? Lo presenta en nuestro próximo informe de la industria, donde los datos se encuentran con el impacto.