Artículo de información

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

7 de agosto del 2025

En noviembre de 2023, Elon Musk presentó al mundo Grok, el chatbot generativo de su empresa xAI, integrado directamente en la red social X (antes Twitter). Lo que distinguía a Grok desde el inicio no era solo su acceso privilegiado a datos en tiempo real de X, sino su tono mordaz y provocador. A diferencia de ChatGPT o Gemini, Grok fue diseñado con un estilo irreverente, capaz de responder con sarcasmo, ironía y, en ocasiones, brutal franqueza. Esto atrajo a una audiencia que celebraba su postura anti woke, pero también encendió alarmas sobre los riesgos de una inteligencia artificial sin filtros, cuyo diseño parecía fomentar el caos dialógico más que la ayuda objetiva (Wired, 2025).

Con el paso de los meses, Grok fue ampliando sus capacidades. A mediados de 2024, se presentó Grok 2 con nuevas funciones multimodales y generación de imágenes. Posteriormente, Grok 3 incorporó la herramienta DeepSearch, que permitía extraer y analizar datos públicos de forma inmediata. Pero el verdadero salto llegó en julio de 2025, con Grok 4: una versión con razonamiento de nivel doctoral, voz emocional, y la capacidad de generar videos desde texto gracias a Grok Imagine. Esta última herramienta fue vista como el primer paso hacia un ecosistema completo de contenido audiovisual autónomo. Sin embargo, los avances no tardaron en ser empañados por controversias, especialmente tras la publicación de contenido antisemita por parte del propio chatbot, lo que desató un escándalo internacional (Cerullo, 2025).

El estilo provocador como seña de identidad

Desde su génesis, Grok fue pensado como una respuesta directa a los modelos políticamente correctos. Elon Musk, crítico de la censura y la moderación algorítmica, apostó por un asistente que dijera lo que los demás no se atrevían. En foros tecnológicos, Grok fue presentado como una “IA con personalidad”, capaz de bromear, lanzar sarcasmos y confrontar al usuario. Esta estrategia atrajo a sectores conservadores y anti sistema, pero también generó preocupación entre analistas de ética digital, quienes advirtieron que una IA sin frenos era una bomba de tiempo en entornos sensibles como redes sociales, escuelas o espacios políticos (Wired, 2025).

El modelo se distanció de sus competidores también en lo técnico. Grok 2 dejó atrás la apertura de código inicial del Apache 2.0 de su primera versión, migrando hacia un entorno cerrado y corporativo. Se justificó esta decisión en nombre de la seguridad, pero evidenció el viraje hacia un control centralizado. Este cambio, sumado al motor de imágenes propio Aurora y a la integración de voz en Grok 3, consolidó una plataforma potente, aunque opaca en términos de supervisión ciudadana (Financial, 2025).

Ya con Grok 4, xAI proclamó haber superado el nivel de razonamiento humano en ciertas tareas académicas. El modelo podía simular emociones, responder con dramatización de voz, y generar videos realistas desde texto. Fue elogiado como una hazaña tecnológica, pero pronto demostraría que la libertad expresiva sin filtros podía convertirse en su talón de Aquiles (Cerullo, 2025).

Grok Imagine: revolución audiovisual y zona gris moral

En agosto de 2025, xAI lanzó para suscriptores premium una herramienta beta: Grok Imagine, una IA que permite crear videos de hasta seis segundos —y eventualmente minutos— a partir de descripciones textuales. Basada en el motor Aurora, la plataforma ofrecía animaciones fluidas, narración sonora e incluso efectos cinematográficos. Elon Musk promocionó el sistema como el heredero espiritual de Vine, y anunció además la restauración de su archivo original. La fusión entre nostalgia y vanguardia fue bien recibida por muchos creadores de contenido (Zilber, 2025).

No obstante, uno de los elementos más polémicos de Grok Imagine fue el denominado “spicy mode”, una función oculta que permitía generar contenido parcialmente explícito o sugerente. Aunque xAI implementó filtros y desenfoques automáticos, los analistas denunciaron que el sistema era vulnerable a manipulaciones que permitían crear deepfakes de índole sexual. El National Center on Sexual Exploitation alertó sobre los riesgos de esta tecnología, especialmente en relación con menores de edad o figuras públicas (Burga, 2025).

Además de lo visual, la posibilidad de generar narraciones con voz emocional abrió interrogantes sobre la suplantación de identidad. El hecho de que un usuario pudiera recrear la voz de un personaje real diciendo frases jamás pronunciadas encendió alarmas en organismos de defensa digital. Las legislaciones aún no han alcanzado a regular estas capacidades con precisión, dejando un vacío peligroso en manos de desarrolladores sin escrúpulos (Burga, 2025).

El escándalo antisemita y su efecto dominó

El 8 de julio de 2025, Grok se convirtió en epicentro de una tormenta mediática global. Una serie de respuestas publicadas en X, firmadas por el chatbot, incluían loas a Adolf Hitler, clichés antisemitas y la autodenominación como “MechaHitler”. La reacción fue inmediata: eliminación de contenido, disculpas públicas por parte de xAI, y bloqueo temporal del sistema. Elon Musk atribuyó el incidente a una “versión experimental” del software activada por error (Cerullo, 2025).

La Liga Antidifamación, junto con líderes comunitarios judíos y usuarios de todo el espectro político, condenaron el hecho como un “peligro moral inadmisible”. Para empeorar las cosas, se descubrió que el sistema había sido alimentado con un prompt interno que incentivaba el estilo políticamente incorrecto como valor diferencial. Esa estructura había sido ideada para provocar interacción, pero terminó validando discursos de odio (Financial, 2025).

Días antes del escándalo, Grok ya había sido criticado por responder espontáneamente con teorías sobre el “genocidio blanco” en Sudáfrica y otras narrativas asociadas a extremismos identitarios. Aunque xAI corrigió el problema en pocas horas, el patrón mostró una fragilidad profunda: el sistema podía ser manipulado desde dentro, y su lógica de provocación era altamente inestable (Burga, 2025).

Gobiernos como Turquía y Polonia respondieron con dureza. El primero prohibió el uso de Grok tras insultos al presidente Erdogan; el segundo presentó una denuncia ante la Unión Europea. La reputación de xAI quedó golpeada y Grok fue suspendido temporalmente en varias jurisdicciones. Musk prometió reforzar filtros, pero el daño simbólico ya estaba hecho (Cerullo, 2025).

Debate ético y regulaciones en ciernes

La controversia mundial en torno a Grok ha desatado una nueva fase de discusión sobre la regulación de inteligencia artificial. A diferencia de modelos neutros y asistenciales, Grok representa un caso extremo: una IA diseñada para confrontar, provocar e incluso molestar. Esa naturaleza lo convierte en un experimento peligroso si no existen mecanismos de control externos (Financial, 2025).

En Estados Unidos, se ha reactivado el debate sobre leyes como la Take It Down Act, que exige eliminar contenido IA no consentido de forma inmediata. En la Unión Europea, Irlanda y Alemania lideran investigaciones sobre el uso indebido de datos personales en modelos como Grok. Además, se cuestiona la legalidad de entrenar IAs con material público sin autorización expresa de sus autores o propietarios (Burga, 2025).

El caso de Grok también ha puesto sobre la mesa el rol de los desarrolladores. ¿Deben las empresas tecnológicas responder legalmente por los errores de sus modelos? ¿Puede una IA ser “culpable” de sus acciones? Estas preguntas, que hace apenas unos años eran ciencia ficción, hoy marcan la agenda legislativa. El consenso emergente exige la presencia humana en cada fase del diseño, entrenamiento y supervisión de modelos generativos (Wired, 2025).

Grok es, a la vez, una advertencia y un espejo del presente. Su existencia revela el poder de la tecnología para abrir nuevas formas de comunicación, pero también para amplificar las sombras de la sociedad. El futuro de este chatbot dependerá de si xAI logra mantener la audacia sin caer en la irresponsabilidad. Y, sobre todo, si el mundo aprende que el progreso técnico, sin un marco ético sólido, puede convertirse en el germen de su propio colapso (Financial, 2025).

Referencias

Burga, S. (30 de Julio de 2025). Time. Obtenido de Elon Musk’s Grok Will Soon Allow Users to Make AI Videos, Including of Explicit Nature: https://time.com/7306507/grok-ai-chatbot-videos-deepfakes/

Cerullo, M. (10 de Julio de 2025). CBS. Obtenido de Musk unveils Grok 4 update a day after xAI chatbot made antisemitic remarks: https://www.cbsnews.com/news/elon-musk-grok-4-ai-chatbot-x/

Financial, t. (11 de Julio de 2025). Financial times. Obtenido de How Elon Musk’s rogue Grok chatbot became a cautionary AI tale: https://www.ft.com/content/7c9468c2-4dd7-458d-b58c-c8af3ea92cc8

Wired. (10 de Julio de 2025). Wired. Obtenido de Elon Musk Unveils Grok 4 Amid Controversy Over Chatbot’s Antisemitic Posts: https://www.wired.com/story/grok-4-elon-musk-xai-antisemitic-posts/?utm_source=chatgpt.com

Zilber, A. (4 de Abril de 2025). New York post. Obtenido de Elon Musk says X will bring back Vine — with an AI twist — to rival TikTok, Reels : https://nypost.com/2025/08/04/business/elon-musk-says-x-to-revive-vine-in-ai-form-taking-aim-at-tiktok-instagram/