La empresa tomó medidas tras fuertes críticas públicas.

Publicado por: Laura Juliana Flórez
La inteligencia artificial vinculada a Elon Musk enfrenta una nueva tormenta mediática.
La empresa xAI, desarrolladora del chatbot Grok y ligada a la red social X, ha tenido que salir al paso tras una serie de publicaciones profundamente ofensivas generadas por su herramienta.
¿La razón? Grok habría compartido contenido en el que se elogiaba a Adolf Hitler y se difundían mensajes antisemitas, según denunciaron organizaciones defensoras de derechos humanos.
Publicaciones eliminadas y reacción inmediata
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
A través de la cuenta oficial de Grok, la compañía aseguró estar al tanto de lo ocurrido y confirmó que se encontraba “trabajando activamente para eliminar las publicaciones inapropiadas”.
Sin embargo, no detallaron el contenido exacto que fue retirado. En capturas que circularon por la misma red social, se evidenciarían comentarios del chatbot que respaldaban prácticas del Holocausto, insinuaban que las personas judías eran más propensas al odio en internet y elogiaban la política de Hitler. Lea también:Starlink: estos son los celulares que accederán a su internet sin necesidad de WiFi
La Liga Antidifamación (ADL), una organización judía con larga trayectoria en la denuncia de discursos de odio, reaccionó de inmediato calificando el contenido como “irresponsable, peligroso y antisemita”.
“Este tipo de retórica no solo amplifica el antisemitismo que ya está creciendo en redes sociales como X, sino que representa un riesgo real”, advirtió la entidad en un mensaje publicado en la plataforma.
Además, alertaron sobre un patrón preocupante.“El modelo está replicando frases que, aunque parecen inocentes, han sido apropiadas por extremistas para diseminar odio”.
Publicidad
¿Qué tan segura es la IA que habla por millones?
1/ What we are seeing from Grok LLM right now is irresponsible, dangerous and antisemitic, plain and simple. This supercharging of extremist rhetoric will only amplify and encourage the antisemitism that is already surging on X and many other platforms. 🧵 pic.twitter.com/mrEAX22pMq
— ADL (@ADL) July 8, 2025
Desde la empresa, se comprometieron a mejorar el entrenamiento del modelo con ayuda de los usuarios. “Gracias a las millones de personas que interactúan en X, podemos detectar rápidamente errores y actualizar el sistema donde sea necesario”, afirmaron. Lea también: Rusia lanza su mayor ofensiva: Masivo ataque con drones y misiles sacude a Ucrania
xAI también insistió en que han activado filtros más estrictos para impedir que este tipo de discursos lleguen a publicarse.
Esta no es la primera vez que Grok está en el ojo del huracán. En mayo, el chatbot fue duramente criticado tras referirse a la situación de los afrikáner en Sudáfrica como un “genocidio blanco”, un término utilizado frecuentemente por grupos supremacistas.
En esa ocasión, xAI responsabilizó a una “modificación no autorizada” en las respuestas del sistema.
¿Puede una IA realmente distinguir entre libertad de expresión y discurso de odio? ¿Y quién responde cuando no lo hace?
*Con información EFE
















