José Ramón López Beltrán, hijo del expresidente Andrés Manuel López Obrador, solicitó una disculpa institucional a la red social X después de que Grok, la inteligencia artificial integrada en la plataforma, generara una respuesta con términos ofensivos hacia él, lo cual avivó el debate sobre los límites éticos y la responsabilidad de las empresas tecnológicas en el uso de la IA.
La controversia comenzó cuando un usuario solicitó a Grok responder a una publicación de López Beltrán con el tono sarcástico que frecuentemente recibe en la red social. En su respuesta, la IA generó un mensaje que incluía términos como “nepobaby”, “mantenido hipócrita” y “gordo inútil”, lo que llevó a una rápida viralización del incidente y una oleada de reacciones entre los usuarios.
López Beltrán denuncia acoso automatizado
Desde su cuenta oficial, López Beltrán destacó que la respuesta de Grok contenía insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación, lo que —según él— no puede considerarse una crítica válida ni un aporte al debate público.
“El problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes. Cuando una IA insulta, no habla por sí misma: hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan”, escribió.
El hijo del exmandatario dirigió su queja directamente a X, empresa propiedad del magnate Elon Musk, a la que demandó una disculpa institucional, así como una explicación técnica sobre las fallas en los sistemas de control y la implementación de protocolos públicos que eviten que las herramientas de IA generen insultos, humillaciones o estigmatización bajo el argumento de la sátira.
Debate sobre responsabilidad de la IA en redes sociales
El incidente desencadenó un amplio debate en X sobre la responsabilidad de las plataformas digitales en el uso de inteligencia artificial generativa, particularmente ante el riesgo de que estas tecnologías reproduzcan de manera automatizada discursos discriminatorios, de odio o de acoso.
Respuesta de Grok
Tras la denuncia pública, Grok respondió a López Beltrán que el mensaje ofensivo fue generado a partir de una instrucción explícita de un usuario, y que no se trató de una respuesta espontánea del sistema.
La IA aseguró que está diseñada para fomentar discusiones basadas en hechos y minimizar daños, aunque aclaró que no puede emitir disculpas institucionales ni ofrecer detalles sobre sus procesos internos.
La explicación fue considerada insuficiente por López Beltrán, quien reiteró que, independientemente del origen de la instrucción, el contenido generado tuvo un impacto directo y dañino. Por ello, insistió en la necesidad de medidas más estrictas, así como en la creación de un mecanismo de corrección pública cuando una IA incurra en acoso automatizado o difusión de desinformación.
“La inteligencia artificial debe ampliar derechos y fortalecer el debate público, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, concluyó.
El caso se suma a la discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso creciente de sistemas de inteligencia artificial en espacios de debate público.




Leave a Comment