Grok, el asistente de inteligencia artificial (IA) de X (anteriormente conocido como Twitter), ha emergido como una herramienta utilizada por muchos usuarios de esta plataforma para verificar información. Sin embargo, su efectividad ha sido cuestionada por expertos en IA, quienes advierten sobre su alta tasa de errores y sugieren que los usuarios no deberían confiar plenamente en su veracidad. Recientemente, Grok fue deshabilitado temporalmente por X para realizar actualizaciones, lo que ha llevado a un aumento en la discusión sobre su fiabilidad.
El profesor e investigador Javi Cantón, de la Universidad Internacional de La Rioja, especializado en IA y desinformación, explicó a Agencia EFE que “los chatbots basados en IA buscan generar un texto convincente, bien estructurado, y que sea cierto o verdadero, no importa”. Cantón enfatiza que estas herramientas carecen de la capacidad para “contrastar hechos en tiempo real ni aplican criterios periodísticos de verificación”. Además, subraya que “no entienden lo que afirman” y que, en última instancia, “generan plausibilidad lingüística, no verdad factual”.
Las limitaciones inherentes a las herramientas de IA se ven agravadas por “los sesgos ideológicos y la eliminación de límites poco éticos que se han incluido en su programación”, según el experto. A pesar de que las IA pueden ser entrenadas con ‘prompts’ o instrucciones, es evidente que no dominan todos los aspectos de sus tareas, independientemente de su nivel de sofisticación.
El fenómeno de las “alucinaciones” en IA, que se refiere a la tendencia de estas herramientas a especular en lugar de proporcionar información precisa, sigue siendo un desafío para los desarrolladores. Un estudio reciente publicado en la revista Columbia Journalism Review evaluó la capacidad de ocho herramientas de IA para acceder, presentar y citar noticias. Entre las herramientas analizadas se encontraban ChatGPT Search de OpenAI, Perplexity, Perplexity Pro, DeepSeek Search, Copilot de Microsoft, Grok-2 y Grok-3 (beta) de xAI, así como Gemini de Google.
La investigación concluyó que, en situaciones donde los chatbots no podían proporcionar respuestas precisas a ciertas consultas, en lugar de admitir su falta de información, ofrecían respuestas incorrectas o especulativas. Además, el estudio reveló que “los chatbots premium proporcionaron respuestas incorrectas con mayor confianza que sus contrapartes gratuitas”.
Cantón advierte que estas herramientas están diseñadas “para darnos la razón y adularnos”, lo que implica que “no podemos fiarnos al 100 % de lo que nos dicen”.
Referencia: Klaudia Jaźwińska y Aisvarya Chandrasekar. AI Search Has A Citation Problem. Revista Columbia Journalism Review, 2025.


