La regulación de la inteligencia artificial enfrenta un nuevo desafío tras la difusión de imágenes sexualizadas generadas por el chatbot Grok, integrado en la plataforma X, propiedad de Elon Musk. Este lunes, el organismo regulador británico Ofcom anunció la apertura de una investigación formal para determinar si la red social ha cumplido con sus obligaciones legales en la protección de los usuarios frente a contenidos ilegales.
La investigación surge a raíz de informes que indican que Grok ha sido utilizado para crear y compartir imágenes de personas desnudas, lo que podría constituir abuso de imágenes íntimas o pornografía, así como para difundir imágenes sexualizadas de menores, potencialmente clasificadas como material de abuso sexual infantil. Ofcom ha expresado su preocupación por la capacidad de la plataforma para gestionar estos contenidos, en el marco de la Ley de Seguridad en Línea del Reino Unido, que otorga a las autoridades la facultad de bloquear plataformas que no eliminen de manera efectiva material ilícito.
Las críticas hacia Grok no se limitan al Reino Unido. Indonesia y Malasia han sido los primeros países en prohibir el uso de esta herramienta tras la proliferación de imágenes manipuladas y obscenas. Ambos países, con legislaciones estrictas en materia de pornografía, han tomado medidas drásticas en respuesta a la situación. Además, funcionarios de la Unión Europea e India han expresado su inquietud sobre la falta de barreras de protección adecuadas en la plataforma.
En respuesta a la creciente presión internacional, X ha restringido algunas funciones de generación de imágenes a suscriptores de pago, aunque esta medida ha sido criticada por ser insuficiente, ya que aún es posible realizar acciones similares en otras áreas de la plataforma. La controversia en torno a Grok ha resaltado la necesidad de un control más riguroso sobre las herramientas de inteligencia artificial y su uso, especialmente en lo que respecta a la creación de contenido sensible y potencialmente dañino.
La situación se enmarca en un contexto más amplio de regulación de la inteligencia artificial, donde la protección de los usuarios, especialmente los más vulnerables, se ha convertido en una prioridad para los reguladores a nivel global. La Ley de Seguridad en Línea del Reino Unido es un ejemplo de los esfuerzos por establecer un marco legal que garantice la seguridad en el entorno digital.

