Las autoridades de Malasia han restringido el acceso a Grok, un chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, debido a crecientes preocupaciones por el uso indebido de la herramienta para generar imágenes obscenas, explícitas y manipuladas sin consentimiento, muchas de las cuales incluyen a mujeres y menores. Esta medida coloca a Malasia entre los primeros países que toman acciones regulatorias contra este tipo de tecnología de IA generativa.
La Comisión de Comunicaciones y Multimedia de Malasia (MCMC) anunció que la restricción se adoptó luego de identificar casos repetidos de uso de Grok para crear contenido ofensivo y explícito que viola las leyes locales sobre material indecente y dañino en línea. Las autoridades señalaron que habían enviado avisos tanto a X (antes Twitter) como a xAI, solicitando la implementación de medidas técnicas y de moderación eficaces, pero las respuestas se basaron principalmente en informes de usuarios en lugar de controles proactivos.
Según el regulador, la restricción permanecerá vigente hasta que xAI y X puedan demostrar medidas de protección suficientes para impedir la generación y difusión de contenido dañino. Malasia tiene algunas de las normas de contenido más estrictas en la región, y las autoridades han subrayado su compromiso de proteger al público, especialmente a mujeres y niños, de material digital que podría ser explotador o perjudicial.
La acción de Malasia siguió a una medida similar en Indonesia, que fue el primer país en negar temporalmente el acceso a Grok después de identificar usos indebidos para generar imágenes pornográficas y deepfakes. Estos países del sudeste asiático se suman a una lista creciente de gobiernos que observan de cerca las herramientas de IA generativa y evalúan medidas regulatorias o legales para prevenir daños.
Además del bloqueo, las autoridades malasias están considerando acciones legales contra X y xAI por no abordar de forma adecuada el uso indebido de la tecnología, citando violaciones a las leyes nacionales que protegen la seguridad en línea y la dignidad pública. Esta situación resalta el intenso debate global sobre cómo regular sistemas de IA que pueden producir contenido realista pero potencialmente dañino, y los límites de depender únicamente de los sistemas internos de moderación de las empresas.
A pesar de estas restricciones, informes indican que es posible eludir los bloqueos con herramientas como VPNs, lo que genera preguntas sobre la efectividad de estas medidas por sí solas y lleva a expertos a pedir protecciones más profundas y responsabilidad.
El fin del Artículo