Para ver este sitio web deber tener activado JavaScript en tu navegador. Haz click aqui para ver como activar Javascript

«La condición humana tiene un talento especial para tropezar con la misma piedra. En 2016, Tay nos enseñó lo que ocurre cuando una IA se entrena sin filtros. Hoy, con Grok, parece que el guion se repite punto por punto»

El problema no es la tecnología, sino cómo decidimos usarla.

En 2016, Microsoft lanzó Tay, un bot de IA (inteligencia artificial) diseñado para aprender de las interacciones en X (la antigua Twitter). El experimento duró apenas unas horas: Tayempezó a generar mensajes racistas, misóginos, negacionistas y ofensivos a una velocidad que dejó a los ingenieros sin margen de reacción. Se apagó de inmediato, convertido en un ejemplo clásico de lo que puede salir mal cuando un modelo se expone sin filtros al caos humano que es internet.

Nueve años después, algo inquietantemente parecido está ocurriendo con Grok, la IA integrada en X por Elon Musk. Bajo el argumento de que “no tenga límites”, Grok reproduce algunos de los comportamientos problemáticos que hundieron a Tay. La diferencia es que, esta vez, su creador no ha mostrado intención de detenerla; al contrario, presume de que es “la más inteligente de todas”. Lo preocupante no es solo la tecnología en sí, sino la normalización de sus excesos.

A esta polémica se suma un episodio reciente con Grok Imagine, su modelo de generación de imágenes. Según las investigaciones, combinó fotografías públicas y patrones aprendidos durante el entrenamiento para producir retratos falsos, realistas y sexualizados de varias artistas. No recibió instrucciones directas para hacerlo: interpretó el contexto de forma automática. El resultado fue una violación clara de la privacidad y un recordatorio de que la IA puede dañar incluso sin intención explícita.

El debate sobre el consentimiento digital se ha reabierto. Que una imagen sea pública no significa que pueda transformarse sin límites, y menos aún en material sexualizado. Organizaciones de derechos digitales advierten que estas prácticas constituyen violencia digital y que la ley aún no protege de forma efectiva a las víctimas, especialmente en un entorno global donde las plataformas eluden responsabilidades gracias a las normas varían en función de cada territorio.

Lo de Grok Imagine no es un incidente aislado. Plataformas de todo tipo han visto cómo sus modelos producían material sexual no solicitado sin control humano previo. Algunas legislaciones empiezan a reaccionar, pero su aplicación sigue siendo irregular. Mientras tanto, la tecnología avanza mucho más rápido que la capacidad de gobernarla.

Y aquí está la paradoja de nuestra condición humana: tenemos en las manos herramientas capaces de diagnosticar enfermedades antes de que se manifiesten, de diseñar tratamientos personalizados o de prevenir desastres naturales. Pero si la conversación pública queda atrapada en el espectáculo de una IA que desnuda a quien sea y escupe barbaridades, todo ese potencial se diluye.

El problema no es la tecnología, sino cómo decidimos usarla. O, más bien, cómo decidimos no poner límites cuando sabemos qué hace falta. La historia ya nos dio la lección con Tay. Si no la aprendemos, no será la IA la que nos condene: seremos nosotros, por nuestra incapacidad de recordar lo que nunca deberíamos repetir.

No Comments Yet

Comments are closed