Pasar al contenido principal

IA generativa, viralidad estética y sus dilemas invisibles: una alerta desde la universidad

inteligencia-artificial-generativa-por-ilustraciones-al-estilo-ghibli
En las últimas semanas, una tendencia impulsada por la nueva versión de ChatGPT ha inundado las redes sociales: transformar fotografías personales en ilustraciones al estilo visual del afamado Studio Ghibli. La fascinación por estas imágenes es comprensible. Evocan una estética reconocible, asociada a la ternura, la nostalgia y la belleza narrativa. Sin embargo, detrás de esta aparente inocencia, se encuentran tensiones éticas, legales y ambientales que exigen una reflexión crítica y urgente desde los espacios universitarios.

Por: Rafael Alberto Méndez-Romero, Ph.D.
Decano. Escuela de Ingeniería, Ciencia y Tecnología

La inteligencia artificial generativa, en tanto herramienta de producción automatizada de contenido visual, textual o sonoro, no opera en el vacío. Sus resultados, a menudo celebrados por su capacidad de asombro, se sostienen sobre decisiones que involucran propiedad intelectual, uso de datos personales, consumo energético y sesgos culturales. Como universidad, y particularmente desde las facultades y escuelas comprometidas con la ciencia, la tecnología y la innovación, es imprescindible posicionarse frente a estos desarrollos no sólo desde el entusiasmo, sino también desde la responsabilidad.

Una ética postviral

La apropiación algorítmica de estilos artísticos como el de Studio Ghibli pone en entredicho las nociones contemporáneas de autoría. Modelos como DALL·E, Midjourney o Stable Diffusion han sido entrenados con millones de imágenes, muchas de ellas tomadas de internet sin consentimiento de sus creadores. Como lo señala la investigadora Kate Crawford (2021) en Atlas of AI, los sistemas de inteligencia artificial no son neutrales: son construidos a partir de datos, estructuras de poder y lógicas económicas que rara vez se transparentan.

En el caso de la estética Ghibli, se trata de un estilo consolidado que sintetiza décadas de trabajo artístico. Su réplica automática sin autorización representa no solo un vacío legal, sino una banalización de la creación humana como insumo replicable y descontextualizado.

Privacidad y extractivismo de datos

La segunda dimensión crítica es la que afecta directamente a los usuarios: la falta de claridad sobre el destino de los datos que generan las imágenes. Aunque empresas como OpenAI han declarado públicamente que no entrenan sus modelos con las imágenes subidas por los usuarios en ChatGPT (OpenAI, 2024), persiste la preocupación sobre la trazabilidad de los datos generados. Las fotografías procesadas, los metadatos asociados y las preferencias de estilo pueden ser almacenadas y utilizadas para futuras mejoras del sistema sin intervención directa del usuario.

Este fenómeno forma parte de una tendencia más amplia: el extractivismo digital. Como lo advierte Shoshana Zuboff (2019) en The Age of Surveillance Capitalism, el valor de las plataformas no reside sólo en lo que producen, sino en los rastros de comportamiento que capturan.

Impacto ambiental: la cara oculta del asombro

Una de las dimensiones más ignoradas del uso cotidiano de IA es su huella ambiental. De acuerdo con un estudio reciente de la Universidad de California, Riverside, la generación de una sola imagen mediante IA puede implicar el uso de entre 2 y 4 litros de agua, empleados en el enfriamiento de servidores en centros de datos (Li et al., 2023). En términos simples: cada imagen viral podría equivaler al gasto de hasta 8 botellas de agua.

En un contexto global de emergencia climática y desigualdad en el acceso al agua, esta cifra no puede ser minimizada. La viralidad tecnológica no debe seguir siendo ajena al costo ecológico que implica.

El rol de la universidad: posicionarse con claridad

Frente a estos dilemas, las universidades no pueden adoptar un rol pasivo ni espectador. El compromiso con el desarrollo tecnológico debe estar acompañado de una postura crítica, intersectorial y formativa. Desde la Escuela de Ingeniería, Ciencia y Tecnología de la Universidad del Rosario proponemos al menos cuatro líneas de acción institucionales:

  1. Fomentar marcos éticos y legales para el uso de datos, estilos y contenidos en modelos de IA generativa, especialmente en lo referente a autoría, consentimiento y transparencia.
  2. Incluir la alfabetización crítica en IA en los currículos universitarios, integrando debates éticos, ambientales y culturales junto al desarrollo técnico.
  3. Impulsar investigaciones interdisciplinarias sobre el impacto social y ambiental de la IA, con datos contextualizados y recomendaciones concretas de política pública.
  4. Contribuir activamente al diseño de tecnologías sostenibles y responsables, en diálogo con actores públicos, privados y de la sociedad civil.

La inteligencia artificial no es simplemente una herramienta de innovación: es también un espejo de nuestras prioridades como sociedad. Por ello, su implementación debe estar sujeta a revisión constante y acompañada de pensamiento crítico. Porque si las tecnologías que celebramos terminan replicando las injusticias que decimos querer superar, el costo será mucho más alto que una imagen viral.

Referencias

  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  • Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
  • Li, P., Zhang, Y., & Cheng, Y. (2023). “Making AI Less Thirsty: Uncovering and Addressing the Secret Water Footprint of AI Models.” Proceedings of the 60th Annual Design Automation Conference (DAC).
  • OpenAI (2024). Privacy and Safety in Image Generation. Recuperado de: https://openai.com/policies