La ética de las imágenes generadas por IA


El auge de herramientas como ChatGPT, que ahora puede generar imágenes en prácticamente cualquier estilo visual —de películas de Studio Ghibli a dibujos al estilo de Los Simpson— ha vuelto a poner sobre la mesa una cuestión crítica: ¿hasta qué punto es ético este nuevo tipo de creatividad impulsada por inteligencia artificial?
La IA generativa es una tecnología fascinante y en rápida evolución. Con el poder de las redes neuronales y el aprendizaje automático, herramientas como DALL·E, Midjourney y el propio ChatGPT están transformando el panorama creativo. Pero con esta revolución visual también vienen dilemas éticos que no podemos ignorar.
¿Qué son las imágenes generadas por IA?
Estas imágenes son creadas a partir de grandes cantidades de datos: fotografías, obras de arte, ilustraciones, memes y todo lo que puedas imaginar. Mediante modelos de IA entrenados con este contenido, se generan nuevas imágenes desde cero o a partir de descripciones de texto.
Gracias a ello, hoy cualquiera puede crear una ilustración "al estilo Van Gogh" o una escena animada como si saliera de un episodio de Los Simpson. El potencial es inmenso; sin embargo, ¿Son imágenes originales? El funcionamiento de las redes neuronales implica el uso de cientos de imágenes de estilos creados por diversos autores para crear, mediante complejos cálculos de interpolación, imágenes iguales o similares. ¿Hasta qué punto se vulnera los derechos de autor del creador original del estilo?
Propiedad intelectual y derechos de autor
¿Quién es el dueño de una imagen generada por IA? ¿El usuario? ¿La empresa creadora del modelo? ¿El autor de las imágenes referenciadas? ?¿Nadie? Este es uno de los principales dilemas. La legislación aún no está clara en muchos países, y surgen conflictos cuando una imagen se parece demasiado a una obra ya existente o imita el estilo de un artista reconocible que no dio su permiso de forma expresa o tácita para ser usada por la IA. Esto plantea una pregunta incómoda: ¿Es un robo, un homenaje o simplemente una nueva herramienta creativa?
Privacidad: ¿Quién aparece en estas imágenes?

Uno de los dilemas más urgentes en torno a la generación de imágenes por IA es el uso de rostros reales y datos visuales sin consentimiento.
Los modelos de IA se entrenan con millones de imágenes extraídas de internet —incluyendo redes sociales, bancos de fotos, bases de datos académicas y sitios de noticias—. En muchos casos, estas imágenes contienen personas que nunca dieron su permiso para ser parte de ese proceso.
¿Y si una imagen generada se parece a ti?
Que pasaría si herramientas como DALL·E o Midjourney generan rostros que, por casualidad o por similitud estadística, se parecen a personas reales. Esto plantea varias preguntas éticas:
¿Puede alguien reclamar derechos sobre una imagen que parece ser su rostro, aunque no sea realmente él o ella?
¿Se puede usar la imagen de una figura pública (o privada) como base estilística sin su aprobación?
¿Dónde está la línea entre inspiración y suplantación?
En contextos más extremos, estas tecnologías ya han sido utilizadas para generar contenido íntimo falso o “deepfakes” sin consentimiento, lo que ha motivado leyes específicas en varios estados, sobre todo en casos de acoso y pornografía no consensuada.
Otro problema: una vez que tu imagen ha sido parte del set de entrenamiento de una IA, resulta casi imposible eliminarla. Esto entra en conflicto con regulaciones como el “derecho al olvido” incluido en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que garantiza a las personas el derecho a borrar su información personal.
Impacto medioambiental: el lado invisible de la IA

Detrás de cada imagen generada por IA, hay una red gigantesca de computadoras que requieren una enorme cantidad de energía. Entrenar modelos de IA —especialmente los de generación de imágenes como Stable Diffusion, Midjourney o DALL·E— implica procesar miles de millones de parámetros durante semanas o incluso meses en servidores especializados.
¿Cuánta energía consume una IA?
Un solo modelo de IA de gran escala puede consumir unas cantidades de electricidad ingentes. Por ejemplo, se ha reportado que entrenar modelos de lenguaje como GPT-3 puede consumir hasta 1.287 megavatios-hora de electricidad y emitir alrededor de 502 toneladas métricas de carbono, equivalentes a las emisiones de 112 automóviles de gasolina durante un año. Y eso sin contar el impacto acumulado de:
Actualizaciones continuas del modelo
Uso diario por millones de personas
Almacenamiento de resultados y procesamiento en la nube
Además, muchas de estas operaciones se llevan a cabo en data centers alimentados por energía no renovable, lo que agrava la huella de carbono.
¿Creatividad sostenible?
Este punto es clave: mientras la IA abre nuevas puertas creativas, también crea un dilema ambiental. ¿Podemos hablar de “creatividad responsable” si generar una sola imagen estilo Ghibli consume más energía que dibujarla a mano?
Algunos desarrolladores ya están explorando modelos más eficientes, y compañías como OpenAI y Google afirman que están migrando hacia energías renovables. Pero sin una regulación más estricta o estándares de sostenibilidad en IA, el progreso es desigual y muchas veces opaco.

¿Qué podemos hacer?
Algunas propuestas de expertos incluyen:
Reformas legales más claras sobre derechos de autor en IA
Leyes de privacidad más estrictas
Normas para asegurar diversidad y equidad en los datos de entrenamiento
Códigos éticos para desarrolladores de IA
Organismos reguladores que vigilen el desarrollo responsable
¿Y de cara al futuro?
Las imágenes de IA serán, progresivamente, más realistas, más creativas y más omnipresentes. Pero con ese poder viene la necesidad urgente de desarrollar un marco ético sólido.
Debemos involucrarnos en el debate, mantenernos informados y exigir transparencia en el desarrollo de estas herramientas. Como toda gran tecnología, la IA no es buena ni mala: depende de cómo la usemos.
Fuente: Jay Perlman en Lummi
Imágenes: Freepik