Para Rafael Méndez-Romero, decano de la Escuela de
Ingeniería, Ciencia y Tecnología de la Universidad del Rosario, si bien estas
imágenes evocan ternura y nostalgia, también plantean preocupaciones éticas,
legales y ambientales que requieren una reflexión crítica y urgente.
- La dimensión ambiental de la inteligencia artificial es
otra preocupación creciente. Cada imagen viral podría equivaler al gasto de
hasta ocho botellas de agua, advierte el académico.
- Otro aspecto crítico es la falta de claridad sobre el
destino de los datos generados en estas plataformas, ya que persisten dudas
sobre el almacenamiento y uso de estos datos.
Bogotá- En las últimas semanas, una tendencia impulsada por
la nueva versión de ChatGPT ha inundado las redes sociales: la transformación
de fotografías personales en ilustraciones al estilo del afamado Studio Ghibli.
Si bien estas imágenes evocan ternura y nostalgia, también plantean
preocupaciones éticas, legales y ambientales que requieren una reflexión
crítica y urgente, según advierte Rafael Alberto Méndez-Romero, decano de la
Escuela de Ingeniería, Ciencia y Tecnología de la Universidad del Rosario.
Para el académico, el uso de inteligencia artificial
generativa en la creación de contenido visual, textual o sonoro no opera en el
vacío. Modelos como DALL·E, Midjourney o Stable Diffusion han sido entrenados
con millones de imágenes extraídas de internet sin el consentimiento de sus
creadores. Según la investigadora Kate Crawford en Atlas of AI, estos sistemas
no son neutrales, sino que están influenciados por estructuras de poder y
lógicas económicas poco transparentes.
"La replicación automática de estilos artísticos sin
autorización no solo plantea un vacío legal, sino que también trivializa el
trabajo creativo de décadas", resalta Méndez-Romero. Esto pone en
entredicho las nociones contemporáneas de autoría y propiedad intelectual.
Privacidad y el uso de datos personales
Otro aspecto crítico es la falta de claridad sobre el destino
de los datos generados en estas plataformas. Aunque OpenAI ha asegurado que no
entrena sus modelos con las imágenes subidas por los usuarios en ChatGPT,
persisten dudas sobre el almacenamiento y uso de estos datos.
"El valor de estas plataformas no reside solo en el
contenido que producen, sino en los rastros de comportamiento que
capturan", señala el decano, haciendo eco de los planteamientos de
Shoshana Zuboff en The Age of Surveillance Capitalism. Esto se inscribe en una
tendencia más amplia de extractivismo digital, donde la información del usuario
se convierte en un recurso explotable.
0 comentarios:
Publicar un comentario