Estamos presenciando en directo la evolución de la inteligencia artificial generativa. Hace aproximadamente un año nos sorprendíamos con la capacidad de DALL·E para crear imágenes tan pintorescas como la de un perrito de raza shiba inu con boina y jersey de cuello alto o un cuadro de Salvador Dalí con una parte de la cara de apariencia robótica.
Pero eran solo eso. Imágenes pintorescas.
Era extremadamente difícil que alguna de estas creaciones impulsadas por inteligencia artificial acabara haciéndose pasar por una fotografía. Aunque, en ocasiones, se podían obtener resultados fotorrealistas, ciertos detalles en el rostro o en las manos de los individuos evidenciaban la presencia de algoritmos generativos, pero esto acaba de cambiar.
Una posible solución al gran problema de la IA
Recientemente empezaron a circular en las redes sociales imágenes del Papa Francisco con un abrigo blanco, de Donald Trump siendo detenido por la Policía de Nueva York e incluso de Emmanuel Macron en medio de una protesta en alguna ciudad francesas. Estas imágenes tenían en común que eran todas absolutamente falsas, pero también plausibles.
Como posiblemente te imagines, es cada vez más difícil distinguir si un contenido ha sido creado utilizando herramientas de IA o se trata realmente de imágenes reales. Este problema, que emerge como el extremo visible de un iceberg, está generando preocupación debido a que se trata de una puerta abierta a las fake news y la desinformación.
A la par de este fenómeno, sin embargo, hay quienes ya están intentando aportar soluciones. Por un lado, tenemos a la Unión Europea mostrándose a favor de marcar el contenido generado por IA, y por otro lado actores privados como Optic, que apuestan por la idea de un detector de imágenes generadas por IA disponible públicamente en la web.
La compañía acaba de presentar AI or Not, un sistema de análisis que, como su nombre lo indica, permite identificar si el contenido visual que hemos cargado ha sido creando utilizando una IA. Tan solo tenemos que arrastrar una imagen JPEG o PNG y aguardar el resultado del análisis que se presentará ante nosotros en valores porcentuales.
En nuestras pruebas hemos subido una fotografía de un Panda Rojo capturada con una cámara Nikon D7000 y los algoritmos de Optic nos han indicado que están seguros en un 87% de que la imagen no fue generada por IA. También hemos probado con una generada por IA, en este caso, el sistema cree en un 77% que ha sido generada con DALL·E (que ha sido así).
Los creadores de AI or Not explican que el sistema es más preciso con Stable Diffusion, Midjourney y DALL·E, aunque sus algoritmos también pueden detectar “signos de generación de IA” en imágenes provenientes de otros modelos, aunque puede que la precisión disminuya. La buena noticia es que, de momento, utilizar el detector es totalmente gratis.
Imágenes: Javier Marquez con DALL·E | Capturas de pantallas | Mathias Appel
En Xataka: Adobe Firefly intentó competir con Midjourney: salió mal (pero por una buena razón)
– La noticia Cada vez es más difícil distinguir las imágenes generadas por IA: esta web promete decir la verdad (pero tiene truco) fue publicada originalmente en Xataka por Javier Marquez .