Hace algunos años dábamos por hecho que todo lo que ?podíamos ver?, era real. Y lo era porque lo estábamos viendo. Con nuestros propios ojos.
Pero las cosas ya no son como antes. No se trata sólo de la globalización de internet y las nuevas tecnologías, sino a la velocidad a las que éstas evolucionan.
Parece que el universo tecnológico lleva con nosotros toda la vida, pero no debemos olvidar que, en realidad, hablamos de algo que comenzó hace poco menos de 25 años.
Amazon nació en 1995 como una simple librería online. Google en 1998 como un humilde motor de búsqueda de internet. Facebook, Twitter o YouTube, tienen poco más de 11 años.
Hoy son gigantes tecnológicos que abarcan mucho más de aquello para lo que en un principio fueron creados.
Inteligencia artificial, big data, machine learning. Conceptos que utilizan para mejorar sus desarrollos y ofrecer una mejor experiencia a sus clientes. Pero hasta un punto que comienza a ser verdaderamente inquietante.
Un ejemplo de ello es un artículo que aparecía en la web maldita.es el pasado mes de abril de este año, cuyo título era «Caras de personas que no existen: cómo funciona la tecnología que las crea».
Foto: maldita.es
En efecto. Lo que estás viendo son caras de personas que no existen. ¿Difícil de creer, verdad?
El resultado es fruto de tecnologías basadas en algoritmos muy bien desarrollados. Tanto, engañan a cualquier mortal que no sea experto en estos temas. Es el mundo del ?deepfake?.
¿Quién, con un Smartphone de última generación, no se ha divertido con algunas apps capaces de ponernos la cara de otra persona, de un famoso o famosa, de aplicarnos filtros de forma casi instantánea, haciéndonos parecer años más jóvenes o más viejos, con un nivel de realismo espectacular? Pues esto sería el equivalente a un nivel ?elemental? de este tipo de tecnologías.
Maldita.es comenta en su artículo el caso de Miguel Lacambra, un seudónimo con el que se creó una cuenta de Twitter y se publicaron artículos en un medio. Su cara no existía.
¿Cómo se consigue esto?
Para elaborar estas caras, se utilizan programas basados en inteligencia artificial. Dentro del campo de la inteligencia artificial, se utilizan unas técnicas llamadas redes neuronales, que se ocupan de buscar patrones y otra información entre los puntitos que unen todos los datos aportados por esta inteligencia artificial (I.A.)
Finalmente, comentábamos hace un momento, se crean algoritmos matemáticos que se convierten al lenguaje que los ordenadores son capaces de entender (código informático), procesar y ejecutar, ofreciendo un resultado ajustado a un objetivo.
¿Y las caras ?fake?, cómo se crean?
Para generar caras ficticias se utiliza el Generative Adversarial Network (redes generativas adversariales, en español) o GAN.
¿Cómo funciona el GAN?
La premisa inicial es el aprendizaje de la máquina. O, mejor dicho, forzar este aprendizaje.
Veamos:
Se trata de un sistema de aprendizaje automático desarrollado en 2014 por un equipo dirigido por Ian Goodfellow. El propósito de una Generative Adversarial Network es crear diseños propios basados en un conjunto de datos reales. El resultado es tan engañosamente real que es imposible saber que la imagen no proviene de una mano humana. Para conseguir estos resultados, se utilizan dos redes neuronales que compiten entre ellas.
La tarea de la red generadora es crear una falsificación. La red se alimenta de datos, por ejemplo, fotos de personas al azar y, a partir de la información recibida, crea su propia foto. Para esto, la red tiene que aprender primero cuáles son las características comunes de todas las fotos mostradas. De este modo, la nueva imagen no es una imitación de los datos originales, sino una obra completamente nueva, pero similar.
Los datos básicos y la información que ha generado se entregan juntos a la segunda red. La tarea de la red discriminadora es decidir si los datos que recibe son verdaderos o falsos. La imagen no solo se declara falsa si se desvía demasiado de los datos básicos, sino también si es una imitación demasiado perfecta. Si la red generadora se limita a extraer un promedio de los datos y a crear una nueva obra a partir de este, el resultado tiene un aspecto artificial. De este modo, la red discriminadora también filtra los datos que no parecen naturales.
Ambas redes compiten entre ellas. Cuando la red discriminadora detecta los datos falsificados, los devuelve. En este caso, la red generadora no es lo suficientemente buena todavía y, por lo tanto, tiene que seguir aprendiendo. Sin embargo, a su vez, la red discriminadora aprende también. Como ambas redes neuronales se entrenan mutuamente, están relacionadas con los sistemas de deep learning. La red generadora intenta crear conjuntos de datos que tengan una apariencia tan auténtica que engañen a la discriminadora. Esta, por su parte, trata de analizar y comprender los ejemplos reales con tanta precisión que los datos falsos no tengan ninguna posibilidad de ser identificados como reales. (IONOS)
Sorprendente y turbador al mismo tiempo.
¿Podría darse el caso de que se creara una cara que sí existe?
En teoría, aunque muy improbable, podría darse esa casualidad.
--
Nerea Luis, doctorada en Inteligencia Artificial e ingeniera de Sngular, nos explica que es una tecnología que no está al alcance de todos.
A día de hoy, la muestra más precisa para trabajar es la publicada por el laboratorio NVIDIA en 2019. ?El problema de las GAN es que necesitan mucho procesamiento: son modelos muy caros y poco movibles de entorno?, asegura.
Ahora es cuando surge la pregunta lógica: ¿Para qué se necesitaría crear caras falsas ?reales??
?Controlando la generación de caras, se puede utilizar esta tecnología para paliar toda la falta de datos de representación en las bases de datos. Esa base de datos puede estar muy sesgada y no ser representativa del resto del mundo?, explica Luis.
La doctora asegura que en un futuro podrán usarse GAN para fines artísticos y creativos: por ejemplo, aplicar esta tecnología al cuerpo en vez de a la cara para simular un baile. O incluso en el sector de las ventas: ?Imagina que entras a una página web de ropa, donde puedes crear tu avatar preciso, estarás viendo a una persona con la ropa como te quedaría a ti?.
No cabe duda de que, bien utilizada, estamos ante una tecnología con un futuro inmenso de posibilidades. Y como tal, siempre surgirá el debate entre si dejarla fluir libremente o situar elementos de control en los puntos clave de desarrollo y aplicación.
¿Podemos confiar en el uso de buena fe, ético y moral de este tipo de avances? ¿En qué medida este tipo de desarrollos nos enfrentan a la posibilidad de no poder fiarnos ni siquiera de lo que vemos u oímos? ¿Estamos creando una sociedad desconfiada, suspicaz, recelosa y escéptica? ¿Es el fin de estos desarrollos mejorar nuestra vida, o controlarnos más y mejor?
El debate está servido.
¿Tú qué opinas?