Menu

La falsa inocencia de las aplicaciones de reconocimiento facial

Developer, Ocio, Social Media

La falsa inocencia de las aplicaciones de reconocimiento facial

La falsa inocencia de las aplicaciones de reconocimiento facial

Me imagino que, tras leer el título, muchos estaréis pensando: venga hombre… ¿qué puede haber de malo en ponerse un filtro de colorines y gafas molonas con Snapchat? Y yo contesto: nada en absoluto. El problema viene con la tecnología que se esconde detrás de estas aparentemente absurdas aplicaciones y con los intereses que puedan tener las empresas con su uso.

Creo que puedo hablar en nombre de todos cuando afirmo que la idea de encajar un filtro divertido (o que te hace sorprendentemente guapo incluso los lunes por la mañana) de manera que se sobrepone a nuestra imagen real, ha sido todo un acierto por parte del ya nombrado pionero del reconocimiento facial, Snapchat.

En su ya lejana etapa de bonanza, la App encontró la manera de enganchar a su público objetivo, los jóvenes. ¿Acaso hay algo más atractivo para un adolescente (y no tan adolescente) que hincharse a hacer selfies con filtros con los que difícilmente puede salir mal? Triste realidad, pero así es. Hoy en día, todo lo que nos haga alejarnos de nuestro “yo” real está de moda.

Otro ejemplo más reciente viene de la mano del iPhone X, cuyo algoritmo de reconocimiento facial es capaz de crear unos irresistibles ‘emojis’ en 3D que hablan y gesticulan a nuestro antojo, y a los cuales no concebimos como nada más que un inocente entretenimiento. ¡Error! No digo que estos emoticonos animados vayan a conquistar el planeta y gobernarlo tiranamente… de lo que hablo es de lo peligrosa que puede llegar a ser esta disruptiva tecnología, camuflada como se ha hecho siempre bajo una sencilla y cándida App móvil.

Las consecuencias ya se empezaron a ver con la creación de FakeApp, una aplicación gratuita con la que crear vídeos falsos cambiando caras. Y no os perdáis los usos que ha tenido hasta ahora… los artistazos que la utilizan se dedican a implantar las caras de los famosos encima de los rostros de actores y actrices porno mientras están a lo suyo, de manera que les queda una película porno de Óscar, pero sin tener que pagar la millonada a los nuevos protagonistas. El resultado es tan realista que da miedo. El creador de esta App cogió el software libre creado por el departamento de inteligencia artificial de Google que se había hecho público tres años atrás y que habían logrado entrenar para el autoaprendizaje (concepto conocido en inglés como machine learning). Así, lo adaptó y lo sacó online para descarga gratuita y claro, pasa lo que pasa.

No quiero alarmaros, pero…esto es solo la punta del iceberg. Tras la aparición de aplicaciones como FakeApp que dieron rienda suelta a la imaginación, empezaron a hacerse virales vídeos en los que salían políticos diciendo o haciendo cosas que jamás dijeron o hicieron en la realidad. ¿Cómo? Con la suplantación de cara de una forma tan perfecta que el 90% caeríamos en la trampa como auténticos idiotas.

¿Empezáis a entender dónde está el peligro? Vivimos en la era de la desinformación, de los engaños y de los fraudes por Internet, donde las noticias que nos salen de Facebook van a misa porque somos demasiados vagos para contrastarlas con la realidad, y donde la tecnología va muy por delante de la legislación, por lo que si cae en las manos equivocadas puede hacer mucho, mucho daño.

Sin embargo, no está todo perdido. Que este tipo de vídeos se hagan virales depende exclusivamente de cada uno de nosotros, de los usuarios de Internet, de que nos la cuelen y compartamos falsedades como bobos creyéndonos los profetas de la verdad. Educación y tecnología son las claves para acabar con esto, o por lo menos para que en lugar de tomarlo como realidad, quede como una mera broma con la que reírse un rato. Por un lado, educarnos en el sentido de no compartir nada en las redes que no podamos verificar, y segundo, dando a conocer la existencia de este tipo de aplicaciones para concienciar a los usuarios y que se vuelvan más escépticos ante este tipo de imágenes. Al fin y al cabo, cuanto más impactante y real parezca el vídeo, más probabilidad hay de que sea un fake como una casa.

La parte esperanzadora de toda esta historia es que, como en la mayoría de los casos, lo normal es que aparezcan otro tipo de herramientas que identifiquen los vídeos que hayan sido modificados en este sentido y, sobre todo, que el reconocimiento facial y la suplantación de caras puede tener otros muchos usos más constructivos. Quizá pueda ser un paso revolucionario en el campo de la educación, o de la creación cultural… Desde Siroppe, agencia creativa, decimos: ¡Amén a eso!

 

Etiquetas: , , ,
0 Comentarios Deja una respuesta

    Deja un comentario

    Tu comentario(click button to send)

    Siroppe Digital
    Compartir