REGRESAR

Esta tecnología puede hacer que un político ‘te engañe’ sin que lo notes

Por: QuintoPoder
Nov. 22

Compartir:


*Leo García

Para el ser humano la realidad se forma a partir de lo que percibe con los sentidos. Con la tecnología actual cada vez es más difícil distinguir lo que es real o no, y será aún más difícil confiar en lo que vemos.

La inteligencia artificial está ofreciendo oportunidades para solucionar problemas complejos, optimizar procesos y ya empieza a participar más en las decisiones humanas.

Como cualquier tecnología disruptiva, es decir, que provoca un cambio profundo y repentino, la inteligencia artificial también trae riesgos inesperados. La optimización y procesamiento de imágenes puede presentar algunos de los riesgos más difíciles de entender y con efectos en el corto plazo.

Los algoritmos de inteligencia artificial permiten reconstruir imágenes con gran precisión y calidad. Se puede generar la imagen correcta, aunque solo se tenga un fragmento, en baja resolución, borrosa, lejana, oscura, parcial o deformada.

Para esto se aplican los algoritmos llamados “red generativa antagónica” que, dicho de manera sencilla, ponen a competir dos sistemas de inteligencia artificial, uno generador de datos candidatos y uno supervisor evaluando su autenticidad. El dato final que se busca conseguir es que el supervisor sea “engañado”, evaluando como auténtico el dato del generador.

Al aplicar esta técnica en fotografías es muy probable que el resultado final también sea considerado auténtico por el observador humano, aunque la imagen no sea real.

‘Faceswap’, ‘deepfakes’ a una app de distancia

Lo complejo de modificar videos de manera convincente por mucho tiempo ha permitido que se tomen como un medio de prueba confiable de que algo realmente sucedió. Los errores de secuencia, las variaciones de color, velocidad, iluminación o alteraciones de sonido, son fallas comunes que delatan los cambios hechos a un video.

Con el aumento en la capacidad de cómputo, los algoritmos de inteligencia artificial pueden aplicarse para alterar videos. Aquellos en los que sólo se sustituye el rostro, lo que se conoce como ‘faceswap’, se han logrado resultados bastante convincentes y es una tecnología que ya está al alcance de cualquiera mediante apps.

Para alterar un video con ‘faceswap’, el requisito es disponer de tantas imágenes como sea posible del rostro por el que va a ser sustituido el original. Entre más imágenes, en distintos ángulos, posiciones y expresiones, el resultado es más convincente.

Lo que la inteligencia artificial hace es comparar los puntos característicos del rostro original y del que se quiere sustituir y tomar las imágenes para reconstruir el video, cuadro por cuadro, y obtener la mejor secuencia posible.

Entre más diferencias hay entre los dos rostros, el proceso puede ser más tardado, pero si los rostros que se sustituyen son parecidos, realizan pocas gesticulaciones, y se dispone de una buena cantidad de imágenes de referencia, el proceso es menos tardado y el video que resulta es muy convincente.

El ‘faceswap’ y los videos íntimos no consensuados

Uno de los usos cuestionables que se le ha dado a esta tecnología es alterando videos pornográficos y trae un riesgo inesperado cuyas víctimas son principalmente mujeres.

El denominado ‘fake porn’ es el cambio de rostros de las actrices en material para adultos, en los más conocidos se han usado los de celebridades, casi siempre actrices de Hollywood, o mujeres en la política.

Pero va en aumento el uso de esta tecnología para sustituir los rostros de amigas, compañeras de clase o parejas. En el caso más drástico, puede servir para hacer videos falsos de venganza, en el que alguien use esta tecnología con la finalidad de perjudicar a su pareja.

El riesgo que esto representa ha hecho que países como Inglaterra y Alemania ya se trabajen en marcos legales para considerarlos como actos de violencia doméstica y tipificarlos de manera equivalente a una violación.

Deepfake: el siguiente paso en la posverdad

En junio de 2017 se mostró una de las posibilidades más polémicas y preocupantes de esta tecnología. Se hizo público un video de Barack Obama donde parece usar un lenguaje que nunca se le escucharía en la realidad, ofendiendo abiertamente a Donald Trump. El video fue generado por inteligencia artificial y las palabras las pronunció el comediante Jordan Peele.

Quedó claro que esta tecnología será usada cada vez con más frecuencia con fines políticos. Es el siguiente paso en la posverdad y los hechos alternativos, abre la posibilidad a nuevas formas de usurpación de identidad, engaño y manipulación.

Es ideal para influir en una audiencia con tendencia al consumo de información sin verificar fuentes ni veracidad, las fake news. ¿Qué puede ser más convincente que el político en quien tienen puesta su simpatía y confianza lanzando alguna acusación o haciendo llamados a movilizarse?, ¿cuál sería la consecuencia de un video “filtrado”, generado por inteligencia artificial, donde un candidato se rinda ante su oponente?

Aunque la técnica más utilizada y que mejores resultados tiene es el cambio de rostros, por ahora, los algoritmos se siguen mejorando, la tecnología sigue avanzando. Más recientemente, es posible encontrar videos donde se genera completa la imagen alterada de una persona, sin que sea real.

¿Estamos listos para cuestionar lo que vemos? ¿Nos acercamos a una época donde necesitaremos tener tecnología que primero certifique la veracidad o no de la información que estamos por consumir?

Mientras tanto, ya hay grandes medios masivos que están buscando asesoría de laboratorios de informática y capacitando a su personal para evaluar el material gráfico que les llegue.

A este paso, ¿en qué podremos confiar?

*Leo García (@leogarciamx) es desarrollador web y analista de tendencias de Twitter.

Te puede interesar:



ARTÍCULOS RELACIONADOS






Encuestas

¿Estás a favor de la construcción del aeropuerto en Santa Lucía?

  • (66%)

  • No (31%)

  • Me da lo mismo (3%)

Loading ... Loading ...

Suscríbete a nuestro Newsletter

Por el momento estamos en construcción pero déjanos tus datos y muy pronto empezarás a recibir información de nosotros.