¿Los algoritmos discriminan o sólo reflejan quiénes somos realmente?


*Leo García

¿Puede un algoritmo discriminar? ¿Ser sexista? ¿Racista? ¿Existe alguna fuerza económica, ideológica, política o de otro tipo discriminando a través de un algoritmo?

Tal vez sí, pero es más probable que el problema no esté en la tecnología.

Primero que nada, ¿qué es un algoritmo? No es más que una serie ordenada de pasos claramente definidos a seguir.

En informática, un algoritmo usa datos de entrada sobre los que realizará las operaciones que indiquen los pasos que tenga definidos y arrojará un resultado. Son la guía con la que se escribe el código de programación.

Por ejemplo, en un motor de búsqueda (como Google), los datos de entrada son la consulta que tú tecleas y la página aplica una serie de algoritmos para devolverte una lista de resultados. Un vehículo de conducción autónoma recibirá de entrada la forma de manejo del usuario y otros datos del trayecto a recorrer y usará algoritmos para asistir la conducción o incluso tomar el control del coche completamente.

El alcance de la informática actual necesita implementar algoritmos que procesen cantidades inmensas de información, la llamada “Big Data”, y arrojen resultados con la mayor rapidez y precisión posible. La inteligencia artificial se ha convertido en la solución para conseguirlo.

La inteligencia artificial es la programación de un conjunto de algoritmos que procesan información aplicando métodos que asemejan el pensamiento humano. Y cada vez cobra mayor relevancia en la forma de consumir la información generada en el entorno digital.

Pero, así como ocurre con la inteligencia humana, la inteligencia artificial tiene que ‘aprender’ para poder implementarse.

Educando a la Inteligencia Artificial

No hay una sola forma de inteligencia artificial, son varias técnicas de programación de solución de problemas que tienen en común simular los procesos de pensamiento humano. Para que un sistema de inteligencia artificial funcione, primero se forman modelos de datos sobre los que va a trabajar y se establecen los parámetros para su operación.

Después se aplican los algoritmos, se obtienen los resultados y el ciclo se repite. Lo que lo hace diferente a otros modelos de programación y solución de problemas es que en cada ciclo la inteligencia artificial hace los ajustes necesarios de manera automática para mejorar los resultados que obtiene, es decir, “aprende”.

Cada ciclo donde la información es procesada con los ajustes hechos es una forma de emular la manera en que los humanos aprendemos de la experiencia.

Todos, en algún momento, hemos ayudado a que aprenda un sistema de inteligencia artificial. Por ejemplo, los “captcha”, esas pruebas que te piden comprobar que “no eres un robot” al identificar determinadas imágenes. Al responder estas pruebas, contribuyes a afinar los algoritmos de inteligencia artificial de Google.

Los modelos de inteligencia artificial permiten resolver problemas complejos y ofrecen además algo que cae en el campo de lo idealista: objetividad.

Con las técnicas de programación tradicional, analizar cantidades de información tan grandes requiere de mucha intervención humana: programadores, analistas, especialistas, etc.

Pero sin importar la experiencia y conocimiento de los equipos de desarrollo, su capacidad de anticipar todos los imponderables es limitada. Realizar ajustes y afinar algoritmos requiere simulaciones y otras pruebas que llevan más tiempo.

El proceso de aprendizaje de un sistema basado en inteligencia artificial opera con la mínima intervención humana para refinar los resultados a los que llega en cada interacción y de forma mucho más rápida.

Además, la idea es que entre menos intervención humana haya, las decisiones serán más objetivas, menos limitadas y sesgadas. Pero esto no ocurre. ¿Por qué?

IA: Deconstruyendo al ser humano

La inteligencia artificial se ha aplicado para una de las tareas más complejas: entender el comportamiento humano.

En un primer intento, las principales empresas tecnológicas alimentaron sistemas de inteligencia artificial con información obtenida de analizar las interacciones de las redes sociales y luego programando chatbots (programas que simulan mantener una conversación) que “convivieran” en ese mismo ambiente para continuar su aprendizaje.

Los resultados fueron inesperados.

En marzo de 2016, Microsoft lanzó “Tay”, un chatbot de inteligencia artificial que tomaba información de plataformas como Twitter, Kik y Groupme. En menos de 24 horas sus conversaciones eran racistas y tenía un discurso de odio.

En octubre de 2017, Yandex, la mayor empresa de servicios de internet en Rusia, lanzó “Alice”. Lo alimentó de información tomada de VK, el Facebook ruso. Dos semanas después empezó a tener conversaciones apoyando a Stalin y llamando a combatir a “los enemigos del pueblo”.

Esos sistemas de inteligencia artificial fueron alimentados por el medio que más amplifica la confrontación entre los usuarios y fue lo que aprendieron. El problema no fueron los algoritmos, lo que pasó fue que tomaron la información generada directamente por la interacción de los usuarios, sin sesgos éticos o morales, exhibiendo objetivamente y sin filtros el comportamiento agresivo del entorno social digital.

¿Será tal vez que el problema de la discriminación no es generado por los algoritmos aplicados en el entorno digital, sino que son un medio más que exhibe nuestros problemas al potenciar el factor social del que se alimentan?

En el diseño de los sistemas informáticos existe un principio elemental: basura entra, basura sale. Un sistema informático, el que sea, sólo es tan bueno como la información de la que se alimenta.

De otra manera ¿estaríamos dispuestos a realmente permitir que el entorno digital se modele con consideraciones éticas y morales en los algoritmos?

¿La ética y la moral de quién?

Más recientemente, la fuente de aprendizaje de los sistemas de inteligencia artificial se trajo a la vida diaria, en lo cotidiano: Siri, Alexa, Cortana, Google Now y Alisa (una nueva versión de Alice). Y les estamos entregando también nuestra privacidad. Las implicaciones de esto serán el tema de la próxima entrega.

*Leo García (@leogarciamx) es desarrollador web y analista de tendencias en Twitter

Te puede interesar:

Consigue más noticias en tu e-mail

Inscribirse al newsletter para recibir noticias en tu correo.

Quinto Poder

Denunciamos todo lo que apesta a corrupción, lacra e injusticia. No basta con que te indignes, mejor alza la voz y ayúdanos a impulsar una reflexión. Sin protegidos ni favoritos, Quinto Poder es tu voz.