Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

José Joaquín Flechoso Cibercotizante

Los algoritmos también se equivocan

Nos toca vivir en un tiempo donde las relaciones laborales se encuentran en plena transformación. La armonía entre humanos, maquinas y algoritmos, van a obligar a modificar conductas y comportamientos. Cualquiera de ellos puede estar subordinado al otro. Aquello de mi jefe es un robot, muy de las novelas de ciencia ficción, son una realidad en la actualidad y un algoritmo, puede emitir ordenes con la misma frialdad que un jefe arrogante.

Teniendo en cuenta todo lo anterior y aceptando que un sistema de aprendizaje automatizado no aprende más allá de lo que esté contenido en el conjunto de datos que se le ha suministrado, podemos suponer que dicho sistema puede estar sujeto a sesgos, parcialidad, inducción al error o incluso a la subjetividad de su creador. Por estos motivos se hace tremendamente necesario auditar no sólo los algoritmos, sino también los datos y la fiabilidad u origen de los mismos.

Los algoritmos no fueron capaces de predecir el Brexit, ni la victoria de Trump, simplemente porque ellos no son capaces de predecir la estupidez humana

Buena prueba de ello fue cuando el artista alemán Simon Weckert consiguió burlar el algoritmo que utiliza Google Maps para predecir el tráfico. Conectó 99 móviles a la aplicación de forma simultánea, los cargó en un carrito y paseó con ellos por Berlín. Los dispositivos empezaron a mostrar en rojo las calles vacías que él atravesaba, como si hubiera mucho tráfico, y la aplicación puso en marcha rutas alternativas para que los conductores evitasen el supuesto atasco.

También los bots son objeto de revisión. Tay fue un buen ejemplo de ello. Creado por Microsoft en 2016, estaba programado para ir almacenando y procesando datos procedentes de sus conversaciones con tuiteros humanos, perfeccionando su lenguaje, intentando imitar los patrones de lenguaje de una adolescente estadounidense de 19 años que aprendiese de las interacciones con usuarios humanos de Twitter. Tras apenas 100.000 tuits, 155.000 seguidores y 16 horas de vida Microsoft decidió desconectarlo. Tay estaba emitiendo mensajes racistas y cargados de contenido sexual en respuesta a otros usuarios porque imitaba el comportamiento ofensivo intencional de los usuarios de Twitter tras sufrir un ataque de malware intencionado.

Los algoritmos no fueron capaces de predecir el Brexit, ni la victoria de Trump, simplemente porque ellos no son capaces de predecir la estupidez humana.

José Joaquín Flechoso es presidente de Cibercotizante

Deja un comentario

Scroll al inicio