Solemos preferir tratar con una persona antes que con un sistema tecnológico, incluso cuando este ofrece mejor rendimiento, pero estamos más dispuestos a confiar en las máquinas si nos demuestran que son capaces de aprender
Entre humanos, es habitual perdonar el error ajeno y admitir el propio. “Al mejor escribano se le va la pluma”, dice el refranero que tan bien nos conoce. Cuando la que mete la pata es una máquina, nos volvemos inmisericordes. Así lo revelan estudios como el que acaba de publicar un equipo de investigadores de las universidades de Munich y Darmstadt, en Alemania. Cuando un sistema de decisión basado en algoritmos comete un error, nuestra confianza en ellos se daña más que la depositamos a en personas que nos han dado el consejo equivocado. Sin embargo, esta crisis de fe tiene cura: que el modelo demuestre su capacidad de aprender.
El fenómeno, bautizado en la academia como aversión al algoritmo, no es nuevo. “En los años 60 había estudios que observaban la atención sanitaria y las decisiones médicas, comparando sus juicios clínicos con aquellos basados en estadísticas. Pese a que estos métodos eran realmente precisos en sus predicciones, los humanos siempre se abstenían del juicio puramente estadístico”, explica Benedikt Berger, autor del estudio, junto con Martin Adam, Alexander Rühr y Alexander Benlian.