Problemas en el exceso de eficiencia del big data

bigdataAprovecho un cambio de impresiones en el muro del profesor Fernando Broncano para escribir esta entrada.

En su nuevo libro The Efficiency Paradox: What Big Data Can’t Do, Edward Tenner hace un repaso de los problemas a los que puede conducir a largo plazo la hipereficiencia en las tareas de los algoritmos que vertebran el big data y la inteligencia artificial. Algunos pueden hacer peligrar no sólo la eficacia sino la eficiencia misma a largo plazo. Conduciendo no sólo a consecuencias indeseables, sino también a que se malgasten esfuerzos y se pierdan oportunidades. El autor los divide en siete grupos:

ANTISERENDIPIA (counterserendipity). La mayoría de los sucesos fortuitos son adversos o neutros. La eficiencia hace que el mundo sea más predecible. Pero si toda solución es lo más directa e inmediata posible, también nos vemos privados de los beneficios de la aleatoriedad ocasional y de los errores productivos. Los algoritmos convencionales reducen las sorpresas negativas al alto precio de amenazar a las positivas. Ambas son inseparables.

EXCESO DE ENFOQUE (hyperfocus). La eficiencia se expresa frecuentemente a través del enfoque de grano fino muy centrado en el área o problema que requiere ser abordado lo que, hasta cierto punto, es positivo y necesario. Sin embargo, esta eficiencia, indispensable en las operaciones diarias, hace que sea más difícil retroceder la perspectiva para obtener una visión de conjunto.

CASCADAS AUTO-AMPLIFICANTES. Los algoritmos pueden fallar al elegir la opción óptima, amplificando efectos inicialmente pequeños. Las decisiones iniciales pueden convertirse en profecías autocumplidas. Este es un riesgo especial en los procesos automatizados, desde el comercio financiero hasta los vehículos autónomos, en los que múltiples algoritmos, ninguno de los cuales puede ser perfecto, se ejecutan interactuando conjuntamente, a veces sin la posibilidad de una rápida intervención humana.

EROSIÓN DE HABILIDADES . Los sistemas automatizados realizan, o podrán realizar, la mayoría de las tareas mejor que las personas. Son casi siempre más eficientes y consistentes, razón por la cual su uso se está generalizando en un número creciente de áreas sustituyendo, o en colaboración con una persona cualificada. Por el momento, esta coordinación entre humanos y sistemas electrónicos ofrece mejores resultados que cualquiera de los dos por separado. Sin embargo, puede haber graves problemas cuando el compañero robótico falla si el ser humano no ha conservado sus habilidades. Los resultados pueden ser catastróficos para la eficiencia de todo el sistema y para la seguridad de las personas.

RETROALIMENTACIÓN PERVERSA. La interacción entre los sistemas automatizados se torna aún más problemática cuando se les pide no sólo que ejecuten objetivos humanos sino que proporcionen incentivos. Sería posible satisfacer un criterio determinado (como una puntuación en un test o examen) a través de medios que frustran el resultado real deseado (comprensión real). Una expresión de lo que en sociología se conoce como “Ley de Campbell”.

DILUVIO DE DATOS (data deluge). El big data cuando es utilizado por personas capacitadas con profundos conocimientos de los procesos subyacentes, pueden aumentar la eficiencia. Pero su uso también puede amenazar la propia eficiencia. El volumen de datos adquiridos automáticamente en muchos campos está aumentando más rápidamente que el coste por terabyte de almacenamiento, lo que supone un aumento de los gastos. El big data también pueden sugerir falsos positivos e hipótesis erróneas que suponen pérdidas y largas horas de trabajo para evaluar y descartar, conduciendo a una fatiga de alarma y alerta. El resultado neto puede ser una menor eficiencia real.

MONOCULTURA. Sin un diseño minucioso, un algoritmo puede multiplicar una fórmula exitosa hasta el punto de que un sistema se vuelva menos sensible a las circunstancias cambiantes. En psicología social se reconoce, por ejemplo, que algunos de los experimentos no pueden ser replicados, no por ningún error en el diseño, análisis o recolección de datos originales, sino porque las sociedades y sus valores cambian. Las personas y las sociedades no estamos estandarizados como los ratones de laboratorio en sus hábitats artificiales, vivimos en un entorno tecnológico en constante evolución y ajustamos nuestro comportamiento constante y a menudo inconscientemente.

Referencia bibliográfica.

Tenner, Edward. 2018. The Efficiency Paradox: What Big Data Can’t Do. New York: ALFRED A. KNOPF.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.