Categoría: Inteligencia Artificial

Problemas en el exceso de eficiencia del big data

bigdataAprovecho un cambio de impresiones en el muro del profesor Fernando Broncano para escribir esta entrada.

En su nuevo libro The Efficiency Paradox: What Big Data Can’t Do, Edward Tenner hace un repaso de los problemas a los que puede conducir a largo plazo la hipereficiencia en las tareas de los algoritmos que vertebran el big data y la inteligencia artificial. Algunos pueden hacer peligrar no sólo la eficacia sino la eficiencia misma a largo plazo. Conduciendo no sólo a consecuencias indeseables, sino también a que se malgasten esfuerzos y se pierdan oportunidades. El autor los divide en siete grupos:

ANTISERENDIPIA (counterserendipity). La mayoría de los sucesos fortuitos son adversos o neutros. La eficiencia hace que el mundo sea más predecible. Pero si toda solución es lo más directa e inmediata posible, también nos vemos privados de los beneficios de la aleatoriedad ocasional y de los errores productivos. Los algoritmos convencionales reducen las sorpresas negativas al alto precio de amenazar a las positivas. Ambas son inseparables.

EXCESO DE ENFOQUE (hyperfocus). La eficiencia se expresa frecuentemente a través del enfoque de grano fino muy centrado en el área o problema que requiere ser abordado lo que, hasta cierto punto, es positivo y necesario. Sin embargo, esta eficiencia, indispensable en las operaciones diarias, hace que sea más difícil retroceder la perspectiva para obtener una visión de conjunto.

CASCADAS AUTO-AMPLIFICANTES. Los algoritmos pueden fallar al elegir la opción óptima, amplificando efectos inicialmente pequeños. Las decisiones iniciales pueden convertirse en profecías autocumplidas. Este es un riesgo especial en los procesos automatizados, desde el comercio financiero hasta los vehículos autónomos, en los que múltiples algoritmos, ninguno de los cuales puede ser perfecto, se ejecutan interactuando conjuntamente, a veces sin la posibilidad de una rápida intervención humana.

EROSIÓN DE HABILIDADES . Los sistemas automatizados realizan, o podrán realizar, la mayoría de las tareas mejor que las personas. Son casi siempre más eficientes y consistentes, razón por la cual su uso se está generalizando en un número creciente de áreas sustituyendo, o en colaboración con una persona cualificada. Por el momento, esta coordinación entre humanos y sistemas electrónicos ofrece mejores resultados que cualquiera de los dos por separado. Sin embargo, puede haber graves problemas cuando el compañero robótico falla si el ser humano no ha conservado sus habilidades. Los resultados pueden ser catastróficos para la eficiencia de todo el sistema y para la seguridad de las personas.

RETROALIMENTACIÓN PERVERSA. La interacción entre los sistemas automatizados se torna aún más problemática cuando se les pide no sólo que ejecuten objetivos humanos sino que proporcionen incentivos. Sería posible satisfacer un criterio determinado (como una puntuación en un test o examen) a través de medios que frustran el resultado real deseado (comprensión real). Una expresión de lo que en sociología se conoce como “Ley de Campbell”.

DILUVIO DE DATOS (data deluge). El big data cuando es utilizado por personas capacitadas con profundos conocimientos de los procesos subyacentes, pueden aumentar la eficiencia. Pero su uso también puede amenazar la propia eficiencia. El volumen de datos adquiridos automáticamente en muchos campos está aumentando más rápidamente que el coste por terabyte de almacenamiento, lo que supone un aumento de los gastos. El big data también pueden sugerir falsos positivos e hipótesis erróneas que suponen pérdidas y largas horas de trabajo para evaluar y descartar, conduciendo a una fatiga de alarma y alerta. El resultado neto puede ser una menor eficiencia real.

MONOCULTURA. Sin un diseño minucioso, un algoritmo puede multiplicar una fórmula exitosa hasta el punto de que un sistema se vuelva menos sensible a las circunstancias cambiantes. En psicología social se reconoce, por ejemplo, que algunos de los experimentos no pueden ser replicados, no por ningún error en el diseño, análisis o recolección de datos originales, sino porque las sociedades y sus valores cambian. Las personas y las sociedades no estamos estandarizados como los ratones de laboratorio en sus hábitats artificiales, vivimos en un entorno tecnológico en constante evolución y ajustamos nuestro comportamiento constante y a menudo inconscientemente.

Referencia bibliográfica.

Tenner, Edward. 2018. The Efficiency Paradox: What Big Data Can’t Do. New York: ALFRED A. KNOPF.

Inteligencia artificial ética y al servicio de la Humanidad

CapturaLeo en el reporte anual de la revista WIRED, The World in 2018, un resumen sobre las tendencias tecnológicas y su impacto en la configuración de un futuro, tan próximo que ya casi es presente. Entre otras cuestiones señaladas, queda muy claro que la humanidad se enfrenta a una variedad de desafíos caracterizados por su gran complejidad e interdependencia: cambio climático; migraciones; desigualdad; alimentación, educación y asistencia sanitaria de una población mundial en constante expansión. Cada uno de ellos, por sí mismo, con potencial para desencadenar oleadas de conflictos, intra y supra estatales, a lo largo y ancho del globo capaces de provocar dinámicas de consecuencias catastróficas a una escala nunca antes conocida. La inteligencia artificial (AI) podría desempeñar un papel muy importante a la hora de ayudarnos a abordar estos problemas de forma objetiva y creativa. Aunque la propia integración de la inteligencia artificial es en sí misma un desafío sistémico para la humanidad con capacidad para agravar las consecuencias de todos los demás, convenientemente gestionada, la IA podría ayudar a solventarlos o paliar sus consecuencias. Por eso, los estudios relativos a los impactos éticos, sociales, políticos y en materia de seguridad de la inteligencia artificial, así como el diseño de estrategias de actuación, son una de las áreas de trabajo más apremiantes. Se trata de conseguir que la IA trabaje para las personas, el planeta y la justicia social. Sigue leyendo

Robótica, inteligencia artificial, impuestos y renta básica universal

stock-photo-metallic-reflective-digital-female-representation-android-robotics-ai-hacker-humanoid-11e0f893-0f70-4c61-bf9c-b236db083177Una de las entradas en el blog de Enrique Dans me ha dado la excusa para volver a dedicar un ratito a escribir en relación al debate sobre la imposición especial al uso de robótica e #IA, en función de la cantidad de horas de trabajo humano sustituidas.

Esta polémica resulta, cuanto menos, útil para captar la atención y enfocarla sobre la cuestión principal: el establecimiento de mecanismos redistributivos de renta, diseñados con criterios de igualación de oportunidades, justicia y cohesión social, que compensen la tendencia acelerada a la acumulación de riqueza en los individuos y corporaciones situados en la clave de la pirámide del sistema económico globalista. Riqueza generada, en términos agregados, a costa del progresivo empobrecimiento de los estratos menos favorecidos.

Como ya han indicado muchos académicos de distintas especialidades, los avances tecnológicos son uno de los principales motores de productividad, crecimiento económico y prosperidad. Sin embargo, la revolución informática, digital y robótica es también un importante generador de desigualdad en varios aspectos: Sigue leyendo