Inteligencia artificial ética y al servicio de la Humanidad

CapturaLeo en el reporte anual de la revista WIRED, The World in 2018, un resumen sobre las tendencias tecnológicas y su impacto en la configuración de un futuro, tan próximo que ya casi es presente. Entre otras cuestiones señaladas, queda muy claro que la humanidad se enfrenta a una variedad de desafíos caracterizados por su gran complejidad e interdependencia: cambio climático; migraciones; desigualdad; alimentación, educación y asistencia sanitaria de una población mundial en constante expansión. Cada uno de ellos, por sí mismo, con potencial para desencadenar oleadas de conflictos, intra y supra estatales, a lo largo y ancho del globo capaces de provocar dinámicas de consecuencias catastróficas a una escala nunca antes conocida. La inteligencia artificial (AI) podría desempeñar un papel muy importante a la hora de ayudarnos a abordar estos problemas de forma objetiva y creativa. Aunque la propia integración de la inteligencia artificial es en sí misma un desafío sistémico para la humanidad con capacidad para agravar las consecuencias de todos los demás, convenientemente gestionada, la IA podría ayudar a solventarlos o paliar sus consecuencias. Por eso, los estudios relativos a los impactos éticos, sociales, políticos y en materia de seguridad de la inteligencia artificial, así como el diseño de estrategias de actuación, son una de las áreas de trabajo más apremiantes. Se trata de conseguir que la IA trabaje para las personas, el planeta y la justicia social.

Corremos el riesgo de imbuir a la IA de la misma miopía, parcialidad y sesgos que siempre han afectado a los humanos. Va a resultar necesario enseñar a la inteligencia artificial cómo aprender y trabajar sin los prejuicios deslizados inadvertidamente por sus programadores. La gestión de recursos humanos, la concesión o denegación crediticia y de aseguramiento o el acceso a determinadas ventajas, ayudas y subvenciones concedidas por las administraciones públicas, son determinados de modo algorítmico. Sin embargo, la mayoría de los algoritmos empleados por los sistemas inteligentes son cajas negras que solamente unos cuantos están capacitados para comprender e, incluso, como en el caso de la inteligencias artificiales más avanzadas, dotadas con deep learning y diseñadas a modo de redes neuronales convolutivas, ningún ser humano las comprende en su totalidad. Si la IA se va a utilizar cada vez en mayor medida para tomar decisiones trascendentes en relación a nuestras vidas, es imprescindible asegurarse de que sus algoritmos, complejos y dinámicos, no amplifiquen los prejuicios negativos de la sociedad que los ha creado.

El informe publicado por la Universidad de Stanford en 2016, One Hundred Year Study on Artificial Intelligence (AI100), hacía también hincapié en que las aplicaciones de IA y los datos en los que se basan pueden acabar reflejando los sesgos de sus diseñadores y usuarios, lo que amenaza con profundizar los prejuicios sociales existentes y concentrar los beneficios de la IA de manera desigual entre los distintos grupos y estratos de la sociedad.

En relación a ello, están las cuestiones sobre la privacidad y la vigilancia con sistemas de inteligencia artificial, especialmente en las ciudades que, cada vez en mayor medida, cuentan con un amplio despliegue de dispositivos, incluidos los artilugios portátiles personales que los propios individuos llevan encima. Dado que los puntos de vista sobre el sesgo y la privacidad se basan en juicios éticos y de valores personales y sociales, los debates sobre cómo abordar estas cuestiones no deben soslayarse aunque se resistan a una resolución rápida y a consensos amplios. Del mismo modo, dado que la IA está generando una riqueza significativa, debe abordarse la forma en que los frutos económicos de las tecnologías de IA deben ser compartidos, especialmente a medida que la experiencia en IA y los conjuntos de datos subyacentes que alimentan las aplicaciones se concentran aceleradamente en un pequeño número de grandes corporaciones.

El principal objetivo de la inteligencia artificial debe ser crear valor para la sociedad.

Deben diseñarse estrategias que mejoren nuestra capacidad para interpretar los sistemas de IA y participar en su uso para ayudar a crear confianza y prevenir fallos dramáticos. Se debe tener especial cuidado en aumentar y mejorar las capacidades humanas y la interacción para evitar la discriminación de determinados segmentos de la sociedad. La IA permitirá la creación y acumulación de riqueza de forma acelerada por lo que es necesario con carácter de urgencia un debate social sobre cómo compartir los frutos de estas nuevas aplicaciones de la tecnología. La medida del éxito de las aplicaciones de la IA es el valor que crean para los seres humanos. En el futuro, la facilidad con la que las personas utilicen y se adapten a las aplicaciones de IA determinará en gran medida su éxito. Puesto que las aplicaciones de inteligencia artificial son susceptibles a errores y fallos, una muestra de su éxito será la forma en que los usuarios perciban y toleren sus deficiencias. A medida que la IA se incorpora en la vida cotidiana y se utiliza para tareas más críticas, los errores pueden conducir a reacciones de rechazo por parte de los usuarios y afectar negativamente a su confianza.

Asimismo, la IA podría ampliar las desigualdades de oportunidad existentes si su acceso, (junto con la computación de alta capacidad y los datos a gran escala que alimentan a muchas de sus aplicaciones) se distribuye injustamente por toda la sociedad, ya que estas tecnologías potenciarán enormemente las capacidades y la eficacia de las personas, empresas y odministraciones públicas que tengan acceso a ellas, en detrimento de los excluidos.

Para ayudar a abordar estas inquietudes e incertidumbres acerca de las implicaciones individuales y sociales de las tecnologías de IA en rápida evolución, el Panel de Estudio de Stanford ha elaborado tres directrices generales para diseñar las políticas de actuación.

  • 1. Definir un itinerario para la adquisición de experiencia técnica en inteligencia artificial en todos los niveles de gobierno. La gobernanza eficaz requiere más expertos que comprendan y puedan analizar las interacciones entre las tecnologías de IA, los objetivos programáticos y los valores sociales generales.
  • 2. Eliminar los impedimentos percibidos y reales para la investigación sobre la equidad, seguridad, privacidad e impactos sociales de los sistemas de IA. Los sistemas de IA patentados deberían poder ser sometidos a ingeniería inversa y evaluados por académicos, periodistas y otros investigadores. Esta investigación es fundamental si los sistemas de inteligencia artificial con repercusiones en múltiples áreas fundamentales para el ser humano deben ser debidamente investigados y controlados.
  • 3. Aumentar la financiación pública y privada para estudios interdisciplinares de los impactos sociales de la IA.

En los próximos años, a medida que el común de la ciudadanía se encuentre con nuevas aplicaciones de IA en ámbitos como, por ejemplo, el transporte y la salud, éstas deben introducirse de manera que fomenten la confianza y la comprensión, respetando los derechos humanos y civiles. Al tiempo que fomentan la innovación, las políticas y los procesos deben abordar las implicaciones éticas, de privacidad, seguridad y justicia social, asegurando que los beneficios de las tecnologías de inteligencia artificial se difundan amplia y equitativamente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.