La portada de mañana
Acceder
El Supremo amplía la investigación de los correos de la pareja de Ayuso
La Generalitat reconoció por escrito que el seguimiento de ríos es su responsabilidad
Opinión - Lobato, en su laberinto. Por Esther Palomera

Así pretenden Google, Apple y el resto de gigantes educar a la inteligencia artificial

Aunque el desarrollo de la inteligencia artificial abre todo un mundo de posibilidades en áreas como la economía, la medicina o la ingeniería, permitir que los algoritmos aprendan y tomen decisiones por sí mismos también entraña riesgos. Ciberataques más sofisticados, algoritmos que realizan elecciones injustas o, en el caso más extremo, máquinas que se rebelan contra sus creadores son algunos de los riesgos más temibles.

Por ello, las mayores empresas y los más relevantes investigadores del sector se han unido en Partnership for AI, una gran alianza que pretende establecer las bases éticas y definir las buenas prácticas que evitarán que se hagan realidad las predicciones más funestas. Su misión es conducir el avance imparable de la inteligencia artificial por la senda adecuada y con el bien común como primer objetivo.

Todos los grandes nombres están presentes: Google, Amazon, Microsoft, Facebook, IBM y, aunque su incorporación oficial al proyecto ha sido más tardía, también Apple. OpenAI, la iniciativa sin ánimo de lucro que impulsa Elon Musk, también forma parte. Así, los gigantes que llevan años invirtiendo en inteligencia artificial y convirtiéndola en la base de sus productos se sentarán a hablar de los límites, los riesgos y los conflictos éticos de aquello en lo que están trabajando.

“Esta es la primera vez en la que los seis grandes actores de la industria, los que están empujando los límites de la inteligencia artificial, se juntan para definir las buenas prácticas”, explica a HojaDeRouter.com el investigador Subbarao Kambhampati, presidente de la Asociación para el Avance de la Inteligencia Artificial (AAAI) y miembro de la junta de Partnership for AI.

Este catedrático comparte asiento en el máximo organismo de la institución con representantes de las grandes empresas y con un número equivalente de representantes del ámbito académico, las sociedades científicas y las organizaciones de derechos civiles. Seis asientos para los gigantes y seis para ellos.

Jason Furman, que acaba de incorporarse al Instituto Peterson tras ocho años como asesor económico del presidente Obama, también forma parte de la junta que dirige la alianza. Cree que la inteligencia artificial podría ser uno de los avances más importantes para la economía y la sociedad en las últimas décadas, y por ello considera “clave contribuir a definir las mejores prácticas y políticas para asegurarse de que la inteligencia artificial trabaja al servicio del bien”.

Una preocupación común

“Hay mucho trabajo por hacer para descubrir cómo abordar asuntos como la ecuanimidad y la privacidad en los sistemas de inteligencia artificial”, señala Deirdre Mulligan, profesora de la Universidad de Berkeley y directora del Centro Berkeley de Derecho y Tecnología. También miembro de la junta de Partnership for AI, la experta recuerda que, “como cualquier tecnología, la inteligencia artificial podría ser usada incorrectamente por individuos u organizaciones con malas intenciones”.

La manipulación intencionada del 'chatbot' de Microsoft por parte de usuarios que querían amplificar su perspectiva racista y misógina es un ejemplo de ello”, detalla Mulligan. Sin embargo, el peligro no está solo en una posible manipulación intencionada: la inteligencia artificial también puede absorber los prejuicios de la sociedad y de sus creadores y acabar conduciendo a resultados injustos o indeseados. “La búsqueda de imágenes de Google etiquetó a personas negras como gorilas”, recuerda la experta. “En ese caso, las etiquetas no fueron el resultado de una actitud racista, sino la suma de una base de datos de entrenamiento incompleta y de las limitaciones de los algoritmos de reconocimiento facial causadas por esos conjuntos de datos limitados”.

Finalmente, tal y como explica esta profesora, la inteligencia artificial también puede incorporar prejuicios como resultado de cálculos complejos, que no obstante pueden ser sutiles y difíciles de identificar y de entender. Cuando las máquinas aprenden por sí mismas, sus creadores no siempre saben cómo ni por qué ha llegado a una determinada conclusión. Y eso puede terminar causando problemas, en ocasiones graves.

Eric Sears, miembro de la Fundación MacArthur y de la junta de Partnership for AI, también ha hecho referencia a esos peligros, señalándolos como desafíos para la organización. “Entre los retos se incluye [...] detectar y mitigar los sesgos de la máquina que puedan tener un impacto desproporcionado en grupos históricamente desfavorecidos” o “asegurarse de que los sistemas de inteligencia artificial se entienden y se puede vigilar que actúan de forma responsable”.

Por otra parte, la alianza trabajará para informar al público, desmentir algunos mitos y contrarrestar ciertos temores —las nuevas tecnologías siempre asustan y preocupan a una parte de la sociedad—. Asimismo, promoverán nuevos estudios sobre la materia y tratarán de difundir los ya existentes.

Pero al igual que saben cuáles son, al menos sobre el papel, sus objetivos, también tienen claro a qué cosas no se van a dedicar. La agrupación no busca funcionar como un 'lobby' que presione a los legisladores cuando vayan a aprobar medidas vinculadas con la inteligencia artificial. Tampoco creen que dicha normativa sea primordial. “No veo la necesidad de una legislación específica”, opina el exasesor de Obama.

Una ética de cumplimiento voluntario

Mayoritariamente estadounidense, esta alianza por la inteligencia artificial está dando sus primeros pasos. Todavía “en su fase ‘startup'”, según describe Sears, la agrupación comenzó su recorrido en septiembre de 2016 y desde entonces lleva trabajando para establecer la actual composición de la junta.

Por el momento solo han tenido una reunión —el 3 de febrero— y aún están definiendo su método de trabajo. Aún así, hay varias cosas que tienen claras. En primer lugar, que su labor principal consistirá en definir una serie de directrices éticas consensuadas. Por desgracia, serán de cumplimiento voluntario. La pertenencia a la organización no obliga a las empresas a seguir las pautas que se acuerden. Los miembros tampoco tendrán a su disposición, al menos de momento, mecanismos para hacer que los demás respeten lo pactado.

Se enfrentan además al reto de ser críticos con sus propias prácticas y al de actualizar constantemente sus recomendaciones.

A pesar de las limitaciones de esta joven alianza, la unión aporta algo claramente positivo. Al fundarla, industria, académicos y organizaciones del sector, sin dejar fuera a ningún actor clave, pronuncian un mensaje alto y claro: la inteligencia artificial, aunque llamada a revolucionar la sociedad y la economía, ha de tratarse con cuidado. Dejar decisiones que afectan a cada vez más facetas de nuestras vidas en manos de un algoritmo requiere de un trabajo previo cuidadoso y exhaustivo.

El objetivo final es que los rasgos menos positivos de sus creadores humanos no se encuentren en la inteligencia artificial, para conseguir que sea imparcial, lógica y ecuánime y asegurarse de que nadie pueda usarla con malas intenciones ni ella misma se acabe corrompiendo.

Los nombres de todos los gigantes de la tecnología figuran ya en la lista de miembros de la asociación. Ahora solo queda ver si son capaces de guiarse por los sanos principios que ellos mismos lleguen a acordar en el seno de esta organización. Del cariz que tomen sus avances depende en gran medida el futuro de la inteligencia artificial.

----------------------------------

Las imágenes son propiedad de A Health Blog, Jinguang Wang, Matthew Hurst y Wikimedia