domingo, 30 de junio de 2019

¿Qué pasaría si la Inteligencia Artificial gobernara el mundo?


¿Y si en lugar de partidos políticos, presidentes, primeros ministros, reyes, reinas, ejércitos, autócratas, y quién sabe qué más, entregamos todo a sistemas expertos? ¿Qué pasaría si los diseñáramos para que fueran fieles, por ejemplo, a un simple y básico principio: "los seres humanos, independientemente de su edad, sexo, raza, origen, religión, ubicación, inteligencia, ingresos o riqueza, deben ser tratados de manera igualitaria, justa y consistente"?

Los sistemas expertos se rigen por sus principios fundamentales y las inferencias que siguen de ellos. Todo depende de los principios programados en los sistemas, lo que llamamos "heurística". Si el primer principio es "maximizar los beneficios a toda costa", el sistema experto daría consejos muy diferentes. Si el primer principio es "emular a los países desarrollados", el asesoramiento volvería a diferir. ¿Qué significa esto? ¿Significa que los sistemas expertos pueden ser "manipulados"? ¿Significa que los sistemas expertos pueden tener valores, creencias y actitudes? Así es. Más o menos. Lo que realmente significa es que a los sistemas inteligentes se les puede decir cómo tener valores, creencias y actitudes y qué valores, creencias y actitudes deben mostrar. Dado esto, ¿qué deberíamos decirles que hagan?

Hoy en día se da relativamente poca discusión sobre la ética de la inteligencia artificial y los sistemas de valores que permitirán a los sistemas inteligentes "decidir" qué recomendar y qué curso de acciones tomar en situaciones donde está en juego la vida humana, por ejemplo en el caso de los coches autónomos, qué deben hacer cuando se enfrentan al dilema de "atropellar a la anciana-débil contra la joven-mujer-con-gemelos" (una variante del famoso "Problema del Tranvía"). Como este hay muchos otros, pero también hay otros más sencillos como "minimizar el coste de los camiones de larga distancia", en los que un sistema experto basado en la gestión de costes recomendaría reducir el número y/o el coste de los conductores (con recomendaciones sobre cómo lograr ese objetivo), invertir en camiones más baratos (con una lista) o eliminar a los conductores por completo (con camiones autónomos). Si el principio fundamental implementado en el sistema experto fuera "aumentar las oportunidades de empleo en la industria del transporte", las recomendaciones serían diferentes, y no incluirían a los camiones que conducen sin chóferes, al menos no en un futuro próximo.

En estos momentos, el primer principio general de las aplicaciones actuales de los sistemas inteligentes de todo tipo es el ahorro de costes. Las proyecciones son que la aplicación generalizada de la IA y el aprendizaje automático eliminará millones de puestos de trabajo y "ahorrará" miles de millones en dinero y con alta probabilidad decenas de millones de empleos. ¿Quién sabe? Pero, ¿cuál es el principio rector? Ahorrar dinero para hacer dinero, no para proteger empleos. Sí, habrá innovación que estimule la creación de empleo, pero ¿compensará eso las pérdidas? Poco probable. 

Entonces, ¿cuál es la lección? Sin importar el ámbito - salud, automoción, industria, comida rápida, etc. - hay que decidir primero qué principios fundamentales van a regir estos sistemas de Inteligencia Artificial (nada muy distinto a la educación de un humano) porque optimizarán el objetivo que se les dice que deben perseguir y ahí es donde realmente se juega el partido de nuestro futuro, no en si esta tecnología que terminará teniendo resultados emergentes es necesaria o buena en sí misma y por tanto, si se debe avanzar en su desarrollo y generalización de uso.

Nota: reflexión a partir de escritos de Steve Andriole.

No hay comentarios:

Publicar un comentario

Sé buena persona y por favor no castigues mis marchitas neuronas con otra escritura que no sea la respetuosa con la puntuación y la ortografía, el censor que llevo dentro te lo recompensará continuando dormido.