Que los robots ocupen gran número de puestos de trabajo nos plantea un debate no solo económico, sino de supervivencia como especie. Pronto tendremos que decidir si confiaríamos a un algoritmo nuestros sistemas de salud o de defensa.
¿Deberían pagar impuestos los robots? Según Bill Gates, la respuesta es “sí”. Al sustituir a seres humanos en puestos de trabajo por los cuales las empresas pagan impuestos, estas deberían tributar la parte correspondiente. Si no es así, la prestación de servicios públicos será pronto insostenible debido al previsible crecimiento en el número de robots en el mercado laboral.
Desde luego es preocupante que una nueva ola de robots ocupe un gran número de puestos de trabajo, pero se podría decir que la automatización de la producción industrial es algo que lleva ocurriendo de manera masiva desde el final de la segunda guerra mundial. ¿Por qué la situación es más alarmante en estos momentos? Veamos uno de los casos más repetidos en los últimos años, el de los coches y camiones sin conductor. Lo que empezó como uno de los experimentos de Google, el desarrollo de vehículos autónomos, es algo que ahora están haciendo casi todas las grandes marcas y que ha puesto de moda Tesla con sus primeros modelos. El mejor argumento para la automatización de la conducción es el de la seguridad: es más seguro que conduzca un conjunto de algoritmos, que no se cansan ni conducen bebidos o drogados, que un ser humano, cuyas capacidades cognitivas se resienten en muchas circunstancias.
Cuando la conducción automatizada se combina con la llamada «economía Uber» aparece también el problema del trabajo. ¿Cuántos puestos de trabajo desaparecerán en todo el mundo si la inteligencia artificial (IA) se impone en los sectores del transporte por carretera de personas y mercancías? ¿Cuántos millones de taxistas, conductores de autobuses y camiones hay en todo el mundo que perderían sus trabajos? ¿Qué haremos con ellos? Uber ya está colaborando con las universidades de Arizona y Carnegie Mellon (de la que fichó a 40 investigadores en inteligencia artificial) en asuntos de seguridad y autonomía mientras que Tesla ya ha anunciado la construcción del modelo «Semi», un camión totalmente eléctrico que probablemente tendría la misma capacidad de conducción autónoma que los coches. Es decir, el horizonte de cambios que nos traerá la economía de la inteligencia artificial se mueve en el rango de las décadas, si no de unos pocos años.
Para mi generación, la educación era un instrumento de ascenso económico, de pertenencia social y, de rebote, una forma de evitar aquellos puestos de trabajo que podrían desaparecer gracias a mejoras en la productividad. Es decir, estudiar para hacerse abogado, médico o funcionario no solo proporcionaba estabilidad económica y cierta visibilidad social, sino que las garantizaba durante toda la vida profesional. Lo más probable es que, gracias a la inteligencia artificial, este planteamiento ya no sea válido ni para las mejores profesiones.
En muchos de los despachos de abogados más grandes del mundo, la parte de la profesión de la que se encargaban los abogados más jóvenes, lo que se llama la fase de «descubrimiento» en la que las partes pueden obtener pruebas antes del juicio, ya la han comenzado a hacer los algoritmos. Y no solo eso, sino que en la empresa americana DoNotPay es un abogado-robot quien escribe la carta de 500 palabras que hay que enviar al ayuntamiento para quitarte las multas de tráfico. Su porcentaje de éxito es del 60%.
Los futuros médicos no lo tienen más sencillo. Los sistemas de inteligencia artificial para el reconocimiento de imágenes aplicados a la detección de cánceres de piel son más exactos que los especialistas humanos. Y respecto a los funcionarios, confieso que formo parte de un equipo de investigadores de varios países que estudiamos la aplicación desistemas de inteligencia artificial para el desarrollo e implementación de políticas públicas. Todavía es pronto, y el marco de referencia en el que trabajamos es el de un sistema híbrido de algoritmos y humanos que trabajan de manera coordinada. Pero el interés de los gobiernos por crear mejores formas de solucionar los problemas complejos que afectan a la humanidad –desde el cambio climático hasta las epidemias– implica crear sistemas que sean capaces de procesar enormes cantidades de datos, algo que los seres humanos no hacemos bien.
Pero los seres humanos sí podemos hacer algo que, de momento, la inteligencia artificial no sabe hacer. El caso más famoso de los últimos años es el de la máquina DeepMind que Google compró por Google y que se hizo célebre alderrotar sin mayores problemas al campeón mundial de Go, un juego de estrategia muy popular en Asia mucho más complejo que el ajedrez. La buena noticia es que DeepMind solo sabe jugar a Go y que si lo ponemos a conducir un coche, detectar cánceres o evaluar pruebas legales no sabrá ni por dónde empezar. Un niño, por su parte, aprende a aprender de otros contextos como parte normal de su desarrollo. Es decir, los niños, y también los animales, no están circunscritos como los algoritmos a una inteligencia que es específica y eficaz solo en un dominio de la realidad. Los seres humanos ejercen lo que se conoce como inteligencia general, que les permite aprender tanto por imitación como por lo que podemos llamar analogía, aplicando lo aprendido en un dominio a otro completamente distinto. De momento la inteligencia artificial no ha desarrollado ni parece que pueda desarrollar nada parecido en el futuro inmediato.
No hay un consenso sobre la definición de inteligencia artificial, pero todos los expertos están de acuerdo en que dos cosas han cambiado radicalmente en los últimos años en este campo al que hasta hace poco solo la ciencia ficción prestaba atención. La primera tiene que ver con los avances en un subcampo de la inteligencia artificial que se conoce como «aprendizaje automático» (machine learning, en inglés). El aprendizaje automático es la capacidad de un sistema de mejorar su rendimiento en una tarea a medida que la realiza más veces. Casi siempre estas tareas están relacionadas con el reconocimiento de patrones en conjuntos de datos. Y aquí es donde los cambios de comportamiento producidos por la digitalización de la vida humana han proporcionado el segundo elemento para el despegue de la inteligencia artificial: los datos. La eficacia de los sistemas de aprendizaje automático se debe a la disponibilidad de los trillones de datos generados, entre otras cosas, gracias a nuestra participación en Internet, los teléfonos móviles y las redes sociales.
Seis compañías americanas y una china tienen casi todos los conjuntos de datos de los que se alimenta la economía de la inteligencia artificial: Google, Facebook, Apple, Amazon, Microsoft, IBM y Baidu. El resto, es decir, toda la economía mundial, juega de momento un papel secundario en este nuevo ecosistema digital. Como ha explicado el experto americano Ryan Calo, para acceder a una cantidad suficiente de datos las empresas pueden construir sus propias bases de datos, pueden comprarlos o pueden usar los que son de dominio público. Esto significa que estamos muy cerca de una situación monopolística respecto al mercado de datos, que este es ya inmenso (hay un gran mercado negro de compraventa de datos personales), y que el papel de los gobiernos democráticos en la regulación de todo lo que tiene ver con los datos –desde la privacidad hasta lo que debe ser de dominio público y lo que nunca puede ser parte de una transacción comercial– es más importante y decisivo que nunca.
¿Confiaría en el algoritmo?
Desde el punto de vista de la economía, sin empresas nacionales y europeas en la economía de la inteligencia artificial la autonomía de un país o una región así como la capacidad de sus trabajadores y expertos para sobrevivir en este nuevo ambiente se verá muy reducida. Desde el punto de vista de la cultura y la historia, el futuro de una comunidad política depende de que se pueda acceder a los datos del comportamiento pasado de nuestros conciudadanos, de la misma forma que ahora accedemos a los documentos históricos y a los libros guardados en archivos y bibliotecas.
Otro problema que acucia a los expertos en IA y a los que aplican sus sistemas en ámbitos públicos, es que algunos de los algoritmos más efectivos que se han desarrollado últimamente son algoritmos de caja negra. La «caja negra» se refiere a que no sabemos qué es lo que aprende el algoritmo para hacer las cosas tan bien como las hace. Esto se conoce como el problema de la interpretabilidad y tiene consecuencias enormes en casi todos los ámbitos en los que se usa la IA.
Imagínese que el sistema de salud sustituye la parte del diagnóstico que hacen los médicos con un algoritmo que es mucho más eficiente que los doctores de carne y hueso. El único problema es que no sabemos lo que el algoritmo ve en los datos para decidir que, lo que usted tiene, es lo mismo que ha detectado en otros miles de pacientes cuyos datos ya ha examinado. ¿Confiaría en el algoritmo?
Ahora piense que hemos «avanzado» tanto en nuestros sistemas de gobierno que la detección de un ataque militar de una potencia extranjera –también gestionada por algoritmos– queda en las manos de un algoritmo, ¿le confiaríamos que declarara la guerra y organizara la primera ola de contraataques? El Parlamento debería haber aprobado antes una resolución al respecto, pero dada la velocidad a la que ocurre la cíber-guerra no parece muy efectivo esperar a que se cumplan los trámites parlamentarios habituales. O quizás sí sea conveniente que los ritmos de decisión de estos sistemas sigan de alguna manera armonizados con los de la vida humana. Es algo que tendremos que decidir en los próximos años.
El test de Turing
En Blade Runneer 2049 parece que todo está ya decidido. O quizás no todo. Hay un elemento clave sobre el que bascula la meditación metafísica sobre el futuro de la especie humana. En la película de Dennis Villeneuve la cacería de replicantes antiguos por parte de la nueva generación de replicantes nos lleva hasta el personaje de Deckard, interpretado por Harrison Ford. Para la inteligencia artificial, el personaje de Deckard representa el problema deltest de Turing, un clásico según el cual un buen sistema de IA debe ser capaz de hacerse pasar por humano sin que los humanos podamos distinguirlo. Esto ocurre ya en muchos ámbitos, desde los bots con los que interactuamos al comprar algo, hasta los que crean noticias falsas cuya falsedad millones de seres humanos no podemos distinguir. Pero si el engaño –desde la mentira hasta la ficción– parece ser un rasgo distintivo de la humanidad cada vez más alcance de la IA, el personaje de Harrison Ford nos plantea a la vez la cuestión de si tiene no solo la capacidad sino también la voluntad de engañar, de hacerse pasar por humano. Si es así, entonces sí que habría pasado el test y ya no habría posibilidad de distinguir entre humanos y androides.
Seiscientos años antes de Blade Runneer 2049, en 1550, el emperador Carlos V convocó en la Junta de Valladolid a algunos de los más ilustres pensadores de la época para que discutieran, decidieran y aconsejaran acerca de si «los indios» de América tenían naturaleza humana. En realidad, ese debate en el que prevaleció la argumentación jurídica de Francisco de Vitoria en favor de la humanidad de los americanos constituye el primer gran test de Turing de nuestra vida moderna, pero aplicado a seres humanos. Entonces la capacidad para la religión fue uno de los criterios fundamentales para llegar a esa solución. Camino de la tercera década del siglo XXI no parece claro que haya un consenso global sobre lo que los seres humanos tenemos en común y muchos grupos se empeñan en subrayar lo que nos diferencia a unos de otros.
¿Es usted un ser humano?¿Qué le distingue de nuestros antecesores, de las otras especies y de los nuevos robots? En realidad estas son las cuestiones fundamentales que nos ha arrojado a la cara el mundo de la inteligencia artificial y que, ahora sí, parece que no podemos aplazar.
Fuente: abc.es