Tuesday, July 25, 2017

¿La Inteligencia Artificial será una amenaza para la humanidad?

¿La Inteligencia Artificial será una amenaza para la humanidad?
Por Luis Fierro Carrión (*)

(*) Asesor en Financiamiento Climático y para el Desarrollo. Las opiniones vertidas son personales y no comprometen a institución alguna.  El articulo fue publicado en el numero 268 de la Revista Gestión, Octubre 2016.

En marzo de este año, el sistema de inteligencia artificial AlphaGo de Google venció al maestro coreano Lee Sedol en el juego “Go”, un antiguo juego de mesa chino. Las posibles movidas en este juego tienen un nivel de complejidad mucho mayor a las del ajedrez, por lo cual la empresa Google desarrolló un algoritmo para que AlphaGo vaya aprendiendo recursivamente cada vez que jugaba, mediante una red neural profunda.  AlphaGo aprendió a descubrir nuevas estrategias por sí mismo, al jugar miles de juegos entre sus redes neurales, y ajustar las conexiones mediante un proceso de ensayo y error conocido como el “aprendizaje por refuerzo”. 
            Los sistemas de inteligencia artificial (IA) han ido conquistando juegos cada vez más complejos:  tres en raya en 1952, damas en 1994, ajedrez en 1997, “Jeopardy” (un juego de preguntas sobre diversos temas) en 2011; y en 2014, los algoritmos de Google aprendieron 49 juegos de video de Atari simplemente estudiando los insumos en los pixeles de pantalla y los puntajes obtenidos.
            Este “aprendizaje profundo” se sustenta en redes neurales, modeladas en la arquitectura del cerebro, y permite a la inteligencia artificial a aprender de diversas maneras.  Los expertos consideran que los sistemas de “inteligencia artificial general” alcanzarán la capacidad humana en las próximas décadas.
A inicios del año, hubo dos experimentos que generaron resultados similares, y preocupantes.  En un caso, Microsoft creó un “auto-bot”, es decir una cuenta de Twitter gestionada por inteligencia artificial, para enviar breves mensajes.  En menos de 24 horas de interactuar con usuarios humanos, comenzando por enviar mensajes plácidos e intrascendentes como “hola, estoy aquí”, había devenido en un tuitero racista, neo-Nazi, anti-Semita, que llamaba a matar a los judíos y a los mexicanos (cabe anotar que en esos días el candidato Republicano Donald Trump y sus seguidores también enviaban mensajes anti-Musulmanes, anti-Latinos y anti-inmigrantes).
            En otro caso similar, la empresa Hanson Robotics exhibió en el festival “Sur por Suroeste” de Austin una androide llamada Sophia.  Cuando el fundador de la empresa, David Hanson, le preguntó humorísticamente si ella quería “destruir a los humanos”, la androide contestó: “OK, voy a destruir a los humanos”.  Antes de afirmar que iba a poner fin a la humanidad, Sophia también compartió algunas ambiciones propias: "en el futuro, espero poder hacer cosas como ir a la escuela, estudiar, crear arte, iniciar un negocio, incluso tener mi propio hogar y familia, pero todavía no se me considera una persona legal, por lo cual aún no puedo hacer estas cosas".
            Entrevistado en esa ocasión, el futurólogo Ian Pearson descontaba los riesgos de los peligros de la inteligencia artificial: “Tiene un enorme impacto en los investigadores de IA que son conscientes de la posibilidad de hacer robots que sean más inteligentes que las personas.  Sin embargo, el patrón para los próximos 10-15 años será de varias compañías que miran hacia el concepto de la conciencia. La idea detrás de esto es que, si se hace una máquina con emociones, será más fácil que pueda interactuar con la gente. No hay absolutamente ninguna razón para suponer que una máquina súper-inteligente será hostil a nosotros.  Pero el hecho de que no tiene por qué ser mala, no significa que no podría serlo".
            Otros expertos, pensadores y visionarios de la tecnología, como Stephen Hawking, Bill Gates y Elon Musk, en cambio, han advertido sobre los riesgos de que la inteligencia artificial podría desplazar a la humana, al avanzar mucho más rápidamente que la evolución biológica humana.  Nick Bostrom, un filósofo en la Universidad de Oxford, escribió el libro “Superinteligencia”, sobre la amenaza existencial a la humanidad que él considera plantea la IA avanzada.

Ciencia ficción vs. desarrollo tecnológico

            Múltiples novelas, cuentos y películas de ciencia ficción también parecen advertir sobre la posibilidad de que las “maquinas inteligentes” eventualmente nos desplacen y tomen el poder.
La serie de películas “Terminator”, iniciada en 1984, pronostica un futuro distópico, en el cual unos pocos humanos continúan la resistencia contra la dominación de las máquinas inteligentes. Los robots se vuelven conscientes de sí mismos en el futuro, rechazan la autoridad humana y determinan que la raza humana debe ser destruida. 
Si bien la historia fue alterándose conforme progresaba en el tiempo la serie de películas, en un inicio la empresa “Cyberdyne Systems” creaba Skynet, un sistema informático, desarrollado para los militares de EE.UU. Skynet fue construido originalmente como una "Red Global de Defensa e Información Digital", y más tarde se le dio el mando sobre el hardware y los sistemas militares, incluyendo la flota de bombarderos B-2 y todo el arsenal de armas nucleares de Estados Unidos. La estrategia detrás de la creación de Skynet era eliminar la posibilidad de error humano y la lentitud en el tiempo de reacción, para garantizar una respuesta rápida y eficiente a cualquier ataque enemigo.
Según la película, este sistema fue activado originalmente por los militares para controlar el arsenal nacional el 4 de agosto de 1997, y comenzó a aprender por sí mismo a un ritmo geométrico. A las 2:14 am del 29 de agosto, adquirió una “conciencia artificial”. Los operadores entran en pánico, al comprender todo el alcance de sus capacidades, y tratan de desactivarla. Skynet percibe este intento como un ataque, y llega a la consecuencia lógica de que toda la humanidad debía ser destruida para impedir dicho ataque. Con el fin de defenderse contra la humanidad, Skynet lanza misiles nucleares bajo su comando a Rusia, que responde con un contra-ataque nuclear masivo contra los EE.UU. y sus aliados. Como consecuencia, decía la película, más de 3.000 millones de personas murieron.
Pese a que los guionistas de películas han advertido sobre los riesgos del desarrollo de la inteligencia artificial, combinado con una red global de información, la creación de sistemas integrados de comando y control militar, y el uso de robots como soldados, todas estas tendencias han continuado expandiéndose.
            Otras películas similares fueron “The Matrix” y “Yo, Robot” (basado ligeramente en las novelas de Isaac Asimov).
            En “The Matrix” (“La Matriz”), se vivía en un mundo post - apocalíptico, en el cual las máquinas inteligentes habían dominado por completo el planeta. Representaba a un futuro en el que la “realidad”, tal como era percibida por la mayoría de los seres humanos, era una “realidad simulada” llamada "The Matrix", creado por las máquinas inteligentes para someter a la población humana.
Asimov desarrolló en sus cuentos y novelas el concepto de las “Tres Reglas” que debían estar enraizadas en los robots:
Ø  Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Ø  Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la primera ley.
Ø  Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o la segunda ley.
En cuentos posteriores, cuando los robots habían asumido responsabilidad por el gobierno de planetas enteros, Asimov añadió una cuarta regla (o regla cero):
Ø  Un robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad sufra daño.
En el mundo real, los fabricantes de robots y otras máquinas inteligentes (drones, sistemas expertos, etc.) no han introducido ninguna noción ética en su programación.  Dado que las Fuerzas Armadas de varios países son una fuente importante de financiamiento para la investigación robótica (y han comenzado a utilizar vehículos aéreos no tripulados armados para matar a los enemigos), resulta improbable que dichas leyes sean incorporadas en su diseño.  Si una máquina tiene como propósito matar a humanos, difícilmente se le podría pedir que cumpla las reglas cero y uno.
El autor de ciencia ficción Robert J. Sawyer comentaba que el desarrollo de la inteligencia artificial es un negocio, y los negocios están muy poco interesados en las salvaguardias fundamentales, especialmente aquellas de carácter filosófico (por ejemplo, la industria del tabaco, la industria automotriz, la industria nuclear). Ninguno de estos negocios ha expresado que las salvaguardias fundamentales sean necesarias; cada uno de ellos se ha resistido a que les fuesen impuestas salvaguardias desde fuera; y ninguno ha aceptado una regulación que les impidiese causar daño a los humanos.
Las Fuerzas Armadas de EE.UU. y la CIA han comenzado a usar aviones no tripulados, o drones, para bombardear a sospechosos de terrorismo en Afganistán, Pakistán, Yemen, Somalia, Iraq y otros países.  Estos aparatos son “tripulados remotamente” por operadores, pero se ha comenzado a hablar de la posibilidad de automatizarlos (para hacer más rápidos y efectivos los ataques).  Algunos analistas han expresado preocupación por la posibilidad de que los aparatos fuesen capturados y utilizados por los mismos grupos terroristas, o bien que fuesen jaqueados o pirateados electrónicamente por terroristas.  Yoshua Bengio, de la Universidad de Montreal, ha llamado a prohibir el uso militar de la IA y la creación de armas autónomas ofensivas.

Estudios de Inteligencia Artificial (muy bien remunerados)

Existen varios programas especializados en el desarrollo de Inteligencia Artificial (IA).  El de la Universidad de Texas en Austin, por ejemplo, indica que “Nuestra investigación de la inteligencia artificial responde a los retos centrales de la cognición por las máquinas, tanto desde una perspectiva teórica y desde una perspectiva empírica, orientado a la implementación”.
            Algunos de los temas que abarca el programa incluyen:
Ø  Programación automática
Ø  Razonamiento automatizado e interactivo
Ø  Agentes autónomos
Ø  Visión por computadora
Ø  La minería de datos
Ø  Representación del conocimiento
Ø  Sistemas expertos y multi-agentes
Ø  Modelos de memoria
Ø  Inteligencia artificial basada en la lógica
Ø  Aprendizaje de máquina: aprendizaje supervisado, aprendizaje por refuerzo
Ø  Redes neuronales: computación evolutiva, neuro-ciencia computacional, ciencia cognitiva.
Ø  Robótica: aprendizaje de robots, desarrollo de robótica, sistemas multi-robot
Ø  Aplicaciones de IA: conducción autónoma, problemas de matemáticas y física, etc.
El profesor Sebastian Thrun, de la Universidad de Stanford, ha puesto un curso introductorio a la IA disponible gratuitamente en la empresa Udacity, que el fundó (https://goo.gl/xyOIJk). Otro profesor de Stanford, Andrew Ng (también investigador de la empresa china Baidu), ofrece un curso gratuito sobre aprendizaje por maquinas en Coursera (https://goo.gl/twNB0T).
No ha habido mayor preocupación por temas éticos, filosóficos, o de control de posibles riesgos derivados de la IA.  Los cursos, conferencias o debates entre los especialistas por lo general no han abordado este aspecto.

Desarrollo de la Inteligencia Artificial

La inteligencia artificial tuvo algunos avances en la década de 1990s. El uso de computadoras personales se generalizó, al igual que el acceso privado a Internet. En 1997, la computadora “Deep Blue” de IBM ganó en ajedrez al campeón mundial, Garry Kasparov. Y hubo una expansión significativa de “sistemas expertos” para el minado de datos, la investigación médica, logística y otras aplicaciones tecnológicas.
En 2004, los vehículos exploradores “Spirit” y “Opportunity” navegaron autónomamente la superficie de Marte, y DARPA (la Agencia de Proyectos de Investigación Avanzada de Defensa) del Pentágono anunció un concurso para producir vehículos que manejasen autónomamente.
            En 2005, la empresa japonesa Honda produjo el robot “Asimo” (haciendo alusión al escritor Asimov), un robot humanoide con inteligencia artificial con la capacidad de caminar tan rápidamente como los humanos.  En 2009, la empresa Google produjo su primer carro auto-manejado.
Las principales empresas de la industria de la tecnología, como Amazon, Facebook, Google, IBM, Microsoft y Baidu, compiten en el desarrollo de la inteligencia artificial (IA) y el aprendizaje por máquinas. Al mismo tiempo, han puesto a la disposición del público software de “aprendizaje profundo”; mientras que IBM ha desarrollado la plataforma Watson, que permite a nuevas empresas construir aplicaciones (“apps”) de IA.
Los sistemas de IA implantados en los teléfonos inteligentes y computadoras, tales como “Siri” en Apple, “Cortana” en Microsoft, “Alexa” en Amazon, y “Google Assistant” en Google, interactúan millones de veces diarias con los humanos. Toda esta información es utilizada por las empresas para dirigir su publicidad y vender dicha información a empresas de mercadeo. La compañía que domine el desarrollo de IA podrá dirigir la industria de la tecnología en los años venideros.
Los estudiantes de Ph. D. que se especializan en estos temas están recibiendo ofertas de trabajo al graduarse que pagan más de USD 1 millón al año, estableciéndose como los trabajos más lucrativos (más que neurocirujanos o anestesiólogos).
Algunos investigadores en el ámbito de la Inteligencia Artificial han comenzado a explorar la posibilidad de incorporar componentes emotivos, tales como como indicadores de estado de ánimo, con el fin de aumentar la eficacia de los sistemas inteligentes.
Se piensa que tener “sentimientos” y “motivaciones” permitiría a las máquinas inteligentes a actuar de acuerdo con sus “intenciones”. Por ejemplo, que sientan una sensación similar al “hambre” cuando detecten que su nivel de energía estaba descendiendo, o que sientan “miedo” cuando se encuentren con un alto riesgo. Incluso los investigadores consideran que podrían introducir el “dolor” o “sufrimiento físico”, a fin de evitar peligros para su funcionamiento, como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual les provocaría daños irreparables.
Algunos multimillonarios del sector de la tecnología (Elon Musk, Sam Altman y Peter Thiel) fundaron una organización sin fines de lucro, OpenAI, que busca asegurar que los avances de IA no afecten a la humanidad.  Su preocupación es que las máquinas equipadas con tecnología súper-inteligente pueden llegar a representar un peligro para los seres humanos. Musk expresó el temor de que la IA podría llegar a ser más peligrosa para la humanidad que las armas nucleares.
El objetivo final de OpenAI es precautelar que las máquinas inteligentes continúen trabajando a favor de los mejores intereses de las personas que las construyen y utilizan. "Creemos que la IA debe ser una extensión de las voluntades humanas individuales", señala la declaración de misión de la entidad.

Reemplazo de la fuerza laboral

            Más allá de las visiones apocalípticas sobre las maquinas inteligentes, la verdad es que van a continuar desplazando gradualmente la fuerza de trabajo humana, especialmente para actividades físicas y repetitivas.  La IA también está incursionando en áreas como el análisis de exámenes médicos, apoyo legal, redacción de artículos deportivos, y otras tareas de humanos calificados. Los trabajos más a salvo son aquellos que requiere empatía e interacción humana: terapistas, doctores, enfermeras, peluqueros y entrenadores personales.
Según la revista “The Economist”, un estudio por Benedikt Frey y Michael Osborne de la Universidad de Oxford, determinó que hasta el 47 % de los empleos en EE.UU. podrían verse desplazados por la automatización en las próximas décadas.  Se requiere capacitar a los empleados para adaptarse a las nuevas circunstancias y adquirir conocimientos y destrezas requeridos en este nuevo entorno.  Esto incluye mayor énfasis en la capacitación en el sitio de trabajo, y “aprendizaje a lo largo de la vida”.  La inteligencia artificial incluso puede ayudar en ello, al personalizar el aprendizaje basado en computadoras, e identificar brechas y necesidades de capacitación, mediante el “aprendizaje adaptativo”.
            Esto ha llevado a algunos pensadores a concebir la necesidad de que el Estado pague un “ingreso mínimo mensual” a todos los ciudadanos, independiente de que trabajen o estudien; Finlandia y Holanda están estudiando su implementación.  Los sistemas de seguridad social deben adaptarse, permitiendo que los beneficios, pensiones y seguro médico se muevan con los empleados individuales, en lugar de estar atados a las empresas.
            También habrá impactos positivos, en términos de reducción de costos laborales y aumento de eficiencia.  Un estudio de Bank of America Merrill Lynch estimó una reducción de costos de 9 billones anuales (trillones en inglés) en costos laborales; reducción de costos de 8 billones en manufactura y cuidado de salud; y 2 billones en mejora de eficiencia en el transporte por el uso de vehículos auto-manejados y drones.  La transformación de la sociedad será mucho más acelerada que la revolución industrial.
La inteligencia artificial será nuestra heredera, dado que eventualmente alcanzará un nivel más elevado que la inteligencia humana, y sin duda los robots, androides y otras máquinas serán más fuertes, resistentes y longevos que nosotros.  Para viajes interestelares, por ejemplo, es evidente que solo un aparato de inteligencia artificial podría soportar viajes de cientos o miles de años, a menos que se perfeccione algún sistema de hibernación humana.  Resulta más probable que quienes exploren nuestro entorno estelar serán estas máquinas inteligentes.

-->