La inteligencia artificial: ¿beneficios o peligros para el planeta?
Daniel Fournier
En el tema de la inteligencia artificial (IA), Montreal tiene conocimientos de categoría internacional con sus universidades y centros de investigación dedicados a la IA. De hecho, hoy en día, este tema es muy popular. Lo encontramos en artículos de prensa y en programas radiofónicos y televisivos. En ellos, podemos escuchar comentarios que describen a la IA como una promesa de un futuro brillante o, al contrario, como una amenaza peligrosa para la población.
Para formarse una idea sobre estos dos aspectos de la IA, les mostraré lo positivo a través de aplicaciones dedicadas al rescate de las ballenas y a la medicina. Lo negativo, les mostraré gracias a dos aplicaciones:
- el sistema de créditos sociales implantado en China
- los robots asesinos
Por último, sobre el buen o mal uso de la IA, veremos que quizás una posible solución radique en las enseñanzas ancestrales de los filósofos griegos.
¿Qué es la IA?
La IA es un término en ciencias de la computación para la investigación de algoritmos informáticos que buscan replicar la cognición humana. El aprendizaje profundo es una rama específica de la IA basada en algoritmos que, por aprendizaje automático, aprenden a reconocer patrones en los datos. Actualmente, esta rama de la IA funciona muy bien para el procesamiento y reconocimiento de imágenes.
En primer lugar, se introducen enormes volúmenes de datos de un sistema (p. ej. imágenes de ballenas, figuras médicas, etc.) en las redes neuronales para permitir que las computadoras sinteticen esta enorme cantidad de información. Luego, los investigadores entrenan a las computadoras para detectar patrones en esos datos, una tarea que sería difícil, si no imposible, para un ser humano. El sistema funciona mediante un algoritmo, es decir, un conjunto de instrucciones, y aprende más profundamente a medida que avanza el proceso. Cuantos más datos reciba, mayor será su capacidad de interpretación.
Los barcos podrían
evitar colisiones
con ballenas.
Whale Seeker: al rescate de las ballenas
Whale Seeker es una PYME de Montreal integrada por científicos e ingenieros que se dedican a la salvación de las ballenas usando la IA.
La problemática
Desde los últimos veinte años, el tráfico marítimo ha aumentado constantemente. Además, se utilizan nuevas vías marítimas en el ártico para el transporte de mercancías y las pesquerías de altamar. Lo que resulta es un fuerte crecimiento de colisiones fatales entre los mamíferos marinos y los barcos. Esto es tanto más crítico por cuanto conlleva el riesgo de extinción de algunas especies de ballenas.
La solución
La solución a esta problemática reside en la identificación y localización geográfica en tiempo real de los mamíferos marinos. Una tarea cara y muy laboriosa…antes de que llegara la IA.
Al combinar las herramientas técnicas de IA con la relevancia biológica, Whale Seeker puede hacer que la detección de ballenas sea lo más rápida y sencilla posible. Se trata aquí de proporcionar a los administradores de vida silvestre herramientas de vanguardia para aumentar su eficiencia, precisión y aligerar su carga de trabajo. La meta es también ayudar a los puertos a administrar la salud de las ballenas y el tráfico marino de una manera saludable y rentable. En efecto, los barcos podrían entonces evitar colisiones con ballenas cambiando sus rutas y evitando áreas con poblaciones de ballenas conocidas. E
El uso de la IA en el tratamiento del cáncer de pulmón
En cuanto a la salud, los ámbitos más prometedores de la aplicación de la IA son el reconocimiento de patrones y la interpretación de imágenes médicas como las de portaobjetos de microscopio, rayos X y resonancias magnéticas.
Hoy en día, la IA desempeña un papel muy prometedor en el tratamiento del cáncer de pulmón. En efecto, un algoritmo de aprendizaje profundo entrenado y validado con datos de más de 25.000 pacientes pudo estimar con precisión el riesgo de cáncer de pulmón durante tres años y la tasa de muerte asociada. Esto también permitió determinar el momento oportuno para las pruebas de diagnóstico y para establecer el intervalo óptimo entre cada tomografía digital (TAC o PET).
Además, un estudio ha revelado que la IA detecta el cáncer de pulmón de manera más eficiente que los radiólogos.
Finalmente, los avances recientes en IA nos acercan a su adopción en clínica generalizada, lo que ahorrará tiempo a los profesionales de la salud y salvará vidas.
El lado oscuro de la IA
Cómo formar a buenos ciudadanos chinos
Las empresas chinas (ej. Mobike, y Sesame Credit de Alibaba) utilizan cada vez más sistemas de puntos para influir en el comportamiento de sus clientes. Además, hoy en día, el estado chino tiene la intención de utilizar el principio de castigos y recompensas para gobernar la vida de sus ciudadanos.
Por lo tanto, en China existe un sistema IA de reconocimiento facial gubernamental que atribuye puntos de buena o mala conducta a la población. Además, este sistema de créditos sociales puede contener informaciones sobre malas conductas que ocurrieron en el pasado (con la justicia, no pagar multas, etc.)
En muchos rincones de China, dentro o fuera de los edificios, hay cámaras de vídeo que analizan la cara de los visitantes para identificarlo y verificar su registro de puntos. Por ejemplo, si alguien tuviera demasiados puntos negativos, no podría tener acceso a la primera clase de un tren o no podría conseguir un ascenso en su trabajo.
Esta situación está bien descrita en el episodio Caída en picada de la serie de ciencia ficción Black Mirror, de Netflix (tercera temporada). Pero, hoy en día, esto ha dejado de ser ciencia ficción.
Con este enfoque del estado chino y según organizaciones de derechos humanos, hay obvios riesgos de desviación política. En efecto, el gobierno chino ha reprimido durante mucho tiempo cualquier disidencia y podría, gracias a su sistema de crédito social, fortalecer su control y condicionar el comportamiento social de una manera más extensiva. Por otra parte, el entusiasmo chino por las nuevas tecnologías de comunicación facilita este tipo de supervisión en un entorno legislativo débil donde el estado es libre de hacer lo que quiera.
Robots asesinos autónomos
Los robots asesinos autónomos, utilizando la IA, ya no son pesadillas de películas de ciencia ficción, sino una realidad. En 2018 se celebró una conferencia organizada por el ‘Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS)’ de las Naciones Unidas para sonar la alarma.
De hecho, Rusia inmediatamente hizo saber que rechazó de antemano «cualquier prohibición, moratoria o regulación sobre armas autónomas«. Al final, esta conferencia presentó un comunicado firmado por 26 estados pidiendo la prohibición de las armas «totalmente autónomas». Lamentablemente, por falta de dinero, el grupo LAWS ha tenido problemas para continuar sus actividades.
Una amenaza real
para la humanidad
Casi al mismo tiempo, más de cien investigadores y emprendedores importantes del sector de la IA, mandaron una carta abierta a las Naciones Unidas para dar la alarma. El final de la carta es inequívoco y expresa una amenaza real para la humanidad, según sus signatarios:
‘Las armas autónomas letales amenazan con convertirse en la tercera revolución militar. Una vez desarrolladas, permitirán conflictos armados a escalas nunca alcanzadas y a velocidades que ningún ser humano puede comprender. Pueden ser armas de terror, armas que los déspotas y terroristas utilizan contra poblaciones inocentes o armas pirateadas con usos indebidos. No tenemos mucho tiempo para actuar. Una vez que se abra esta caja de Pandora, será difícil cerrarla. Por lo tanto, imploramos a las Altas Partes Contratantes que encuentren la manera de protegernos a todos de estos peligros.’
Por último, a pesar de todas las alarmas y de una campaña de ‘Human Rights Watch’ contra el mal uso de la IA, los departamentos de Defensa han persistido en desarrollar estos materiales futuristas y aún parecen querer enviarlos al campo rápidamente, con Rusia, China, Israel y Estados Unidos a la cabeza.
¿Está la ética de nuestro lado?
De los antiguos filósofos griegos nos viene el concepto de ética. La práctica de la ética contemporánea hoy se centra en la búsqueda de coherencias normativas establecidas sobre la base de discusiones argumentadas y no dogmáticas, en relación con las nuevas preocupaciones ambientales y sociales. Era una práctica ya observada dentro de la tradición socrática.
Para el buen uso de la IA, es obvio que necesitamos un código de ética. En este sentido, tenemos la Declaración de Montreal para el desarrollo responsable de la IA. Esta crea un marco ético para un desarrollo responsable y también garantizar que todos se beneficien de la revolución de la IA. Es utilizada por organizaciones, individuos y representantes políticos que construyen sistemas de IA o reflexionan sobre sus implicaciones.
Además, existe el Observatorio Internacional sobre los Impactos Sociales de la IA y de la Tecnología Digital (OBVIA) bajo la égida de la Universidad Laval. Reúne a más de 160 investigadores para maximizar los efectos positivos de la IA y minimizar sus impactos negativos.
Por último, la declaración de Montreal y el observatorio sobre los impactos societales de la IA son organismos consultivos, no de adopción de decisiones. Estos no pueden obligar a ningún gobierno a respetar las reglas de un código de ética. Solo pueden influir sobre empresas y gobiernos u organismos internacionales como las Naciones Unidas.
Se teme que potencias militares como Rusia, China y Estados Unidos no se plieguen a dicho código de ética. Pero en Canadá es tranquilizador saber que el Comisionado de Privacidad invita el gobierno federal a legislar pronto para que la inteligencia artificial sea enmarcada a fin de proteger la privacidad de los ciudadanos.