Investigadores de IA firman un compromiso contra las armas letales autónomas

Iniciado por wolfbcn, 18 Julio 2018, 14:37 PM

0 Miembros y 1 Visitante están viendo este tema.

wolfbcn

La Inteligencia Artificial es un campo bastante controvertido, sobre todo por el temor a que pueda ser implementada en armas que operarían de forma autónoma, algo a lo que se suma el aparente desconocimiento sobre cuáles son sus límites tecnológicos.

Con el fin de evitar la implementación de la Inteligencia Artificial en las armas, 2.400 investigadores pertenecientes a 100 organizaciones y diversos líderes tecnológicos, entre los que se encuentran Elon Musk y los cofundadores de DeepMind (subsidiaria de Google), han firmado un compromiso para que no se desarrollen "armas letales autónomas".

Este no es más que el último movimiento realizado por un conjunto de investigadores y ejecutivos de empresas tecnológicas que llevan tiempo pidiendo una regulación de la Inteligencia Artificial para evitar que sea utilizada contra personas e incluso la posibilidad de que pudiera revelarse contra humanidad. De hecho, Elon Musk lleva tiempo apoyando públicamente estos movimientos, llegando a decir que la Inteligencia Artificial podría llevarnos a la III Guerra Mundial.

En el compromiso se pueden leer avisos como la posible de existencia de sistemas de armas que utilizarían la Inteligencia Artificial para "seleccionar y marcar objetivos sin intervención humana". Los firmantes dicen que la decisión en torno a una vida humana "nunca tendría que ser delegada a una máquina". Por otro lado, también mencionan la capacidad que tendría esta tecnología para desestabilizar países.

El compromiso ha sido publicado hoy en el International Joint Conference on Artificial Intelligence 2018 que se está celebrando en la capital de Suecia, Estocolmo, y ha sido organizado por Future of Life Institute, un instituto de investigación que impulsa la "mitigación de riesgos externos" contra la humanidad. Esta organización ya ha ayudado antes en el envío de cartas realizadas por personas públicas con la intención de pedir a las Naciones Unidas a que considere nuevas regulaciones para las llamadas armas letales autónomas. Sin embargo, esta es la primera vez en que los involucrados se comprometen individualmente a no desarrollar este tipo de armas.

A pesar de que las peticiones para regular la Inteligencia Artificial cuentan con el apoyo de muchos expertos de ese campo, hasta ahora sus esfuerzos han tenido más bien pocos resultados. En el compromiso se muestra una lista de países que han apoyado la prohibición de las armas letales autónomas compuesta por Argelia, Argentina, Austria, Bolivia, Brasil, Chile, China, Colombia, Costa Rica, Cuba, Yibuti, Ecuador, Egipto, Ghana, Guatemala, la Santa Sede, Iraq, México, Nicaragua, Pakistán, Panamá, Perú, el Estado de Palestina, Uganda, Venezuela y Zimbabue.

Como se puede ver, hay pocos países y entre ellos no están potencias tecnológicas como Estados Unidos, Canadá, Japón, Francia, Alemania e Israel. De hecho, se sabe que India podría estar preparándose para el desarrollo de armas apoyadas en Inteligencia Artificial. Además de la posible amenaza que puede suponer esta tecnología, también nos encontramos con la dificultad de dónde poner la línea para considerar a un sistema como autónomo. Un ejemplo de esto podría ser una torreta que sea capaz de apuntar de forma autónoma a las personas, pero que delegue en humanos la decisión de disparar o no.

Parece que de momento en los países occidentales la movilización civil será determinante para poner límites a la Inteligencia Artificial. Un ejemplo de esto lo tenemos en la exitosa rebelión que hubo dentro de Google para pedir a la compañía que abandonara Project Maven, un programa militar de inteligencia artificial y aprendizaje automático impulsado por el Departamento de Defensa de Estados Unidos con objetivos como clasificar automáticamente imágenes de objetos y personas para uso militar.

Aparte de Project Maven, también es importante mencionar las intenciones de la CIA de reemplazar espías por Inteligencia Artificial y el sistema desarrollado por DeepMind que era capaz de aprender a jugar videojuegos viendo vídeos de usuarios publicados en YouTube.

¿Dónde está el límite tecnológico de la Inteligencia Artificial? Aunque en la actualidad la existencia de unos equivalentes de Terminator y Skynet parece improbable, no son pocas las personalidades que señalan que la tecnología base para crearlos ya existe, sobre todo en el caso de lo primero.

Fuentes: The Verge y The Next Web

https://www.muycomputer.com/2018/07/18/investigadores-ia-firman-contra-armas-letales-autonomas/
La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.

Machacador

Lo bueno es que ese convenio no lo firmaron las grandes potencias tecnológicas con capacidad certa para fabricar esas armas...

:rolleyes: :o :rolleyes:
"Solo tu perro puede admirarte mas de lo que tu te admiras a ti mismo"