StarterDaily

Sábado 21 de julio de 2018

Expertos en IA crearon un video para pedirle a la ONU que prohiba las armas autónomas

Por
StarterDaily
Jueves 16 de noviembre de 2017

Por Jessica Cussins, publicado originalmente en futureoflife.org

En respuesta a las crecientes preocupaciones sobre las armas autónomas, una coalición de investigadores de inteligencia artificial y organizaciones de defensa publicaron el lunes un video ficticio que representa un futuro inquietante en el que las armas letales autónomas se han vuelto baratas y omnipresentes.

El video fue lanzado en Ginebra, donde el investigador de IA Stuart Russell lo presentó en un evento en la Convención de las Naciones Unidas sobre Armas Convencionales patrocinado por la Campaña "Stop Killer Robots".

Russell, en una aparición al final del video, advierte que la tecnología descrita en la película ya existe y que la ventana para actuar se está cerrando rápidamente.

El apoyo a la prohibición ha ido en aumento. La semana pasada, más de 200 científicos canadienses y más de 100 científicos australianos en la academia y la industria escribieron cartas abiertas al primer ministro Justin Trudeau y Malcolm Turnbull instándolos a apoyar la prohibición. Además, más de 130 líderes de compañías de AI firmaron una carta en apoyo a las recientes discusiones. Estas cartas vienen luego de una carta abierta del 2015 lanzada por el Future of Life Institute y firmada por más de 20.000 investigadores de AI,Robotics y otros, incluyendo a Elon Musk y Stephen Hawking.

Estas cartas indican una gran preocupación y la sensación de que la oportunidad de reducir las letales armas autónomas se está agotando.

Noel Sharkey, del Comité Internacional para el Control de Armas Robóticas, explica: "La Campaña 'Stop Killer Robots' no está tratando de frenar la innovación en inteligencia artificial o robótica, y no desea prohibir sistemas autónomos en el mundo civil o militar. Más bien vemos una necesidad urgente de prevenir la automatización de las funciones críticas para seleccionar objetivos y aplicar la violencia sin deliberación humana y para garantizar un control humano significativo para cada ataque".

La tecnología de drones de hoy está muy cerca de tener capacidades totalmente autónomas. Y a muchos de los principales investigadores de IA del mundo les preocupa que si estas armas autónomas se desarrollan alguna vez, podrían reducir drásticamente el umbral del conflicto armado, facilitar y abaratar la toma de vidas humanas, empoderar a los terroristas y crear inestabilidad global. Estados Unidos y otras naciones han usado drones y sistemas semiautomatizados para llevar a cabo ataques desde hace varios años, pero eliminar completamente a un ser humano del círculo está en desacuerdo con el derecho internacional humanitario y con los derechos humanos.

Toby Walsh, profesor de AI en la Universidad de Nueva Gales del Sur, argumenta: "La comunidad académica ha enviado un mensaje claro y consistente. Las armas autónomas serán armas de terror, la herramienta perfecta para quienes no tienen reparos en los terribles usos que les dan. Tenemos que actuar ahora antes de que este futuro llegue".

Más de 70 países participan en la reunión que tiene lugar esta semana, organizada por la Quinta Conferencia de Revisión de 2016 en la ONU, que estableció un Grupo de Expertos Gubernamentales sobre armas letales autónomas. La reunión está presidida por el Embajador Amandeep Singh Gill de la India, y los países continuarán las negociaciones de lo que podría convertirse en un histórico tratado internacional.


Comentarios

StarterDaily Presenta

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarte publicidad relacionada con tus preferencias mediante el análisis de tus hábitos de navegación. Si continúas navegando, consideramos que aceptas su uso. Puedes cambiar la configuración u obtener más información aquí.

Acepto