Press "Enter" to skip to content

Los principales investigadores de IA boicotean a la universidad coreana por su trabajo sobre "robots asesinos"

  

Más de 50 destacados investigadores de IA y robótica han dicho que boicotearán a la universidad KAIST de Corea del Sur por los planes del instituto para ayudar a desarrollar armas con inteligencia artificial. La amenaza fue anunciada antes de una reunión de la ONU en Ginebra la semana próxima para discutir las restricciones internacionales sobre los llamados "robots asesinos". Marca una escalada de tácticas por parte de la comunidad científica que lucha activamente por controles más fuertes en armamento controlado por inteligencia artificial. .

El boicot fue organizado por el profesor Toby Walsh de la Universidad de Nueva Gales del Sur, quien advirtió en un comunicado de prensa que la carrera para construir armas autónomas ya había comenzado. "Podemos ver prototipos de armas autónomas en desarrollo hoy en día por muchas naciones, incluidos Estados Unidos, China, Rusia y el Reino Unido", dijo Walsh. "Estamos encerrados en una carrera armamentista que nadie quiere que suceda. Las acciones de KAIST solo acelerarán esta carrera armamentista. No podemos tolerar esto "

Entre los signatarios del boicot se incluyen algunos de los principales investigadores de IA del mundo, especialmente los profesores Geoffrey Hinton, Yoshua Bengio y Jügengen Schmidhuber. El boicot prohibiría toda colaboración de contacto y académica con KAIST hasta que la universidad asegure que el armamento que desarrolle tendrá "control humano significativo".

El desencadenante de esta acción fue el anuncio de KAIST en febrero de que estaba lanzando un centro de investigación conjunta con la compañía de defensa surcoreana Hanwha Systems. Según The Korean Times el objetivo del centro es "desarrollar tecnologías de inteligencia artificial (AI) para aplicar a armas militares" que "buscarían y eliminarían objetivos sin control humano".

Pero según un informe de Times Higher Education el presidente de KAIST, Sung-Chul Shin, dijo que estaba "entristecido" por el boicot amenazado, y niega que la universidad esté construyendo sistemas autónomos de armas. "Como institución académica, valoramos los derechos humanos y los estándares éticos en un alto grado. KAIST no llevará a cabo actividades de investigación contrarias a la dignidad humana, incluidas las armas autónomas que carecen de control humano significativo ", dijo. El organizador del boicot Walsh dijo Times Higher Education que necesitaría consultar con sus co-signatarios sobre qué hacer a continuación, y agregó que la respuesta de KAIST aún dejó "algunas preguntas sin respuesta".

La asociación de KAIST con Hanwha reúne a dos de las principales organizaciones militares y de robótica del mundo. KAIST es una universidad de investigación de clase mundial, conocida por su trabajo como el robot transformador DRC-HUBO, que ganó el desafío de robótica DARPA 2015.

Hanwha Systems, mientras tanto, es la filial de defensa de Hanwha chaebol . Hanwha ya está involucrado en el desarrollo de armas autónomas, como el arma centinela SGR-A1, que según los informes se ha desplegado en la frontera entre Corea del Norte y Corea del Sur. La compañía también construye municiones en racimo, prohibidas por un tratado internacional (aunque muchas naciones se abstienen de esta prohibición, incluidas Corea del Sur, los EE. UU., Rusia y China).

  


    
      
        
 DARPA Robotics Challenge muestra vanguardia en inteligencia artificial "data-chorus-optimize-field =" main_image "data-cid =" site / dynamic_size_image-1522854501_2947_76034 "data-cdata =" {"asset_id": 10583911, "ratio" : "*"}

      
    
    
  
  
    
      
        

La investigación en robótica de KAIST es respetada internacionalmente, incluido su trabajo en el desarrollo del robot DRC-HUBO.
Foto de Chip Somodevilla / Getty Images
      
    

  

Aunque un boicot contra KAIST sería significativo, algunos expertos dicen que la campaña para controlar el desarrollo de armamento autónomo es inútil.

Anteriormente, los líderes en IA y robótica escribieron a la ONU argumentando que las armas que matan sin intervención humana podrían desestabilizar el mundo y deberían ser controladas por un tratado internacional. Esto ha recibido cierto apoyo internacional, con 19 países, incluidos Egipto, Argentina y Pakistán, que respaldan una iniciativa de este tipo. Pero otros países como Estados Unidos y el Reino Unido dicen que tal legislación sería poco práctica, debido a la imposibilidad de definir qué constituye y qué no constituye control humano. Muchos sistemas ya tienen al menos algunas capacidades autónomas, incluidos los drones y las redes de defensa antimisiles.

Para Walsh y otros, sin embargo, el peligro es demasiado grande para ser complacientes. "Si se desarrollan, las armas autónomas […] permitirán que la guerra se libre más rápido y en una escala mayor que nunca", dijo Walsh en un comunicado de prensa. "Esta caja de Pandora será difícil de cerrar si se abre".

Actualización 4 de abril, 11:00 a.m. ET: La historia se ha actualizado para incluir una respuesta de KAIST y del organizador del boicot Toby Walsh.

Enlace de origen

Be First to Comment

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *