• Caracas (Venezuela)

GDA

Al instante

Científicos piden prohibir los “robots asesinos”

Las armas ofensivas autónomas pueden tomar decisiones por sí mismas / Archivo

Las armas ofensivas autónomas pueden tomar decisiones por sí mismas / Archivo

Consideran que estos aparatos de guerra no distinguen entre civiles y combatientes, lo que pone en riesgo a las personas

  • Tweet:

  • Facebook Like:

  • Addthis Share:

Miles de investigadores y personalidades del mundo científico, entre ellos el célebre astrofísico Stephen Hawking y el cofundador de Apple Steve Wozniak, lanzaron un pedido para prohibir las armas ofensivas autónomas, los llamados 'robots asesinos'.

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", indica la carta, publicada el mismo día de la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) en Buenos Aires.

"La tecnología de la inteligencia artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", añaden en la misiva, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París y Berlín.

También figuran entre los firmantes el empresario de altas tecnologías Elon Musk, presidente de Tesla (coches eléctricos), SolarCity y SpaceX (tecnología espacial), así como el nobel de Física Frank Wilczek o el cofundador de Skype, Jaan Tallinn.

"Emprender una carrera armamentística militar basada en la inteligencia artificial es una mala idea que debería evitarse mediante una prohibición de las armas autónomas más allá del control humano", añade la carta.

Armas ofensivas autónomas

A diferencia de los drones, que necesitan una intervención humana, las armas ofensivas autónomas o 'robots asesinos' pueden tomar decisiones por sí mismas y, por ello, preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones sobre este tema en Ginebra.

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados contra la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentística.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Solo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores (..) y señores de la guerra que deseen perpetrar limpiezas étnica, etc.", argumenta el texto.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad" pero "el inicio de una carrera armamentista de IA militar es una mala idea".

Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.