martes, 28 de julio de 2015

Un millar de expertos alerta del peligro de los ‘robots asesinos’

Stephen Hawking en la Royal Society de Londres el 20 de julio. / NEIL HALL (REUTERS)

En una carta abierta advierten de que estas armas "son ideales para desestabilizar naciones, someter a la población y acabar con un grupo étnico determinado"

Los ‘robots asesinos’ salen de la ciencia ficción


EL PAÍS Madrid 28 JUL 2015 - 13:57 CEST


Un millar de científicos han alertado en una carta abierta de los peligros que entrañan las armas que tienen capacidad de matar "sin necesidad de intervención humana". Los firmantes —entre los que figuran el físico Stephen Hawkins y el cofundador de Apple Steve Wozniak— explican que se trata de una tecnología diferente de los drones o los misiles por control remoto. Hablan de artefactos capaces de "buscar y eliminar personas que tengan ciertos criterios predefinidos", los llamados robots asesinos. Tras el descubrimiento de la pólvora y de la bomba nuclear, esta sería la “tercera revolución” en armas de guerra. Por eso reclaman que se prohíban.

Los firmantes, muchos de ellos considerados como los mayores expertos en inteligencia artificial del mundo, creen que el desarrollo de estas armas es cuestión de "años, no de décadas" y que "si una gran potencia militar impulsa las armas de inteligencia artificial, será prácticamente imposible evitar una carrera armamentística global", dice el documento sobre los que, afirma, se acabarán convirtiendo en "los kalashnikov del mañana".

Para sostener este argumento, explican que se pueden construir con materiales relativamente fáciles de conseguir, a diferencia de las armas nucleares, por lo que "se convertirán en ubicuas y baratas de producir para todas las potencias militares significativas". Por eso, afirman los científicos, "es cuestión de tiempo que aparezcan en el mercado negro y acaben en manos de terroristas, de dictadores en busca de una mejor forma de controlar a la población o de señores de la guerra con ansia de llevar a cabo una limpieza étnica. Las armas autónomas son ideales para para cometer asesinatos, desestabilizar naciones, someter a la población y acabar con un grupo étnico determinado".

La petición de que esta tecnología se prohíba, se presenta hoy en Buenos Aires, durante la Conferencia Internacional Conjunta sobre Inteligencia Artificial. En el texto, los científicos inciden e que la inteligencia artificial debe usarse para mejores propósitos: "Creemos que la Inteligencia Artificial tiene un gran potencial para beneficiar a la humanidad de muchas maneras".


Campaña contra el uso de robots en la guerra, en Londres en 2013. / AFP

No hay comentarios.: