Viernes , marzo 24 2017
Inicio / Tecnología / Stephen Hawking pide prohibir “robots” de guerra
terminator

Stephen Hawking pide prohibir “robots” de guerra

En una carta indicaron que “la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos”

Un grupo de expertos, liderados por el astrofísico Stephen Hawking; el cofundador de Apple, Steve Wozniak, y el fundador de Tesla y SpaceX, Elon Musk, publicaron una carta en la que advierten sobre los peligros para la humanidad de armas autónomas y con inteligencia artificial.

En una carta del instituto Future of Life, que fue difundida ayer en la Conferencia Internacional de Inteligencia Artificial que se desarrolla en Buenos Aires, los expertos indicaron que “la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos”.

El grupo sostiene que si una nación comienza a desarrollar armas autónomas, una carrera bélica de ese tipo de armamento será “inevitable” y que terminarán transformándose en las “Kalashnikovs del mañana”, en referencia a la facilidad y bajos costos con que esos rifles de asalto son producidos y que no “llevará mucho tiempo para que estas nuevas armas estén disponibles en el mercado negro y en manos de terroristas, dictadores con ansias de mayor control sobre sus ciudadanos, señores de la guerra que quieran perpetrar limpiezas étnicas, etc.”

“Armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, subordinar poblaciones y asesinatos selectivos de grupos étnicos específicos. Hay muchas maneras en las cuales la IA puede hacer los campos de batalla más seguros para los humanos, especialmente civiles, sin crear nuevas herramientas para matar personas”, sostiene la misiva.

El grupo de expertos agrega que “creemos que la IA tiene un gran potencial para beneficiar a la humanidad en muchas maneras, y que el objetivo de este campo debería ser ese. Comenzar una carrera militar de Inteligencia Artificial es una mala idea, y debería ser evitarse con una prohibición de armas ofensivas autónomas que estén más allá de un control humano significativo”.

Fuente: Diario Financiero

Te puede interesar

1489873934_119862_1489874517_noticia_normal_recorte1

Wikileaks quiere imponer sus condiciones a Apple y Google

Wikileaks tiende una mano, pero siempre que se sigan sus normas. La organización liderada por ...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Pin It on Pinterest