En una carta indicaron que «la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos»
Un grupo de expertos, liderados por el astrofísico Stephen Hawking; el cofundador de Apple, Steve Wozniak, y el fundador de Tesla y SpaceX, Elon Musk, publicaron una carta en la que advierten sobre los peligros para la humanidad de armas autónomas y con inteligencia artificial.
En una carta del instituto Future of Life, que fue difundida ayer en la Conferencia Internacional de Inteligencia Artificial que se desarrolla en Buenos Aires, los expertos indicaron que «la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos».
El grupo sostiene que si una nación comienza a desarrollar armas autónomas, una carrera bélica de ese tipo de armamento será «inevitable» y que terminarán transformándose en las «Kalashnikovs del mañana», en referencia a la facilidad y bajos costos con que esos rifles de asalto son producidos y que no «llevará mucho tiempo para que estas nuevas armas estén disponibles en el mercado negro y en manos de terroristas, dictadores con ansias de mayor control sobre sus ciudadanos, señores de la guerra que quieran perpetrar limpiezas étnicas, etc.»
«Armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, subordinar poblaciones y asesinatos selectivos de grupos étnicos específicos. Hay muchas maneras en las cuales la IA puede hacer los campos de batalla más seguros para los humanos, especialmente civiles, sin crear nuevas herramientas para matar personas», sostiene la misiva.
El grupo de expertos agrega que «creemos que la IA tiene un gran potencial para beneficiar a la humanidad en muchas maneras, y que el objetivo de este campo debería ser ese. Comenzar una carrera militar de Inteligencia Artificial es una mala idea, y debería ser evitarse con una prohibición de armas ofensivas autónomas que estén más allá de un control humano significativo».
Fuente: Diario Financiero