Human Rights Watch: ‘No’ a los robots asesinos
“Si un robot se vuelve loco, ¿quién tendrá la culpa? Seguramente no el robot”,argumenta la ONG
Human Rights Watch ha pedido que los gobiernos prohíban el desarrollo de robots militares automáticos que busquen objetivos para atacar y tomen por su cuenta la decisión de matar.
“Pedimos una prohibición del desarrollo, producción y uso de estas armas completamente autónomas, tanto a nivel nacional de Estados Unidos como a través de un tratado internacional que las prohíba de forma integral”, instó Steve Goose, director de la división de Armas de esta ONG, en una rueda de prensa que tuvo lugar el lunes en Washington. En la comparecencia Goose presentó el informe preparado por la organización titulado ‘Losing Humanity: The Case against Killer Robots' ('Perdiendo la humanidad: el caso contra los robots asesinos'). Según Human Rights Watch entre los países involucrados en el desarrollo de estas armas están EE.UU., China, Rusia, Corea del Sur, Israel, Alemania y el Reino Unido.
Las tecnologías ya existen
Los drones usados en los ataques en Pakistán, Afganistán y Yemen son controlados por personas y no pueden matar sin autorización humana. En el informe Human Rights Watch advierte que aunque la creación de robots militares completamente autónomos puede tardar 20 o 30 años, ya existen tecnologías que necesitan poca intervención humana. Por ejemplo, el sistema de armamento Phalanx usado en los buques estadounidenses es capaz de detectar el fuego y destruir los proyectiles adversarios por su cuenta.
Northrop Grumman X-47 Pegasus es un drone de tamaño de un avión normal que puede despegar y aterrizar en los buques portaaviones sin un piloto y hasta pueden repostar gasolina en el aire.
northropgrumman.com
Finalmente el mecanismo quizá más parecido a una especie de ‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del Sur. El robot es capaz de registrar movimientos en el territorio, conversar con los visitantes y, en caso de recibir la autorización de un controlador humano, disparar.
hrw.org
Riesgo inaceptable para los civiles Muchos países están muy interesados en crear robots capaces de atacar sin intervención humana para poder minimizar la intervención de tropas y disminuir la cantidad de muertes de los soldados, destacó Goose en la rueda de prensa. Pero, alertó, la aplicación de robots que seleccionan objetivos para atacar pone en peligro a los civiles, porque los robots no distinguirán si una persona es militar, ni sienten compasión o enfado. Por otro lado, el organismo asegura en el informe que dificulta la búsqueda de responsabilidades, porque los robots no pueden ser condenados por sus actos ni está claro quién podría asumir la responsabilidad en la jerarquía militar. “Si un robot se vuelve loco, ¿quién va a ser responsable? Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la Universidad de Sheffield. “No hay ninguna manera de definir quién tiene que asumir la responsabilidad, algo que es muy importante para la ley marcial”. Además, cree que se entraría en guerras con mayor facilidad y los regímenes dictatoriales podrían usarlo para ir en contra de su propia población.
http://actualidad.rt.com/actualidad/...obots-asesinos
PD.Los militares se zurran en derechos humanos , todo avance cientifico se utiliza para la guerra.
Las 3 leyes de la robótica de John W. Campbell suenan a pura utopía
Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
1.Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
“Si un robot se vuelve loco, ¿quién tendrá la culpa? Seguramente no el robot”,argumenta la ONG
Human Rights Watch ha pedido que los gobiernos prohíban el desarrollo de robots militares automáticos que busquen objetivos para atacar y tomen por su cuenta la decisión de matar.
“Pedimos una prohibición del desarrollo, producción y uso de estas armas completamente autónomas, tanto a nivel nacional de Estados Unidos como a través de un tratado internacional que las prohíba de forma integral”, instó Steve Goose, director de la división de Armas de esta ONG, en una rueda de prensa que tuvo lugar el lunes en Washington. En la comparecencia Goose presentó el informe preparado por la organización titulado ‘Losing Humanity: The Case against Killer Robots' ('Perdiendo la humanidad: el caso contra los robots asesinos'). Según Human Rights Watch entre los países involucrados en el desarrollo de estas armas están EE.UU., China, Rusia, Corea del Sur, Israel, Alemania y el Reino Unido.
Las tecnologías ya existen
Los drones usados en los ataques en Pakistán, Afganistán y Yemen son controlados por personas y no pueden matar sin autorización humana. En el informe Human Rights Watch advierte que aunque la creación de robots militares completamente autónomos puede tardar 20 o 30 años, ya existen tecnologías que necesitan poca intervención humana. Por ejemplo, el sistema de armamento Phalanx usado en los buques estadounidenses es capaz de detectar el fuego y destruir los proyectiles adversarios por su cuenta.
Northrop Grumman X-47 Pegasus es un drone de tamaño de un avión normal que puede despegar y aterrizar en los buques portaaviones sin un piloto y hasta pueden repostar gasolina en el aire.
northropgrumman.com
Finalmente el mecanismo quizá más parecido a una especie de ‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del Sur. El robot es capaz de registrar movimientos en el territorio, conversar con los visitantes y, en caso de recibir la autorización de un controlador humano, disparar.
hrw.org
Riesgo inaceptable para los civiles Muchos países están muy interesados en crear robots capaces de atacar sin intervención humana para poder minimizar la intervención de tropas y disminuir la cantidad de muertes de los soldados, destacó Goose en la rueda de prensa. Pero, alertó, la aplicación de robots que seleccionan objetivos para atacar pone en peligro a los civiles, porque los robots no distinguirán si una persona es militar, ni sienten compasión o enfado. Por otro lado, el organismo asegura en el informe que dificulta la búsqueda de responsabilidades, porque los robots no pueden ser condenados por sus actos ni está claro quién podría asumir la responsabilidad en la jerarquía militar. “Si un robot se vuelve loco, ¿quién va a ser responsable? Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la Universidad de Sheffield. “No hay ninguna manera de definir quién tiene que asumir la responsabilidad, algo que es muy importante para la ley marcial”. Además, cree que se entraría en guerras con mayor facilidad y los regímenes dictatoriales podrían usarlo para ir en contra de su propia población.
http://actualidad.rt.com/actualidad/...obots-asesinos
PD.Los militares se zurran en derechos humanos , todo avance cientifico se utiliza para la guerra.
Las 3 leyes de la robótica de John W. Campbell suenan a pura utopía
Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
1.Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3.Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.