La proximidad del Día del Juicio.

Кадр из фильма "Терминатор 2"

La proximidad del Día del Juicio 
Activistas de derechos humanos temían máquinas de levantamiento Internacional de la organización no gubernamental Human Rights Watch con la Escuela de Derecho de Harvard publicó un informe sobre los peligros de los robots de combate totalmente autónomos y armas robóticas e instó a todos los gobiernos a renunciar a su desarrollo. Informe de la organización presentó una de 50 páginas, pero su esencia se puede expresar en una frase - robots independientes pueden matar indiscriminadamente. Los militares insisten en que sólo la inteligencia artificial y la robótica en gran medida puede reducir los daños colaterales y el número de víctimas civiles. 

De acuerdo con el informe "La pérdida de la humanidad: El caso contra robots asesinos" (Perdiendo la Humanidad: El caso en contra robots asesinos), preparado por la Human Rights Watch (HRW), robots de combate totalmente autónomos o sistemas de armas serán desarrollados y puestos en servicio en los próximos 20-30 años. Se dedica al desarrollo de países más o menos desarrollados tecnológicamente, en especial Estados Unidos, más que ningún otro más cercano a un auto-drones. Excluir a una persona de sistemas de gestión de armas y equipo militar, según el informe, es imposible, ya que en este caso se violaron varias disposiciones del derecho internacional humanitario. 

Guerra ley 
Una serie de estudios, HRW concluyó que "los robots son los mecanismos, lo que permite percibir el mundo y actuar de acuerdo con el programa". Están todos en mayor o menor grado de autonomía tiene, que es capaz de tomar cualquier acción, sin intervención humana. El grado de autonomía de los aviones no tripulados pueden variar significativamente dependiendo del modelo. Los robots pueden ser condicionalmente dividido en tres categorías: el "man-in-the-control del sistema" (human-in-the-loop), "hombre-de-sistema-control" (humano-on-the-loop)  y "el hombre fuera el sistema de control" (humano-hacia fuera-de-la bucle-). 

La primera implica que una máquina no tripulado puede detectar automáticamente y elegir los objetivos, pero la decisión sobre su Destrucción toma sólo un operador humano. La segunda categoría incluye los sistemas que automáticamente puede detectar y elegir metas y tomar decisiones sobre su destrucción, sino un operador humano, en calidad de observador, podrá en cualquier momento intervenir en la cadena. Por último, la tercera categoría incluye robots de HRW que pueden localizar, seleccionar y destruir objetivos sin ninguna intervención humana. Desde la perspectiva del derecho internacional humanitario, es la última categoría de sistemas de combate autónomos representan el mayor peligro para la población civil en una zona de guerra. En la final, que se utiliza para la mayoría de la comunidad internacional "derecho de la guerra" se dedica a la protección de la población civil de los efectos de las hostilidades.  


Según el HRW, los autónomos robots militares no sólo cumplen los requisitos de la ley humanitaria internacional, pero también puede causar aún más su violación, o es el rechazo de las convenciones y los tratados existentes. En primer lugar, el uso de sistemas robóticos con un alto grado de autonomía viole las disposiciones básicas de la Convención de Ginebra sobre la protección de las víctimas de los conflictos armados internacionales, que entró en vigor en 1950, y completada con tres protocolos principales en 1977 y 2005. Así, el artículo 36 del Protocolo I de los Convenios de Ginebra exigen que todos los países "en el estudio, desarrollo, adquiera o adopte una nueva arma, medios o métodos de guerra," ellos verificar el cumplimiento de la ley internacional. Por lo tanto, todas las armas han creado en cada etapa de desarrollo se someten a pruebas y evaluación del peligro para la población civil en caso de su uso operativo. Por ejemplo, según activistas de derechos humanos, no pase esta prueba de bombas de racimo, las submuniciones sin estallar, que sólo aumentó el número de víctimas civiles.  

Por cierto, para la detección rápida de las bombas los zapadores que estaban pintaban de colores brillantes y esto atraen a los niños y sólo aumentó el numero de víctimas civiles. Ahora municiones en racimo tienen un temporizador de autodestrucción y no son más peligrosos que una bomba ordinaria. Los Estados no van a llevar a cabo y evaluar adecuadamente el futuro de los robots para el cumplimiento del derecho internacional, se cree que HRW. Además, los robots autónomos no sólo se violan las disposiciones de los Convenios de Ginebra, sino también los requisitos de la Declaración de Martens (presentada a principios de la década de 1900, el ruso Martens abogado, fue la base de la Convención sobre las leyes y costumbres de la guerra terrestre). De acuerdo con esta declaración, "la población y los beligerantes quedan bajo la protección y autoridad de los principios de la ley, tal como resultan de costumbre establecida entre los pueblos civilizados, de las leyes de humanidad y los dictados de la conciencia pública".
 
En general, los robots autónomos que representan una amenaza directa a los no combatientes o vybyvshemu conflicto militar de la población. Según HRW, estos sistemas "no tienen emociones humanas" y no son capaces de comparar y contrastar las acciones de las personas. Y, dado que los robots no pueden simpatizar, van a matar el, herido y se retiró de la lucha (depuesto las armas) opositores a pesar de que está prohibido por las Convenciones de Ginebra. En este robot autónomo, no importa que tan perfecto que puede ser poseído inteligencia artificial, no puede en ningún análisis de alto nivel de la conducta de la gente está en frente de ellos. Como se ha señalado por HRW, si el soldado-el hombre no va a ser difícil de distinguir "una especie de miedo de civil" y una "amenaza de combatientes", el robot no puede. Además, no van a ser capaces de predecir las consecuencias de ciertas acciones del hombre y, por tanto, dejar de reconocer el cambio en el estado de ánimo del enemigo, si está en oposición al robot quiere, por ejemplo, la entrega a. Además, la falta de emoción también robots los convierten en una herramienta atractiva para la represión y la dictadura - drones simplemente no llegará a la "cabeza" de rebelarse contra las órdenes inhumanas "de las autoridades."
 
Corea del Sur robot guardia SGR-1.
Por último, el uso generalizado de armas categoría autónoma "hombre-fuera-de-control" no puede ser declarado culpable en el caso de las muertes de civiles. Es de suponer que la responsabilidad en estos casos se podría dar a la policía que tomó una decisión sobre el uso del robot, el instalador, fabricante o incluso el robot. Todas estas opciones, según HRW, es inaceptable. En las acciones ilegales y violentas "sería difícil e injusto" acusar al oficial, programador o productor, y el castigo es un robot y lo hace absurdo. Así, las víctimas de la guerra perderá el derecho legal a la justicia. Sobre la base de estos argumentos en sus llamadas informe de HRW sobre los gobiernos de todo el mundo en una legislación que prohíba el desarrollo, la producción y el uso de robots autónomos y sistemas de armas, así como a evaluar cuidadosamente toda la tecnología crea que de alguna manera puede ser utilizado en la construcción de la auto-drones. Además, los desarrolladores de robótica y armas Human Rights Watch instó a revisar cuidadosamente sus proyectos de acuerdo con la legislación nacional y el derecho humanitario internacional.

Sin el hombre 
Mientras tanto, la creación de sistemas robóticos autónomos es considerado por muchos gobiernos prioridad. Así, a finales de 2010, el Ministerio de Defensa anunció el "Plan de desarrollo e integración de sistemas autónomos en los años 2011-2036". 

Según el documento, el número de aire, la tierra y bajo el agua los sistemas autónomos se incrementará, y los desarrolladores para definir la tarea de capacitar a los vehículos "independencia supervisada" (toda la gente controles), y en el extremo. "Total independencia" y la en este caso, los EE.UU. la Fuerza Aérea cree que una inteligencia artificial prometedor durante la batalla será capaz de tomar decisiones que no violen la ley. Es cierto que el Pentágono también toma nota de que en un futuro próximo con el uso de sistemas autónomos decidir sobre el uso de las armas y la orientación se mantendrá bajo el control del hombre. Una posición similar es compartida por el Ministerio de Defensa británico en 2011, ha anunciado que el país no está interesado en la creación de un sistemas robóticos totalmente independientes. Según HRW, tales declaraciones son dignas de elogio, pero insuficiente - en las futuras visitas de los departamentos militares a los robots independientes pueden cambiar dramáticamente. Ellos mismos, los militares creen que los robots - no mal, pero bueno. 

En particular, no se ponga en peligro la vida de los soldados en el campo de batalla son totalmente reemplazados por máquinas. Además, en el uso final de la producción de sistemas autónomos permitirá un importante ahorro en los seguros, la atención de salud, la formación, mantenimiento y reciclaje de los soldados profesionales. Con la llegada masiva de robots de combate de las fuerzas armadas se reducirá considerablemente, centrándose sólo en la formación de técnicos y operadores. La pérdida de los robots en la guerra puede compensar la producción de nuevos sistemas para sustituir retirado hacia abajo - para proporcionar un rápido "producción" de los soldados en las cantidades adecuadas es imposible. Por último, según los militares, que los robots y armas robóticas reducirá significativamente los daños colaterales y el número de víctimas entre la población civil. Así, en el Departamento de Defensa de EE.UU. creen que el eslabón más débil de la cadena robotozirovannyh sistemas es sólo una persona - operador no puede dormir, cansado o enfermo, que aumenta en gran medida la probabilidad de un error fatal. 

 "Iron Dome"

El uso de robots en los sistemas modernos de los dispositivos de inteligencia, vigilancia y reconocimiento, como sensores de alta precisión, los radares de alta potencia, cámaras, sonar, equipos láser, mecanismos de precisión que eliminarían la posibilidad, por ejemplo, alcanzado por un obús o una bomba no es el objeto que se originalmente planeado. "Sus" robots no se tocan - el sistema no permitirá que "nosotros y ellos", que por cierto, ya está integrado en el equipo desarrollado por el "soldado del futuro" en los EE.UU., Francia, Alemania y Rusia. En resumen, los robots son ideales militares del campo de batalla robots en un futuro lejano.
 
Requisitos previos para un sistemas totalmente autónomos, según HRW, ya definida. Por ejemplo, los modernos sistemas de defensa aérea puede funcionar en modo totalmente automático. Por ejemplo, los complejos tienen propiedades tales como los patriot americanos, el ruso S-400 o israelí "Cúpula de Hierro". En julio de 2010, Corea del Sur comenzó a colocadar en la frontera con robots de patrulla de Corea del Norte capaces de controlar las zonas fronterizas, detectar a los infractores y, con la aprobación del operador abrir fuego contra ellos. Los EE.UU. está desarrollando aviones con base en portaaviones no tripulado X-47B, la cual, aunque no se usar armas, pero sin la intervención humana puede repostar en el aire y producir repostar otros aviones, incluyendo tripulados y vino a la tierra en la cubierta de un portaaviones, despegar, realizar reconocimientos e identificar objetivos. Y todo lo que hará más rápido y más humano. De hecho, los científicos y los fabricantes sólo tienen que desarrollar un fiable sistema de autoaprendizaje con inteligencia artificial, que uniría la tecnología existente. Sobre todo porque la red neuronal artificial ya aprendió a reconocer las imágenes de gatos, la cara y partes del cuerpo humano.
 
Y los argumentos a favor de un sistema completamente autónomo, según los militares, existen más que en contra. Por ejemplo, supongamos que un prometedor caza sexta generación luchador estadounidense será un aparato no tripulado hipersónico. Teniendo en cuenta que las velocidades de vuelo de más de cinco mil kilómetros por hora y un gran volumen de datos de entrada (y sus drones ya dado más que capaz de manejar a la gente), el operador simplemente no puede tomar las soluciones en tiempo situacionales necesarias, parece que este trabajo tendrá que pasar "hombros" de la inteligencia artificial. Pero queda abierta una pregunta importante: ¿es ético transferir el derecho de abordar las cuestiones de la vida y la muerte en combate de un mecanismo artificial? Porque, nos guste o no, la muerte del hombre por el hombre, la acción parece más lógico (o por lo menos más emocionalmente justificado) que matar a un hombre-máquina. En el primer caso, se puede mirar hacia fuera para un asesinato de una explicación racional, en la segunda, y la verdad, el derecho a hablar de la aparición de la gran tribulación.

Fuente: http://lenta.ru/

Comentarios