LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 
El filósofo Patrick Lin ha hecho un artículo sobre las implicaciones éticas de los robots de guerra, los presentes y los que llegarán pronto, a partir de una presentación que dio en In-Q-Tel, el brazo de capital-riesgo de la CIA. Entre los temas que menciona está el de que los robots podrían trabajar sin cegarse por la pasión. Así un robot podría controlar el estado de un torturado mejor que un médico humano sujeto al juramento hipocrático. O vigilar a prisioneros sin caer en las humillaciones de Abu Ghraib. Los pilotos remotos de un avión de combate, ¿están menos implicados que los pilotos dentro del avión o quizá más por observar su objetivo durante horas? Si un robot conoce mejor la situación que su jefe remoto, ¿debería rechazar las órdenes?
Un enemigo que lucha mediante robots puede ser considerado cobarde. Y un arma demasiado efectiva podría vulnerar el derecho internacional humanitario. ¿Son los cyborgs legalmente armas biológicas (prohibidas)? Si un robot semiautónomo provoca daños no deseados, ¿es culpa del piloto, el fabricante, el robot, el programador? ¿Tienen los robots marinos que socorrer a los náufragos como los buques tripulados? Las respuestas a todas estas preguntas pueden llevar a un ejército a contar con la ventaja de la justificación moral. ¿Tienes tú estas respuestas?

Pin It

Escribir un comentario


Código de seguridad
Refescar



Redes:



 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías