Google ya no usará su inteligencia artificial en armas estadounidenses

  • 6
  • 5
  •  
  •  
  •  
  •  
  •  
  •  

Google ha prometido no usar inteligencia artificial para armas, luego de protestas por su asociación con el ejército estadounidense.

En un artículo anterior hablamos de Google y su intención de asesorar a los militares sobre las formas de aplicar la tecnología al campo de batalla.

Google construye vínculos con los militares de USA.

La decisión de proporcionar herramientas de aprendizaje automático para analizar secuencias de drones causó la renuncia de algunos empleados.

Google dijo a los empleados la semana pasada que no renovaría su contrato con el Departamento de Defensa de los Estados Unidos cuando expire el próximo año.

Ahora ha dicho que no usará inteligencia artificial para la tecnología que causa lesiones a las personas.

Las nuevas pautas para el uso de la IA se describieron en una publicación del director ejecutivo Sundar Pichai.

Dijo que la empresa no diseñaría AI para:

  • tecnologías que causan o pueden causar un daño general
  • armas u otras tecnologías cuyo objetivo principal es causar o facilitar directamente lesiones a las personas
  • tecnología que reúne o usa información para la vigilancia que viola normas internacionalmente aceptadas
  • tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos

También presentó siete principios más que, según dijo, guiarían el diseño de los sistemas de IA en el futuro:

  • La IA debería ser socialmente beneficiosa
  • Debe evitar crear o reforzar el sesgo
  • Ser construido y probado para seguridad
  • Se responsable
  • Incorporar principios de diseño de privacidad
  • Mantener altos estándares de excelencia científica
  • Estar disponible para su uso

Cuando Google reveló que había firmado un contrato para compartir su tecnología de IA con el Pentágono, varios empleados renunciaron y miles de otros firmaron una petición de protesta.

Project Maven implica el uso de aprendizaje automático para distinguir personas y objetos en videos de drones.

La Electronic Frontier Foundation recibió con agrado el cambio de opinión, llamándolo una “gran victoria para los principios éticos de la IA”.

Fuente: www.bbc.com