🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Recientemente Google ganó un contrato para desarrollar el programa Project Maven del Pentágono, que utiliza Inteligencia Artificial para interpretar imágenes de vídeo.
Esta tecnología podría utilizarse para mejorar la orientación de los ataques con aviones no tripulados, por lo que más de 4.000 empleados de Google firmaron una petición de protesta, y algunos empleados abandonaron la compañía.
En respuesta, Google dijo hace menos de una semana que no renovará el contrato de Maven cuando termine el próximo año y se comprometió a redactar un conjunto de directrices para un uso apropiado de la I.A.
Hoy Google ha publicado un conjunto de principios relacionados con el uso de la IA, donde explica que no utilizará la IA para desarrollar armamento o llevar a cabo labores de vigilancia que violen los derechos humanos. Ahora bien, la compañía seguirá trabajando con gobiernos y ejércitos.
En una entrada del blog de la compañía, Sundar Pichai, director ejecutivo, ha establecido siete objetivos para su tecnología de IA, incluyendo «evitar crear o reforzar prejuicios injustos» y «ser socialmente beneficioso».
Google también ha detallado algunos usos de la tecnología que la compañía no va a perseguir, incluyendo el uso de la IA para crear «armas u otras tecnologías cuyo propósito principal es causar o facilitar directamente daño a las personas» y «tecnologías que recopilen o utilicen información para vigilancia que viole las normas internacionalmente aceptadas de derechos humanos».
Google también ha dicho que seguirá trabajando con gobiernos y ejércitos que utilizan la inteligencia artificial en áreas como la ciberseguridad, la formación y el reclutamiento militar.
Las directrices de Google también incluye una regla sobre cómo otras empresas podrían utilizar su tecnología para fines ilegítimos. «Nos reservamos el derecho a prevenir o detener el uso de nuestra tecnología si nos damos cuenta de usos que son inconsistentes con estos principios«, dijo la compañía.
Google publica abiertamente gran parte de sus investigaciones sobre IA. Esto significa que otros pueden reutilizar muchos de sus métodos e ideas, por lo que Google explica que puede frenar ciertas investigaciones si cree que otros harán un mal uso de ellas.
En este sentido, DeepMind, uno de los principales laboratorios de IA propiedad de la empresa matriz de Google, Alphabet, está estudiando si debería dejar de publicar ciertas investigaciones porque podrían ser peligrosas.