El gigante tecnológico Google afirmó hoy que no empleará la inteligencia artificial para crear armas o métodos de vigilancia que violen los derechos humanos, aunque sí seguirá colaborando con los Gobiernos en proyectos militares.
La empresa respondió así a la publicación de una carta, firmada por más de 4.000 de sus empleados, en la que se denuncia el posible uso de la inteligencia artificial en un programa gubernamental estadounidense, conocido como Project Maven, para mejorar la precisión del ataque de drones.
La protesta llevó a algunos trabajadores incluso a presentar su dimisión, según medios especializados.
En respuesta, Google aseguró a comienzos de mes que no renovará el contrato firmado con el Pentágono, que expirará el próximo año, y hoy publicó en el blog de la empresa una serie de reglas por las que se regirá para el uso apropiado de la inteligencia artificial.
En esas medidas, según detalló Sundar Pichai, máximo responsable de la compañía, se articula la obligación para la inteligencia artificial de ser “socialmente beneficiosa” y de “impedir la creación o el refuerzo de prejuicios injustos”.
Asimismo, concretó que la empresa no perseguirá que la inteligencia artificial se emplee para “armas y otras tecnologías cuyo principal objetivo o implementación sea causar o directamente facilitar el herir a las personas”.
Pichai recalcó que tampoco permitirá que la tecnología “recopile o emplee información de manera que viole normas internacionales aceptadas sobre derechos humanos”.
No obstante, el directivo aseguró que la compañía seguirá colaborando con gobiernos en proyectos militares dentro de áreas como ciberseguridad, entrenamiento y reclutamiento.