Google dice que sus algoritmos no se usarán para hacer el mal – Ateinco

Google dice que sus algoritmos no se usarán para hacer el mal

El gigante tecnológico ha creado un código de ética de inteligencia artificial que prohíbe el desarrollo de armas autónomas. Google dice que sus algoritmos no se usarán para hacer el mal, pero los principios dejan suficiente margen de maniobra para que la empresa se beneficie de acuerdos lucrativos de defensa más adelante.

El anuncio se produce después de una protesta interna significativa sobre el uso de la tecnología Google AI por una iniciativa del Departamento de Defensa llamada Algorithmic Warfare Cross-Functional Team. El objetivo de esta empresa, conocida internamente como Project Maven, es mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunciaron por el escándalo y muchos más firmaron una carta abierta de protesta. El alboroto capta los temores que muchos tienen sobre cómo la tecnología podría ayudar a automatizar la guerra en el futuro. La situación no es simple, sin embargo.

Por qué Google dice que sus algoritmos no se usarán para hacer el mal

La inteligencia artificial podría ayudar a que algunos sistemas de armas sean más seguros y menos propensos a errores. También hay muchas aplicaciones mundanas de inteligencia artificial en toda la industria de la defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog hoy. Sugiere siete principios para guiar el uso de Google de la IA, indicando que debería:

  1. Beneficiar a la sociedad.
  2. Evitar el sesgo algorítmico.
  3. Respetar la privacidad.
  4. Pasar un test de seguridad.
  5. Ser responsable ante el público.
  6. Mantener el rigor científico.
  7. Estar disponible para otros de acuerdo con los mismos principios.

Pero Pichai también se tomó la molestia de afirmar que Google no permitiría que su tecnología de inteligencia artificial se usara para desarrollar cualquier cosa que pudiera causar daño, incluidas “armas u otras tecnologías cuyo propósito principal o implementación es causar o facilitar lesiones a las personas”.

Google dice que sus algoritmos no se usarán para hacer el mal - Ateinco

Pichai dijo que Google también evitaría desarrollar tecnología de vigilancia que viole los estándares de derechos humanos internacionalmente aceptados o cualquier tecnología que contravenga la ley internacional.

Sin embargo, y aunque Google dice que sus algoritmos no se usarán para hacer el mal, la inteligencia artificial se está desarrollando rápidamente, y hay otros problemas relacionados con proyectos de inteligencia artificial. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente a las personas afrodescendientes como gorilas en varias ocasiones. La compañía abandonó su lema “Do not be evil” en abril, pero conserva una cultura idealista.

Usted está en Ateinco >> Blog >> Google dice que sus algoritmos no se usarán para hacer el mal