Derechos HumanosDestacadasEl Mundo

Google tomó medidas sobre IA para el desarrollo de armas que atentan contra los derechos humanos

Se trata de una vergonzosa decisión de Google de revocar su prohibición de usar inteligencia artificial para armas y vigilancia, un duro golpe para los derechos humanos.

En respuesta a la decisión de Google de eliminar su prohibición de usar la inteligencia artificial (IA) para desarrollar armas y herramientas de vigilancia, Matt Mahmoudi, investigador y asesor de Amnistía Internacional sobre Inteligencia Artificial y Derechos Humanos, ha afirmado:

“Es una vergüenza que Google haya decidido sentar este peligroso precedente, después de años de reconocer que su programa de inteligencia artificial (IA) no debía usarse de maneras que pudieran contribuir a la comisión de violaciones de derechos humanos. Amnistía viene documentando desde hace mucho tiempo las posibles violaciones de derechos humanos que plantea la inteligencia artificial cuando se usa como medio de control social, vigilancia masiva y discriminación.

“Las tecnologías basadas en la inteligencia artificial podrían impulsar la vigilancia y los mortíferos sistemas de homicidio en gran escala, y podrían dar lugar a violaciones masivas de derechos humanos y vulnerar el derecho fundamental a la privacidad. La decisión de Google de revocar su prohibición de usar la inteligencia artificial para armas permite a la empresa vender productos que promueven tecnologías como la vigilancia masiva, los drones desarrollados para ataques semiautomatizados por patrones de comportamiento (ataques “de firma”) y software para la generación de objetivos diseñado para acelerar la decisión de matar.

Es una vergüenza que Google haya decidido sentar este peligroso precedente, después de años de reconocer que su programa de inteligencia artificial (IA) no debía usarse de maneras que pudieran contribuir a la comisión de violaciones de derechos humanos. Amnistía viene documentando desde hace mucho tiempo las posibles violaciones de derechos humanos que plantea la inteligencia artificial cuando se usa como medio de control social, vigilancia masiva y discriminación.

Matt Mahmoudi, investigador y asesor sobre Inteligencia Artificial y Derechos Humanos
“Google debe revertir con urgencia los cambios recientes en los principios sobre inteligencia artificial y comprometerse de nuevo a abstenerse de desarrollar o vender sistemas que puedan permitir violaciones graves de derechos humanos.

“Asimismo, es esencial que los actores estatales establezcan normativas vinculantes, basadas en principios de derechos humanos, que rijan la utilización de estas tecnologías. La apariencia de autorregulación perpetuada por las empresas tecnológicas no debe desviar nuestra atención de la urgente necesidad de crear legislación sólida que proteja los derechos humanos.”

SOBRE GOOGLE

El martes, Google retiró de su sitio web el compromiso que prometía no aplicar tecnologías que “causan o pueden causar un daño general”, como las armas y los sistemas de vigilancia, y “tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos”. Google ha defendido el cambio, y ha explicado que las empresas y los gobiernos deben trabajar juntos en inteligencia artificial que “apoye la seguridad nacional”.

Tras las investigaciones realizadas, Amnistía Internacional ha documentado cómo los sistemas de reconocimiento facial pueden potenciar la actuación policial racialmente discriminatoria y amenaza el derecho de protesta.

En 2019, la investigación de Amnistía Internacional reveló cómo el modelo empresarial basado en la vigilancia de Google es intrínsecamente incompatible con el derecho a la privacidad y representa un peligro para diversos derechos más, como la libertad de opinión y de expresión, la libertad de pensamiento y el derecho a la igualdad y a no sufrir discriminación. (Fuente: Amnistía Internacional)

Cooperativa La Prensa

Cooperativa de Trabajo y Consumo Ltda La Prensa

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *