Google elimina su política de límites al uso de la IA en armas o vigilancia

Ciencia y Tecnología05/02/2025Raudy MotaRaudy Mota
OBJ_20241121T175813S0013I_1_1_1_15_7_6

Los Ángeles (EE.UU.) (EFE).- Google actualizó este martes sus guías éticas en el uso de la Inteligencia Artificial (IA) y excluyó el compromiso de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o contraríen los derechos.

La redacción anterior, disponible hasta la semana pasada y que se puede consultar en Internet Archive, incluía aplicaciones que evitaría utilizar como «tecnologías que causan o es probable que causen daño general», incluidas las armas, en línea con principios internacionales en derechos humanos.

Los cambios y la nueva visión de la compañía sobre sus principios de la IA fueron explicados este martes en el blog de la empresa en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.

¿Por qué Google cambió sus políticas sobre IA?
Google considera que «las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», indica el documento.

«Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional», agrega.

La nueva actualización incluirá en este sentido disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios «ampliamente aceptados del derecho internacional y los derechos humanos».

Te puede interesar

Lo más visto