Google modifica su ética en IA: excluye compromiso de no usarla en armas o vigilancia abusiva

Feb 6, 2025

En un giro significativo, Google actualizó el 4 de enero de 2025 sus guías éticas sobre el uso de la Inteligencia Artificial (IA), excluyendo el compromiso previo de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen derechos humanos o normas internacionales.

Hasta la semana pasada, la política de la compañía incluía restricciones en el uso de la IA en «tecnologías que causan o es probable que causen daño general», lo que incluía explícitamente armas.

Sin embargo, el cambio en la redacción fue anunciado por Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente senior de tecnología y sociedad de la compañía, en un artículo publicado en el blog oficial.

La nueva perspectiva de Google, que se aleja de la noción de evitar el uso de IA en la creación de armas y en el control excesivo, establece que las democracias deben liderar el desarrollo de la IA, basándose en valores como la libertad, igualdad y derechos humanos.

Asimismo, la empresa sostiene que se centrará en el control humano y en la colaboración con los usuarios para asegurar que su tecnología se utilice conforme a los principios internacionalmente aceptados en materia de derechos humanos.



Comentarios

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Te puede interesar





Lo último