IA fiable - Enciclopedia

La Inteligencia Artificial (IA) Confiable se refiere a sistemas de inteligencia artificial diseñados para ser transparentes, robustos y respetuosos con la privacidad de los datos.

La Inteligencia Artificial Confiable utiliza una serie de tecnologías de mejora de la privacidad (PETs) como la criptografía homomórfica, el aprendizaje federado, la computación segura de múltiples partes, la privacidad diferencial y la prueba de conocimiento cero.

El concepto de Inteligencia Artificial Confiable también abarca la necesidad de que los sistemas de IA sean explicables, responsables y robustos. La transparencia en la IA implica que los procesos y decisiones de estos sistemas sean comprensibles para los usuarios y las partes interesadas. La responsabilidad asegura que existan protocolos para abordar los resultados adversos o las sesgos que pueden surgir, con responsabilidades designadas para la supervisión y la remediación. La robustez y la seguridad buscan garantizar que los sistemas de IA funcionen de manera confiable bajo diversas condiciones y estén protegidos contra ataques maliciosos.


Estándarización ITU
La Inteligencia Artificial Confiable también es un programa de trabajo de la Unión Internacional de Telecomunicaciones (ITU), una agencia de las Naciones Unidas, iniciado bajo su programa AI for Good. Su origen se encuentra en el Grupo de Trabajo ITU-WHO sobre Inteligencia Artificial para la Salud, donde la necesidad de privacidad y análisis creó demanda por un estándar en estas tecnologías.

Cuando AI for Good se trasladó a línea en 2020, se inició la serie de seminarios TrustworthyAI para comenzar discusiones sobre este trabajo, lo que eventualmente llevó a actividades de estandarización.


= Computación de múltiples partes =
La computación segura de múltiples partes (MPC) está siendo estandarizada bajo "Pregunta 5" (el incubador) del Grupo de Estudio 17 de ITU-T.


= Criptografía homomórfica =
La criptografía homomórfica permite realizar cálculos en datos encriptados, donde los resultados o resultados finales siguen siendo encriptados y desconocidos para aquellos que realizan los cálculos, pero pueden ser descifrados por el encriptador original. A menudo se desarrolla con el objetivo de permitir su uso en jurisdicciones diferentes a las de creación de los datos (por ejemplo, bajo el GDPR).
ITU ha estado colaborando desde las primeras etapas de las reuniones de estandarización de HomomorphicEncryption.org, que han desarrollado un estándar sobre criptografía homomórfica. La quinta reunión sobre criptografía homomórfica se celebró en la sede de ITU en Ginebra.


= Aprendizaje federado =
Las máscaras de suma cero utilizadas por el aprendizaje federado para la preservación de la privacidad se utilizan ampliamente en los estándares de multimedia del Grupo de Estudio 16 de ITU-T (VCEG) como JPEG, MP3, H.264 y H.265 (conocidos comúnmente como MPEG).


= Prueba de conocimiento cero =
Se ha realizado trabajo previo de pre-estandarización sobre el tema de la prueba de conocimiento cero en el Grupo de Trabajo ITU-T sobre Tecnologías de Ledger Digital.


= Privacidad diferencial =
La aplicación de la privacidad diferencial en la preservación de la privacidad se examinó en varias de las jornadas de "Día 0" de los talleres de aprendizaje automático en los Cumbres Mundiales de AI for Good.


Ver también
Inteligencia Artificial
Tecnologías de mejora de la privacidad
Ciencia de los datos


Referencias