AI Safety Institute - Enciclopedia

Un Instituto de Seguridad de la Inteligencia Artificial (AISI, por sus siglas en inglés), en general, es un instituto respaldado por el estado que tiene como objetivo evaluar y garantizar la seguridad de los modelos de inteligencia artificial más avanzados, también conocidos como modelos de IA de frontera.

La seguridad de la IA ganó prominencia en 2023, especialmente con declaraciones públicas sobre riesgos existenciales potenciales de la IA. Durante la Cumbre de Seguridad de la IA en noviembre de 2023, el Reino Unido (UK) y los Estados Unidos (US) crearon sus propios AISI. Durante la Cumbre de IA de Seúl en mayo de 2024, los líderes internacionales acordaron formar una red de Institutos de Seguridad de la IA, que incluye institutos del Reino Unido, los Estados Unidos, Japón, Francia, Alemania, Italia, Singapur, Corea del Sur, Australia, Canadá y la Unión Europea.


Cronología
En 2023, Rishi Sunak, primer ministro del Reino Unido, expresó su intención de "hacer del Reino Unido no solo el hogar intelectual, sino también el hogar geográfico de la regulación global de la IA" y reveló planes para una Cumbre de Seguridad de la IA. Subrayó la necesidad de evaluaciones de seguridad independientes, afirmando que las empresas de IA no pueden "corregir su propio trabajo". Durante la cumbre de noviembre de 2023, el AISI del Reino Unido se estableció oficialmente como una evolución del Grupo de Tareas de IA de Frontera, y el AISI de los Estados Unidos como parte del NIST. Japón lanzó su instituto de seguridad de IA en febrero de 2024.

Politico informó en abril de 2024 que muchas empresas de IA no habían compartido el acceso previo a despliegue a sus modelos de IA más avanzados para su evaluación. El presidente de asuntos globales de Meta, Nick Clegg, dijo que muchas empresas de IA estaban esperando que los Institutos de Seguridad de la IA del Reino Unido y los Estados Unidos elaboraran reglas y procedimientos de evaluación comunes. En abril de 2024, se llegó a un acuerdo entre el Reino Unido y los Estados Unidos para colaborar en al menos una prueba de seguridad conjunta. Inicialmente establecido en Londres, el Instituto de Seguridad de la IA del Reino Unido anunció en mayo de 2024 que abriría una oficina en San Francisco, donde se encuentran muchas empresas de IA. Esto es parte de un plan para "establecer nuevas, estándares internacionales de seguridad en IA", según la ministra de tecnología del Reino Unido, Michele Donelan.

En la Cumbre de IA de Seúl en mayo de 2024, la Unión Europea y otros países acordaron crear sus propios institutos de seguridad de IA, formando una red internacional.


Reino Unido
El Reino Unido fundó en abril de 2023 una organización de seguridad llamada Grupo de Tareas de IA de Frontera, con un presupuesto inicial de 100 millones de libras esterlinas. En noviembre de 2023, se transformó en el Instituto de Seguridad de la IA, y continuó siendo liderado por Ian Hogarth. El AISI es parte del Departamento de Ciencia, Innovación y Tecnología del Reino Unido. En febrero de 2025, fue renombrado como Instituto de Seguridad de la IA.

La estrategia de IA del Reino Unido busca equilibrar la seguridad e la innovación. A diferencia de la Unión Europea, que adoptó el Reglamento de IA, el Reino Unido rehúsa legislar temprano, considerando que podría reducir el crecimiento del sector y que las leyes podrían ser obsoletas por el progreso tecnológico.

En mayo de 2024, el instituto puso a disposición del público una herramienta de seguridad de IA llamada "Inspect", que evalúa capacidades de los modelos de IA como el razonamiento y su grado de autonomía.


Estados Unidos
El AISI de los Estados Unidos se fundó en noviembre de 2023 como parte del NIST. Esto ocurrió el día después de la firma del Decreto Ejecutivo 14110. En febrero de 2024, Elizabeth Kelly, exas顾问 de política económica del presidente Joe Biden, fue nombrada para liderarlo.

En febrero de 2024, el gobierno de los Estados Unidos creó el Consorcio del Instituto de Seguridad de la IA de los Estados Unidos (AISIC), que reúne más de 200 organizaciones, como Google, Anthropic o Microsoft.

En marzo de 2024, se asignó un presupuesto de 10 millones de dólares. Los observadores notaron que esta inversión es relativamente pequeña, especialmente considerando la presencia de muchas grandes empresas de IA en los Estados Unidos. El NIST, que aloja el AISI, también es conocido por su falta crónica de financiamiento. La solicitud de financiamiento adicional de la administración Biden se encontró con recortes adicionales del Congreso.

India
El Ministerio de Electrónica y Tecnología de la Información celebró consultas con Meta Platforms, Google, Microsoft, IBM, OpenAI, NASSCOM, Foro de Banda Ancha de India, Alianza de Software, Institutos de Tecnología de la India, The Quantum Hub, Fundación de Empoderamiento Digital y Access Now el 7 de octubre de 2024, en relación con la creación del Instituto de Seguridad de la IA. Se decidió centrarse en la elaboración de estándares, identificación de riesgos y detección de daños, todos ellos que requieren tecnologías interoperables. El AISI podría gastar los 20 crore asignados al Pilar Seguro y Confiable de la Misión IndiaAI para el presupuesto inicial. El financiamiento futuro podría provenir de otros componentes de la Misión IndiaAI.

La UNESCO y el MeitY comenzaron a consultar sobre la Metodología de Evaluación de Preparación de la IA bajo Seguridad y Ética en la IA en 2024. Esto tiene como objetivo fomentar el uso ético y responsable de la IA en las industrias. El estudio encontrará áreas donde el gobierno puede intervenir, especialmente en intentos por fortalecer las capacidades institucionales y regulatorias.

El ministro de Electrónica y Tecnología de la Información, Ashwini Vaishnaw, anunció la creación del Instituto de Seguridad de la IA de India el 30 de enero de 2025, para garantizar la aplicación ética y segura de los modelos de IA. El instituto promoverá la I+D interna basada en la diversidad social, económica, cultural y lingüística de la India y basada en conjuntos de datos indios. Con la ayuda de instituciones académicas y de investigación, así como de socios del sector privado, el instituto seguirá el enfoque de hub y spoke para realizar proyectos dentro del Pilar Seguro y Confiable de la Misión IndiaAI.


Véase también
Centro de Investigación de Alineación
Modelo de fundación
Regulación de la inteligencia artificial


Referencias
[Se omiten las referencias por espacio]


Enlaces externos
Instituto de Seguridad de la IA de Canadá
Oficina de IA Europea
Instituto de Seguridad de la IA de Japón
Instituto de Seguridad de la IA de Singapur
Instituto de Seguridad de la IA de Corea del Sur
Instituto de Seguridad de la IA del Reino Unido
Instituto de Seguridad de la IA de los Estados Unidos