Instituto del Futuro de la Vida - Enciclopedia
El Instituto del Futuro de la Vida (FLI) es una organización sin fines de lucro que tiene como objetivo guiar la tecnología transformadora hacia el beneficio de la vida y alejarse de riesgos a gran escala, con un enfoque en el riesgo existencial de la inteligencia artificial avanzada (IA). Las actividades del FLI incluyen la concesión de subvenciones, actividades de divulgación educativa y defensa dentro de las instituciones de las Naciones Unidas, el gobierno de los Estados Unidos y la Unión Europea.
Entre los fundadores del Instituto se incluyen el cosmólogo del MIT Max Tegmark, el cosmólogo de UCSC Anthony Aguirre y el cofundador de Skype Jaan Tallinn; entre los asesores del Instituto se encuentra el empresario Elon Musk.
Propósito
La misión declarada del FLI es guiar la tecnología transformadora hacia el beneficio de la vida y alejarse de riesgos a gran escala. La filosofía del FLI se centra en el riesgo potencial para la humanidad del desarrollo de inteligencia artificial general (AGI) a nivel humano o superinteligente, pero también trabaja para mitigar el riesgo de biotecnología, armas nucleares y el calentamiento global.
Historia
El FLI fue fundado en marzo de 2014 por el cosmólogo del MIT Max Tegmark, el cofundador de Skype Jaan Tallinn, la científica de investigación de DeepMind Viktoriya Krakovna, la becaria posdoctoral de la Universidad Tufts Meia Chita-Tegmark y el físico de UCSC Anthony Aguirre. Los asesores del Instituto incluyen los científicos de la computación Stuart J. Russell y Francesca Rossi, el biólogo George Church, el cosmólogo Saul Perlmutter, la astrofísica Sandra Faber, el físico teórico Frank Wilczek, el empresario Elon Musk y los actores y comunicadores científicos Alan Alda y Morgan Freeman (así como el cosmólogo Stephen Hawking antes de su muerte en 2018).
A partir de 2017, el FLI ha ofrecido un premio anual "Futuro de la Vida", con el primer galardonado siendo Vasili Arkhipov. Ese mismo año, el FLI lanzó Slaughterbots, un cortometraje de defensa del control de armas. El FLI lanzó una secuela en 2021.
En 2018, el FLI elaboró una carta pidiendo "leyes contra armas autónomas letales". Los firmantes incluyeron a Elon Musk, Demis Hassabis, Shane Legg y Mustafa Suleyman.
En enero de 2023, la revista sueca Expo informó que el FLI había ofrecido una subvención de 100,000 dólares a una fundación establecida por Nya Dagbladet, un periódico en línea de extrema derecha sueco. En respuesta, Tegmark dijo que el instituto solo se dio cuenta de las posiciones de Nya Dagbladet durante los procesos de investigación de antecedentes pocos meses después de que se ofreciera inicialmente la subvención, y que se revocó inmediatamente la subvención.
= Carta abierta sobre una pausa en la IA =
En marzo de 2023, el FLI publicó una carta titulada "Pausar Experimentos de IA Gigante: Una Carta Abierta". Esta carta llamaba a los principales desarrolladores de IA a acordar una pausa verificable de seis meses en cualquier sistema "más poderoso que GPT-4" y a utilizar ese tiempo para instituir un marco para asegurar la seguridad; o, en caso de que esto no sea posible, para que los gobiernos intervengan con un moratorio. La carta decía: "en los últimos meses se ha visto a laboratorios de IA atrapados en una carrera descontrolada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de manera confiable". La carta se refería a la posibilidad de "un cambio profundo en la historia de la vida en la Tierra" así como a los riesgos potenciales de propaganda generada por IA, pérdida de empleos, obsolescencia humana y pérdida de control a nivel social.
Entre los firmantes destacados de la carta se encontraban Elon Musk, Steve Wozniak, Evan Sharp, Chris Larsen y Gary Marcus; los CEOs de laboratorios de IA Connor Leahy y Emad Mostaque; el político Andrew Yang; el investigador de aprendizaje profundo Yoshua Bengio; y Yuval Noah Harari. Marcus dijo: "la carta no es perfecta, pero el espíritu es correcto". Mostaque dijo: "no creo que una pausa de seis meses sea la mejor idea ni estoy de acuerdo con todo, pero hay algunas cosas interesantes en esa carta". Por el contrario, Bengio respaldó explícitamente la pausa de seis meses en una conferencia de prensa. Musk predijo que "los principales desarrolladores de AGI no prestarán atención a esta advertencia, pero al menos se dijo". Algunos firmantes, como Musk, dijeron que estaban motivados por el temor al riesgo existencial de la inteligencia artificial general. Algunos otros firmantes, como Marcus, dijeron que firmaron debido a preocupaciones sobre riesgos como la propaganda generada por IA.
Los autores de uno de los artículos citados en la carta del FLI, "Los Peligros de los Parrotos Estocásticos: ¿Pueden Ser los Modelos de Lenguaje Demasiado Grandes?", incluyendo a Emily M. Bender, Timnit Gebru y Margaret Mitchell, criticaron la carta. Mitchell dijo que "al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los patrocinadores del FLI. Ignorar los daños activos en la actualidad es un lujo que algunos de nosotros no tenemos”.
Operaciones
= Defensa =
El FLI ha contribuido activamente a la formulación de políticas sobre IA. Por ejemplo, en octubre de 2023, el líder de la mayoría en el Senado de los Estados Unidos, Chuck Schumer, invitó al FLI a compartir su perspectiva sobre la regulación de la IA con senadores seleccionados. En Europa, el FLI ha defendido con éxito la inclusión de sistemas de IA más generales, como GPT-4, en la Ley Europea de Inteligencia Artificial.
En materia de políticas militares, el FLI ha coordinado el apoyo de la comunidad científica al Tratado sobre la Prohibición de Armas Nucleares. En las Naciones Unidas y en otros lugares, el Instituto también ha defendido un tratado sobre armas autónomas.
= Subvenciones de investigación =
El programa de investigación del FLI comenzó en 2015 con una donación inicial de 10 millones de dólares de Elon Musk. En esta ronda inicial, se otorgaron un total de 7 millones de dólares a 37 proyectos de investigación. En julio de 2021, el FLI anunció que lanzaría un nuevo programa de subvenciones de 25 millones de dólares con financiación del programador ruso-canadiense Vitalik Buterin.
= Conferencias =
En 2014, el Instituto del Futuro de la Vida celebró su evento de inauguración en el MIT: un debate en el que se discutió "El Futuro de la Tecnología: Beneficios y Riesgos", moderado por Alan Alda. Los participantes fueron el biólogo sintético George Church, la genetista Ting Wu, el economista Andrew McAfee, el físico y premio Nobel Frank Wilczek y el cofundador de Skype Jaan Tallinn.
Desde 2015, el FLI ha organizado conferencias bianuales con el objetivo declarado de reunir a investigadores de IA de la academia y la industria. A abril de 2023, se han celebrado las siguientes conferencias:
La conferencia "El Futuro de la IA: Oportunidades y Desafíos" en Puerto Rico (2015). El objetivo declarado fue identificar direcciones de investigación prometedoras que ayuden a maximizar los beneficios futuros de la IA. En la conferencia, el FLI distribuyó una carta abierta sobre la seguridad de la IA que posteriormente fue firmada por Stephen Hawking, Elon Musk y muchos investigadores de IA.
La conferencia de IA Beneficial en Asilomar, California (2017), una reunión privada de lo que The New York Times llamó "los grandes nombres de la IA" (incluidos Yann LeCun, Elon Musk y Nick Bostrom). El instituto publicó un conjunto de principios para el desarrollo responsable de la IA que surgieron de la discusión en la conferencia, firmados por Yoshua Bengio, Yann LeCun y muchos otros investigadores de IA. Estos principios pueden haber influido en la regulación de la inteligencia artificial y en iniciativas posteriores, como los Principios de la OCDE sobre la IA.
La conferencia de IA General Beneficial en Puerto Rico (2019). El enfoque declarado de la reunión fue responder a preguntas a largo plazo con el objetivo de garantizar que la inteligencia artificial general sea beneficiosa para la humanidad.
En los medios de comunicación
"La Lucha por Definir Cuándo la IA es 'Alta Riesgo'" en Wired.
"Lethal Autonomous Weapons exist; They Must Be Banned" en IEEE Spectrum.
"United States and Allies Protest U.N. Talks to Ban Nuclear Weapons" en The New York Times.
"Is Artificial Intelligence a Threat?" en The Chronicle of Higher Education, incluyendo entrevistas con los fundadores del FLI Max Tegmark, Jaan Tallinn y Viktoriya Krakovna.
"But What Would the End of Humanity Mean for Me?", una entrevista con Max Tegmark sobre las ideas detrás del FLI en The Atlantic.
Ver también
Instituto del Futuro de la Humanidad
Centro de Estudio de Riesgo Existencial
Riesgo catastrófico global
Centro Leverhulme para el Futuro de la Inteligencia
Instituto de Investigación de Inteligencia Artificial
El Abismo: Riesgo Existencial y el Futuro de la Humanidad
Referencias
Enlaces externos
Sitio web oficial