ライフインスティテュートの未来 - 百科事典

生命の未来研究所(FLI)は、非営利組織で、変革的な技術を生命に利益をもたらす方向へと導き、大規模なリスクから遠ざけることを目指しています。特に、高度な人工知能(AI)から生じる存在のリスクに焦点を当てています。FLIの業務には、寄付金の交付、教育の推進、国連、米国政府、欧州連合の機関における提言が含まれます。

研究所の創設者には、MITの宇宙学者Max Tegmark、UCSCの宇宙学者Anthony Aguirre、Skypeの共同創業者Jaan Tallinnがいます。研究所のアドバイザーには、起業家Elon Muskも含まれています。

目的

FLIの明示的な使命は、変革的な技術を生命に利益をもたらす方向へと導き、大規模なリスクから遠ざけることです。FLIの哲学は、人間レベルまたは超知能的人工一般知能(AGI)の開発から生じる人類に対する潜在的なリスクに焦点を当てていますが、またバイオテクノロジー、核兵器、地球温暖化からのリスク軽減にも取り組んでいます。

歴史

FLIは、2014年3月にMITの宇宙学者Max Tegmark、Skypeの共同創業者Jaan Tallinn、DeepMindの研究科学者Viktoriya Krakovna、ターフツ大学の博士研究員Meia Chita-Tegmark、UCSCの物理学者Anthony Aguirreによって設立されました。研究所のアドバイザーには、コンピュータサイエンティストStuart J. RussellとFrancesca Rossi、生物学者George Church、宇宙学者Saul Perlmutter、天体物理学者Sandra Faber、理論物理学者Frank Wilczek、起業家Elon Musk、俳優および科学コミュニケーターのAlan AldaとMorgan Freeman(2018年の死前に宇宙学者Stephen Hawkingも含まれていました)がいます。

2017年から、FLIは年次の「生命の未来賞」を提供し、最初の受賞者はVasili Arkhipovでした。同年、FLIは「Slaughterbots」という短編の軍事政策啓発映画を発表しました。2021年に続編が公開されました。

2018年には、FLIは「致死性自律兵器に対する法律の制定を求める」書簡を起草し、署名者にはElon Musk、Demis Hassabis、Shane Legg、Mustafa Suleymanがいました。

2023年1月には、スウェーデンの雑誌ExpoがFLIがスウェーデンの右翼オンライン新聞Nya Dagbladetによって設立された財団に10万ドルの寄付を提供したと報道しました。これに対して、Tegmarkは寄付が最初に提案された数ヶ月後の適切な調査プロセス中にNya Dagbladetの立場に気づいたと言い、寄付はすぐに取り消されたと述べました。

= AIの一時停止に関する公開書簡 =

2023年3月にFLIは、「Pause Giant AI Experiments: An Open Letter」と題する書簡を発表しました。この書簡は、主要なAI開発者に対して「GPT-4を超える」どんなシステムも6ヶ月間の一時停止を合意し、その期間を安全を確保するための枠組みを確立するよう求めました。または、それができなければ、政府が一時停止を発令するよう求めました。書簡は、「最近数ヶ月で、AIラボが理解し、予測し、信頼性を持って制御できないほど強力なデジタル心を開発および展開する競争に巻き込まれています」と述べました。書簡は、地球の生命の歴史における「本質的な変化」の可能性だけでなく、AI生成のプロパガンダ、職の喪失、人間の過時化、社会全体の制御の喪失などの潜在的なリスクも指摘しました。

書簡の著名な署名者には、Elon Musk、Steve Wozniak、Evan Sharp、Chris Larsen、Gary Marcusが含まれています。AIラボのCEOであるConnor LeahyとEmad Mostaque、政治家Andrew Yang、ディープラーニング研究者Yoshua Bengio、Yuval Noah Harariも署名しました。Marcusは「この書簡は完璧ではありませんが、精神は正しい」と述べました。Mostaqueは「6ヶ月の一時停止は最も良いアイデアではありませんし、すべてに同意はしていませんが、その書簡には興味深いことがあります」と述べました。対照的に、Bengioは記者会見で6ヶ月の一時停止を明確に支持しました。Muskは「主要なAGI開発者がこの警告に耳を貸さないでしょうが、少なくともそれは言われたことです」と予測しました。署名者の一部、Muskを含む人々は、人工一般知能からの存在のリスクに対する恐怖から動機付けられたと言いました。他の署名者、Marcusを含む一部の人々は、AI生成のプロパガンダなどのリスクに対する懸念から署名したと言いました。

FLIの書簡に引用された論文の著者である「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」のEmily M. Bender、Timnit Gebru、Margaret Mitchellは、その書簡を批判しました。Mitchellは「多くの疑問的なアイデアを事実として扱うことで、その書簡は一連の優先順位とAIに関するFLIの支持者に有利なナラティブを主張しています。現在の活発な損害を無視することは、私たちの一部の人々には特権です」と述べました。

業務


= 提言 =

FLIはAIに関する政策決定に積極的に貢献しています。例えば、2023年10月には、米国上院多数派院内代表Chuck SchumerがFLIにAI規制に関する意見を提供するよう招待しました。ヨーロッパでは、FLIはGPT-4などの一般的なAIシステムをEUのAI法に含めることを成功させました。

軍事政策では、FLIは核兵器禁止条約に対する科学界の支援を調整しました。国連や他の場所でも、研究所は自律兵器に関する条約を推進しました。

= 研究寄付金 =

FLIの研究プログラムは2015年にElon Muskからの初回の1000万ドルの寄付で開始されました。この初回ラウンドでは、37の研究プロジェクトに対して合計700万ドルが交付されました。2021年7月には、FLIはVitalik Buterinというロシア・カナダのプログラマーからの資金提供で2500万ドルの新しい寄付プログラムを発表しました。

= 会議 =

2014年に、生命の未来研究所はMITで開幕イベントを開催しました:「The Future of Technology: Benefits and Risks」と題するパネルディスカッションで、Alan Aldaがモデレーターを務めました。パネリストには、合成生物学者George Church、遺伝学者Ting Wu、経済学者Andrew McAfee、物理学者およびノーベル賞受賞者Frank Wilczek、Skypeの共同創業者Jaan Tallinnがいました。

2015年から、FLIは学術および産業のAI研究者を集める目的で、毎年開催されるカンファレンスを組織しています。2023年4月現在、以下のカンファレンスが開催されています:

プエルトリコでの「The Future of AI: Opportunities and Challenges」カンファレンス(2015年)。その目的は、AIの将来の利益を最大化するための有望な研究方向を特定することでした。カンファレンスでは、FLIはAIセキュリティに関する公開書簡を配布し、後にStephen Hawking、Elon Musk、多くの人工知能研究者が署名しました。

カリフォルニア州アシロマでのBeneficial AIカンファレンス(2017年)。ニューヨークタイムズが「AIの重鎮」と呼ぶ私的な会議で、Yann LeCun、Elon Musk、Nick Bostromが含まれていました。研究所は、カンファレンスでの議論から生まれた責任あるAI開発のための原則を発表し、Yoshua Bengio、Yann LeCun、多くのAI研究者が署名しました。これらの原則は、AIの規制やOECDのAI原則などの後续の取り組みに影響を与えました。

プエルトリコでの有益なAGIカンファレンス(2019年)。その目的は、人工一般知能が人類に有益になることを確保するための長期的な質問に答えることでした。

メディア

「The Fight to Define When AI is 'High-Risk'」- Wired
「Lethal Autonomous Weapons exist; They Must Be Banned」- IEEE Spectrum
「United States and Allies Protest U.N. Talks to Ban Nuclear Weapons」- The New York Times
「Is Artificial Intelligence a Threat?」- The Chronicle of Higher Education、FLIの創設者Max Tegmark、Jaan Tallinn、Viktoriya Krakovnaとのインタビューを含む
「But What Would the End of Humanity Mean for Me?」- Max TegmarkがFLIのアイデアについてThe Atlanticにインタビュー

参考文献
[省略]

外部リンク
公式ウェブサイト