人工知能の規制 - 百科事典

人工知能の規制は、人工知能(AI)を促進し規制するための公共部門の政策と法律の開発です。これは、アルゴリズムのより広範な規制の一部に属します。AIの規制と政策の分野は、世界中の管轄区域、特にIEEEやOECDなどの直接的な執行力を持たない国際機関を含む、新興の問題です。

2016年以降、この技術に対する社会的制御を維持するために、多くのAI倫理ガイドラインが発表されています。規制は、AI革新を促進し、関連するリスクを管理するために必要とされています。

さらに、AIを導入する組織は、信頼性のあるAIを創造し、実施し、既存の原則に従い、リスク軽減の責任を持ち、中央的な役割を果たします。

審議会などのメカニズムを通じてAIを規制することも、AI制御問題に対する社会的手段として見ることができます。

背景
スタンフォード大学の2025年AIインデックスによると、AIに関する立法の言及は、2023年までに75カ国で21.3%増加しました。これは、2016年から9倍に増加しました。2024年には、米国の連邦機関が59のAI関連規制を導入しました。これは、2023年の数に対する2倍以上の増加です。

現在、AI規制の程度やメカニズムに関する広範な合意はありません。エリオン・マスク、サム・アルトマン、ダリオ・アモデイ、デミス・ハッサビスなどの分野の著名な人物は、AIの即時規制を公に求めています。2023年、ChatGPT-4の創造に続いて、エリオン・マスクと他の人物は、より強力なAIシステムの訓練に対する一時停止を求めるオープンレターに署名しました。マーク・ザッカーバーグやマーク・アンドリッセンのような他の人物は、先手きりの規制が革新を抑えるリスクを警告しました。

2022年のIpsos調査によると、AIに対する態度は国によって大きく異なります。78%の中国市民、しかしアメリカ市民の35%のみが「AIを使用する製品やサービスは利点が欠点を上回る」と同意しました。Ipsosの調査では、61%のアメリカ市民がAIが人類に対するリスクを引き起こすと同意し、22%が反対しました。2023年のFox Newsの調査では、35%のアメリカ人が「非常に重要」と考えており、さらなる41%が「やや重要」と考えています。

視点
人工知能の規制は、AIを促進し規制するための公共部門の政策と法律の開発です。公共管理や政策の考慮は、一般的に技術的および経済的影響、信頼性のある人間中心のAIシステム、人工超知能の規制、機械学習アルゴリズムのリスクとバイアス、モデル出力の説明可能性、オープンソースAIと未検査のAI使用の間の緊張関係に焦点を当てています。

AIを規制するための硬法やソフト法の提案が行われています。法律学者の多くは、AI規制に対する硬法アプローチが重大な課題を持つと指摘しています。その課題の中には、AI技術の急速な進化が「ペース問題」を引き起こすことがあります。これにより、伝統的な法律や規制は、新興のアプリケーションやそれらに関連するリスクと利益に対応できなくなります。同様に、AIアプリケーションの多様性が、通常、限定された管轄範囲を持つ既存の規制機関に挑戦します。代わりに、いくつかの法律学者は、AI規制に対するソフト法アプローチが有望であると主張しています。これらのアプローチは、新興技術やAIアプリケーションの進化の性質に対応するためにより大きな柔軟性を提供します。しかし、ソフト法アプローチは通常、十分な執行可能性に欠けます。

Cason Schmit、M