説明請求権 - 百科事典

アルゴリズムの規制において、特に人工知能とそのサブフィールドの機械学習において、説明権(または説明権)は、アルゴリズムの出力に対して説明を提供される権利です。このような権利は、主に、個人が法律的または財政的に大きな影響を与える決定に対して説明を求める個人の権利に該当します。例えば、ローンの申請をしたが却下された人間は、説明を求めることができます。例えば、「クレジット情報の機関Xは、あなたが昨年破産を宣言したと報告しています;これは、あなたが債務不履行に非常に可能性が高いと判断する主な理由であり、したがって、申請したローンを提供することはできませんでした」という説明が考えられます。

このような法的権利は既に存在しており、一般的な「説明権」の範囲は引き続き議論の的となっています。社会的「説明権」が情報社会の重要な基盤であると主張する議論が行われており、特にその社会の機関がデジタル技術、人工知能、機械学習を使用する必要があるためです。つまり、説明可能性を使用する関連する自動決定システムは、より信頼性が高く、透明性が高いとされています。この権利が法律や専門標準のどちらかでも構成されない場合、一般市民は自動システムの決定に対して多くの救済策を失います。




= 米国の信用スコア =

米国の平等信用機会法(連邦規則の規則B)第12編第X章第1002節第1002.9条の下で、信用を却下された申請者に対して、具体的な理由で通知を提供する義務があります。以下に第1002.9節(b)(2)に詳細に示されています:

(2) 具体的な理由の記述。この節の(a)(2)(i)項に定める不利益な処分に関する説明は、具体的であり、不利益な処分の主要な理由を示す必要があります。不利益な処分が信用情報の機関の内部基準や方針に基づいているか、または申請者、共同申請者、または同様の関係者が信用情報の機関の信用スコアシステムで資格を満たしていないと述べるのは十分ではありません。

この節の公式解釈は、どのような記述が許容されるかを詳細に説明しています。信用情報の機関は、規則の解釈に基づいて、最大で4つの理由(一般的にはそれ以上ではありません)をリストアップして、数値理由コード(識別子として)と関連する説明を提供して、この規則に従います。例えば:

32:銀行カードやローン枠に対する残高が高すぎる

= 欧州連合 =

欧州連合一般データ保護規則(2016年に制定され、2018年に施行)は、1995年のデータ保護指令に基づく自動決定権を拡張し、法的に争われている説明権の形式を提供し、そのように述べた第71条の付則で述べられています:「[データ主体は]決定を受け取る権利 ... 説明を求める権利があります」。以下にその全体を示します:

データ主体は、単に自動処理に基づくものであるか、彼らや彼らに関連する個人的な側面を評価する措置を含む決定を受けることから解放される権利を持ちます。これには、人間の介入なしでオンライン信用申請の自動拒否やe採用実践が含まれます。

...

しかし、これらの規則自体が「説明権」を提供する範囲については、激しい議論が行われています。主な批判の2つの主要な流れがあります。第22条に記載されている権利については、付則は拘束力を持ちませんし、説明権は文書の拘束力のある条項には記載されていません(立法過程で削除されました)。さらに、カバーされる自動決定の種類には重大な制限があります。それは「単に」自動処理に基づくものであり、法的または同様に重大な影響を与えるものである必要があります。これにより、適用される自動システムと決定の範囲が大幅に制限されます。特に、この権利はメディアで取り上げられた多くのアルゴリズムに関する論争の多くの場合には適用されない可能性があります。

このような権利の第2の潜在的な源は、第15条の「データ主体によるアクセス権」に指摘されています。これは1995年のデータ保護指令の同様の規定を再確認し、第22条に見られる同様の重要な、単に自動決定に基づく決定に対してデータ主体が「意味のある情報」にアクセスする権利を提供します。しかし、この権利も、この権利がどのタイミングで行使できるかに関する問題や、実際には多くの公的な関心の案件において拘束力を持たない可能性があるという実際の問題に直面しています。

他のEU立法文書には、説明権が含まれています。欧州連合の人工知能法は、第86条で特定の高いリスクのシステムが個人の健康、安全、または基本的な権利に重大な有害な影響を与える場合に、個々の決定に対する「説明権」を提供します。この権利は、「AIシステムの決定プロセスにおける役割と決定の主な要素に関する明確かつ意味のある説明」を提供することを目的としていますが、他の法律がこのような権利を提供しない範囲でのみ適用されます。デジタルサービス法の第27条とプラットフォーム企業規則の第5条は、特定の推薦システムの主要なパラメータを明確にする権利を含んでいますが、これらの規定は実際のシステムの動作に合わないと批判されています。プラットフォーム労働指導原則は、データ保護法の延長としてギグ経済の労働における自動化の規制を提供し、第11条で「説明」の具体的な言葉を使用して、GDPRと同様に付則ではなく拘束力のある条項に説明規定を含んでいます。学者たちは、これらの規定が実際には十分にカスタマイズされた説明を提供するかどうかについての不確実性が残っていると指摘しています。

= フランス =

フランスでは、2016年の「デジタル共和国法(デジタル共和国法またはloi numérique)」が、個人のために公的機関が行った決定の説明を導入する新しい規定を行政法に追加しました。それでは、「アルゴリズム処理に基づいて決定がなされた場合」と記載されており、国民に対してその処理の定義と「主要な特徴」が要請に応じて提供される必要があります。以下に示されるものを含むことが求められます:

アルゴリズム処理が決定に寄与する程度と方法;
処理されたデータとその源泉;
処理パラメータ、適切な場合には、それらの重み付け、関係者の状況に適用;
処理が実行する操作。

学者たちは、この権利は行政決定に限られていても、GDPRの権利よりも明確に決定支援に対して適用されることを目的としており、特定の決定に対する説明の枠組みを提供していると指摘しています。実際、EUにおけるGDPRの自動決定権は、説明権が求められた場所の1つであり、1970年代後半のフランス法にその起源があります。

批判

ある人は、「説明権」は最悪の場合有害であり、イノベーションを抑止する脅威であると主張しています。具体的な批判には、人間の決定を機械の決定よりも優先させること、既存の法律と重複すること、プロセスよりも結果に焦点を当てることなどがあります。

研究「アルゴリズムの奴隷?なぜ「説明権」はあなたが求めている解決策ではないか?」の著者であるLilian EdwardsとMichael Vealeは、説明権がアルゴリズム決定がステークホルダーに与える損害に対する解決策ではないと主張し、GDPRの説明権が狭く定義されており、現代の機械学習技術の開発とは一致していないと述べています。これらの制限があるため、アルゴリズム責任の透明性に関する透明性を定義することは問題であり、例えば、アルゴリズムのソースコードを提供することは十分ではなく、プライバシーに関する問題や技術システムのゲーム化を引き起こす可能性があると主張しています。この問題を軽減するために、EdwardsとVealeは、監査者が決定プロセスの入力と出力を外部のシェルから確認できる監査システムがより効果的であると主張しています。

同様に、オックスフォードの学者であるBryce GoodmanとSeth Flaxmanは、GDPRが「説明権」を作り出したが、その点では多くの議論を引き起こし、現在のGDPRの限界を指摘しています。この議論に関して、学者であるAndrew D SelbstとJulia Powlesは、この議論が「説明権」を使用するかどうかについての議論にリダイレクトすべきであり、GDPRの明確な要件とその背景目標との関係に注意を払い、立法文書の実際の意味を決定するために考慮すべきであると述べています。

より基本的には、機械学習に使用される多くのアルゴリズムは説明が難しいです。例えば、深層神経ネットワークの出力は、複雑な方法で結びついた多くの層の計算に依存しており、どの入力や計算も主要な要因ではない場合があります。可解性AIの分野は、既存のアルゴリズムからより良い説明を提供し、より簡単に説明ができるアルゴリズムを提供することを目指していますが、これは若くて活発な分野です。

他の人々は、説明の難しさは、技術的解決策に過度に焦点を当てていることから来ており、社会的「説明権」が提起するより広範な質問に結びついていないと主張しています。

提案

EdwardsとVealeは、説明権が特定の決定に関する説明を提供するための基礎を提供すると見なしています。彼らは、モデル中心の説明と主題中心の説明(SCEs)の2つの種類のアルゴリズム説明について議論し、これらはシステムや決定に関する説明と広く一致しています。

SCEsは、データが非常に複雑である場合にはいくつかの制限があるものの、特定の救済策を提供する最良の方法と見なされています。彼らの提案は、全体のモデルを分解し、特定の問題に集中して教育的な説明を通じて特定の質問に対して説明を提供することです。「これは実際のものや架空のもの、探求的なものでもかまいません」。これらの説明は、必然的に複雑さを減らすために精度とトレードオフを伴います。

人間とコンピュータの相互作用設計の分野で技術的な決定システムの説明に対する関心が高まっているため、研究者やデザイナーは、認知科学や人々の実際のニーズから離れた数学的解釈可能なモデルとして「ブラックボックス」を開ける努力をしています。代替的なアプローチは、ユーザーがインタラクティブな説明を通じてシステムの動作を自由に探検できるようにすることです。

EdwardsとVealeの提案の1つは、透明性を部分的に取り除くことで、責任と救済策への必要な鍵ステップとして透明性を部分的に取り除くことです。彼らは、データ保護の問題を解決しようとする人々が行動を求めるのではなく、説明を求めることを望んでいると主張しています。実際の説明の価値は、感情的なまたは経済的な損害を軽減したり、同じミスが再び起こらないようにすることではなく、なぜそのことが起こったのかを理解し、同じミスが再び起こらないようにすることです。

より広範囲で、研究「デプロイメントにおける可解性機械学習」の著者たちは、受益者を特定し、受益者に関与し、説明の目的を理解するように説明フレームワークを明確に設定することを推奨し、同時に因果関係、プライバシー、性能向上に関する説明の問題をシステムに考慮することを推奨しています。

参考文献