人工知能(じんこうちねい) - 百科事典
人工知能(AI)の人工知恵(AW)は、自らの「終点」を考える能力を持つ一方で、人間の知恵や道徳的な特性を示すことができるシステムです。人工知恵は、最も複雑で挑戦的な状況に直面したときに、最上位の意思決定に達する人工知能と説明できます。人工知恵の用語は、「知能」が単なるデータの収集と解釈を超えて、賢明な人々が使用するスマートで良心ある戦略でデザイン的に豊かにされた場合に使用されます。
人工知恵の目標は、可能な限り最も近くに人間の「特異な特性」である知恵と道徳を再現する人工知能を作成することです。したがって、人工知恵は使用するデータの「倫理的および道徳的な考慮」を「取り入れる」必要があります。
人工知恵には、AIや関連技術の急速な進歩と、上層の諮問委員会の監督がなされていない状況での倫理、ガイドライン、規制の開発の欠如による多くの重要な倫理的および法律的な問題があります。さらに、現実の状況で人工知恵を開発、テスト、実装する方法についての課題もあります。既存のテストは、コンピュータシステムが結論に至る内部の思考プロセスをテストするのではなく、そのプロセスの結果だけをテストします。
コンピュータ補助の知恵、人工知能と内省的神経科学のパートナーシップを検討すると、人工知能の将来に関する懸念がより楽観的な視点にシフトします。この人工知恵は、ルイ・モルナーの人工哲学に関する単著の基盤を形成し、彼はこの用語を発明し、人工知能が全体の枠組みの中での自分の位置を見つける方法を提案しています。
定義
人間の知能、人工知能、人間の知恵、または人工知恵に対する普遍的または標準化された定義はありません。しかし、DIKWピラミッドは、データ、情報、知識、知恵の関係の連続体を説明し、知恵をその階層の最上位に位置付けます。ゴットフレドソンは知能を「論理を用いる能力、計画、問題解決、抽象的な思考、複雑なアイデアの理解、迅速な学習、経験から学習する能力」と定義しています。
知恵の定義には、以下のことが含まれます:
感情の調整能力
社会的行動(例:共感、慈悲、利他的行為)
自己反省
「決断と不確実性や多様な視点の受容のバランス、そして社会的アドバイス」
このように定義すると、人工知恵は「…状況、倫理と道徳的原則の理解」を通じて問題を解決するAIシステムとされ、単なる事前に定義された入力や「学習パターン」ではなくなります。一部の科学者は人工意識の分野も考慮していますが、ジェストは「…一般に、人間だけが意識、自主性、意志、心の理論を持つとされています」と述べています。
人工的な知恵を持つシステムは、また、目標を考慮し、自らの無知を認識する能力も持ちます。さらに、目標を考慮するためには、賢明なシステムは「価値ある目標(一般的に言えば)または幸福(狭義に言えば)」の正しい概念を持つ必要があります。スティーブン・グリムはさらに、「知恵には以下の3つの知識が個々に必要です:まず、『幸福や重要なために良いまたは重要なものについての知識』、次に、『幸福や重要なために良いまたは重要なものに関する自分の地位についての知識』、そして、『幸福や重要なために良いまたは重要なものを得るための戦略についての知識』」と提案しています。
問題
人工的な知恵を持つシステムを作成しようとする試みには、意識、自主性、意志が厳格に人間の特徴と見なされる多くの問題があります。
= 値 =
知能や賢明なシステムを作成しようとする試みには、倫理的および哲学的な重要な問題があります。特に、システムを賢明に訓練するためにどの道徳的価値が使用されるかについての懸念があります。異なる道徳的価値や偏りは、人工知能にさまざまな組織や政府から見られます。人工知恵のデプロイメント戦略と価値は、リーダー、企業、国間で衝突します。ヌスマンは「価値が衝突すると、リーダーは自分のニーズに関する賢明でスマートな選択をするが、しばしば賢明でない」と述べています。
= 倫理 =
サイエンス・フィクションの作家、アイザック・アシモフは、1940年代にロボットの三原則を書いたときに技術を制御する必要性を認識しました。
ロボットは人間に直接的または間接的に傷つかせることができません。
ロボットは人間の命令に従わなければなりません。
ロボットは自らの存在を保護する必要があります。
技術が急速に進歩しているため、人工知能のために人工知恵が必要な速度が倫理的ガイドラインの開発を超えており、AIの倫理と道徳についての深刻な疑問が提起され、安全を確保するための国際的な監視と規制が必要とされています。
= 原則的な不可能性 =
蔡が「人工知恵に対する議論」として提唱した「AAA(人工知恵の不可能性)」は、実践的知恵(phronesis)と実践的知能の間の哲学的な違いに基づいています。この違いは、「正しい手段を選ぶのではなく、どの結果が続くかについて正しく推理する」ということではありません。
蔡はこの議論を以下のように論理的な提案としてまとめました:
「(P1)ある代理がその状況の最終目標について考慮することができる場合のみ、その代理は本当に賢明です。」
「(P2)ある知的代理はその状況の最終目標について考慮することができません。」
「(C1)ある知的代理は本当に賢明ではありません。」
「(P3)人工知恵はその核心では知的です。」
「(C2)人工知恵は本当に賢明ではありません。」
参考文献
参考文献