ガザ地区におけるAIアシストしたターゲティング - 百科事典

ガザ戦争の一部として、イスラエル国防軍(IDF)は、どの目標を爆撃するかの過程の多くを迅速かつ自動的に行うための人工知能を使用してきました。イスラエルは、過去の戦争ではイスラエル空軍の目標が尽きることに制限されていたガザ地区の爆撃を大幅に拡大しました。

これらのツールには、敵に属すると考えられる建物、設備、人員を探すために監視データを自動でレビューするAIの「ゴスペル」があります。これらを見つけた場合、爆撃目標を人間の分析員に推薦し、分析員がその目標を現場の兵士に伝えるかどうかを決定するようにします。もう一つは、ハマスやパレスチナイスラム救世軍とAIで関連付けられた数万人のパレスチナ人男性をリストアップする「ラベンダー」と呼ばれる「AI駆動データベース」です。これも、目標推薦に使用されます。

これらのAIツールの使用は、民間人を危険にさらし、責任を曖昧にし、国際人道法に違反する軍事的に不当な暴力に繋がると、批判者は主張しています。

ゴスペル
イスラエルは「ハブソラ」と呼ばれるAIシステム「ゴスペル」を使用して、イスラエル空軍が爆撃する目標を決定しています。これにより、人間の分析員に自動的に目標推薦を提供し、分析員がその目標を現場の兵士に伝えるかどうかを決定します。推薦は、個別の戦闘員、ロケット砲、ハマスの指揮本部、または疑わしいハマスやイスラム救世軍メンバーの私邸など、さまざまなものがあります。

AIは情報をはるかに迅速に処理できます。2023年までIDFの司令官を務めた退役中将アビブ・コハビは、このシステムがガザで1日あたり100の爆撃目標を生成し、そのうち半分が攻撃されることを述べました。人間の分析員が1年に50の目標を生成するのに対して、これは非常に高い数値です。NPRのインタビューを受けた講師は、これらの数字を300日間で20人の情報分析官が50~100の目標を生成し、ゴスペルが10~12日間で200の目標を生成すると推定しました。

= 技術的背景 =
人工知能は、名前に関わらず、思考や意識を持たないものです。代わりに、人間が他の方法で知能を使ってタスクを実行するために開発されたマシンです。ゴスペルは機械学習を使用し、AIが大量のデータ(例えば、癌の組織のスキャン、表情の写真、人間の分析員が特定したハマスメンバーの監視)の共通点を識別し、その共通点を新しい材料で探すタスクを受け持っています。

ゴスペルが使用する情報は知られていませんが、異なるソースからの大量の監視データを組み合わせると考えられています。

推薦はパターンマッチングに基づいています。他の兵士としてラベル付けされた人々と十分に似た人々は、自分自身も兵士としてラベル付けされることがあります。

AIがこのタスクに適しているかどうかについて、NPRはテクノロジーセキュリティ会社Trail of BitsのAIアーサー・アサー・エンジニアリングディレクター、ヘイディ・クハラフを引用し、「AIアルゴリズムは、精度、正確性、安全性が必要なアプリケーションで一般的に欠陥があり、高いエラーレートが観察されている」と述べました。オーストラリア国立大学戦略・防衛研究センターの講師であるビアンカ・バッジアリーニは、「AIは、概念が客観的、相当に安定し、内部の一貫性がある予測可能な環境でより効果的です」と述べ、戦闘員と非戦闘員の違いを識別することを対比しました。これは、人間でさえも頻繁にできません。

クハラフは、この種のシステムの決定が完全にトレーニングデータに依存し、推論、事実の証拠、因果関係ではなく、単に統計的な確率に基づいていると指摘しました。

= オペレーション =
2014年の戦争と2021年の危機でIAFは攻撃する目標が尽きました。フランス24のインタビューで、+972マガジンの調査ジャーナリストユヴァル・アブラハムは、軍事圧力を維持するために、そして戦争を続けるための政治的な圧力のために、同じ場所を再度爆撃すると述べました。それ以来、AIツールの統合により、目標の選択が大幅に速まっています。11月初旬にIDFは、ゴスペルを使用する目標管理部門によって12,000以上のガザの目標が特定されたと述べました。NPRは12月14日に、ゴスペルからどの程度の目標が実際に攻撃されたかは不明であるが、イスラエル軍が現在1日に250の目標を攻撃していると書きました。爆撃も、12月14日の記事で「驚くほどの速さ」に達しました。その時点で、イスラエル軍はガザ内で22,000以上の目標を攻撃し、その日当たりの率は2021年の紛争の2倍以上、12月1日の停戦崩壊以降は3,500以上の目標を攻撃しました。攻撃の初期段階で、空軍の司令官は軍事目標のみを攻撃すると述べましたが、「私たちは外科的ではない」と付け加えました。

推薦が承認されると、もう一つのAIである「ファイヤーファクトリー」が、兵器の充填量を計算し、優先順位を付け、目標を航空機やドローンに割り当て、スケジュールを提案することで、戦前のブルームバーグ記事で記述されたように、攻撃の準備を数時間から数分に短縮します。

ラベンダー
ガーディアンは、+972とローカルコールに証言を提供した6人の情報役員の証言に基づいて、ラベンダーをAI駆動データベースとして定義しました。彼らは、ラベンダーが戦争で中心的な役割を果たし、迅速にデータを処理してターゲットとして見込まれる下級運営者を特定することを述べました。一度は、AIでハマスやPIJに関連付けられた37,000人のパレスチナ人男性をリストアップしました。ラベンダーの作動方法や結論に至るまでの詳細は、+972/ローカルコールによって公開された記述には含まれていませんが、リストのサンプルが90%の精度率を持つことが判明した後、IDFはラベンダーの広範な使用を推薦するために承認しました。情報役員によると、ラベンダーはゴスペルと並行して使用され、個々の人に対してではなく、建物や構造物をターゲットとしていました。

ガーディアンは、複数の情報源を引用し、前の戦争では、合法的なターゲットとして特定されるためには、まず法律顧問と協議し、署名が必要であったが、10月7日以降、プロセスが大幅に加速し、さらに多くのターゲットが必要なため、IDFはLavenderに依存して、PIJやハマスの武装闘争員としての特徴を持つと判断された個々の者に対するデータベースを構築するに至ったと書きました。ガーディアンは、ある情報源を引用し、「この段階で、各ターゲットに対して20秒投資し、毎日何十件もの作業を行います。私は人間としての追加価値はゼロで、承認のスタンプに過ぎません。多くの時間を節約しました」と述べました。低いレベルのターゲットを特定するためにラベンダーの使用を正当化する情報源は、戦時中には各ターゲットに対して詳細な特定プロセスを慎重に行う時間がありませんし、下級武装闘争員に人員と時間を投資するよりも、人工知能を使用するエラーレートの許容範囲を投げ捨てる方が良いと述べました。

IDFは声明を出し、その主張の一部が無根のもの、他のものがIDFの指揮や国際法に対する誤解を反映していると述べ、IDFはテロリストの運営者を特定しようとするAIシステムや、人間がテロリストである可能性を予測しようとするAIシステムを使用していないと主張しました。代わりに、情報システムは、分析員が多様なソースからの情報を収集し、最適に分析するためのツールの1つに過ぎないと述べました。また、IDFの指揮によると、分析員は、国際法およびIDFの指揮の追加制限に従って、目標が関連する定義を満たすかどうかを確認するために、独立して検証を行わなければならないと述べました。

道徳的および法的な影響
倫理学、AI、国際人道法の専門家は、これらのAIシステムの使用を倫理的および法的な観点から批判し、軍事必要性、適切性、戦闘員と民間人の区別という国際人道法の基本原則に反すると主張しています。

= 家宅爆撃の申し立て =
ガーディアンは、+972とローカルコールが発表した情報役員の証言を引用し、ハマスの軍事派に対するパレスチナ人男性が階級や重要性に関係なく潜在的なターゲットとされ、低い階級のハマスやPLJメンバーが家で優先的にターゲットとされたと述べました。ある情報源は、このシステムが攻撃するのが非常に容易な状況で彼らを探すために構築されたと述べました。2つの情報源は、低い階級の武装闘争員に対する攻撃が通常、無知覚の爆弾で行われ、家全体を破壊し、そこにいるすべての人を殺すと述べました。ある情報源は、高価な爆弾が不足しているため、重要でない人々に対して無駄に使いたくないと述べました。匿名の紛争専門家を引用して、ガーディアンは、イスラエルがAIの支援を受けてガザの武装組織にリンクされた数千人のパレスチナ人に対して無知覚の爆弾を使用して家屋を壊し、その結果、戦争の驚くほど高い死亡者数が発生したと書きました。+972にインタビューを受けたイスラエルの公式人物は、イスラエルのプログラム「どこにお父さん?」が疑わしい武装闘争員が家に戻るまで彼らを追跡し、その後IDFが最初の選択として家に爆撃することを決定すると述べました。

IDFは証言の公開に対する反応で、ハマスと異なり、国際法に拘束され、軍事目標と軍事運営者に対してのみ攻撃し、比例原則と予防措置に従うと述べました。例外については徹底的に検証し調査を行うと述べました。組織化された武装集団のメンバーまたは直接的な紛争参加者は、国際人道法およびすべての法に従う国の政策に従って合法的なターゲットであると述べました。作戦状況において可能な限り民間人の損害を最小限に抑えるための各種の努力をしていると述べました。作戦および人道考慮に基づいて適切な兵器を選択すると述べました。無知覚の精密誘導兵器は、訓練されたパイロットによって使用される航空機システムで、その兵器の高い精度を確保するための標準兵器であると述べました。また、使用する兵器の大部分は精密誘導兵器であると述べました。

南レバノンのビントジェイルの住居地域でも家族の家が攻撃され、アリ・アハメド・バージとイブラヒム・バージ兄弟とイブラヒムの妻、ショルルク・ハンマードが死亡しました。兄弟はオーストラリア国民であり、アリは地元に住んでいたが、イブラヒムはシドニーからオーストラリアに妻を連れてくるために訪れていました。ヒズボラはアリを自分たちの戦闘員とし、また、市民の家族メンバーもヒズボラの葬儀に含めました。

= 民間人の死亡を許可する前の制限 =
証言によると、IDFはハマスの武装闘争員を殺すために許可される民間人の死亡数に前の許可を設けました。ガーディアンは、+972とローカルコールが引用したように、この数は最も高いハマスの役員に対して100人以上であり、ある情報源は師団長、大隊長などに対する計算を行ったと述べました。ある役員は、戦争の最初の週には下級武装闘争員に対して15人、ある時点では5人まで減少すると述べました。もう一人は、階級や軍事的重要性、年齢に関係なく、一つの運営者に対して最高で20人の無関係な民間人を殺すことが可能であると述べました。ガーディアンは、国際人道法の専門家が新聞に語ったことを引用し、懸念を表明しました。

IDFの反応は、IDFのプロセスは各ターゲットに対する期待される軍事的利点と偶発的な損害を評価することを要求すると述べました。これらの評価は個別に行われ、カテゴリごとに行われないと述べました。EDFは偶発的な損害が軍事的利点に対して過度である場合には攻撃を行わないと述べました。また、IDFは「何十万人もの人々を自宅で殺す」といういかなる政策も否定しました。

= 人間のレビューの限界 =
ガーディアンは、コンピュータ生成のリストを渡された指揮官がリストがどのように生成されたか知らないか、または目標の推薦を疑問視できない可能性があると指摘し、民間人の損害のリスクを有効に考慮する能力を失うリスクがあると述べました。

Le Mondeの意見記事で、報道記者エリス・ビンセントは、完全に自動化されたシステム(市場には存在しない)と致命的な自律兵器の二分法があり、これによりイスラエルがゴスペルが適切な力の使用に適していると主張できると述べました。彼女は、フランス国際関係研究所の研究者ローラ・デ・ル・ルシェゴンドを引用し、この戦争がこれらの曖昧なカテゴリを廃棄し、より厳格な規制定義を促進し、人権活動家が主張してきた重要な人間の管理を活発化させると述べました。彼女は、イスラエル軍が使用するアルゴリズムやデータの集約方法がわからないことを指摘し、それが生死を賭ける決定に繋がる場合には問題となると述べました。

= 必要性 =
ストックホルム国際平和研究所の研究者マルタ・ボ博士は、人間の役割が「自動化バイアス」のリスクを持っていると指摘し、システムに過度に依存し、人間が決定すべき決定に対してそれらに過度な影響を与えると述べました。

Suchmanは、大量のターゲットが人間のレビュアーに圧力をかけると述べ、実際に行使できる判断がどのように制約されるかを指摘しました。エルサレムのヘブライ大学で働いたことがある講師であるタル・ミムランは、圧力が分析者がAIのターゲット推薦を受け入れやすくし、機械がターゲットを誤って識別する場合に発生する可能性のある「全く新しいレベルの問題」を作