アルゴリズムによる司法がフランスで定着

国務院は、裁判所が人身事故の被害者に支払うべき賠償金を確定するためのコンピュータによる意思決定支援システム「データジャスト」の検証を行いました。基本的自由を擁護する協会は、当事者の事前の同意なく個人情報を利用することを糾弾しています。

DataJustプログラムの目的は、例えば身体的暴行や交通事故の被害者が受けるべき賠償金の額を評価する際に、裁判官を支援することです。2020年3月27日に政令で発表されたこの実験の開始は、法務省のホームページにあるように、「人身事故の賠償に関する裁判の判決に含まれるデータを自動的に抽出・活用する役割を担う、アルゴリズムの開発を目指す」ものである。

このシステムを「訓練」するために、人工知能プログラムをベースに、数千の機密データを含むファイルからデータを抽出します。これには、被害者の名前だけでなく、潜在的な傷害、医学的専門知識だけでなく、職業や経済的状況などに関する情報も含まれます。これらの情報のほとんどは匿名化されていますが、生年月日や被害者とその親族の関係の可能性など、個人を特定できる情報もデータベース上ではっきりと確認することができます。

基本的自由を守るための団体の動員

複数の弁護士によると、このコンピュータ処理方法は、欧州の個人情報保護制度であるRGPDやデータ保護法に抵触するとのことです。協会でも同じような見解がありました。デジタル環境における基本的自由を擁護する団体「Quadrature du Net」の訴訟グループのメンバーである弁護士のバスチアン・ル・ケレックは、「国家は、このアルゴリズムによる司法の実験によって、個人データやプライバシーを保護する法律から自らを解放しようとしています」と言う。

「実験というレッテルを貼って、さらに個人情報を掘り起こすことを許可するというこの方法論は、私たちを悩ませるものです。その都度、実験だから大丈夫、アルゴリズムが提案する結果が比例しているかどうか確認すると言いながら、実際は魔法使いの弟子を演じているようなものです。アルゴリズムが人間よりも優れた判断を下せるという考え方は、警察、司法、社会保障、家族手当のシステムなど、さまざまな分野で広がっています。Quadrature du Netでは、こうした自動プログラムが生み出す偏見と戦おうとしています。なぜなら、今日のDataJustシステムのように、技術は時として悪用につながることがあるからです」とBastien Le Querrecは悔やんでいます。

最高裁判所が検証したDataJustのアルゴリズム

Quadrature du Netが参照されたConseil d’Etatは、その結論において、このプロジェクトは公共の利益になるため、ファイル内の人々の個人データを処理するための同意は必要ないとしています。法務省によると、まだ効果が明らかになっていないデータジャストシステムは、2022年3月末までに運用を開始する予定です。

 

https://www.rfi.fr/fr/technologies/20220106-la-justice-algorithmique-s-installe-en-france