Monday, May 01, 2023

包括的差別禁止法のために05

『マイノリティの権利を保護する――包括的差別禁止法を発展させるための実務ガイド』の「第5部 差別と表現」は次の構成である。

Ⅰ 差別禁止法に直接関係する言説の局面

Ⅱ ヘイト・スピーチ及び差別、敵意、暴力の煽動の禁止

Ⅲ 煽動及びその他の憎悪や偏見に基づく表現に対する制裁

Ⅳ 非法的措置

「Ⅱ ヘイト・スピーチ及び差別、敵意、暴力の煽動の禁止」の続き

ラバト行動計画におけるヘイト・スピーチの6つの成立要件の一つである「文脈」をどのように判断するか。ハーガン対オーストラリア事件で、一人のアボリジニが、クイーンズランドのトゥーウーンバで、名前と結び付けた重大な人種的悪口を言われたことで、人種差別撤廃条約第21項、4条、5条、6条、7条違反を申し立てた事件で、人種差別撤廃委員会は、オーストラリアが条約に違反したと判断した。過去にそう呼ばれた時点では必ずしも人種差別と思われていなくても、現在の社会では人種差別的と思われる状況にあるがゆえに、委員会はその言葉について感受性が高められたことを留意するべきと判断した。

CERD, Hagan v. Australia(CERD/C/62/D/26/2002).

*

NGOの「Article 19」は、文脈の判断について次のように提案している。

表現は、それが伝達された政治、経済、社会的文脈において考慮されるべきであり、次の諸点を考慮する。

・例えば、標的とされた集団に対して最近暴力事件があった場合のように、社会に紛争が存在すること。

・法執行や司法において、制度的差別が存在し、その歴史があること。

・差別禁止法の規定に、標的とされた集団の保護される特徴が明記されているか否かの法的枠組み

・標的とされた集団について定期的に不定的な報道がなされているようなメディア状況

・選挙が近いとか、アイデンティティ・ポリティックスが問題となっているとか、標的とされた集団が公式の政治過程で議論されているような、政治状況

Ⅲ 煽動及びその他の憎悪や偏見に基づく表現に対する制裁

ラバト行動計画は、各国は、(a)刑事犯罪にあたる表現、(b)刑事処罰はないが民事訴訟や行政制裁を正当化する表現、(c)法的制裁は生じないが、寛容の精神から関心事項となる表現を区別するよう求めている。

国連意見表現の自由特別報告者は、ヘイト・スピーチ禁止の対応は犯罪化する義務とは限らず、憎悪煽動の極端な事例だけを犯罪化するべきとしている。この要件を満たさない場合は、民事法による救済が採用されることを特別報告者は勧告している。

Ⅳ 非法的措置

ヘイト・スピーチと闘う表現は非法的措置に焦点を当てる。人種や皮膚の色等に基づく不寛容の表現、否定的なステレオタイプ、烙印押しは、積極的介入によって対照するべきである。すなわち、教育、啓発、対抗言論による被害者支援、積極的語りの流布、公的情報キャンペーン。各国には、メディアやソーシャルメディアにおけるヘイト・スピーチや暴力の煽動を監視する措置を講じ、独立のメディア監視機関を設置するべきである。

米州人権委員会は次のように述べている。

「委員会及び表現の自由特別報告者事務所は、ヘイト・スピーチと効果的に闘うために、法的措置を超えて、予防や教育の措置を含んだ、包括的で持続的なアプローチが採用されるべきである。特別報告者が以前に述べたように、これらのタイプの措置は、組織的な差別の文化的根源に対処する。ヘイト・スピーチを確認し、反対し、社会を多様性、多元主義、寛容の原理に基づいて発展させる、価値ある手段となりうる。」

実務ガイドは最後にアルゴリズムに言及している。

アルゴリズム・システムの登場は、私たちの生活を根本から変えつつある。アルゴリズム技術の使用が差別や人権に与える影響は無数である。

アルゴリズムのヘイト・スピーチの拡散における役割

実務ガイドによると、アルゴリズム・システムがヘイト・スピーチや差別と暴力の煽動において有する役割への関心が高まっており、2021年、国連人権理事会のマイノリティ問題特別報告者は、FacebookGoogleYouTubeTwitterなどのソーシャルメディア・プラットフォームのビジネスモデルに焦点を当てた(A/HRC/46/57)。アルゴリズムはエコーチェンバー効果を有し、情報源があまりに狭隘であり、予断偏見を集中させるからである。アルゴリズムは、諸個人を極端で、憎悪に満ち、しつようなコンテンツに誘導する結果を示す。特別報告者によると、過激主義集団の参加者の3人に2人がソーシャルメディアにおけるアルゴリズムが提示した勧告を受けて過激主義に加わっていた。アルゴリズムは、憎悪、過激化、非人間化、スケープゴート、ジェノサイドの煽動、憎悪の唱道につながり、ヘイト・クライムや虐殺への警鐘を鳴らす必要があった。

現代人種主義特別報告者は、ネオナチや白人至上主義者がメンバー募集や資金づくりにアルゴリズムによるプラットフォームを利用しているという(A/HRC/41/55)。アルゴリズムの使用は、差別に晒された集団が被った憎悪と被害に寄与している。マイノリティ問題特別報告者は、ソーシャルメディア・ボットが、イスラム嫌悪や白人至上主義に用いられたという(A/HRC/46/57)、他方でミャンマーにおけるロヒンギャに対するヘイト・スピーチの過激化にFacebookが用いられたという(A/HRC/42/50)

アルゴリズムとAIの差別的影響

実務ガイドによると、アルゴリズムとAIの使用は様々な形で差別をもたらしている。よく知られた2つのパターンは、

(a)  不透明な個人情報の大量収集と、アルゴリズム・システムの有害な運用における個人情報の利用。例えば、ソーシャルメディア・プラットフォームによって用いられたシステムが、個人情報の収集と利用によっている。

(b)  そのシステムが差別的情報に学び、偏見を再生産した場合に、その技術の利用が差別的結果をもたらす。

2のパターンの実例は調査結果がある。例えば、2016年の研究で、人権情報分析集団が、カリフォルニアのオークランドで、人種偏見を強化した。非白人で低収入の住民が居住する地区での警察配置の増加を勧告したことにより、警察実務における人種偏見を強化したのである。

同様に、20187月にアメリカ自由人権協会が行ったテストでは、顔認知装置が議員28人の顔を犯罪ゆえに逮捕された者と誤認した。誤認は、6人の議員黒人連盟のメンバーを含む有色人種に多かった。

こうした実例は氷山の一角に過ぎない。包括的差別禁止法の役割が重要である。アルゴリズムの使用が直接差別や間接差別につながらず、ハラスメントやヘイト・スピーチのような禁止された行為を増加させないようにすることが求められる。