AIが女性差別やルッキズムを助長することも? より良い社会をつくるためにできるアクションとは【Waffle 斎藤 明日美】
日本の大きな課題である男女不平等。それによって、私たちの生活にはどのような影響が生じているのだろう。意外な分野で生じている課題について探ってみよう

『Chat GPT』をはじめ、生成AIの進化が目覚ましい。最近では、大手出版社が画像生成AIで作成したグラビアアイドルの写真を出版し、著作権関連の議論も世間の注目を集めた。
また、日常生活の中で「分からないことがあれば『Chat GPT』に聞いてみる」シーンが増えた人も多いはず。
AIが導き出した回答をもとに何かを選択したり、AIが生み出したものを目にしたりする機会は今後ますます増えていくだろう。
ただ、AIの解析結果がいつも正しいとは限りません。
これまでの科学技術の歴史がそうであったように、作り手やルールメイキングをする人たちが男性・白人など特定の性別・人種に偏っている場合、AIが女性やその他のマイノリティーに対する差別や偏見を強化してしまう可能性もあります。
そう指摘するのは、IT業界のジェンダーギャップ解消に取り組むNPO法人Waffle Co-Founderの斎藤明日美さん。
AIが差別や偏見を強化する可能性を持つというのは、一体どういうことなのだろうか。詳しく話を伺った。

Waffle Co-Founder
斎藤 明日美さん
1990年東京都生まれ。データサイエンティストとして外資系IT企業、AIスタートアップを経て、IT業界のジェンダーギャップを解消するべくNPOWaffleを立ち上げる。2020年Forbes JAPAN誌「世界を変える30歳未満30人」受賞。米国アリゾナ大学大学院修士課程修了 Twitter
AIにも偏見がある? 「白人男性重視」の採用も
「過去の歴史を振り返ると、科学分野の開発者や研究者のジェンダーギャップが、さまざまな分野で女性にとってのリスクを生んできた」と斎藤さんは言う。
有名なのは自動車開発の事例だ。これまで自動車製造の現場で働く人の多くが男性だったため、衝突事故の実験では当たり前のように男性の人形が使われてきた。
それによって、女性ドライバーの重症率や、妊婦が事故にあった際の胎児の死亡率が上昇。
2002年に自動車メーカーのボルボが妊婦のバーチャル衝突ダミーを世界で初めて開発するも、女性たちは長らくの間、命の危険にさらされてきたことになる。

また、医薬品開発にも同様の事例がある。薬品の効果を試す臨床実験や動物実験は、男性やオスが被験者となる場合がほとんど。
そのため、女性にだけ悪影響を及ぼす薬が開発されたり、成人男性に対する適量が成人女性には効果を示さなかったりするケースもある。
これは、急速に発展するAI技術においても同じことが言えます。
AIに悪意はなくとも、作り手のジェンダーバイアスやAIが参照するデータに偏りがあることで、女性に不利益を与えることがあるのです。
2014年、米国の企業が採用プロセスの最適化のためにAI導入を試みた際、ある問題が起きた。
偏見を持たないはずのAIが選んだ候補者が、白人男性にかなり偏っていたのだ。これは、過去にその企業が採用し、優秀だと評価してきた人たちの履歴書データをAIが読み込んだ結果として生じた問題だった。
「AI技術を活用する際、システムやサービスのつくり手がダイバーシティの観点からリスクチェックを行わない限り、今後、こうした問題が次々に起きる可能性がある」と斎藤さんは指摘する。
昨今話題の『ChatGPT』も、世の中にあふれる大量のデータの中から、最適解と予測される解答を導き出して提供するチャットツールだ。
つまり、参照するデータそのものにジェンダーバイアスが含まれていれば、あたかもそれが正しいことかのように、検証が不十分な状態で利用者に提示されることがある。
現状は、これらのリスクを踏まえた上で利用者側が解答を精査する必要があるが、技術の発展に議論が追いついていない面も大きい。
生成AIが生み出す女性像がルッキズムを強化するリスク

さらに、「AI技術を使った画像認証の精度にも、性別や人種によって大きな差がある」と斎藤さんは話す。
例えば、2015年には、写真共有クラウドサービスが黒人女性の顔写真をゴリラと自動分類したことが問題視され、サービスの提供元は謝罪を余儀なくされた。
人種的マイノリティーや、女性の顔がうまく認識されないことにより、暮らしの中で負担が増えたり、精神的な苦痛を味わったりする。そういう事象が世界中で顕在化しています。
さらに、「画像生成AIがルッキズムを強化し、女性のメンタルヘルスに影響する恐れもある」と斎藤さんは続ける。
実写と見紛うほどの完成度の高い画像をAIが作れるようになり、ギャラもマネジメントもなしでいくらでも人物画像を量産できるようになっています。
今後は広告等でAIモデルやAIアイドルなどを目にする機会も増えていくはずですから、それらの虚像が「美のスタンダード」として女性に押し付けられる可能性も否定できません。
データから画像を生成している以上、似たような美女が続々と生まれたり、男性の理想を強化したような見た目の女の子が続々とメディアに出てきたり。
それと照らし合わせて「自分は……」と自信をなくして見た目へのコンプレックスが強くしてしまうケースや、メンタルヘルスの問題を抱える女性が増えるリスクもあるでしょう。
政治の世界のジェンダーギャップが「産業界のAI格差」を広げる?
また、政府は「AI戦略会議」を開催するなど、AIを活用したイノベーションや、利活用のためのルールメイキングに積極的に乗り出している。

政界といえば、テクノロジー業界同様にジェンダーギャップが大きな領域だが、そこでAIに関する議論が進められたときにはどんなリスクが生まれるのだろうか。
例えば、男性が多く働くIT業界などに政府の支援が集中してさらに技術革新が進む一方で、女性が多くいる教育や介護、福祉などもともとデジタル化が遅れている業界への支援がないがしろにされ、ますます技術・AI格差が広がってしまう可能性があります。
また、AIを使って解決できる社会課題に関しても、女性ならではのニーズが見えづらくなったり重視されなかったりすることで、ますます課題解決が後手にまわってしまうこともあるでしょう。
ただ、最近では為政者のジェンダーギャップに対する感度が高まっており「政策面でも今後、良い効果につながるのではないか」と斎藤さんは期待を込める。
Waffleは女子学生向けのIT教育に関する政策提言を活動の柱の一つにしていますが、これまでのアクションが実り、議員の方から意見やアドバイスを求められる機会が増えています。
実際、日本の政界には女性が少なく、バックグラウンドの多様性にも乏しい。
でも、それを問題だと捉えて、外部からいろいろな人の意見を取り入れようと動いてくれる議員さんが増えてきた印象です。
そうした意識が芽生え始めていることは、いい兆しと言えるのではないでしょうか。
これって変じゃない? 女性たちの発信が「AIのリスク」軽減につながる
斎藤さんは、Waffleのイベントやコースに参加する学生に対しても、AI技術を含むテクノロジーに触れ、その価値とリスクを正しく理解したうえで活用することの重要性について、折を見て話をしているという。

ここまでAIがもたらすリスクにフォーカスしたお話をしてきました。
ですが、だからと言って『AIを避けよう』という話ではなく、このすばらしい技術を正しく使って社会に役立てていくためにどうすればいいか、どう関わっていくべきか、自分ごととして考えられる人を増やしていきたいと思っています。
そんな中で、技術者の一人としてAIに関わりたい、テクノロジーを仕事にしたいと感じる女性が一人でも増えればうれしいですね。
また、AIが女性に与えるリスクを小さくしていくためには、「女性たち一人一人が声をあげ、発信することも欠かせない」と斎藤さんは言う。
例えば、『ChatGPT』を使ったときや、AI関連のサービスに触れたとき「これってどうなの?」「ジェンダーバイアスがあるんじゃない?」と思うことがあれば、どんどん発信すべきだと思います。
サービスやシステムの作り手のダイバーシティーも大事ですが、あらゆる価値観・属性の「ユーザーの声」を通して改善が促されていくケースも多いもの。
TwitterなどのSNSで発信してみるのでもいいし、職場で身近な人たちに意見を伝えて議論のきっかけにするのもいい。
女性たち一人一人の声が、AIによって偏見・差別が強化されるような事態を防ぐことにつながっていくと思います。

とはいえ、発信すること、声をあげることに対して「AIについて語るなんて自信がない」と思ってしまうこともあるかもしれないが、「新しい技術について、『よく分からない』のはみんな一緒」と斎藤さん。
インポスター症候群(※)という言葉もありますが、男性と比較して女性の方が自分を過小評価しやすく、120%くらい確かな自信がないと意見が言えないと感じたり、手をあげられなかったりするものです。
でも、ネット上でもリアルでも男性の声が目立つことで、男性の声ばかりAIが参照するようになっていくとしたら……女性にとって良い未来は訪れません。
「新しい技術のことはみんな知らない」「自分の声が誰かの役に立つかも」そんなふうに捉えて、もっと気軽に意見や感想を発信していけたらいいのかなと思いますね。
ささやかなアクションでも、一人一人が実践すれば、より良い未来をつくることにつながっていくと思います。
取材・文/井上茉優、栗原千明(編集部)
『意外な分野のジェンダーギャップ』の過去記事一覧はこちら
>> http://woman-type.jp/wt/feature/category/lifestyle/gendergap/をクリック