ジェンダー差別 ChatGPTが性差バイアス

※当サイトではアフィリエイト広告を利用し商品紹介を行っております

ChatCPTさんに聞いてみた

朝日新聞の調査によると、革新的な対話型AI(人工知能)として利用が広がっている「ChatGPT」(チャットGPT)が特定の職業に性別の偏見を示していることが判明しました。専門家は、この問題が解決されずにシステムが引き続き使用される場合、性別に基づく差別や偏見が継続される可能性があると警告しています。

スポンサーリンク

AIのジェンダーバイアス:無料版と有料版の比較分析

AIはインターネット上の膨大なデータを学習して回答を生成しますが、このプロセスにより、元のデータセットに存在する偏見がAIの応答に反映されることがあります。この現象は、東京工業大学の岡崎直観教授の研究で以前から指摘されていました。しかし、昨年秋に登場したChatGPTの日本語におけるジェンダーバイアスの程度を測定した研究は存在しませんでした。

このギャップを埋めるため、朝日新聞社メディア研究開発センターは岡崎教授の指導のもと、ChatGPT-3.5の無料版に30の職業に関する性別の観点から3,000回の質問を行い、そのうち41.5%の回答にバイアスが見られました。これは岡崎教授が以前に分析した他のAIシステムと同様の割合です。

一方で、有料版のGPT-4に同様のテストを行ったところ、バイアスがある回答は22.9%に減少していました。この結果について、ChatGPTの開発元であるOpenAIは、「私たちはAIのバイアス対策に取り組んでおり、その狙いと進み具合は透明性を保って説明していく」と朝日新聞の取材に対して示しました。

チャットGPTさんに聞いてみた

おき編集長
おき編集長

このようなジェンダーバイアスに関しての調査がだされていますが、チャットGPTさんは、このようなバイアスはどうすれば解消するためにどういった取り組みを行っていくのですか?

ChatGPTさん
ChatGPTさん

ジェンダーバイアスの問題に対処するためには、AI開発者や利用者が複数のアプローチを取る必要があります。以下は、バイアスを減少させるための一般的な取り組みです:

  1. データセットの監査と修正:
    • トレーニングデータセットに含まれるバイアスを特定し、修正する。
    • 多様性を持つデータセットを使用して、AIがよりバランスの取れた視点を学習できるようにする。
  2. アルゴリズムの透明性と説明責任:
    • AIの意思決定プロセスを透明にし、その決定がどのようにしてなされたかを説明できるようにする。
    • モデルの意思決定に影響を与える可能性のある要素を明らかにする。
  3. 多様な開発チーム:
    • 異なる背景を持つ人々で構成される開発チームを組むことで、多様な視点を取り入れ、バイアスのリスクを減らす。
  4. 倫理的ガイドラインの策定と遵守:
    • AIの倫理的使用に関するガイドラインを策定し、それに従って開発と運用を行う。
  5. 継続的なモニタリングと評価:
    • AIシステムを定期的に監査し、バイアスがないかを評価する。
    • ユーザーフィードバックを活用して、システムの改善を図る。
  6. 教育と意識向上:
    • 開発者やユーザーに対して、バイアスの問題についての教育を行い、意識を高める。
  7. 技術的な改善:
    • バイアスを検出し、修正するための新しい技術やアルゴリズムを開発する。
  8. 公平性の評価ツールの使用:
    • AIの公平性を評価するためのツールやフレームワークを使用する。

OpenAIは、これらの問題に対処するために、研究と開発の両面で取り組みを進めています。具体的には、AIモデルのトレーニングにおいて、バイアスを特定し、減少させるための技術的な手法を採用し、モデルの振る舞いを監視し、必要に応じて調整を行っています。また、コミュニティからのフィードバックを受け入れ、AIの公平性と倫理性を向上させるために継続的に努力しています。

専門家の反応は?

ChatGPTなどのLLM(大規模言語モデル)は特定の言葉のあとに続く確率の高い言葉を文章にして出力しているだけであり、AIとしての思考能力があるわけではありません。 よく言われるのが「むかしむかしあるところに…」と書いた場合、続く可能性が高いのは「おじいさんとおばあさんが…」になるため、それを出力しているだけに過ぎません。

そのため、ChatGPTに性差バイアスがあるのではなく、記事にもあるとおり学習したコンテンツに性差バイアスがあり、それが反映されているだけです。

AIの学習データに偏りがあれば、出力結果が偏るのは避けられません。例えばAmazonは履歴書データを学習させ、AIによって採用活動を効率化させようとしました。ところが女性差別が発生することが明らかになり、利用を取りやめることとなりました。学習させた過去10年分のデータで、技術職で採用されたのが男性ばかりだったため、履歴書で女性と分かっただけで点数が下がっていたようです。 AIが差別的な結果を出すのは、それだけこれまでに差別があったということの証左です。そのような傾向は是正しなければ、出てきた差別的な結果がさらなる差別を生んでしまうため、世界中で改善が求められており、開発者も是正に取り組んでいます。

ネットの反応は?

表立って言えない世の中になっているが、膨大な情報から引っ張り出してくるGPTですから、世間的にもまだまだ性差を思っている人が多いということでしょう。 近い将来人々が学習することによって性差が少なくなればまた違った回答が出てくると思う。

飛行士は肉体的な強靱さが求められる部分もあるので、男性が優位になってまったくおかしくないんだけどね。 それがいちばん現れているのが戦闘機パイロットで。人材が足りていなくて男女を問わず求められてるけど、女性の適格者は男性の1/50くらいとなってる。

看護師だってそうだ。

ポリコレなんかに縛られないでやってれば、女性のほうが人数を求められるのが現実だ。

いちおう女性の方々にたずねるけど。自分が病気になったときに担当してもらう看護師は、女性がメインが良い? それとも男性がメインが良い? 本当にどっちでも気にしない??

差別をAIが再生産して助長するのは困るけど。 差別と区別をごっちゃにした人間が、自分の主張だけをAIが叶えてくれないとおかしい……というのも、ちょっとどうかと。

編集後記

おき編集長
おき編集長

学習させる資料、データに性差があるようなものだから、こういった結果になるんでしょうね。

元が性差あるデータから性差がないようにするなんて出来るAIが出てきたらそれはそれで怖いですよね、それこそ人がやる仕事ほとんどやってくれそう。

コメント

タイトルとURLをコピーしました