2日に、日本の政府が個人情報保護委員会を通じて、対話型人工知能(AI)「チャットGPT」を開発した米国の新興企業であるオープンAIに対して行政指導を行ったという報告が出されました。
この行政指導の背景には、チャットGPTが個人の病歴などのプライバシー情報を侵害する可能性があるという懸念があります。個人情報保護法を根拠として、1日付で政府はオープンAIに対して注意喚起を行いました。これは、個人情報保護法が個人のプライバシーを保護し、その侵害を防止するための法律であり、これに違反する行為は厳しく罰せられることが法律によって明示されています。
AIの個人情報保護に関する日本政府の警戒強化:チャットGPTに対する行政指導
現時点では、具体的な被害情報や個人情報保護法違反の確認はされていませんが、政府はこの可能性に対して警戒を怠らない姿勢を示しています。これは、AIの発展とともに、その潜在的なリスクも増大しているという現実を踏まえたものと思われます。 また、チャットGPTを代表とする生成型AIについて、個人情報保護委員会が行政指導を行うのは今回が初めてであり、新たな試みとも言えます。これは、AI技術の発展が個人情報保護という新たな課題を引き起こし、それに対応するための政府の積極的な取り組みを反映しています。 さらに、オープンAI側がこの行政指導に対して適切な対応を取らない場合、政府は立ち入り検査や罰金処分などの更なる措置を取る可能性があることを示唆しています。これは、政府がAI技術の発展と同時に、その利用が個人のプライバシーを侵害する可能性についても強く意識していることを示しています。
要配慮個人情報の収集問題:個人情報保護委員会がオープンAIに対して日本語での通知を求める
日本の法律においては、個人情報のうち、人種、信条、社会的身分、病歴、犯罪歴などの特定の種類の情報は「要配慮個人情報」と定義されています。これらの情報の取得は、本人からの事前の同意が必要という原則が設けられており、その遵守が強く求められています。
個人情報保護委員会は、AI開発企業であるオープンAIに対し、利用者の事前の同意が得られていない状態での要配慮個人情報の収集を行わないように要請しました。
委員会はAIの機械学習におけるデータ収集の段階で、要配慮個人情報が含まれないようにするという取り組みも求めました。それでもなお含まれてしまった場合には、即時にその情報を削除する、または個人が特定できないような措置をとることが指導されました。
また、個人情報の利用目的に関する情報が日本語で提供されていないことが問題視されています。このため、オープンAIに対しては、個人情報の利用目的についての説明を日本語で提供することが強く求められています。
専門家の反応は?
このタイトルだけ読むと、まるでオープンAIを使うと病歴などの個人情報が吸い上げられてしまっていると誤解される人もでてしまいそうですが、当然そういうことではありません。
現在のオープンAIの仕組みだと、病歴などの個人情報をユーザーが入力してしまう可能性があるし、ユーザーの同意無しにオープンAI側にその情報が残ってユーザーの意図しない形で使われる可能性があるので、そういうことがないように対策しなさいと言う注意喚起のようです。
今回、オープンAIだけが対象になり、マイクロソフトのBingチャットやグーグルのBardが対象になっていないのは、2つ目の指摘である日本語対応の遅れの影響も大きそうです。
ネットの反応は?
要は破産者マップや病人マップみたいなのをGPTに再現されると困るという話なんだろうが、ウェブや文書で公開されている情報を大量に学習させるときに、これはA国で指定された特別の配慮が必要な個人情報、あれはB国で指定された個人情報、なんて識別はしてないと思われ、出力段階で「お住まいの地域ではご希望の情報は提供できません」みたいになるんじゃないか。運営会社が情報を集めること自体は防げない(集めていても行政側が挙証できない)ように思う。
チャットGPTはふわっとした「AI」という種類の中でも スマホやPCを通じ、会話できるシステムとして 実際に触れる機会が出来たのが人気の理由。
今はまだAIに対する法もほとんどなくこれからトライ&エラーで 模索していくことになるでしょう。
確かにどこかで歯止めを掛けなければどこかで犯罪に利用されたり、 企業から個人情報を抜くなどの悪用に利用されそう。
編集後記
言われてみれば、個人情報の利用目的の記載とかサイト上に日本語ではないですよね。
今後、日本での利用者数も増えてくると思われるので、その辺は対応しておいた方が良いですよね。
コメント