政府は、国内のAI関連企業向けの指針の草案を明らかにしました。この指針は、「公平性」「透明性」を含む10の基本原則を盛り込んでおり、すべての事業者が考慮すべきものとされています。これらは「AI戦略会議」という専門家委員会の議論を経て策定され、年内に正式決定する予定です。
この原案は、7日の会議で非公式に提示されました。G7諸国は10月末に、AI開発者を対象とした知的財産権の保護を含む国際行動規範に合意しています。これらの指針は、その規範を国内で実施するためのものです。
原案によると、これらの指針は、省庁を含む公的機関や、事業としてAIを利用する全ての組織に適用されます。一方で、事業に直接AIを使用していないユーザーやデータ提供者は、指針の対象外とされています。
偽情報対策から著作権保護まで:AI利用の新たな国内指針
指針の最初の原則として「人間中心」を掲げ、事業者には「個人の尊厳を尊重し、生じうる不利益に慎重に留意する」こと、さらに「人間の意思決定や感情を不当に操作することを目的としたAIの開発・提供は行わない」ことを要請しています。また、偽情報の拡散に対しては、その社会的混乱を引き起こすリスクを理解し、「必要な対策を講じる」ことが求められています。
「公平性」に関する原則では、AIの学習データに「許容できないバイアス(偏り)が含まれる可能性」について言及し、AIが差別を助長しないように「人間の判断を介在させる利用」が推奨されています。
AIのデータ学習に関しては、「透明性」の原則に基づき、データ収集方法に関する情報の提供が要求されており、「説明責任」の原則においても、データの出所などが「技術的に可能な範囲で追跡可能な状態を確保する」ようにすることが記されています。しかし、AIの学習による著作権侵害などの具体的な問題点については明示されていません。年末に向けて策定される指針の実効性を保証することが今後の課題となります。
さらに、AI開発者に向けた特別な注意事項として、開発プロセスを「第三者が検証できる形での文書化」ことが含まれており、第三者認証制度の導入が検討されていると考えられます。また、AIを組み込んだサービスを提供する事業者やAIサービスを利用する事業者に対しても、特定の注意事項が記載されています。
AIガイドライン原案の要旨
共通の指針
AIの開発者、提供者、そして利用者が守るべき「7つの原則」と、社会との協働を促す「3つの原則」を明確にしました。これらの原則は、人間を中心に置いたアプローチに基づき、法の支配、人権、民主主義、多様性、そして公平かつ公正な社会を重んじるAIシステムの開発、提供、使用を目指しています。これには、憲法や個人情報保護法を含む関連する法律や規制の遵守が含まれ、AIに関連する既存の法律にも従うことが求められます。さらに、国際的なガイドラインの進展にも注意を払うことが重要です。
開発者の留意事項
透明性を高めるために、AIシステムの開発プロセスや意思決定プロセスに関わるデータの収集や使用されるアルゴリズムについて、第三者が確認できるように詳細な文書化を行うことが求められています。
また、AIが学習に使用するデータに関しては、含まれている情報が機密性を持つものや、注意が必要な個人情報、意図的に悪用される可能性のあるデータでないかを慎重にチェックすることが重要です。
提供者の留意事項
個人情報に対するアクセスを可能な限り適切に管理し、制限するための体制を整えるなど、プライバシー保護のための措置を施すことが求められています。
AIを狙った攻撃手法が増加している現状を踏まえ、最新のセキュリティリスクやその対策に必要な注意点を常に把握し、脆弱性を解消するための取り組みを進めることが重要です。
利用者の留意事項
AIの正確性とそれに伴うリスクのレベルを把握し、使用する前にさまざまなリスク要素を検討することが必要です。また、偏りのない公正なデータを入力し、潜在的なバイアスに注意を払いながら、AIのビジネスでの使用に関する責任ある判断を下すことが重要です。
チャットGPTさんに聞いてみた
AIに関して様々な指針が出来てきていますが、今回の指針を読み何かほかに利用者側で留意する点ってありますか?
今回の指針に基づくと、AIを利用する際には以下の点に留意することが重要です:
- 透明性: 利用者は、AIシステムの意思決定プロセスやその根底にあるアルゴリズム、使用されるデータについての透明性を求めるべきです。どのようにして結果が導き出されているのかを理解することが、信頼性の確保につながります。
- プライバシー保護: 個人情報の取り扱いに関しては、データ保護の規範やプライバシーに関する法律を遵守し、個人情報が適切に管理されているかを確認する必要があります。
- リスク管理: AIの精度やリスクを理解し、それらを踏まえた上で利用することが求められます。特に、AIが学習するデータに悪意のある情報が含まれていないか、またはバイアスが存在しないかを確認することが重要です。
- 公平性: AIによる意思決定が公平であることを保証するために、入力データがバイアスを含まないようにする必要があります。また、AIの出力が差別を助長しないように注意を払うことも必要です。
- セキュリティ: AIシステムに対するサイバー攻撃のリスクが高まっているため、最新のセキュリティ対策についての知識を持ち、適切な保護措置が講じられているかを確認することが重要です。
- 法令遵守: AIを利用する際には、憲法や個人情報保護法をはじめとする関連法令、国際的な指針に従うことが必要です。
- 倫理的配慮: AIの開発や利用が倫理的な観点からも適切であるかを考慮し、人間の尊厳や倫理的価値を尊重することが求められます。
これらの点を念頭に置きながら、AIを利用することで、より安全で責任ある方法でのAIの活用が可能になります。
編集後記
すべてを読んだわけではないですが、この原案も生成AIで骨子を作ったなんて事ないですよね笑
コメント