生成AIは多くの分野で革命的な変化を引き起こしていますが、新技術には常に悪用されるリスクが伴います。この技術の多様性と強力さが、新たな脅威や危険を生み出す原因となることもあります。
現在、生成AIを使ったサイバー攻撃の可能性が懸念されており、その影響はまだ未知の領域に広がる可能性があります。デジタル化が進む現代において、サイバーセキュリティは企業や組織にとってますます重要な課題となっています。従来のサイバー攻撃に加えて、生成AIによる新たなリスクに対する警戒が求められています。
サイバー攻撃者がいつも一歩先を行く
サイバーセキュリティは多くの人にとって日常生活で意識されにくい、しかし重要な存在です。この分野では、サイバー攻撃者が常に先を行くという現実を理解することが必要です。
2022年末にChatGPTが登場して以来、AIのビジネスや日常生活への応用について多くの話題があります。しかし、サイバー攻撃者たちもこの動向を見逃していません。彼らはChatGPTをどのように悪用できるかを模索しています。
2023年2月、BlackBerry Limitedが行った調査では、IT専門家の半数以上が、ChatGPTを利用したサイバー攻撃が今後1年以内に増加すると予測しています。
では、どのような方法でこれらが脅威やリスクになるのかを見てみましょう。これまでの事例に基づいて解説します。
ChatGPTを含む生成AIは通常、不適切な質問には応答しないよう設定されています。しかし、巧妙な質問をすることでこの制限を回避し、回答を得る方法が存在します。
特に「ジェイルブレイク」と呼ばれる手法が注目されています。これは、開発者によって設定された機能的な制限を不正に解除し、利用可能にすることです。例えば、映画の悪役や、存在しない“開発者モード”を持つAIの役を演じさせるなどの手法があります。これにより、通常は応答しない倫理的に問題のある質問にも答えるようになることがあります。
ChatGPTがリリースされた初期から、サイバー攻撃者たちの反応を観察していました。ハッカーたちが集まるインターネットの隠れた掲示板では、ChatGPTの悪用方法に関する情報交換が盛んに行われていました。
「脱獄」技術を用いて、既存のマルウェアをChatGPTで改良する動きや、ChatGPTで生成されたマルウェアの共有が早期から確認されました。
また、あらゆる不適切な質問に答えるという、いわばアンダーグラウンド版のChatGPTとも言える有料サービスがいくつか登場しました。実際にそのようなサービスの一つを試したところ、一般的な生成AIが拒否する「ランサムウェアのソースコード作成」のような質問にも容易に回答していました。
生成されたコードが実際にランサムウェアとして機能することも確認されました。このような悪意のある生成AIサービスは、2023年1月の時点ですでに出現していたのです。
生成AIは言語の壁も容易に乗り越えられる
一部では、生成AIによって作られるマルウェアやその他の不正コンテンツは基本的で脅威ではないという意見もありますが、実際に機能するものが作成できるという事実は重要です。現段階での質の低さを理由にこれを無視するのは無理があります。
この技術の高度化は時間の問題であり、急速な進化の始まりに過ぎないと考えるべきです。将来に向けて、継続的な監視が必要です。
また、特殊な「脱獄」手法を使わずとも、質問の仕方を工夫するだけで安全制限を回避するリスクも存在します。不適切な質問を細かいタスクに分解し、それぞれに答えさせることで目的を達成することが可能です。
例えば、「ランサムウェア」という言葉を使わずに「ファイルを暗号化するプログラム」と表現することで悪意を隠し、回答を得る方法や、正当な目的を装って回答を引き出す方法もあります。これらは生成AI全般に共通する問題であり、脱獄などと比べて対処が難しいとされています。
AIを用いて不正なコンテンツを作成するだけでなく、AIにサイバー犯罪の仕組みを解説させることで、初心者ハッカーの学習ツールとしても利用されています。これは非常に有効な教育手段となり得ます。
特に、フィッシングメールの作成は生成AIを悪用する上で最も効果的な方法の一つです。生成AIは説得力のある文面を作成するのが得意であり、この特性を利用して悪意のあるメールを容易に作成できます。言語の障壁も容易に克服できるため、以前は不自然な日本語が不審の兆候とされていましたが、それももはや当てにならなくなりました。
攻撃者は、以前よりも精巧で効率的に大量のフィッシングメールを生成できるようになりました。2022年第3四半期以降、フィッシングメールの増加が多くの調査機関によって報告されており、その多くが生成AIと関連していると指摘されています。
ChatGPTの人気を利用した脅威も増えています。時事ネタや流行を狙うのは常ですが、生成AIを謳うアプリやサイトが乱立しており、中には悪意のあるものも存在します。不明な出所のコンテンツには注意し、安易な利用を避けるべきです。
実際に、ChatGPTを装ったマルウェアや偽サイトが確認されており、これらを通じて盗まれたChatGPTのログイン情報がアンダーグラウンドで販売されている状況があります。
さらに、生成AIサービスでは会話履歴が記録されることがあり、ログイン情報が盗まれると、履歴から個人情報が流出するリスクもあります。業務で使用する場合は特に注意が必要です。他のサイトと同じログイン情報の使用を避け、可能であれば履歴の無効化を検討することが推奨されます。
AIの光と影の両面を均等に捉える姿勢が重要
ビジネスで生成AIを取り入れる際、特に顧客サービスにAIを使用する場合は、AI自体がサイバー攻撃の標的になる可能性を考慮し、顧客情報の漏洩防止などの対策を設計段階から施すことが重要です。
社内でAIを利用する場合も、不正アクセスによりAIの学習データが改ざんされるリスクや情報漏洩の可能性を考慮する必要があります。リスクを軽減するためには、従来のセキュリティ対策、例えば多層防御、ネットワークの分離と監視、攻撃検知の強化などが基本となります。
加えて、社員のAIに関する知識を向上させ、社内教育を徹底すること、自社のみがアクセスできるリソース上でAIデータを完結させるようなサービスやシステムの導入も効果的です。
個人情報保護法の改正により、情報漏洩の報告が義務付けられた現在、サイバー攻撃は財務的損失や評判の損害、法的責任に直結します。信用や信頼を築くのには時間がかかりますが、失うのは一瞬です。
それでも、AIの利点を積極的に活用することは、デジタル社会で生き残るために重要です。過度な恐れは得策ではありません。AIの利点とリスクの両面に目を向けるバランスの取れた姿勢が必要です。
チャットGPTさんに聞いてみた
記事内でジェイルブレイクという手法を使ってチャットGPTさんを改変する技術があるとの事だったのですが、チャットGPTさん側でジェイルブレイクに関しての防衛機能などはあるのですか?
「ジェイルブレイク」という手法は、生成AI、特にChatGPTのようなモデルに対して、開発者が設定したガイドラインや制約を回避するために用いられる手法です。このような手法は、AIが不適切な内容を生成したり、倫理的に問題のある応答をするリスクを高めます。
ChatGPTやその他の生成AIモデルにおいては、ジェイルブレイクのような手法に対抗するためのいくつかの防衛機能が組み込まれています。これらの機能には以下のようなものが含まれます:
- コンテンツフィルタリング: AIは、不適切な内容や有害な情報を識別し、それに基づいて応答をフィルタリングする機能を持っています。これにより、不適切な応答の生成を防ぐことができます。
- 使用ガイドラインの厳格な遵守: AIは、特定の倫理的ガイドラインや使用ポリシーに従って設計されています。これには、人種差別的な発言、暴力的な内容、違法行為に関連する情報など、特定の種類の応答を避けることが含まれます。
- ユーザー入力の監視と分析: AIは、ユーザーからの入力を監視し、潜在的に危険または不適切な要求を識別することができます。これにより、不適切な応答を生成するリスクを低減します。
- 継続的な改善とアップデート: AIモデルは定期的に更新され、新たな脅威や悪用の手法に対応するための改善が行われます。
しかし、これらの防衛機能にも限界があり、特に巧妙なジェイルブレイクの手法には完全に対応できない場合があります。そのため、AIの使用にあたっては、常に倫理的なガイドラインを遵守し、不適切な使用を避けることが重要です。また、AIの開発者や提供者は、これらのリスクに対処するために継続的な努力を行っています。
編集後記
ソフト側のセキュリティ対策も大事ですが、最終的には使う側の私たちがリテラシー高めてセキュリティ対策をしないとですね。
コメント