福岡県の魅力を発信する目的で今月開設されたサイトに、存在しない観光地やご当地グルメが紹介されていたことが判明した。このサイトの記事はAIによって生成されたもので、運営していた東京のウェブ関連会社は事実と異なる内容だったとして全記事を削除し、謝罪した。また、サイトを後援していた福岡市はこの事態を重く受け止め、後援を取り消した。魅力を伝えるはずだった取り組みが、なぜ誤った情報の発信に至ったのだろうか。
「福岡つながり応援」というサイトで誤情報を掲載
問題となったのは、「官民連携」を掲げたインターネットサイト「福岡つながり応援」。沖縄や宮城、山口県などの応援サイトを運営しているウェブ関連会社が、11月1日に福岡県向けのサイトを新たに開設し、県内の観光情報を掲載していた。
しかし、閲覧者が保存した画像によると、福岡市の紹介記事では、アミューズメント施設として「うみなかハピネスワールド」という存在しない施設が紹介されていた。また、遊園地「かしいかえん シルバニアガーデン」を取り上げていたものの、この施設は2021年末に閉園している。
さらに、福岡県古賀市に関する情報では、「福津大自然公園」や「鹿児島湾」、「恋の浦海岸」といった名称が登場していたが、これらは市内に存在しない。また、観光客に人気のメニューとして紹介された「古賀刺身定食」も実際には存在しなかった。
記事には注意事項として「本記事はインターネット上の情報をもとにAI生成しており、情報の正確性を保証するものではありません。情報が誤っている・変更されている場合もありますのでご注意ください」と記載されていた。しかし、SNS上では、紹介内容への違和感や批判が相次いだ。
こうした状況を受け、サイト運営側は開設から6日後の11月7日に「情報発信に関するお詫び」を公開し、記事の誤りを認めて謝罪した。「お詫び」の中で、運営側はインターネット上の情報をもとに生成AIを活用して記事を作成し、「人的確認」を行っていたと釈明。今後は情報収集や確認体制の強化に努めるとした。
この事態を受け、福岡市は11月14日付で後援を取り消した。市によると、後援申請時点で生成AIを使って記事を作成していることは知らされておらず、担当者は
内容の正確さやチェックは大前提だ
とコメント。また、福岡県飯塚市も対応を検討中で、担当者は
困惑している。生成AIを使うとは把握していなかった
と述べた。なお、両市ともキャンペーンに対する費用や補助の支出はなく、「名義後援」の形だったという。
また、後援には関わっていないものの、誤った情報が掲載された古賀市の担当者は
誤った観光の情報はイメージダウンにつながりかねない
と困惑の意を示した。一方、サイトを閲覧した福岡県大野城市在住のライター、大塚拓馬さん(37)は
不正確なサイトに行政が後援の形でお墨付きを与えていた。行政は責任を持って対応してほしい
と厳しい意見を述べた。
運営元のウェブ関連会社の社長は、11月14日に毎日新聞の取材に対し、「(システムを)紹介した人から『生成AIを活用して文章をスムーズに作れる』と聞いたので問題ないと認識していた。落ち度だった。大変ご迷惑をおかけした」と謝罪した。
専門家の反応は?
この騒動で一番不思議なのは「人的確認をしていた」という部分です。 AIが資料なしに内部知識だけで作成した文書はハルシネーションを起こす(嘘を書く)可能性が高く、事実確認をすることが欠かせません。
おそらく、今回の「人的確認」は文章としておかしいところがないかをチェックするような軽いものであり、その内容が事実かどうかを都度確認するようなものではなかったと考えられます。
正直に言って、「応援サイト」をうたうサービスとしては考えられないくらいの杜撰さです。
AIは議事録のまとめや資料を元にした提案、解説は得意ですが、具体的な資料や指示もなく書く記事に苦手というか、信頼性が低いです。 その点に注意が必要です。
今回のお詫び文では「人的確認のうえ発信した」と説明されています。それが本当なら、生成AIを使ったかどうかは直接関係なく、内容のチェックが正しくできていなかったことが本当の問題といえるでしょう。
生成AIの使い方にも注意は必要です。モデルにもよりますが、与えられた指示に沿うように統計的によく出てくる言葉を並べるため、それっぽい名前の固有名詞を捏造することがあります。
文章を書かせたいなら、箇条書きなどで正確な情報を与え、文体や文字数を指示するとよいでしょう。それでも内容は保証されないので、人間によるチェックは必須です。その文章の責任は生成AIの利用者が負うことになります。
生成AIが不正確な情報を発信する可能性については、既に広く認識されています。そのため、生成AIを活用して記事を作成する際は、人間による事実確認が不可欠です。したがって、今回の事例は生成AI自体の問題というよりも、それを使用する「人間」側の問題だと言えるでしょう。
一方、AIも使い方次第です。本件でどのようなAIを利用したのかわかりませんが、例えば検索に特化した「Perplexity」や、ファクトチェックを行う「Genspark」などの利用も有効です。
つまり、生成AIの使用を禁止するのではなく、複数のAIを活用した二重チェック体制を構築すればいいのです。そうすれば、人間が行う最終チェックの負担も軽減します。今回の件、人間の技術活用力の問題と捉えるべきでしょう。
ネットの反応は?
以前、AIを試そうと北海道内で車中泊が可能なキャンプ場の情報をAIに聞きました。すると、「夕張川オートキャンプ場」など、聞き慣れないキャンプ場名がズラズラと出てきてびっくり。
念のため、キャンプ場ガイド本などで調べましたが、そんなキャンプ場は存在しません。
それ以来、AI検索に関してはとても疑いの目で見るようになりました。
便利すぎて考え方がマヒしている可能性があるが、生成AIはあくまでも、我々の作業の「補助」をするツールだと捉えなければならない。その位置付けがまだ理解されていない印象である。
1から文章を作るのは手間も工数もかかるので、生成AI自体に手伝ってもらう行為自体は問題ないが、それをそのままノールックで公開することが問題である。ファクトチェックは人間にしかできない必要な作業であり、これだけは人間がやらなければならない作業だと思う。
誤情報やフェイクニュースに関する対策をチャットGPTさんに聞いてみた
生成AIの誤情報やフェイクニュースへの対策として、作り手側と受け手側の双方で注意すべきポイントを以下にまとめました。
作り手側が気を付けること
- 情報源の確認と検証
生成AIが出力する情報は、公開されたデータや学習時点の情報を基にしています。そのため、生成された内容が正確であるかを必ず信頼できる一次情報や公式情報で確認・検証する必要があります。 - 人的チェックの強化
AIが生成した記事や情報に対して、必ず人間が最終確認を行い、不正確な情報や誤解を招く表現を排除します。専門知識のある編集者がチェックを行うとより効果的です。 - 情報の透明性を確保
記事やサイトに「AIによる生成であること」を明示し、内容の信頼性について注意喚起を行う。また、情報源やデータの出典を明確にすることで、ユーザーに信頼感を与えます。 - 生成内容のリスク理解
生成AIの限界を理解し、観光情報や医療、公共政策など、正確性が重要な分野での使用には慎重を期すべきです。 - 学習データの選別
学習に使用するデータは信頼性の高い情報を選び、不正確な情報を学習させないように注意します。
受け手側の対策
- 情報の真偽を自分で確認する
受け取った情報が本当に正しいのか、公式サイトや信頼できる一次情報で確認する習慣を持つ。特に重要な内容の場合、複数の情報源でクロスチェックすることが大切です。 - AI生成コンテンツであることを意識する
明示されていない場合でも、AI生成の可能性があることを念頭に置き、内容の正確性を疑う視点を持つ。 - 情報発信者の信頼性を評価する
サイトや発信者の背景、運営元の透明性、信頼できる過去の実績などを確認し、信頼性を判断する。 - 誤情報の拡散を防ぐ
不確かな情報をSNSや周囲に共有しない。特に、衝撃的な内容や広がりやすい話題については慎重に対応します。 - メディアリテラシーの向上
AIやフェイクニュースの仕組みを理解し、どのような場合に誤情報が生まれやすいかを知っておくことで、冷静に情報を受け取る力を身につけます。
共通して重要なこと
- 責任感を持つ
情報発信者も受け手も、情報が社会に与える影響を理解し、軽率に扱わないことが重要です。 - 技術と人間の協力
生成AIの長所を活かしつつ、最終的な判断は人間が行うというハイブリッドな運用が必要です。
生成AIは便利なツールである一方、使い方次第で誤情報や混乱を招く可能性もあります。双方が適切な意識を持つことで、リスクを最小限に抑えることができます。
編集後記
人的確認をしていたって誤字脱字がないかくらいのチェックだったんだろうな。
コメント