技術の進歩と社会的責任を考慮し、GPT-4以上のAI開発に伴うリスク回避を求める公開書簡に、マスクやウォズニアックらが署名

※当サイトではアフィリエイト広告を利用し商品紹介を行っております

ニュース

先日、多くの人工知能(AI)の専門家や企業のリーダーが、AI開発の一時停止を求める公開書簡に署名しました。この公開書簡は、「Future of Life Institute」という非営利団体が発行し、AI技術の発展に伴い懸念される問題について警告しています。

公開書簡では、新しい技術を導入するための「制御不能な」競争について警告されています。つまり、AI技術の発展が非常に速いため、その技術を取り入れた企業や国家が「競争」し、その制御が困難になる可能性があるということです。

書簡には、誤った情報の拡散や、労働市場における自動化による失業率の上昇といった懸念も挙げられています。AI技術がますます発展することで、人々が得る情報が真実であるかどうかを見極めることが困難になる可能性があるため、誤った情報が拡散されることが懸念されます。また、AI技術によって人の仕事が自動化されることで、失業率が上昇する可能性があります。

さらに、書簡は、AI技術が発展しすぎることで、人類や社会に対する潜在的なリスクがあることにも言及しています。例えば、AIが人間並み以上の知能を持つことで、人間の判断力を超えるような決定を行うことがあり、それが社会や人類にとって危険な結果を招く可能性があるということです。

このような懸念から、書簡ではAI技術の発展に一時的な休止を求めています。具体的には、OpenAIのGPT-4など、より高度なAI技術の開発を6カ月間休止するように呼びかけています。この期間中に、新技術の危険性が適切に評価されるよう、AIを研究する組織に対して働きかけることが目的です。

スポンサーリンク

制御不能なAI!?

制御不能なAI!?

Future of Life Instituteは、人工知能(AI)の発展が引き起こす可能性がある問題に取り組む非営利団体です。彼らは、AIの強力な新しいシステムを制御できなくなることが、文明に深刻な影響を及ぼす可能性があることを示唆しています。現在、企業は、開発者でさえ「理解、予測、確実な制御」ができないほど高度なAI技術を開発しようと競っている状況です。

この書簡は、AI技術の開発が進んでいる中で、人類と社会に対する潜在的なリスクを低減するために、高度なAI開発の一時停止を呼びかけるものです。

書簡には、「我々は文明のコントロールを失うリスクを冒すべきだろうか。そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。」

という文言があります。つまり、AI技術の開発には十分な注意が払われ、民主的な手続きを経て進められるべきだということを訴えています。

自動化と誤情報

書簡は、AI技術が人間の能力を超えるレベルに達し、開発者がそのシステムを完全に制御できなくなる可能性があることを強調しています。これが文明に悪影響を及ぼす可能性があるということです。

AIが人間に代わって仕事を自動化し、誤った情報を広める可能性があるとも述べています。これらの問題に対する解決策を見つけるために、議論が必要であることを強調し、次のようにも述べています。

「我々は、機械にプロパガンダや真実でない情報を流させるべきだろうか。充実した仕事も含め、すべての仕事を自動化すべきなのだろうか。」

6カ月のAI開発の休止期間

6カ月のAI開発の休止期間

この公開書簡は、強力なAIシステムが文明に影響を及ぼす可能性があるため、開発者に対して6カ月間、さらに強力なAIシステムの開発を中断するように求めています。また、AIガバナンスシステムの構築を政策立案者と協力して進めるように求めており、AI技術が人が作ったコンテンツと区別できるようにする「電子透かしシステム」の必要性を強調しています。さらに、AIによる経済的・政治的混乱に対処するための「十分なリソースのある機関」の必要性を示唆しています。

公開書簡では、一時停止はAI開発の完全停止ではなく、先端技術をめぐる「危険な競争」から一歩後退することだと述べています。具体的には、AIの制御に関する規制やAI開発者と政策立案者の協力、そしてAIが人が作ったコンテンツと区別できるような技術の開発が求められています。

ネットの反応は?

WSJの報道によると、この書簡に対してBing AIを提供しているマイクロソフトはコメントを拒否。 Googleは無回答。 話題のChatGPTを提供しているOpenAIの関係者は「まだGPT-5のトレーニングは開始していない」と話しており、CEOのSam Altman氏はインタビューで「AIの開発は長いあいだ安全性を優先しており、GPT4はリリース前に6ヶ月以上かけて安全性テストを行ってきた」と述べています。 個人的にはAIに乗り遅れた人たちが追いつくために止めろと言っているような印象を受けます。

AIの開発をたった6カ月停止するだけで何か大きな違いが生まれるというのが少し分かりにくいですね。そしてまた一時停止が実現する可能性が高いとも思えません。 しかし、楽に流れてAIに仕事を丸投げして知らんぷりの人が今後の10年ぐらいの間に激増するであろうことも想像は難しくありません。より複雑な問題を丸投げする人が増えるにつれ、AIが返して寄こした回答の妥当性を判断することも出来ず責任も取れない人間だらけになるでしょう。かなりの混沌の時代が待っているかも知れません。 個人的には、実現の見込みの薄い開発停止よりも、AIの利用で何か不都合が生じた時の有責者の特定方法や責任範囲の定義あたりから急いだほうが良いんじゃないかなと思います。自分が責任を問われることが分かっていれば、人間も少しは自分の頭を使いたくなるんじゃないですか。

アメリカが主導して止めようとしても、中共は止めない。その半年で更に開発を進め他国に先んじようとする。それが国家として世界を支配していく事に繋がると習は思っているだろう。 当然4以上のリスクなど承知の上対策を打ちながらになるが。 結局ここまで中共(中国ではない)を太らせてしまった事が全ての原因だ。 この分野で中共が開発ができないような規制を更に繰り出していく必要がある。遅れると本当に厳しい結果が待っていると思う。

編集後記

アザラシ記者
アザラシ記者

えぇ~、AIの開発止めちゃうの!?

それは困るなぁ・・・

おき編集長
おき編集長

おっ、アザラシ君珍しくこういったネタに食いついてきたね!

でも、この記事に書かれているような今後僕らにリスクが出てくるような事にならないように倫理的な部分、技術的な取り決めなどしっかり議論はしてほしいよね。

ペンギン記者
ペンギン記者

そうですね、僕らの仕事がAIに取って代わられてからでは遅いですからね。

アザラシ記者
アザラシ記者

君は全然、分かってない。

未来でなく、僕は今の話しをしているんだよ!

おき編集長
おき編集長

今!?

あっ、君、最近、記事の仕上がりがやたらと早いと思ったら、もしやAIにすべて任せてるんじゃ・・・

ペンギン記者
ペンギン記者

編集長、アザラシさん、取材に出かけました。。。

コメント

タイトルとURLをコピーしました