GPT-4 が限界: イーロン マスクのような専門家や人物は、社会のリスクを回避するために AI 開発を一時停止するよう求めています

として 人工知能の開発 進行すると、専門家が安全と見なす限界にも達します。 ChatGPT の作成者である OpenAI の創設メンバーであるイーロン マスクは、他の AI 専門家とともに、社会にとってどのようなリスクが生じるかを検討するという、かなり憂慮すべき声明を発表しました。

GPT-4 は最後の安全な規格と見なされています 当分の間、研究所での AI 開発の熾烈な競争は、取り返しのつかない結果が生じる可能性がある競争のために制御不能な段階に入りました。

イーロン・マスクのような専門家や人物が AI 開発の一時停止を求める

AIチャットは「社会へのリスク」

技術の進歩はリスクをもたらす可能性がありますが、この分野の一部の専門家が行っている予測は驚くべきものです。 数日前、私たちは GPT-4 とその ChatGPT への実装の可能性を祝福しましたが、両者の間には障壁があるようです。

In 公開書簡 、Elon Musk、および AI の専門家と業界幹部のグループが呼びかけます。 開発のXNUMXか月の一時停止 最近リリースされた OpenAI の GPT-4 よりも強力なシステム: 「すべての AI ラボに、GPT-4 よりも強力な AI システムのトレーニングを少なくとも 6 か月間直ちに一時停止するよう要請します。」

GPT-4

この開発の一時停止を要求する理由は、それらが社会と人類に深刻なリスクをもたらすと考えられているためです。 「高度な AI は、地球上の生命の歴史に大きな変化をもたらす可能性があり、注意とリソースを使って計画および管理する必要があります。 残念ながら、このレベルの計画と管理は行われておらず、ここ数か月でさえ AI ラボが参入しています。 ますます強力なデジタルマインドを開発して展開するための制御不能な競争 誰も、作成者でさえも理解できません。 確実に予測または制御する .

6ヶ月の休憩が必要

人工知能を活用したシステムの開発競争は、まさに多くの新規プレイヤーが参加する新しいブームであることを念頭に置いて、 6ヶ月のモラトリアム 要求されます。

この理由は、このテクノロジーがどのように進化するかについての一連の疑問から生じており、そのうちのいくつかはターミネーターのスカイネットに近いものです。 機械がプロパガンダと虚偽で私たちの情報チャネルを氾濫させるべきですか? すべてのジョブを自動化する必要がありますか? 最終的に私たちを数で上回り、私たちを凌駕し、時代遅れになり、私たちに取って代わる可能性のある非人間的な心を開発する必要がありますか? 危険を冒すべきか 私たちの文明の支配を失う ?

ChatGPT

これらの懸念を考慮して、すべての AI ラボに次のことが求められています。 AI システムのトレーニングを少なくとも 6 か月間直ちに一時停止する GPT-4 よりも強力です。 実際、そのような一時停止がすべての場合に個人的に発生しない場合は、政府が介入してモラトリアムを設定する必要があると彼らは信じているほど緊急に求められています.

AI の研究開発は、今日の強力な次世代システムをより正確で、安全で、解釈可能で、透明性があり、堅牢で、整合性があり、信頼性が高く、忠実なものにすることに再び焦点を当てる必要があります。