私たちはAIを台無しにしており、それは私たちの命を奪います

突然、インターネットは何もないところから簡単にコンテンツを生成できる人工知能で満たされ、最も無邪気で技術に精通した人々がこれらの新しい技術の成果を応援しています. しかし、ベンおじさんが言うように。 「大いなる力には大いなる責任が伴います。」この点に関する危険性についてお話しするのに適切な時期であると考えています。 特に、という事実のために AIは失礼です。

Wall-E や GPT などの人工知能による自動コンテンツ ジェネレーターの登場により、多くの人が人工知能とは何かについて不思議に思うようになりました。 特定の取引の終了について話す人もいます。ある人は肯定的な方法で、他の人は否定的な方法で話します。 しかし、私たちにとっては問題の核心であり、基本的な問題がどこにあるのか.

私たちはAIを台無しにしており、それは私たちの命を奪います

なぜAIは誤解されているのですか?

人工知能の世界で最も成長している分野は、いわゆるディープ ラーニングまたはディープ ラーニングの分野です。これは、システムが最終的に検出するように、何らかの方法でシステムに大量のデータを与えることに基づいています。模様。 ただし、少ない情報で学習する能力はなく、多数のサンプルが必要です。

たとえば、あなたがかわいい猫を飼っていて、それを見たことがない非常に若い男の子または女の子にそれを見せたとします。 この最初の経験は、猫が何であるかとその特徴をその記憶に保存するのに役立ち、絵や彫刻などの他のメディアでそれを識別することができます. これはすべて、私たちの脳がその能力を持っているという事実によるものですが、残念ながら、コンピューターの場合、世界で最も強力なものでさえその能力を持っていません.

つまり、AIが深層学習を通じて猫の正体を特定するには、膨大な数の猫の写真が必要になります。 もちろん、私たちの例は完全に無害で無害です。 ただし、大量の情報を修正する必要があります。つまり、システムが結論付けた結論またはパターンが正しくないように選択する必要があります。 つまり、子供に特定のことを教えないのと同じように、AI が間違ったパターンを生成しないように、AI に対して失礼にならないようにすることにも関心があります。

ロボット アペンディエンド マレドゥカンド IA

インターネットはゴミの穴

さまざまな人工知能、特に会話型の人工知能を訓練するために、その作成者の多くは、時間とお金を節約するために、科学的に検証されたデータを使用して人工知能を訓練しないことを決定し、代わりに悲惨な結果以上のものをインターネット ユーザーの手に委ねています。 . 理由? 虚偽の未確認の情報とやり取りする人々から、性自認、性的指向、憎悪からの情報源として問題となる他の民族についてシステムに否定的な考えを持たせたい人々まで、想像することができます。 .

情報をキュレーションしないという事実は機密事項です。たとえば、AI にいくつかの異なるサンプルを使って人体を描くように教えることができます。 ただし、ヌードの使用が必要であることは誰もが知っています。 そして、より多くのヌード素材はどこにありますか? そうです、あなたはそれをポルノ業界で推測しました。 そのため、これらの画像でトレーニングされた AI が、元の素材に非常に似ているか、ソースの素材に大きく影響された画像を生成してしまう危険性があります。

そのため、AI に権限の基準を与えず、常に正しい情報で動作するようにすることが重要です。 多くの人はそれを検閲と見なしますが、それは未成年者を教育するときと同じプロセスです. つまり、インターネットは人工知能のデータベースとしてふさわしくないゴミの穴です。 したがって、学習パターンとして使用するデータの検証を確実にすることが重要です。

フェイク ニュース マレドゥカンド IA

いいえ、人工知能があなたの仕事を奪うことはありません

ここ数日、コンテンツの作成者にとって、文章であろうと画像の形であろうと、人工知能が私たちの仕事に取って代わるという事実のために、世界は終焉を迎えようとしているというマントラを繰り返すのをやめないことがわかりました. 彼らが気付いていないのは、これらの機械には創造する能力がなく、すでに生成されたものからの模倣要素としてしか機能できないということです. あれは、 彼らには創造的な能力がなく、能力が大幅に制限されます。

私たちは、人工知能に関してはまだ非常に環境に配慮しているという事実から始めなければなりません。また、近年発表されているものの多くは、私たちにとっては印象的であると思われるかもしれませんが、非常に初期の段階にあり、実際に行っています。持っていない 彼らはそれを信頼できる情報として扱う必要がありますが、非常に限られた、時には誤ったデータスペクトルから部分的な結論を導き出す AI の結論として扱う必要があります。

多くの人は、データをキュレーションして選択することは「表現の自由」に反することだと断言しますが、真実の情報について意見を述べるのと、虚偽または現実の部分的なビジョンから結論を引き出すのは別のことです。 このような時代には、私たちが使用するテクノロジーの限界を知ることが重要であり、人工知能をある種のオラクルまたは現実のリーダーであるかのように扱わないことが特に重要です.

IA アルテ

AIに失礼なことをすると悲惨な結果になる

多くの人にとっては冗談のように聞こえるかもしれませんが、応急処置アシスタントとして機能する人工知能を訓練することを想像してみてください。 つまり、人が怪我をした場合の対処法です。 選択されたデータが間違っていて、AI に対して無礼であることが判明した場合、AI は負傷者と支援者の両方に悲惨な結果をもたらす可能性のあるアドバイスを提供する可能性があります。

そして、それは唯一のケースではなく、特定のマイノリティに対する恐怖と恐怖は、情報と表現の自由として伝えられる可能性があり、これは、制御がなければ人命の形で代償を払う可能性もあります. 絶え間ない殺人と絶滅を忘れてはなりません。 ですから、インターネットで AI に失礼なことをするのは、私たちには大きな間違いのように思えます。 最終的には、非常に高価な費用を支払うことになります。なぜなら、反復パターンを見つける方法しか知らないシステムに権限を与えているからであり、それは意識的な知識という点ではオウムと変わらないからです。さらに知能が低い。

ボカ・ベルダッド