GPT-4 — предел: эксперты и деятели вроде Илона Маска просят приостановить разработку ИИ, чтобы избежать рисков в обществе

Как разработка в области искусственного интеллекта прогрессирует, мы также достигаем предела, который специалисты считают безопасным. Илон Маск, член-учредитель OpenAI, создатели ChatGPT вместе с другими экспертами в области ИИ опубликовали довольно тревожное заявление, в котором излагаются риски для общества.

GPT-4 считается последним безопасным стандартом на данный момент и жесткая гонка за развитием ИИ в лабораториях вышла из-под контроля из-за конкуренции, где могут быть необратимые последствия.

эксперты и деятели вроде Илона Маска просят приостановить разработку ИИ

Чаты с искусственным интеллектом «опасны для общества»

Любой технический прогресс может представлять риск, но прогнозы некоторых экспертов в этой области вызывают тревогу. Несколько дней назад мы поздравили себя с GPT-4 и его возможностями для реализации в ChatGPT, но кажется, что существует барьер между

In Открытое письмо , Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли звонят на полугодовую паузу в разработке системы более мощные, чем недавно выпущенный OpenAI GPT-4: «Мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта, более мощных, чем GPT-4, не менее чем на 6 месяцев».

GPT-4

Причинами запроса об этой паузе в развитии являются то, что считается, что они представляют серьезную опасность для общества и человечества. «Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его необходимо планировать и управлять им с осторожностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, и даже в последние месяцы лаборатории искусственного интеллекта неконтролируемая гонка за разработку и развертывание все более мощных цифровых умов которые никто, даже их создатели, не может понять. надежно прогнозировать или контролировать .

Перерыв 6 месяцев необходим

Принимая во внимание, что конкуренция за разработку систем на базе искусственного интеллекта — это действительно новый бум, в котором принимает участие множество новых игроков, мораторий на 6 месяцев запрашивается

Причины этого возникают из ряда вопросов о том, как эта технология может развиваться, причем некоторые из них ближе к Скайнету в Терминаторе: Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые могли бы в конечном итоге превзойти нас численностью, перехитрить нас, устареть и заменить нас? Должны ли мы рисковать потеря контроля над нашей цивилизацией ?

ChatGPT

В свете этих опасений всем лабораториям ИИ предлагается немедленно приостановить как минимум на 6 месяцев обучение работе с системами ИИ мощнее ГПТ-4. На самом деле к этому так настоятельно призывают, что, если такая пауза не происходит в частном порядке в каждом случае, они считают, что правительства должны вмешаться и ввести мораторий.

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные системы следующего поколения более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, надежными и лояльными.