Как разработка в области искусственного интеллекта прогрессирует, мы также достигаем предела, который специалисты считают безопасным. Илон Маск, член-учредитель OpenAI, создатели ChatGPT вместе с другими экспертами в области ИИ опубликовали довольно тревожное заявление, в котором излагаются риски для общества.
GPT-4 считается последним безопасным стандартом на данный момент и жесткая гонка за развитием ИИ в лабораториях вышла из-под контроля из-за конкуренции, где могут быть необратимые последствия.
Чаты с искусственным интеллектом «опасны для общества»
Любой технический прогресс может представлять риск, но прогнозы некоторых экспертов в этой области вызывают тревогу. Несколько дней назад мы поздравили себя с GPT-4 и его возможностями для реализации в ChatGPT, но кажется, что существует барьер между
In Открытое письмо , Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли звонят на полугодовую паузу в разработке системы более мощные, чем недавно выпущенный OpenAI GPT-4: «Мы призываем все лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта, более мощных, чем GPT-4, не менее чем на 6 месяцев».
Причинами запроса об этой паузе в развитии являются то, что считается, что они представляют серьезную опасность для общества и человечества. «Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его необходимо планировать и управлять им с осторожностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, и даже в последние месяцы лаборатории искусственного интеллекта неконтролируемая гонка за разработку и развертывание все более мощных цифровых умов которые никто, даже их создатели, не может понять. надежно прогнозировать или контролировать .
Перерыв 6 месяцев необходим
Принимая во внимание, что конкуренция за разработку систем на базе искусственного интеллекта — это действительно новый бум, в котором принимает участие множество новых игроков, мораторий на 6 месяцев запрашивается
Причины этого возникают из ряда вопросов о том, как эта технология может развиваться, причем некоторые из них ближе к Скайнету в Терминаторе: Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать все рабочие места? Должны ли мы развивать нечеловеческие умы, которые могли бы в конечном итоге превзойти нас численностью, перехитрить нас, устареть и заменить нас? Должны ли мы рисковать потеря контроля над нашей цивилизацией ?
В свете этих опасений всем лабораториям ИИ предлагается немедленно приостановить как минимум на 6 месяцев обучение работе с системами ИИ мощнее ГПТ-4. На самом деле к этому так настоятельно призывают, что, если такая пауза не происходит в частном порядке в каждом случае, они считают, что правительства должны вмешаться и ввести мораторий.
Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные системы следующего поколения более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, надежными и лояльными.