Почему Илон Маск потребовал остановить развитие ChatGPT
Более тысячи учёных и технологов, включая Илона Маска, Стива Возняка и даже генерального директора Stability AI Эмода Мастака, призывают приостановить разработку искусственного интеллекта, ссылаясь на риск для человечества. Об этом стало известно из открытого письма, которое подписали учёные.
Не так давно Маск набирал команду для разработки конкурента ChatGPT, а ранее был даже соучредителем OpenAI, но в 2018 году покинул стартап, назвав его «ужасно хорошим».
Что же побудило ведущего инженера мира забеспокоиться о чрезмерно развивающемся искусственном интеллекте (ИИ) и подписать открытое письмо?
Опасность ИИ для человечества
«Мы можем наслаждаться «летом ИИ», пожиная плоды, разработанные этой системой, но при этом давая шанс обществу адаптироваться. Другие потенциально опасные технологии общество поставило на паузу, точно так же нам надо поступить и с искусственным интеллектом – наслаждаться долгим «летом» с ИИ, а не бросаться в «осень» неподготовленными», – говорится в открытом письме.
В письме, опубликованном некоммерческим институтом future of life, приводятся исследования, которые говорят о серьёзной опасности для человечества. В нём подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений. Также в нём содержится призыв к разработчикам работать с политиками над управлением и регулирующими органами ИИ. Однако сейчас, к сожалению, нет ничего, что могло бы это регулировать, отмечается в письме. Сегодня лаборатории застряли в погоне за разработкой все более мощных цифровых умов, которые никто — даже их создатели — не может надежно контролировать.
Глава компании OpenAI Сэм Альтман признается, что и сам «немного боится», что ИИ может негативно сказаться на обществе:
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми».
В письме спрашивается, должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли автоматизировать все рабочие места? Должны ли развивать нечеловеческие умы, которые в конечном итоге могут превзойти человечество численностью и заменить его? Должны ли мы рисковать потерей контроля над нашей цивилизацией?
В недавнем заявлении OpenAI относительно искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, а для достижения наилучших результатов нужно ограничить скорость создания новых моделей ИИ».
Что теперь будет с ИИ
В письме призывают все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.
Эта пауза должна использоваться для разработки и внедрения протоколов безопасности для усовершенствованного проектирования искусственного интеллекта. Эти протоколы должны тщательно контролироваться независимыми внешними экспертами, а также давать гарантии, что системы, придерживающиеся их, безопасны.
«Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к ящику Пандоры, который вскроет непредсказуемые последствия», – утверждается в открытом письме.
По данным исследования Goldman Sachs, искусственный интеллект может заменить 300 млн рабочих мест в США и ЕС.
Ожидается, что больше всего пострадают административный и юридический секторы: ИИ заменит 46% административных и 44% юридических должностей. А такие области, как строительство и техническое обслуживание, подвержены замене всего лишь на 4% и 6% соответственно. И только 5% могут быть полностью заменены ИИ на сегодня.
В издании отметили, что компания OpenAI, которая разработала GPT-4, сообщила, что 80% рабочей силы США или, как минимум, 10% задач уже сейчас может перевести на искусственный интеллект.