OpenAI анонсировала свою последнюю языковую модель GPT-4

OpenAI анонсировал GPT-4, свою долгожданную языковую модель ИИ нового поколения.

Возможности системы все еще оцениваются, но пока исследователи и эксперты изучают сопроводительные материалы, многие выразили разочарование одной особенностью: несмотря на название материнской компании, GPT-4 не является открытой моделью ИИ.

OpenAI поделилась большим количеством эталонных и тестовых результатов для GPT-4, а также некоторыми интригующими демонстрациями, но не предоставила практически никакой информации о данных, использованных для обучения системы, ее энергозатратах, конкретном оборудовании или методах, использованных для ее создания.

Многие представители сообщества ИИ критикуют это решение, отмечая, что оно подрывает основополагающую этику компании как исследовательской организации и затрудняет копирование ее работы другими. Возможно, более существенным является то, что, по мнению некоторых, это также затрудняет разработку мер защиты от угроз, которые представляют системы ИИ, подобные GPT-4, причем эти жалобы поступают в период растущей напряженности и быстрого прогресса в мире ИИ.

«Я думаю, мы можем считать, что вопрос об «открытом» ИИ закрыт: в 98-страничном документе, представляющем GPT-4, гордо заявляется, что они не раскрывают “ничего” о содержимом своего обучающего набора», — написал Бен Шмидт, вице-президент по информационному дизайну Nomic AI, в своем твиттере.

Шмидт ссылается на раздел технического отчета GPT-4, который гласит следующее:

Учитывая конкурентную среду и последствия для безопасности таких крупномасштабных моделей, как GPT-4, данный отчет не содержит дальнейших подробностей об архитектуре (включая размер модели), аппаратном обеспечении, обучающих вычислениях, построении набора данных, методе обучения и т.п.».

В интервью “СМИ” Суцкевер, главный ученый и соучредитель OpenAI, рассказал об этом подробнее. Суцкевер сказал, что причины, по которым OpenAI не делится более подробной информацией о GPT-4 — боязнь конкуренции и опасения по поводу безопасности — «очевидны»:

«Что касается конкуренции — она там очень высока», — сказал Суцкевер. «GPT-4 нелегко разрабатывать. Для его создания потребовалось почти все члены OpenAI, работавшие вместе в течение очень долгого времени. И есть много компаний, которые хотят сделать то же самое, так что с точки зрения конкуренции это можно рассматривать как созревание области».

«Что касается безопасности, я бы сказал, что безопасность пока не является такой весомой причиной, как конкурентоспособность. Но это будет меняться, и в основном следующим образом. Эти модели очень мощные, и они становятся все мощнее и мощнее. В какой-то момент при желании будет довольно легко причинить большой вред с помощью этих моделей. И поскольку возможности становятся все выше, логично, что вы не захотите их раскрывать».

Закрытый подход — это заметное изменение для OpenAI, которая была основана в 2015 году небольшой группой, включавшей нынешнего генерального директора Сэма Альтмана, генерального директора Tesla Илона Маска (который вышел из состава совета директоров в 2018 году) и Суцкевера. Во вступительной записи в блоге  Суцкевер и другие заявили, что целью организации является «создание ценности для всех, а не для акционеров», и что для этого она будет «свободно сотрудничать «с другими специалистами в этой области. OpenAI была основана как некоммерческая организация, но позже стала» организацией с ограниченной прибылью», чтобы получить миллиардные инвестиции, в основном от Microsoft, с которой у нее сейчас эксклюзивные бизнес-лицензии.

На вопрос, почему OpenAI изменила свой подход к распространению результатов исследований, Суцкевер ответил просто: «Мы были неправы. Мы были неправы. Если вы верите, как и мы, что в какой-то момент ИИ — AGI — станет чрезвычайно, невероятно мощным, тогда просто не имеет смысла открывать исходный код. Это плохая идея… Я полностью ожидаю, что через несколько лет всем станет совершенно очевидно, что открытая разработка ИИ — это просто неразумно».

Мнения в сообществе ИИ по этому вопросу разнятся. Примечательно, что запуск GPT-4 произошел всего через несколько недель после утечки в Интернет другой языковой модели ИИ, разработанной владельцем Facebook компанией Meta, под названием LLaMA, что вызвало аналогичные дискуссии об угрозах и преимуществах исследований с открытым исходным кодом. Однако большинство первых реакций на закрытую модель GPT-4 были негативными.

В беседе с “СМИ” через DM, Шмидт из Nomic AI объяснил, что отсутствие возможности увидеть, на каких данных обучалась GPT-4, затрудняет понимание того, где систему можно безопасно использовать и придумывать исправления.

«Чтобы люди могли принимать обоснованные решения о том, где эта модель не будет работать, им нужно лучше понимать, что она делает и какие предположения в ней заложены», — сказал Шмидт. «Я бы не стал доверять самодвижущемуся автомобилю, обученному без опыта работы в снежном климате; вполне вероятно, что есть какие-то дыры или другие проблемы, которые могут всплыть при использовании этой модели в реальных ситуациях».

Уильям Фалкон, генеральный директор Lightning AI и создатель инструмента с открытым исходным кодом PyTorch Lightning, сказал Venture Beat, что он понимает решение с точки зрения бизнеса. («Вы имеете полное право поступить так как компания»), но он также сказал, что этот шаг создает «плохой прецедент» для более широкого сообщества и может иметь вредные последствия.

«Если эта модель пойдет не так, а она пойдет, вы уже видели это на примере галлюцинаций и предоставления ложной информации, как должно реагировать общество?» — сказал Фалькон. «Как этичные исследователи должны пойти и предложить решения и сказал: «Этот способ не работает, может, подправить его, чтобы сделать что-то другое?».

Другая причина, по которой OpenAI скрывает детали конструкции GPT-4, по мнению некоторых, — юридическая ответственность. Языковые модели ИИ обучаются на огромных текстовых базах данных, причем многие из них (включая ранние системы GPT) берут информацию из Интернета — источника, который, вероятно, включает материалы, защищенные авторским правом. Генераторы изображений ИИ, также обученные на контенте из Интернета, столкнулись с юридическими проблемами именно по этой причине, причем несколько компаний в настоящее время судятся с независимыми художниками и сайтом стоковых фотографий Getty Images.

Когда Суцкевера спросили, не является ли это одной из причин, по которой OpenAI не делится своими обучающими данными, он ответил: «Я считаю, что обучающие данные — это технология. Это может выглядеть не так, но это так. И причина, по которой мы не раскрываем данные для обучения, практически та же, что и причина, по которой мы не раскрываем количество параметров». Суцкевер не ответил на вопрос, может ли OpenAI однозначно утверждать, что ее обучающие данные не содержат пиратских материалов.

Суцкевер согласился с критиками OpenAI в том, что в идее о том, что открытый доступ к моделям помогает разработать средства защиты, есть «заслуга». «Если бы больше людей изучали эти модели, мы бы узнали о них больше, и это было бы хорошо», — сказал он. Но OpenAI предоставила определенным академическим и исследовательским институтам доступ к своим системам именно по этим причинам.

Дискуссия о совместном использовании результатов исследований происходит в период стремительных перемен в мире ИИ, когда давление усиливается по нескольким направлениям. С корпоративной стороны такие технологические гиганты, как Google и Microsoft, спешат добавить функции ИИ в свои продукты, зачастую оттесняя на второй план прежние этические проблемы. (Недавно компания Microsoft уволила команду, которая занималась обеспечением того, чтобы ее продукты ИИ соответствовали этическим нормам). Что касается исследований, то сама технология, как представляется, быстро совершенствуется, вызывая опасения, что ИИ становится серьезной и неизбежной угрозой.

По словам Джесс Уиттлстоун, руководителя отдела политики в области ИИ британского аналитического центра The Centre for Long-Term Resilience, балансирование между этими различными нагрузками представляет собой серьезную управленческую задачу, и, по ее мнению, к ее решению, скорее всего, придется привлечь сторонние регулирующие органы.

«Мы видим, что эти возможности ИИ развиваются очень быстро, и я в целом обеспокоена тем, что эти возможности развиваются быстрее, чем мы можем адаптироваться к ним как общество», — сказала Уиттлстоун в интервью “СМИ”. Она сказала, что причины OpenAI не делиться подробностями о GPT-4 хороши, но есть и обоснованные опасения по поводу централизации власти в мире ИИ.

«Принятие таких решений не должно зависеть от отдельных компаний», — сказала Уиттлстоун. «В идеале нам нужно кодифицировать практику, а затем предоставить независимым третьим сторонам возможность играть более активную роль в тщательном изучении рисков, связанных с определенными моделями, и в том, имеет ли смысл выпускать их в свет».

Поделись с друзьями — нажми на одну из кнопок ниже!