ChatGPT сделал возможным использование искусственного интеллекта (ИИ) для широкой публики, но его «внутренности» до сих пор остаются секретом.

В последние месяцы была предпринята попытка сделать ИИ более открытым. В мае, по данным ПРОВОДНОЙкто-то слил Llama, шаблон Meta, предоставляющий посторонним доступ к коду компании, а также к ее поведению.

Читать далее:

В июле Meta пошла дальше и создала Llama 2, более мощную и доступную для скачивания, изменения и повторного использования.

Метамодели стали популярны как основа для компаний, исследователей и любителей создавать инструменты и приложения с возможностями ChatGPT.

У нас есть широкий круг сторонников по всему миру, которые верят в наш открытый подход к ИИ сегодня… исследователи, которые привержены проведению исследований с использованием этой модели, а также люди из технологий, научных кругов и политиков, которые видят преимущества Llama и открытого подхода, когда мы делать.

Цель, когда вышла Llama 2

На этой неделе Meta выпустила еще одну модель — Llama 2 Code, доработанную для кодирования.

Может показаться, что подход с открытым исходным кодом, который на протяжении десятилетий демократизировал доступ к программному обеспечению, обеспечивал прозрачность и повышал безопасность, теперь может оказать аналогичное влияние на ИИ.

  • Не так быстро, говорит группа, стоящая за исследовательской работой, изучающей реальность Llama 2 и других моделей ИИ, которые так или иначе описываются как «открытые»;
  • Исследователи из Университета Карнеги-Меллона, Института AI Now и Signal Foundation говорят, что модели с пометкой «открытые» могут иметь проблемы;
  • Llama 2 можно бесплатно загрузить, изменить и развернуть, но на нее не распространяется обычная лицензия с открытым исходным кодом;
  • Лицензия Meta запрещает использование Llama 2 для обучения других языковых моделей и требует специальной лицензии, если разработчик развертывает ее в приложении или сервисе с более чем 700 миллионами пользователей в день.

Такой уровень контроля означает, что Llama 2 может предоставить Meta значительные технические и стратегические преимущества – например, позволяя компании получать выгоду от полезных настроек, внесенных внешними разработчиками, когда она использует эту модель в своих собственных приложениях.

По словам исследователей, модели, выпущенные по обычным лицензиям с открытым исходным кодом, такие как GPT Neo от некоммерческой организации EleutherAI, являются более открытыми. Но таким проектам сложно находиться на равных.

  • Во-первых, данные, необходимые для обучения продвинутых моделей, часто держатся в секрете;
  • Во-вторых, программные платформы, необходимые для построения таких моделей, часто контролируются крупными корпорациями. Два самых популярных из них, TensorFlow и Pytorch, поддерживаются Google и Meta соответственно;
  • В-третьих, вычислительная мощность, необходимая для обучения большой модели, также находится за пределами досягаемости любого обычного разработчика или компании, и обычно для одного обучающего прогона требуются десятки или сотни миллионов долларов;
  • И, наконец, человеческий труд, необходимый для совершенствования и улучшения этих моделей, также является ресурсом, который по большей части доступен только крупным компаниям, имеющим финансовые ресурсы.

По мере развития событий одна из самых важных технологий за последние десятилетия может в конечном итоге обогатить и расширить возможности лишь горстки компаний, включая OpenAI, Microsoft, Meta и Google.

Если ИИ действительно является технологией, меняющей мир, то наибольшие преимущества можно было бы ощутить, если бы он стал более широко доступным.

«Наш анализ показывает, что открытость не только не способна «демократизировать» ИИ», — говорит мне Мередит Уиттакер, президент Signal и один из исследователей, стоящих за статьей. «Фактически, мы показываем, что компании и учреждения могут и используют «открытые» технологии для консолидации и расширения централизованной власти».

Уиттакер добавляет, что миф об открытости должен стать фактором столь необходимого регулирования ИИ. «Нам срочно нужны значимые альтернативы технологиям, определяемым и доминируемым крупными компаниями-монополистами, особенно потому, что системы искусственного интеллекта встроены во многие весьма чувствительные области с особым общественным воздействием: в здравоохранении, финансах, образовании и на рабочем месте», — говорит она.

«Создание условий, делающих такие альтернативы возможными, — это проект, который может сосуществовать и даже поддерживаться регулирующими движениями, такими как антимонопольные реформы».

Помимо использования возможностей крупных компаний, повышение открытости ИИ может иметь решающее значение для раскрытия лучшего потенциала технологии и предотвращения ее худших тенденций.

Если мы хотим понять, насколько эффективны самые передовые модели ИИ, и снизить риски, которые могут возникнуть в результате их внедрения и дальнейшего прогресса, возможно, лучше всего сделать их открытыми для ученых со всего мира.

Точно так же, как защита от неизвестности никогда не гарантирует безопасную работу кода, обеспечение безопасности работы мощных моделей ИИ, возможно, не самый разумный способ действовать.

Вы смотрели новые видео на YouTube цифрового взгляда? Подпишитесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *