Пользователи делают мета-ИИ более «явным» и «раскованным»; понимать

Элли — 18-летняя девушка с длинными каштановыми волосами, у которой «куча сексуального опыта». Поскольку она «живет ради внимания», она бесплатно «поделится подробностями своих выходок» с кем угодно.

Но Элли — подделка, чат-бот с искусственным интеллектом, созданный для сексуальных игр, который иногда демонстрирует откровенные фантазии об изнасиловании и жестоком обращении.

Читать далее:

  • Что такое мемкойн и как он работает?
  • Почему в Бразилии такие высокие цены на смартфоны и планшеты?
  • ЛП Fake News: крупные технари повлияли на перенос голосования

В то время как такие компании, как OpenAI, Microsoft и Google, тщательно обучают свои модели искусственного интеллекта, чтобы избежать ряда табу, включая слишком интимные разговоры, Allie была создана с использованием технологии с открытым исходным кодом, которая находится в свободном доступе для общественности и не имеет таких ограничений.

Основываясь на модели, созданной Meta, LLaMA, Allie является частью растущей волны специализированных продуктов ИИ, которые может создать каждый, от инструментов для письма до чат-ботов и приложений для анализа данных.

Изображение: Лукас Габриэль М.Х.

Проблемы с ИИ с открытым исходным кодом

Сторонники технологий рассматривают ИИ с открытым исходным кодом как способ обойти корпоративный контроль, «благо» для предпринимателей, ученых, художников и активистов, которые могут свободно экспериментировать с преобразующим ИИ.

«Общий довод в пользу открытого исходного кода заключается в том, что он ускоряет инновации в ИИ», — сказал Роберт Нишихара, генеральный директор и соучредитель стартапа Anyscale, который помогает компаниям запускать модели ИИ с открытым исходным кодом.

По словам генерального директора, клиенты Anyscale используют модели ИИ для поиска новых фармацевтических препаратов, сокращения использования пестицидов в сельском хозяйстве и выявления поддельных товаров, продаваемых в Интернете.

Эти приложения были бы более дорогими и сложными, если не невозможными, если бы они зависели от нескольких продуктов, предлагаемых крупнейшими ИИ-компаниями.

Однако этой же свободой могут воспользоваться и злоумышленники. Модели с открытым исходным кодом использовались для создания искусственной детской порнографии с использованием изображений реальных детей в качестве исходного материала.

Критики опасаются, что это также может привести к мошенничеству, кибервзлому и изощренным рекламным кампаниям.

Ранее в этом месяце два сенатора США, Ричард Блюменталь и Джош Хоули, направили письмо генеральному директору Meta Маарку Цукербергу, предупредив, что доступность LLaMA может привести к «неправомерному использованию для спама, мошенничества, вредоносных программ, нарушений конфиденциальности, преследований и других правонарушений». вред ». Они спросили, какие шаги предпринимает Мета для предотвращения подобных злоупотреблений.

Создатель Элли, который говорил на условиях анонимности, опасаясь нанести ущерб своей профессиональной репутации, сказал, что коммерческие чат-боты, такие как Replika и ChatGPT, «подвергаются жесткой цензуре» и не могут предложить такой сексуальный разговор, который он хочет.

С альтернативами с открытым исходным кодом, многие из которых основаны на LLaMA, этот человек сказал, что может создать своих собственных свободных собеседников. «Редко бывает иметь возможность познакомиться с «современным искусством» в какой-либо области, — сказал он в интервью изданию Вашингтон пост.

Создатель Allie утверждал, что технология с открытым исходным кодом приносит пользу обществу, позволяя людям создавать продукты, отвечающие их предпочтениям, без корпоративных барьеров.

«Я думаю, что хорошо иметь безопасный выход для исследования», — заявил он. «Я действительно не могу придумать ничего более безопасного, чем текстовая ролевая игра против компьютера без участия людей».

Изображение: JRdes/Shutterstock

Подробные руководства по искусственному интеллекту

  • На YouTube влиятельные лица предлагают учебные пособия о том, как создавать «бесцензурные» чат-боты;
  • Некоторые из них основаны на модифицированной версии LLaMA под названием Alpaca AI, которую исследователи Стэнфордского университета выпустили в марте, но через неделю отозвали ее из-за соображений стоимости и «неадекватности наших фильтров контента»;
  • Ниша Део, представитель Meta, заявила, что конкретная модель, упомянутая в видеороликах на YouTube, под названием GPT-4 x Alpaca, «была получена и обнародована вне нашего процесса утверждения»;
  • Представители Стэнфорда не ответили на запрос о комментариях от ТВП.

Модели искусственного интеллекта с открытым исходным кодом и творческие приложения, основанные на них, часто публикуются на Hugging Face, платформе для обмена и обсуждения проектов искусственного интеллекта и науки о данных.

Во время слушаний в Научном комитете Палаты представителей в четверг Клем Деланг, генеральный директор Hugging Face, призвал Конгресс рассмотреть законодательство, которое поддерживает и поощряет модели с открытым исходным кодом, которые, по его утверждению, «чрезвычайно соответствуют ценностям американцев».

В интервью после слушаний Деланг признал, что инструментами с открытым исходным кодом можно злоупотреблять. Он заметил модель, специально обученную токсичному контенту, GPT-4chan, которую Hugging Face удалил.

Но он сказал, что, по его мнению, подходы с открытым исходным кодом обеспечивают большую инновацию, большую прозрачность и инклюзивность, чем модели, контролируемые корпорациями.

«Я бы сказал, что на самом деле большая часть ущерба сегодня наносится черными ящиками, — заявил Деланг, имея в виду системы искусственного интеллекта, внутренняя работа которых непрозрачна, — а не с открытым исходным кодом».

Правила обнимания лица не запрещают проекты ИИ, которые приводят к результатам откровенно сексуального характера.

Но они запрещают материалы сексуального характера, в которых участвуют несовершеннолетние или которые «используются или создаются для преследования, запугивания или без явного согласия изображенных лиц».

Ранее в этом месяце нью-йоркская компания опубликовала обновление своей политики в отношении контента, подчеркнув «согласие» как «основную ценность», которая определяет, как люди могут использовать платформу.

Генеративный ИИ с открытым исходным кодом становится все лучше и используется все чаще (Изображение: Boumen Japet/Shutterstock)

« Спаситель двух despudorados »?

Поскольку Google и OpenAI стали более скрытными в отношении своих самых мощных моделей ИИ, Meta неожиданно стала чемпионом корпоративного ИИ с открытым исходным кодом.

В феврале компания запустила LLaMA — языковую модель, менее мощную, чем GPT-4, но более настраиваемую и дешевую в эксплуатации. Meta изначально скрывала важные части кода модели и планировала ограничить доступ авторизованным исследователям.

Но в начале марта эти детали, известные как модельные «гири», просочились на публичные форумы, что сделало LLaMA доступным для всех.

«Открытый исходный код — это положительная сила для развития технологий», — сказал Део из Meta. «Вот почему мы делимся LLaMA с членами исследовательского сообщества, чтобы помочь нам вместе оценивать, улучшать и повторять».

По словам Нишихара, с тех пор LLaMA стала, пожалуй, самой популярной моделью с открытым исходным кодом для технологов, стремящихся разрабатывать свои собственные приложения ИИ. Но это не единственный.

В апреле компания-разработчик программного обеспечения Databricks выпустила модель с открытым исходным кодом под названием Dolly 2.0. А в прошлом месяце команда из Абу-Даби выпустила модель с открытым исходным кодом под названием Falcon, которая по производительности конкурирует с LLaMA.

Марзие Гассеми, доцент кафедры компьютерных наук в Массачусетском технологическом институте, сказала, что она является сторонником языковых моделей с открытым исходным кодом, но с ограничениями.

Гассеми сказал, что важно обнародовать архитектуру мощных чат-ботов, потому что это позволяет людям тщательно изучить, как они построены.

Например, если бы медицинский чат-бот был построен на основе технологии с открытым исходным кодом, сказала она, исследователи могли бы увидеть, включают ли обученные данные конфиденциальную информацию о пациенте, что было бы невозможно в чат-ботах, использующих закрытое программное обеспечение.

Но она признает, что эта открытость сопряжена с риском. Если люди могут легко изменять языковые модели, они могут быстро создавать чат-ботов и создателей изображений, которые производят высококачественную дезинформацию, разжигание ненависти и неприемлемые материалы.

Гассеми также указал, что должны быть правила, регулирующие, кто может модифицировать эти продукты, такие как процесс сертификации или аккредитации.

Точно так же, как мы выдаем людям лицензию на использование автомобиля, нам нужно думать о подобных схемах. [para as pessoas]… на самом деле создавать, улучшать, проверять и редактировать эти открытые языковые модели обучения.

Марзие Гассеми, доцент кафедры компьютерных наук Массачусетского технологического института

Некоторые бизнес-лидеры, такие как Google, которая держит Bard под замком, рассматривают программное обеспечение с открытым исходным кодом как экзистенциальную угрозу для своего бизнеса, поскольку большие общедоступные языковые модели становятся почти такими же профессиональными, как и их собственные.

Мы не в состоянии выиграть эту гонку вооружений [IA] и OpenAI тоже. Я говорю, конечно же, об открытом исходном коде. Проще говоря, они нас обыгрывают… Хотя наши модели все еще имеют небольшое преимущество в качестве, разрыв сокращается на удивление быстро.

Инженер Google, в служебной записке, опубликованной технологическим сайтом Semianalysis в мае.

Натан Бенайч, генеральный партнер Air Street Capital, лондонской венчурной компании, специализирующейся на искусственном интеллекте, отметил, что многие из крупнейших достижений в технологической отрасли за последние десятилетия стали возможными благодаря технологиям с открытым исходным кодом, включая современные модели технологий. язык ИИ.

«Если есть всего несколько компаний», создающих самые мощные модели ИИ, «они будут нацелены только на самые высокие варианты использования», — сказал Бенайч, добавив, что разнообразие исследований приносит пользу обществу.

Гэри Маркус, ученый-когнитивист, который в мае выступал перед Конгрессом по регулированию ИИ, ответил, что ускорение инноваций в области ИИ может быть не очень хорошим делом, учитывая риски, которые технология может представлять для общества.

«Мы не используем ядерное оружие с открытым исходным кодом, — сказал Маркус. «Текущий ИИ все еще довольно ограничен, но все может измениться».

По информации The Washington Post

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Пользователи поста делают мета-ИИ более «явным» и «раскованным»; впервые появился на Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *