Больше вакансий закрыто? OpenAI хочет, чтобы GPT-4 модерировал контент вместо людей

OpenAI, которой принадлежит ChatGPT, заявила, что инструмент, на котором работает чат-бот, GPT-4, может выполнять больше человеческой работы.

В этом случае компания утверждает, что может модерировать контент очень точно, последовательно и без эмоциональной стороны, которую люди в конечном итоге поднимают, когда вынуждены часами смотреть жестокий и оскорбительный контент.

Читать далее:

  • ChatGPT: 10 плагинов, которые изменят ваше использование ИИ
  • Почему в Бразилии такие высокие цены на смартфоны и планшеты?
  • ChatGPT и Bard по-прежнему распространяют ложь, считает аудит

ИИ как модератор?

  • Продвижение OpenAI является примером компаний, владеющих технологией, рекламирующей искусственный интеллект (ИИ) как необходимый для решения проблем, созданных (или усугубленных) самим ИИ;
  • Компания Сэма Альтмана утверждает, что использует разработанную ею систему модерации контента;
  • Он основан на GPT-4, последней языковой модели, выпущенной компанией;
  • В своем использовании OpenAI определил, что он может быть лучше, чем модератор-человек с простым обучением, хотя он не так эффективен, как многие специализированные люди.

Система была смоделирована таким образом, чтобы выполнять ряд шагов в процессе выявления и удаления проблемного контента; от разработки политик модерации до их реализации.

Об этом заявила глава отдела безопасности OpenAI Лилиан Венг. Аксиос что «не нужно нанимать десятки тысяч модераторов». Для Венга люди могут выступать в качестве советников, которые могут обеспечить правильную работу системы на основе ИИ и выносить решения по деликатным делам.

Человеческая умеренность в центре спора

Модерация контента уже была серьезной проблемой еще до появления генеративного ИИ.

Фактически, контент, который они вынуждены модерировать, оказывает психологическое воздействие на многих людей. В мае этого года модераторы Facebook в Кении потребовали повышения зарплаты и подали в суд на Meta за плохие условия труда и увольнения.

Новые технологии могут усугубить проблемы, упрощая создание дезинформации и другого нежелательного контента.

Однако когда-то некоторые эксперты по технологиям рассматривали ИИ как единственный вероятный ответ на ожидаемый рост дезинформации из-за его способности масштабироваться.

Компании, работающие в социальных сетях, уже сильно зависят от старых технологий искусственного интеллекта, таких как машинное обучение.машинное обучение), чтобы анализировать контент, выходящий за рамки его правил.

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Сообщение Больше вакансий закрыто? OpenAI хочет, чтобы контент для модерации GPT-4 вместо людей впервые появился в Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *