В своем выступлении на Bloomberg Technology Summit генеральный директор OpenAI Сэм Альтман сказал, что быстрый прогресс технологий искусственного интеллекта «может пойти не так». Но он защищал, что преимущества технологий больше, чем затраты.

Мы работаем с опасными технологиями, которые слишком часто могут использоваться опасным образом.

Читать далее:

Несмотря на потенциальную опасность, руководитель рассказал о сферах, которые могут извлечь выгоду из ИИ, таких как образование, медицина и наука.

Я думаю, что преимущества здесь огромны, вы знаете, что у каждого на Земле есть возможность получить более качественное образование, чем любой может получить сегодня. Сделать медицинскую помощь действительно доступной во всем мире. Это будет трансформировать. Мы увидим научный прогресс — я твердо верю, что реальное и устойчивое улучшение качества жизни связано с научно-техническим прогрессом. Я думаю, было бы хорошо покончить с бедностью.

Сэм Альтман, во время технологического саммита Bloomberg.

На вопрос ведущей Bloomberg Эмили Чанг о его нынешней власти и о том, почему они должны ему доверять, Альтман ответил:

Здесь нельзя доверять никому. Я думаю, это важно. Мы думаем, что эта технология, преимущества, доступ к ней, управление ею принадлежат человечеству в целом. Если это действительно работает, то это довольно мощная технология, и вы не должны доверять компании, не говоря уже о человеке.

Сэм Альтман

OpenAI пытается повлиять на регулирование ИИ в Европе

  • OpenAI пытался повлиять на Европейский Союз, чтобы Закон об ИИ не так сильно повлиял на компанию, владеющую ChatGPT. Информация взята из документов, с которыми ознакомился журнал Time.
  • Согласно публикации, они раскрывают лоббирование OpenAI с целью смягчить важные элементы законодательства;
  • Некоторые изменения, предложенные OpenAI, присутствуют в окончательном тексте закона, принятом в прошлую среду (14);
  • Перед принятием законодатели обсуждали, должен ли Закон об ИИ классифицировать все системы искусственного интеллекта общего назначения, такие как ChatGPT и Dall-E OpenAI, как инструменты «высокого риска»;
  • В отчете показано, что OpenAI боролась за то, чтобы системы генеративного ИИ не подпадали под эту категорию закона;
  • Ознакомьтесь с полной статьей для получения дополнительной информации.

По информации Bloomberg и Fast Company.

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *