Дошли ли мы до настоящего «Терминатора»? OpenAI, создатели ChatGPT, создают суперкоманду, чтобы не допустить, чтобы новая технология искусственного интеллекта стала мошеннической и привела к вымиранию человечества, чего компания Сэма Альтмана действительно опасается.

Компания утверждает, что искусственный интеллект станет основой нового сверхразума, который поможет решить самые важные проблемы планеты и станет самой важной технологией, когда-либо изобретенной людьми.

Читать далее:

Кроме того, программисты Илья Суцкевер и Ян Лейке из OpenAI предупредили, что мы, люди, не приспособлены для работы с технологиями, которые умнее нас самих.

Огромная сила сверхразума может быть даже очень опасной и может привести к лишению человечества прав и возможностей или даже к вымиранию человечества. Хотя сверхразум сегодня кажется далеким, мы считаем, что он может появиться уже в этом десятилетии.

Илья Суцкевер и Ян Лейке, em post no blog da OpenAI

Если искусственный интеллект, способный спровоцировать апокалипсис, не за горами, самые яркие умы OpenAI говорят, что у них нет планов его остановить.

Сегодня у нас нет решений, позволяющих направлять или контролировать потенциальный сверхразумный ИИ и предотвращать его выход из-под контроля. Наши текущие методы согласования ИИ, такие как подкрепление обучения обратной связью с человеком, полагаются на способность людей контролировать ИИ. Но людимы не сможем надежно контролировать системы ИИ, которые умнее нас.

Илья Суцкевер и Ян Лейке, em post no blog da OpenAI

  • Суцкевер — соучредитель OpenAI и главный научный сотрудник компании, а Лейке — руководитель компании по согласованию;
  • Они утверждали, что собирают новую команду исследователей и инженеров, чтобы помочь предотвратить апокалипсис;
  • Команда должна решить технические задачи сверхразума;
  • Дуэт OpenAI дал команде четыре года на решение задачи.

Есть надежда?

Хотя окончательный конец человечества был бы ужасным событием, боссы OpenAI надеются, что они решат проблему.

Хотя цель невероятно неоднозначна, и мы не уверены, что добьемся успеха, мы с оптимизмом смотрим на то, что целенаправленные и согласованные усилия могут решить эту проблему. Есть много идей, которые показали себя многообещающе в предварительных экспериментах, у нас есть все больше и больше полезных показателей для продвижения вперед, и мы можем использовать текущие модели для эмпирического изучения многих из этих проблем.

Илья Суцкевер и Ян Лейке, em post no blog da OpenAI

Суцкевер и Лейке заявили, что намерены широко делиться результатами своей работы. Они также заявили, что OpenAI нанимает инженеров-исследователей, ученых и менеджеров, которые хотят помочь обратить против него беспрецедентные новые технологии, созданные человечеством.

Страх и в политике

Вашингтонские законодатели также очень обеспокоены опасностью ИИ. Лидер Сената Чарльз Э. Шуммер призвал к принятию новых законов, регулирующих технологию, а Судебный комитет Сената стал центром слушаний по надзору за ИИ.

Растущее расследование комитета в отношении ИИ включало в себя исследования того, что ИИ может спровоцировать кибератаки, дестабилизацию полиции и развертывание оружия массового уничтожения.

Сэм Альтман призвал к принятию правил, когда в мае давал показания перед Судебным подкомитетом Сената по вопросам конфиденциальности, технологий и права. Генеральный директор OpenAI сказал, что у него есть опасения по поводу потенциального злоупотребления инструментами ИИ для манипулирования людьми.

Руководитель судебной системы Сената Ричард Дж. Дурбин выразил заинтересованность в создании «режима подотчетности ИИ», который включал бы потенциальную ответственность на федеральном уровне и уровне штата за причинение вреда инструментами ИИ.

Крупные технологические компании также призвали к новым правилам для ИИ; правительство США изучает это. Администрация Джо Байдена занята созданием национальной стратегии искусственного интеллекта, которую Управление по науке и технологиям Белого дома рекламирует как подход «всего общества».

По информации The Washington Times

Вы смотрели новые видео на YouTube цифрового взгляда? Подписывайтесь на канал!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *