Этические ограничения ИИ: какой вклад может внести регулирование?

Когда образ роботов, выполняющих сложные человеческие задачи, был всего лишь сырьем для произведений научной фантастики, знаменитый писатель Айзек Азимов создал «три закона робототехники». Посредством них робот должен защищать человеческую жизнь, подчиняться человеческим приказам и защищать свое существование в этом порядке и не вступая в противоречие с предыдущими предпосылками. Сегодня искусственный интеллект уже заставляет машины выполнять различные виды человеческой деятельности, что требует создания аналогичных законов для определения этических проблем в этом секторе.

Читать далее:

  • Что такое ChatGPT и как получить доступ к искусственному интеллекту на португальском языке
  • Stable Diffusion: как использовать ИИ, генерирующий изображения
  • Откройте для себя 5 веб-сайтов, которые могут создавать музыку с помощью искусственного интеллекта (ИИ)

Азимов уже визуализировал этот парадокс в своих рассказах. В конце концов, когда технологии разовьются до такой степени, что будут созданы роботы, способные делать то же самое, что и человек, что будет дальше? ИИ уже может создавать программные коды, производить разнообразный контент, общаться и предоставлять информацию людям через личных помощников и даже воссоздавать в цифровом виде (причём с пугающим совершенством) голос и образ певца, умершего более 40 лет назад. Кажется, это вопрос времени, чтобы развить в себе собственную совесть.

Потому что неотъемлемой характеристикой этой технологической концепции является именно способность учиться и продолжать развиваться. Надежная система искусственного интеллекта может быстро выявить закономерности в каждом новом фрагменте информации и, что наиболее важно, изучить основные связанные с этим требования. В сочетании с обработкой естественного языка (основа платформы ChatGPT) базируется разработка роботов, способных взаимодействовать с человеком.

Развитие было настолько быстрым, что руководители технологических компаний, в том числе миллиардер Илон Маск, владелец Twitter (или В Бразилии уже существовал законопроект 2020 года, посвященный искусственному интеллекту в стране. Но в мае 2023 года сенатор Родриго Пачеко направил новое предложение о создании правовой базы по этой теме, формирующей правовую основу для этого инструмента.

О прекращении технологического развития, как того требуют некоторые руководители в этой области, совершенно не может быть и речи. Невозможно просто остановить технологическую эволюцию, потому что она является результатом знаний. Где-то найдется человек, изучающий, тестирующий и доводящий до совершенства любое решение. Однако регулирование действует именно для того, чтобы сгладить эти границы и гарантировать полноценную среду, позволяющую искусственному интеллекту развиваться, не подвергая риску какие-либо человеческие и социальные характеристики.

Первый шаг — определить этическую среду ИИ.

Определить концепцию этики может быть так же сложно, как объяснить, что такое искусственный интеллект. Однако вкратце мы можем понять, что именно действия и правила определяют наше поведение и формируют общество, в котором мы живем. Поэтому ясно, что этические пределы любой технологии зависят исключительно от понимания, принятия и воздействия в каждой стране и регионе.

Другими словами: несмотря на то, что существуют международные стандарты, каждая территория должна устанавливать свои собственные правила. Предосудительные отношения в каждой культуре, очевидно, должны быть запрещены – равно как и понимание того, какие ресурсы можно использовать, чтобы принести пользу пользователям, и какие компромиссы при этом придется принять. Признание этой среды, в которой будет действовать искусственный интеллект, и границ, установленных обществом, является важным шагом в регулировании.

В Бразилии, например, существует четкий запрет различных преступлений, таких как финансовое мошенничество, и необходимое уважение основных прав социальных групп, установленных Федеральной конституцией. ИИ может – и должен – быть ресурсом, который стимулирует общее благо и способствует построению более гармоничного и справедливого общества.

Продвижение дебатов облегчает работу

Прийти к общему знаменателю того, что приемлемо, а что нет для искусственного интеллекта, непросто. Когда дело доходит до столь важного вопроса, поскольку он глубоко влияет на повседневную жизнь, в нем участвуют несколько сторон, таких как специалисты, граждане, государственные учреждения, компании и другие – и каждая из них имеет свои собственные интересы и ресурсы.

В условиях диктатуры проблема решалась росчерком пера, но только в ответ на желания небольшой группы, а не на общественные интересы. К счастью, мы живем в условиях демократии, и создание конкретных нормативных актов в этой сфере практически требует участия всех социальных сфер в подготовке основного текста законопроекта. От лоббирования частного сектора до необходимого давления со стороны гражданского общества.

Общественные консультации, рабочие группы и слушания в комитетах законодательной власти – это лишь несколько примеров того, как устроены дебаты. Есть ли у этой модели недостатки, которая могла бы быть более точной? Без сомнения. Но в нем каждая сторона имеет возможность представить свои требования, указать на изменения и способствовать обмену точками зрения, чтобы будущий закон мог решить то, что они понимают как этические проблемы.

Необходимо перечислить обязанности

Если существуют этические ограничения, которые необходимо соблюдать, то должны быть санкции и наказания за то, что кто-то пересекает эти границы. Но кто в этом случае должен быть наказан: ИИ, ответственная компания, человек, который им управляет? Одна из книг Айзека Азимова начинается именно с этого условия, когда робот нарушает «закон робототехники» и убивает человека. Правила служат для определения ответственности и наказаний в различных возникающих случаях.

Необходимо четко понимать границы, в которых компании и специалисты могут работать с искусственным интеллектом. Создание автомобильной рекламы, воссоздающей образ и голос художника, умершего более 40 лет назад, может быть красивым и плодотворным. гул в социальных сетях, но необходимо обеспечить правовую основу для работы этой возможности в рамках закона. Задумывались ли вы когда-нибудь, решит ли кто-нибудь использовать образ общественного деятеля, такого как Мандела или Ганди, для продажи товаров? Или, что еще хуже, распространять ложный или вырванный из контекста контент?

Благодаря строгому и хорошо обсужденному регулированию весь сектор разработки искусственного интеллекта защищен. Профессионалы будут знать, что они могут или не могут делать в своих проектах, компании будут иметь четкие стратегии использования своих решений, а граждане смогут использовать доступные ресурсы для улучшения своей жизни, а также иметь каналы расследования и отчетности в случаях несоблюдения требований. , этические стандарты.

Технологии дают то, что мы хотим

Дело в том, что не имеет значения, насколько сложна технология искусственного интеллекта или насколько она может учиться и развиваться на основе шаблонов и информации. В конце концов, это не более чем инструмент, то есть то, что будет использоваться людьми для достижения определенной цели. Нарушит ли это этические ограничения, установленные обществом, будет зависеть от действий вовлеченной компании или гражданина, а не от «воли» ИИ.

Как и любое технологическое решение, оно способно улучшить мир – если на это есть наша воля! Когда мы предлагаем размышлять, думать, обсуждать и внедрять стандарты и передовой опыт, которые поощряют наши преимущества и препятствуют предосудительному отношению, мы делаем важный шаг к более справедливому и эгалитарному обществу, которое знает, как работать с тем, что может предложить искусственный интеллект. и не беспокоясь о роботах-убийцах или подобных вещах, которые появляются в книгах и фильмах.

Вы смотрели новые видео на YouTube от Олхар Диджитал? Подпишитесь на канал!

Публикация Этические ограничения ИИ: какой вклад может внести регулирование? впервые появился на Olhar Digital.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *