Адриано Алмейда, исполнительный директор Alura Para Empresas.
Использование технологий в корпоративной среде уже более чем реальность, особенно когда мы говорим об искусственном интеллекте (ИИ). Что касается микро-, малых и средних компаний, исследование Microsoft и Edelman Comunicação показывает, что 74% организаций в Бразилии используют этот инструмент. Другое исследование, на этот раз проведенное IBM, показывает, что 51% бразильских директоров по данным (CDO) используют этот ресурс для принятия более эффективных и быстрых решений.

Однако очевидно, что воздействие такого масштаба не обходится без проблем. И самый большой из них, конечно же, связан с этическими ограничениями ИИ.

Если, с одной стороны, эта технология становится все более важной для оптимизации процессов и сбора ценной информации, которая определяет стратегию компании, с другой стороны, она поднимает ряд вопросов, связанных с безопасностью ее использования. Определение четкой политики по его внедрению и применению с учетом юридических аспектов и ответственного использования — неизбежная задача любой организации, которая хочет расти в цифровую эпоху.

искусственный интеллект
Рост использования ИИ поднимает этические вопросы (Изображение: jittawit21/Shutterstock)

Фактически данные Accenture уже демонстрируют наличие такого спроса на рынке. Опрос консалтинговых компаний показывает, что 98% компаний имеют какой-либо проект генеративного искусственного интеллекта, но 95% все еще находятся на начальной стадии безопасного внедрения.

Обучение работе с базами данных

Учитывая, что ссылки, которые питают ИИ, будут отправной точкой его работы, этический баланс инструмента зависит от обращения, которое компания будет уделять своей базе данных. Поэтому первой заботой лидеров при внедрении этой технологии должно быть сохранение конфиденциальности и безопасности информации.

Соблюдение правил Общего закона о защите персональных данных (LGPD) имеет важное значение в этом смысле, поскольку оно предотвращает использование технологий личной или идентифицируемой информации о сотрудниках, такой как имена или документы. Или, даже если такое использование имеет место, адаптация к законодательству, гарантирующая, что ни одно из этих знаний не будет распространяться неправомерно.

Человек, указывающий и почти касающийся ряда голографических данных, похожих на течение реки
Внедрение ИИ требует адаптации к законодательству о защите (Изображение: NicoElNino/Shutterstock)

Второй проблемой должны быть возможные предвзятости в базе данных. ИИ необходимо обучить устранять предубеждения или деликатные атрибуты, создавая стандарты, которые не смущают и не дискриминируют людей в любых их действиях, и даже не открывают пространство для распространения глубокие фейки или фейковые новости. Большая проблема здесь заключается в том, что ИИ обучается на данных, поступающих от людей, с их предвзятостью. Это трудный круг, который нужно замкнуть, и огромная продолжающаяся битва.

В результате руководящие принципы, способствующие повышению эффективности технологий, не могут основываться на ограниченном количестве источников и ограниченных знаниях по таким вопросам, как пол, раса и религия. Выборка данных всегда должна быть точной, разнообразной и репрезентативной, обеспечивая максимально справедливое отношение ко всем категориям.

хакерская атака
Использование ИИ требует внимания к надежности самой технологии (Изображение: Shutterstock/Portrait Image Asia)

Гуманизация ИИ

Наконец, стоит подчеркнуть, что этические проблемы использования ИИ взаимосвязаны с его «гуманизацией». Забота здесь заключается в понимании того, что этот инструмент не способен полноценно функционировать без стоящих за ним действий человека и, прежде всего, людей, понимающих, как его можно правильно использовать.

Именно на этом этапе мы должны подчеркнуть необходимость развития компании в сфере ИИ в целом. Мероприятия по квалификации и обучению могут улучшить это понимание, будь то то, как команды будут создавать и использовать подсказки, или даже четкое понимание юридических последствий этой технологии.

Читать далее:

Фактически, этот путь корпоративного обучения также включает в себя проверку самого инструмента. Нет сомнений в том, что ИИ перспективен и может стать отличным союзником в разработке стратегий для целых областей, но до тех пор, пока профессионалы пересматривают их рекомендации. Все результаты ИИ необходимо регулярно отслеживать, чтобы они стали исходными данными для обеспечения улучшений и во все большей степени избегали возможных различий.

Очевидно, что это не надежный путь. Ключ к инновациям зависит от экспериментирования, и по этой причине кривая обучения ИИ также должна быть полностью связана с тем, как каждая компания поощряет мышление своих сотрудников. Мы единственные, кто может установить этические пределы инструмента.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *