Федеральная комиссия по торговле США предупредила компании, разрабатывающие системы на основе искусственного интеллекта о том, что они будут нести ответственность в случае внедрения в свои технологии тех или иных предубеждений, то есть, при отклонении их поведения от того, что сама комиссия считает «нейтральным подходом».
Для индустрии искусственного интеллекта и нейросетей это важный момент. Впервые на таком высоком уровне диктуются правила игры, и вопрос в том, насколько далеко США будут готовы зайти в своем стремлении наказать виновных.
Федеральная комиссия по торговле США предупредила компании, разрабатывающие системы на основе искусственного интеллекта о том, что они будут нести ответственность в случае внедрения в свои технологии тех или иных предубеждений, то есть, при отклонении их поведения от того, что сама комиссия считает «нейтральным подходом».
Для индустрии искусственного интеллекта и нейросетей это важный момент. Впервые на таком высоком уровне диктуются правила игры, и вопрос в том, насколько далеко США будут готовы зайти в своем стремлении наказать виновных.
Согласно новому посту в официальном блоге, на который ссылается издание The Verge, Федеральная комиссия по торговле уверена, что искусственный интеллект может быть переносчиком идей сексизма и расизма. Это означает, что права потребителей при использовании подобных технологий могут быть нарушены.
Комиссия готова вмешаться в процесс, если обнаружит, что та или иная компания, используя сбор и аналитику данных, рекламирует их как объективные, а на самом деле подходит к процессу с точки зрения расовых и гендерных стереотипов. Такие потенциально опасные по мнению американских властей инструменты могут применяться в том числе в сфере недвижимости и при найме на работу.
«В погоне за новыми технологиями будьте осторожны, и не давайте лживых обещаний относительно того, на что способен ваш алгоритм», — пишет представитель Федеральной комиссии по торговле Элайза Джиллсон. Ведомство обещает, что в случае обнаружения подмены понятий и дискриминации, обязательно вмешается.
В Комиссии эти вопросы называют предметом «экономической справедливости». И в США уже существуют нормативные акты, регулирующие деятельность компаний, которые могут посягать на такую справедливость. В частности, это ECOА — закон, призванный обеспечить равный доступ к кредитованию для всех слоев общества, вне зависимости от гендера или расы. Также существует секция пятая акта Федеральной комиссии по торговле.
Интересно, что регулятор прямым текстом говорит о том, что компании ответственны за те решения, которые принимает разработанный ими алгоритм. По мнению Комиссии, нейросеть зависит от данных, которые она анализирует. И если во время тренировки сети в нее загружается информация, содержащая те или иные искажения и стереотипы, в последствии такая позиция может не только реплицироваться, но искусственный интеллект может даже вывести искажение на новый, еще более неприемлемый уровень.
В качестве примера «необъективности» сетей можно привести историю с распознаванием лиц в США. Эта технология хуже распознает лица афроамериканцев, в результате неоднократно происходили ложные задержания чернокожих. Алгоритм, созданный для системы здравоохранения, занимался дискриминацией афроамериканцев, когда им необходимы были лекарства. И, разумеется, алгоритм, который учился различать мужчин и женщин, может неверно идентифицировать трансгендеров и небинарных граждан.
Этот момент крайне важен для развития систем ИИ во всем мире. Нейросети действительно находятся в прямой зависимости от своих создателей и выбора данных, которые те загружают в систему. Однако вариант с трансгендерами выходит за рамки разумного. Каким-то образом ИИ должен по внешности определить, что человек, выглядящий как женщина, на самом деле мужчина. И если нейросеть не сделает этого, компанию может привлечь к ответственности Федеральная комиссия по торговле. Хочется надеяться, что такой бескомпромиссный курс на всеобщую толерантность в США не затормозит развитие одного из самых перспективных сегментов высокотехнологического рынка.
До сих пор идеи регулирования ИИ в первую очередь были сосредоточены на вопросах бесконтрольного сбора информации. В том числе, конфиденциальной. В том, что нужно обеспечить пользователям должную защиту при обработке их личных данных, сомнений нет. Однако Федеральная комиссия по торговле США пошла гораздо дальше в своем стремлении добиться политкорректности и баланса на рынке.
Под ударом в первую очередь окажутся именно американские компании. Это, в том числе, IT-гиганты Facebook, Amazon, Microsoft и Google. Они уже неоднократно попадали под прицел регуляторов и даже отчитывались о своих действиях перед Конгрессом. Но действия Комиссии могут также затронуть и более мелкие и узкоспециализированные предприятия.
В ближайшее время у американских властей вряд ли появится возможность контролировать разработку ИИ за рубежом и придумывать новые правила для глобального рынка нейросетей. Но стоит задуматься о будущем. Каждая компания, внедряющая искусственный интеллект, хочет добиться наилучших результатов с экономической точки зрения. Так, если речь идет о найме сотрудников, необходимо на ранних этапах отсеивать неподходящих кандидатов и выбирать лучших. Противодействие дискриминации в данном случае может сработать обратным образом. И «толерантная» нейросеть не сможет выбрать лучших, пытаясь продемонстрировать равные «цветовые» и «гендерные» показатели.
По оценкам исследовательской компании MarketsandMarkets рынок искусственного интеллекта к 2025 году вырастет до $190 млрд. Ежегодный рост составит более 36,5%. Главными драйверами на рынке являются технологии в области обработки больших данных, облачные приложения и сервисы, а также объединяющие в себе эти инновации виртуальные ассистенты.
Напомним, что «Норникель» активно работает над созданием систем в области искусственного интеллекта и нейросетей. Еще в 2018 году на обогатительной фабрике Кольской ГМК реализован пилотный проект по контролю готовой продукции участка брикетирования (подготовка медно-никелевого концентрата к плавке) с применением «искусственного интеллекта и машинного зрения». Так машинное зрение позволяет анализировать изображения объектов реального мира, а затем использовать полученные данные для решения прикладных задач, например, для контроля качества продукции, как это и делают на фабрике Кольской ГМК. В целом «Норникель» активно осваивает и применяет IT и цифровые технологии для оптимизации производственных процессов. Новые решения разрабатываются Цифровой лаборатории. И если вы хотите больше узнать о новейших достижениях «Норникеля», а также о цифровизации в целом и искусственном интеллекте — в частности, устанавливайте приложение «Цифроникель» и проходите курс обучения. Все подробности на нашем сайте https://www.nornickel.digital/