ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ СУПЕРНИКА NORNICKEL CONNECT
Пульс технологий
Установите кодовое слово в Супернике!
* с его помощью вы всегда сможете войти в приложение, если, например, забыли пароль или сменили телефон
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

В DeepMind предупреждают о несправедливом ИИ

При создании систем ИИ возникают не только технические, но и этические проблемы. На них заострила внимание одна из ведущих разработчиков Google.

Хочешь знать о технологиях и цифровизации больше?
Устанавливай приложение «Цифроникель». Проходи обучение в игровой форме. Копи знания, получай баллы, участвуй в конкурсах и получай ценные призы.
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

Исследовательница Райда Хадселл из лаборатории по созданию программ искусственного интеллекта (ИИ) DeepMind, принадлежащей Google, уверена, что создание и ответственное применение технологий ИИ — ответственность каждого разработчика и пользователя.

«ИИ в ближайшие годы изменит мир. Это очень мощная технология. И мы должны осознавать присущие ей риски, особенно те, которые могут привести к дискриминации, нанести вред или усугубить проблему социального неравенства. Надеюсь, все вместе мы сможем ответственно подходить к созданию ИИ», — заявила Хадселл на виртуальной конференции разработчиков. 

Технологии ИИ будут находить себе всё больше применений, так как алгоритмический подход применим к решению очень широкого спектра проблем. С одной стороны, их можно применять для поиска новых лекарств, с другой — создавать автоматизированные системы вооружений. 

По мнению Хадселл, важную роль в создании этичного ИИ должны сыграть законодатели, юристы и даже философы. Но ведущую позицию в этом процессе должны занимать непосредственно разработчики. 

Во-первых, они должны понимать особенности баз данных, которые они используют для обучения ИИ-моделей. Нередко они довольно однобоки, и неполнота датасетов сказывается на качестве моделей. Например, ученые создавали систему, которая распознает на рентгеновских снимках признаки поражения легких ковидом. И использовали для этого образцы только взрослых пациентов. Когда система пошла в работу, то ее стали использовать и для диагностики детей и подростков. И она стала выдавать множество ложноположительных сигналов. Датасеты должны включать в себя данные от как можно более разных людей, чтобы избежать таких ошибок в будущем. Нужно учитывать все факторы: не только возраст, но и пол, цвет кожи, уровень доходов и другие параметры социального положения.

Во-вторых, не стоит забывать о вопросах, связанных с добровольным и информированным согласием, которое необходимо получать при сборе данных. Зачастую этот аспект просто игнорируется исследователями, которые гонятся за объемами и готовы использовать в своей работе полученные откуда угодно данные.

В-третьих, существует проблема использования алгоритмов в целях нарушения прав человека. Например, несмотря на большую долю ошибок в некоторых странах системы ИИ используют для выписки штрафов за нарушение карантинного режима, задержания подозреваемых и других правоохранительных задач. Автоматизация полицейских функций может принести больше вреда, чем пользы, особенно если данные, на которых тренировалась модель, неполны или однобоки. Например, в 2019 году исследователи показали, насколько плохо алгоритмы распознавания лиц от Amazon распознают людей с темным цветом кожи. Но корпорация в ответ на критику развернула против исследователей пиар-кампанию и продолжала ещё какое-то время продавать услуги по распознаванию лиц полиции. Сейчас в Конгрессе США на рассмотрении находится законопроект, который запрещает использовать алгоритмы распознавания лиц на федеральном уровне. Он сталкивается с сильным сопротивлением как представителей правоохранительных органов, так и технологических корпораций. Пока запреты принимаются на уровне отдельных округов и муниципалитетов. К примеру, они уже действуют в Сиэтле и Сан-Франциско. 

Хадселл выделила проблему, связанную с фундаментальными исследованиями в ИИ. Одни и те же алгоритмы можно использовать, например, для создания качественных подложных фото и видео и для предсказания погоды. Необходимо изменить культуру исследователей, чтобы они не концентрировались исключительно на пользе, которую может принести их работа, но также задумывались о рисках, которые несут создаваемые ими технологиями, и способах борьбы с ними. Многие исследователи намеренно игнорируют любые негативные аспекты их работы. Например, Google до недавнего времени цензурировал научные публикации по ИИ, которые могли выставить компанию в плохом свете. Под особым вниманием были работы, связанные с распознаванием лиц, эмоций, психологических качеств или политических убеждений. В конце 2020 года руководитель рабочей группы по этике в сфере ИИ Тимнит Гебру уволилась вместе со всей командой из двенадцати человек, когда ее рекомендации по изменению алгоритма по генерации речи из текста были проигнорированы. Хадселл уверена, что при работе над системами ИИ нужно предусматривать процедуры сдержек и противовесов, чтобы не публиковать или допускать в широкое использование потенциально опасные алгоритмы. 

Работа в этом направлении уже движется. В 2020 году Хадселл участвовала в отборе докладов для престижной конференции в сфере ИИ — «Нейронные системы обработки информации» (NeurIPS). Раньше при рассмотрении работ обращали внимание только на их технологические аспекты. Она предложила два дополнительных механизма отбора. Первый — создание комитета по этике, который бы рассматривал спорные с этой точки презентации. Второй — требование к участникам написать, как их работа может повлиять на общество и предложить механизмы коррекции негативных последствий. 

Требование к оценке возможного влияния — не новый инструмент. Он уже давно применяется в таких сферах как медицина и биология. Но предложение Хадселл наткнулось на сопротивление среди исследователей алгоритмов ИИ. Она опасается, что ее требование может выродиться в пустую формальность и перестанет быть честной оценкой возможных негативных последствий. 

Этические вопросы ИИ решают и в Евросоюзе. Европейская комиссия готовит объемный законопроект, который будет регулировать такие системы. Они будут обязаны работать без дискриминации людей по какому-либо признаку, уважать фундаментальные права человека, хранить приватность использованных при обучении данных. Особенно сильным контроль будет над теми системами, от решения которых будет зависеть жизнь и здоровье человека. Например, автопилотами автомобилей и другими подобными алгоритмами. В законопроекте предусмотрены серьезные штрафы: до 6% от мировой годовой выручки компании-нарушителя.

УЗНАТЬ БОЛЬШЕ
Читайте также
ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ