Самая большая опасность искусственного интеллекта не Скайнет, а людские предрассудки
Искусственный интеллект не идет ни в какое сравнение с человеческой природой чинить вред.
реклама
За последние несколько лет было много разговоров об угрозе создания общего искусственного интеллекта ( AGI - artificial general intelligence). AGI - это, по сути, искусственный сверхинтеллект. Это система, способная понять или обучиться любой мыслительной задаче, которую может решить человек. О подобных системах искусственного интеллекта высказывались эксперты практически из всех слоев общества, представляя их как роботов в стиле Терминатора, которые будут бесчинствовать и вызывать массовые смерти и разрушения.

Генеральный директор SpaceX и Tesla Илон Маск часто выступал против создания AGI и представлял такие сверхинтеллектуальные системы как что-то апокалиптическое. На конференции SXSW в 2018 году он назвал цифровой сверхинтеллект "самым большим и самым актуальным экзистенциальным кризисом, с которым мы сталкиваемся", и сказал, что эти системы в конечном итоге будут более смертоносными, чем ядерный холокост. Стивен Хокинг разделял эти опасения, заявив в 2014 году на BBC, что "развитие полноценного искусственного интеллекта может означать конец человеческой расы".
Многие эксперты в области компьютерных наук также согласны с этим. Так, Стюарт Рассел, профессор информатики и инженерного факультета Смит-Заде в Калифорнийском университете в Беркли, снялся в короткометражном фильме, предупреждающем об опасности создания ботов-убийц - оружия, использующего искусственный интеллект для идентификации и уничтожения без вмешательства человека. Цель фильма? Напугать людей, чтобы они приняли меры по запрету сверхинтеллектуальных автономных систем оружия.
Но мало кто выступает против того, что системы искусственного интеллекта уже наносят вред людям. Конечно, системы искусственного интеллекта уже наносят невероятный вред миру, но не по тем причинам, о которых вы думаете.
реклама
Сейчас нам нужно больше всего беспокоиться не об угрозе всемогущего сверхинтеллекта, властвующего над человечеством или превращающего все мировые ресурсы в производство скрепок. Такая реальность все еще далека от действительности. Мы должны сегодня изучить и проанализировать деятельность человеческих институтов, которые уже используют ИИ, поскольку многие примеры его внедрения уже наносят людям реальный и серьезный ущерб.

Как человеческие предубеждения влияют на искусственный интеллект
В статистике и информатике есть поговорка: “мусор на входе - мусор на выходе“ (англ. GIGO - garbage in, garbage out). Это серьезная проблема, когда речь идет об алгоритмах машинного обучения. Глубокое обучение - это семейство методов машинного обучения, которые используют нейронные сети для того, чтобы "научить" компьютерный алгоритм распознавать шаблоны. Благодаря такому распознаванию моделей компьютеры способны распознавать и идентифицировать песни, прослушав лишь пару секунд музыкального произведения, определять речь и расшифровывать слова, которые произносит говорящий, и даже генерировать дипфейки.
Все методы глубокого обучения и вообще все методы машинного обучения начинаются с данных. Всякий раз, когда вы слышите в новостях сообщение о том, что какой-то эксперт ищет на сайте, например, Facebook, публичные фотографии для использования в какой-то программе распознавания лиц, эти фотографии и являются данными, на которых обучается алгоритм машинного обучения. К счастью, после того, как изображения проходят через алгоритм машинного обучения, они обычно удаляются, поскольку больше не нужны разработчикам. Люди очень обеспокоены последствиями такого подхода для частной жизни, но чтобы понять суть проблемы, нам нужно вернуться к старой поговорке: " мусор на входе - мусор на выходе ".
Это не значит, что ваше прекрасное селфи - обязательно мусор. Но что если большинство селфи, которые попадают в алгоритм, содержат преимущественно изображения лиц со светлой кожей, или "белые" лица? В таком случае ИИ научится очень хорошо распознавать таких людей. А как вы думаете, он справится с задачей по выявлению и идентификации темнокожих, "черных или смуглых" лиц? В этом случае можно сказать, что у алгоритма появится предрасположенность к идентификации лиц со светлым типом кожи.
реклама
А как насчет заявок на получение кредита? Если бы вы ввели в алгоритм машинного обучения каждую заявку на получение кредита, а также информацию о том, была ли эта заявка одобрена или отклонена, то ваш алгоритм машинного обучения смог бы прекрасно одобрять или отклонять такие заявки.
Но что если данные, которые вы ему предоставили, состоят в основном из 1) отклоненных заявок на кредит от претендентов из числа этнических меньшинств с безупречной кредитной историей и из 2) принятых заявок от белых претендентов с менее чем безупречной кредитной историей? Если бы использовались именно эти данные, то алгоритм был бы непреднамеренно обучен ориентироваться на расовую принадлежность заявителей, а не на кредитные баллы, и предположил бы, что людям из меньшинств или с темным цветом кожи следует отказывать, поскольку именно этот принцип лежит в основе процесса одобрения кредитов. И алгоритм не ошибется, если примет такое решение. Фактически, он будет делать именно то, чему его обучили создатели-люди. И подобные вещи уже происходят.
А как насчет правоохранительных органов? Начиная с 1990-х годов, правоохранительные органы во всем мире стали использовать статистику преступности с целью создания модели "предиктивной аналитики" для правоохранительных органов, в основном для направления полицейских ресурсов в те районы, где согласно данным, происходит "большинство преступлений". Но если большее количество полицейских направляется в определенный район, возможно, в район проживания национальных меньшинств, то и вероятность совершения преступлений в этом районе выше.
Source: geralt/Pixabay
реклама
Если эти данные затем ввести в "алгоритм прогнозирования", то он обнаружит, что в этом районе совершается больше преступлений, а значит, направит туда больше полицейских, что приведет к увеличению роста преступности. Этот цикл обратной связи не отражает, где на самом деле происходит преступление, он отражает, где полиция выявляет преступления, что является очень тонким, но важным моментом. Поскольку полиция, как правило, чаще патрулирует бедные районы и районы проживания меньшинств, то и данных по таким районам будут более искажены, что, в свою очередь, усилит к ним предвзятое отношение правоохранителей. Опять же, речь идет не о воображаемом, вымышленном будущем. Такие предвзятые алгоритмы уже существуют, и они используются в полицейских ведомствах по всему миру.
Как искусственный интеллект устраняет существующие предубеждения
Очевидно, что в случае с полицией вред, наносимый моделью машинного обучения, очевиден. Потребление наркотиков в различных расовых и социальных группах практически одинаково, но система предиктивного полицейского контроля направляет ресурсы полиции преимущественно в бедные районы и районы проживания национальных меньшинств, что приводит к несоразмерно высокому числу арестов и разрушенных жизней.
Аналогично и с распознаванием лиц: если правоохранительные органы используют систему распознавания лиц для идентификации подозреваемых в совершении преступлений, а алгоритм не обучен правильно идентифицировать, темнокожие или смуглые лица, он будет генерировать большее количество ложных срабатываний.
Иногда трудно запомнить новые имена и лица, но часть этой забывчивости может быть вызвана психологическим феноменом, называемым "эффектом перекрестной расы".
А если алгоритм распознавания лиц ошибочно распознает непропорционально большое количество подозреваемых, и эти ошибки приводят к аресту или, что еще хуже, к тюремному заключению, то такой алгоритм самоукрепляется и является не просто ошибочным, но и опасным. Эта проблема еще более актуальна из-за что на протяжении многих лет мы считали машинное обучение объективным и непредвзятым.
Если вашу заявку на кредит отклонили, это вовсе не означает, что кредитный инспектор был расистом или ксенофобом, а лишь потому, что алгоритм решил отказать вам. И если в вашем районе слишком много полицейских, совсем не обязательно, что они расисты, просто алгоритм сообщил полиции, что в вашем квартале более высокий уровень преступности и в итоге заставил полицейских в это поверить. Если вас арестовали за совершение преступления, которого вы не совершали, это не означает, что полицейские или свидетели неправильно опознали вас, руководствуясь бессознательными расовыми предрассудками, а потому, что искусственный интеллект сопоставил ваше лицо с нечёткой записью камеры наблюдения, на которой кто-то совершает преступление. Хотя, конечно, это бессознательное предубеждение также могло заставить свидетелей и оперативников с большей вероятностью принять эти нечеткие кадры и предположения искусственного интеллекта в качестве доказательства.
В каждом из этих случаев вместо человека используется алгоритм машинного обучения, но каким-то образом те же самые системные модели дискриминации и преследования более бедных слоев населения и представителей национальных меньшинств, которые документировались на протяжении десятилетий, волшебным образом воспроизводятся в искусственном интеллекте. Однако, поскольку мы относимся к искусственному интеллекту так, как будто у него нет человеческих предрассудков, мы “верим ему на слово“, что приводит к тем же системным ошибкам, которых мы "пытались" избежать.

Могут ли помочь более точные данные?
Является ли решение этой проблемы необходимостью в использовании более качественных данных, или мы просто пытаемся наложить пластырь на открытую социальную рану и надеемся, что проблема решится сама собой?
Безусловно, если учесть необъективность данных в процессе машинного обучения, то можно получить более совершенные модели, но они не будут идеальными. Мы никогда не сможем полностью избавиться от влияния таких ошибок, и есть все основания задаться вопросом, стоит ли вообще ставить перед собой такую цель. Вместо того, чтобы просто пытаться создать беспристрастные системы ИИ, что может оказаться невыполнимой задачей, возможно, стоит задаться вопросом о том, что лежит в основе той или иной проблемы, которую мы пытаемся решить, и действительно ли она необходима и так уж необходима помощь искусственного интеллекта.
Рашида Ричардсон, юрист и исследователь, изучающая алгоритмическую предвзятость в Юридической школе Ратгерса в Нью-Джерси, утверждает, что решение очевидно: вместо того, чтобы пытаться прикрыть эту историю злоупотреблений фиговым листком "беспристрастного" машинного обучения, наши усилия стоит направить на решение коренных проблем, которые искусственный интеллект пытается решить. Другими словами, нам нужно сосредоточиться на устранении текущих проблем в наших социальных средах. После чего мы уже сможем заняться созданием эффективных инструментов искусственного интеллекта.
Возможно, когда-нибудь в далеком будущем нам придется начать беспокоиться об искусственном интеллекте в образе Терминатора. Но пока что пропаганда страха не приносит никакой пользы и только отвлекает от разговоров о реальном вреде, наносимом искусственным интеллектом.
реклама
Лента материалов
Интересные материалы
Возможно вас заинтересует
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила