Союз изобретателей РОССОТРУДНИЧЕСТВО Программа сотрудничества до 2020 года
Главная Новости Вести союза Интервью Предвзятость, расизм и ложь: как предотвратить нежелательные последствия использования искусственного интеллекта

13 Января 2021

Предвзятость, расизм и ложь: как предотвратить нежелательные последствия использования искусственного интеллекта

Искусственный интеллект (ИИ) помогает в борьбе с пандемией COVID-19 и может быть с успехом применен в других сферах жизни. При этом высокие технологии могут привести и к нежелательным последствиям. В связи с этим в ООН призывают разработать четкие международные правила, которые позволили бы предотвратить негативные тенденции.

Хотя термин «искусственный интеллект» вызывает в воображении образы машин, которые могут думать и действовать, как люди, реальность более прозаична и, как правило, ИИ используется для описания программного обеспечения, которое может в определенной степени «учиться», решать проблемы и выявлять закономерности. Это особенно полезно в тех случаях, когда необходимо отсортировать и проанализировать огромные объемы данных.

Еще одно заблуждение заключается в том, что в силу особенностей ИИ, связанных с самообучением, эта технология гарантирует получение более эффективных, надежных и более высоких результатов, чем то, к чему люди могут прийти самостоятельно. Однако недавние примеры ошибок, когда результаты экзаменов были неверно занижены, невиновные люди были отправлены в тюрьму, а личные данные украдены, служат напоминанием о том, что именно люди со всеми их несовершенствами стоят за успехами или неудачами инструментов ИИ.

В преддверии презентации руководства ООН по пониманию этических аспектов ИИ, эксперты ЮНЕСКО представляют пять фактов, которые необходимо знать об использовании ИИ, его последствиях и способах улучшения данной технологии.

В январе афроамериканец в Мичигане, США, был арестован за кражу в магазине, о которой он ничего не знал. Он был взят под стражу после того, как на него надели наручники возле дома на глазах у семьи.

Считается, что это первый неправомерный арест такого рода: задействованные полицейские доверяли технологии распознавания лиц на основе ИИ, чтобы поймать преступника, но инструмент не научился распознавать различия между лицами чернокожих людей, потому что изображения, используемые для его обучения, в основном содержали лица белых людей.

К счастью, быстро стало ясно, что задержанный не похож на подозреваемого, замеченного на камерах безопасности магазина, и он был освобожден, хотя провел несколько часов в тюрьме.

В июле в Великобритании поднялся шум, когда мечты многих студентов, надеявшихся поступить в университет по своему выбору, были разбиты, когда для анализа их оценок использовалась компьютерная программа (традиционные экзамены были отменены из-за пандемии COVID-19).

Для определения того, какие баллы учащиеся могли бы получить, если бы они сдавали экзамены, программа учитывала их существующие оценки, а также послужной список их школ за определенный период времени. В конечном итоге это обернулось несправедливостью для одаренных учащихся из районов проживания групп меньшинств и с низким уровнем доходов, которые с большей вероятностью пойдут в школы с более низким средним уровнем образования, чем школы, в которых обучаются более обеспеченные учащиеся.

Эти примеры показывают, что для эффективного применения искусственного интеллекта подготовленные специалисты должны работать с данными высокого качества. К сожалению, большая часть данных, используемых для обучения ИИ, в настоящее время поступает от потребителей по всему миру, часто без их прямого согласия: более бедные страны зачастую не имеют возможности обеспечить защиту личных данных или защитить свои общества от разрушительных кибератак и дезинформации, участившихся с начала пандемии COVID-19.

Многие компании, работающие в социальных сетях, подвергаются критике за то, что они используют алгоритмы, основанные на искусственном интеллекте, для «микротаргетинга» пользователей и рассылают им индивидуальный контент, усиливающий их предубеждения. Чем более провокационным является контент, тем больше вероятность того, что он будет использован и распространен.

Причина, по которой эти компании рады «проталкивать» социально разобщающий и поляризующий контент, заключается в том, что это увеличивает вероятность того, что они будут дольше оставаться на платформе, что радует их рекламодателей и увеличивает их прибыль.

Это привело к популярности экстремистских, ненавистнических сообщений, распространяемых группами, которые иначе были бы малоизвестными маргинальными структурами. Во время пандемии COVID-19 это также спровоцировало распространение опасной дезинформации о вирусе, что чревато заражением большего числа людей.

Глобальное неравенство находит отражение в Интернете

Имеются веские основания полагать, что ИИ играет определенную роль в усилении неравенства в мире и приносит пользу небольшой части населения. Например, более трех четвертей всех новых цифровых инноваций и патентов производится всего 200 фирмами. Из 15 крупнейших цифровых платформ, которые мы используем, 11 находятся в США, а остальные - в Китае.

Это означает, что инструменты ИИ в основном разрабатываются западными специалистами. На самом деле, эти разработчики в подавляющем большинстве являются белыми людьми, которые также составляют подавляющее большинство авторов по темам ИИ. Случай неправомерного ареста в Мичигане - лишь один пример опасностей, связанных с отсутствием многообразия в этой чрезвычайно важной области.

Это также означает, что к 2030 году Северная Америка и Китай, как ожидается, получат львиную долю экономической выгоды, которая составит триллионы долларов, которые, по прогнозам, принесут технологии на основе ИИ.

Это не означает, что ИИ следует использовать в меньшей степени: инновации с использованием этой технологии чрезвычайно полезны для общества, как можно было наблюдать во время пандемии: правительства во всем мире переключились на цифровые решения возникших проблем, начиная от отслеживания контактов и заканчивая телемедициной и лекарствами, поставляемыми с помощью дронов.

ИИ также использовали для отслеживания распространения COVID-19 по всему миру - анализировались огромные запасы данных, связанных с взаимодействием пользователей социальных сетей и Интернета.

Однако преимущества выходят далеко за рамки пандемии: ИИ может помочь в борьбе с климатическим кризисом, поддерживая модели, которые могут содействовать восстановлению экосистемы и среды обитания, а также замедлить утрату биоразнообразия; и спасать жизни, помогая гуманитарным организациям более эффективно направлять свои ресурсы туда, где они больше всего необходимы.

Проблема в том, что инструменты искусственного интеллекта развиваются так быстро, что ни дизайнеры, ни корпоративные акционеры, ни правительства не успевают понять потенциальные ловушки, которые также создают для человека новые технологии.

ЮНЕСКО проводит консультации с широким кругом людей, включая представителей гражданского общества, частного сектора и широкой общественности, чтобы разработать международные стандарты использования ИИ и обеспечить, чтобы эта технология имела прочную этическую основу, обеспечивающую верховенство права и поощрение прав человека.

Консультации начались в июле 2020 года, и эксперты ЮНЕСКО разработали проект нормативного глобального документа по этическим аспектам ИИ с учетом широкомасштабного воздействия этой технологии, в том числе на окружающую среду, и потребности стран глобального Юга. Составление международных правил, регулирующих использование ИИ, – важный  шаг, который позволит решить, какие ценности необходимо закрепить и, что особенно важно, какие правила необходимо соблюдать.

Для разъяснения возможностей и проблем, связанных с ИИ, ЮНЕСКО подготовит новое руководство: «Понимание этических аспектов ИИ: почему это касается всех?» в январе 2021 года. Одна из функций ЮНЕСКО заключается в повышении осведомленности, обучении людей и предоставлении им инструментов для этического анализа.

Источник: https://news.un.org/ru/story/2021/01/1393922

Комментарии

Комментировать

Оставлять комментарии могут только авторизованные пользователи