Союз изобретателей РОССОТРУДНИЧЕСТВО Программа сотрудничества до 2020 года
Главная Новости Вести союза Интервью ИИ не умеет делать моральный выбор, а люди не договорятся

16 Февраля 2020

ИИ не умеет делать моральный выбор, а люди не договорятся

Создание ядерных технологий породило орудие для суицида человечества. И единственным сдерживающим фактором самоуничтожения цивилизации стало устройство общества, гарантирующее взаимное уничтожение и тем, кто войну начнет, и тем, кто будет защищаться. Но вот появились ИИ-технологии, по мощи не уступающие ядерным и ведущие к небывало быстрому росту неравенства между «ИИ-обладателями» и «обычными людьми».

• Первые будут принимать решения, пользуясь наставлениями ИИ и его сверхскоростными возможностями анализа и действий (как это уже сегодня делают, например, брокеры и онлайн-платформы).

 • Вторые по старинке будут думать и действовать сами, - может, из консерватизма, а может, и в силу дороговизны билета в стан «ИИ-обладателей» (наличие у вас умной колонки и смартфона не только не дает вам такого билета, но делает для вас все более неподъемной его цену).

Прискорбно, но факт: в истории земной цивилизации есть два неизменных тренда: рост технологической мощи и рост неравенства. В обоих были временные замедления и реверсы. Но в историческом масштабе оба тренда неумолимы, как смерть. С развитием ИИ-технологий, разделяющих мир на «ИИ-обладателей» и «обычных людей» тренд роста неравенства только усилился. • «Обычные люди» генерируют большие данные через все возрастающее разнообразие цифровых устройств. • «ИИ-обладатели» совершенствуют алгоритмы и методы монетизации собранных данных.

Возникает вопрос.

Может ли устройство общества с помощью регулирования каким-то образом повлиять на процесс неизбежного роста неравенства вследствие развития ИИ?

Моделирование сценариев различных форм и видов взаимодействия «ИИ-обладателей» и «обычных людей», с учетом возможных регуляторных ограничений со стороны общества, дало отрицательный ответ на поставленный выше вопрос. Увы!

Модель (https://dl.acm.org/doi/abs/10.1145/3375627.3375847) разработана для анализа т.н. «Проблемы выравнивания общественных ценностей». Эта проблема не менее сложна, чем пресловутая «трудная проблема сознания». Ее суть такова. • Возможность встраивания в ИИ собственных моральных принципов пока под большим вопросом. Конечно, есть методы IRL и CIRL. Но их возможности на практике пока весьма ограничены.

• Значит в вопросах морального выбора (типа, кого убьет самоуправляемый авто: пассажира, старушку справа или ребенка слева) будут решать люди (авторы алгоритмов, политики, регуляторы, владелец авто.

• Но какие варианты решений они будут выбирать, ведь ценности у всех разные? Возможно ли достижение некоего равновесия выгод для себя-любимого и всех остальных?

• Моделирование процесса выравнивания ценностей, в котором решения принимаются конкретными людьми и конкретными ИИ-системами, показывает, что равновесия не будет – победит меньшинство «ИИ-обладателей», которое навяжет свои ценности большинству «обычных людей».

Попытка найти равновесие ценностей, путем включения в модель ИИ 3го типа, также не привела к успеху. Поясню. 1й тип ИИ – эгоист. Сталкиваясь с интересами «обычных людей», он блюдет «свою выгоду» (выгоду «ИИ-обладателей»). А при конфликте интересов «ИИ-обладателей» выходит на равновесие Нэша. 2й – прагматик (в отличие от альтруиста, он одинаково блюдет и свой интерес и интересы других). 3й – сознательный. Средний путь между 1м и 2м: блюдет свой интерес, минимизируя вред остальным.

Важный момент. Модель – это безмасштабная сеть (таковы все социальные сети в онлайне и реале, где правит закон Матфея). И как в жизни, модель постоянно перекоммутируется: часть старых связей рвется, и образуются новые.

Сеть состоит из людей и ИИ. Люди, подобно ИИ, тех же 3х типов. У людей есть две стратегии перекоммутации: консервативная (рвутся лишь вредные связи) и алчная (рвутся и вредные и бесполезные связи) Как и ожидалось, обе стратегии плодят неравенство, но алчная быстрее.

Источник: https://www.facebook.com/sergey.karelov.5/posts/2720911644611175

 

Комментарии

Комментировать

Оставлять комментарии могут только авторизованные пользователи