Russian
| English
"Куда идет мир? Каково будущее науки? Как "объять необъятное", получая образование - высшее, среднее, начальное? Как преодолеть "пропасть двух культур" - естественнонаучной и гуманитарной? Как создать и вырастить научную школу? Какова структура нашего познания? Как управлять риском? Можно ли с единой точки зрения взглянуть на проблемы математики и экономики, физики и психологии, компьютерных наук и географии, техники и философии?"

«Искусственный интеллект. Судебная система. Этика и право (главы из книги)» 
Елена Ларина, Владимир Овчинский

Эти две системы показывают, что при наличии заинтересованности уже достигнутый уровень развития ИИ позволяет создавать софт, оказывающий значительную помощь полицейской работе в режиме реального времени. Причем, этот софт, имеющий мощный графический интерфейс, понятен и дружественен для пользователей на земле – патрульных машинах и т.п.
Представляется, что еще одним фактором, обеспечивающим триумф предсказательного софта в полиции, стало следующее обстоятельство. В подавляющем большинстве стран уже более 10 лет происходит сокращение бюджетов правоохранительных органов. Перед полицией, особенно на низовом уровне, во весь роста встала проблема сохранения высокой эффективности работы при снижении уровня ассигнований. Хорошо известно, что профилактирование и предотвращении преступлений в подавляющем большинстве случаев эффективнее и дешевле, чем их расследование. Соответственно полиция с большей охотой занимается пресечением деятельности преступников на стадии подготовки правонарушения. При этом судебная система охотнее имеет дело с судебными спорами относительно уже совершенных преступлений. В подавляющем большинстве стран отсутствуют правовые нормы, связанные с серьезным наказанием за подготовку преступления. Это порождает в последние годы коллизии, когда во все возрастающем числе случаев люди, относительно которых полиция собрала неопровержимые доказательства по подготовке преступления, в конечном счете, избегают судебного наказания, поскольку судебные нормы ориентированы на уже совершенные, а не готовящиеся преступления.
По мнению экспертов ЕС, необходимо на уровне Европейской Комиссии начать дискуссию о целесообразности совершенствования европейского законодательства с упором на предотвращение, а не наказание преступлений. Если подобного рода дискуссию не провести, и не осуществить соответствующие меры, то зазор между деятельностью полиции и работой правоохранителей будет из года в год увеличиваться.
На сегодняшний день в Европе предиктивная аналитика в уголовных процессах, по сути, игнорируется судьями. В 2012 г. Кембриджский университет по собственной инициативе разработал и представил в распоряжение судебных работников и полиции инструменты оценки риска повторных преступлений, так называемый HART. Исследования, проведенные в 2013-2017 гг., показали, что для низкоуровневой уличной преступности HART дает правильные прогнозы в 98% случаев, а применительно к компьютерной и другой высокоуровневой преступности во впечатляющих 88% случаев. Система в течение трех месяцев после освобождения из мест заключения дает прогноз рецидива на ближайшие два года. Достигнутые результаты поражают, поскольку не имеют аналогов в мире. Поэтому британские и голландские правоохранительные органы вовсю используют HART и надеются, что в ближайшем будущем повышенное внимание к лицам высокой группы риска удержит последних от новых преступлений. При этом судьи, в том числе и британские, отказались использовать HART как консультанта при вынесении приговоров. Общая позиция судей состоит в том, что правосудие слишком серьезный предмет, чтобы допускать в эту сферу ИИ.
HART – это единственный прогностический инструмент, используемый в настоящее время в Европе. Анализ показал, что ни в одной стране, кроме Франции в настоящий момент нет планов разработать мощный предиктивный инструмент, ориентированный на уголовные расследования. Есть основания полагать, что государства-члены ЕС уже в ближайшие годы будут все более и более отставать от Соединенных Штатов и Китая. В самой же Европе лишь три страны, ориентированные в основном на Соединенные Штаты, будут стараться реализовать прогностический уголовный софт. Это – Голландия, Латвия и Эстония, которые в основном будут использовать зарубежные разработки.
В 2018 г. в Соединенных Штатах имел место скандал, когда неправительственная организация Propublica раскрыла дискриминационный эффект алгоритма, используемого в программном обеспечении Compas. Целью софта является оценка риска рецидива на стадии, когда судья выносит приговор для отдельного лица. Аргумент противников системы состоял в том, что в алгоритм заложена гораздо большая вероятность рецидива для афроамериканцев и латинос, в том числе недавно получивших гражданство. В отличие от Европы, компания-разработчик софта совместно с Министерством юстиции США и правоохранительными органами заняли жесткую и неуступчивую позицию в дискуссии с активистами. Они сделали доступными для общественности все шаги алгоритма, вычисляющего коэффициент и показали, что конечные значения риска зависят не от какой-то идеологической или иной дискриминации, а базируются исключительно на фактическом положении дел. Активистов же, превратившихся в лоббистов, общественное мнение, благодаря прессе, обвинило в попытках манипуляции американскими ценностями для того, чтобы сделать фактически неравным правосудие, создав преимущества для афроамериканцев и латинос в ущерб белым американцам.

§ 14. Проблемы использования прогнозов в уголовных делах

Как уже отмечалось, использование прогнозного инструментария в Европе заметно и все более отстает от ситуации в Северной Америке и странах Британского Содружества наций. Также установлено, что как сама полиция, так и общество гораздо активнее выступают и используют предиктивный полицейский софт в сравнении с судьями, в том числе с судьями в уголовных процессах.
Общеевропейской позицией является сегодня констатация, что ИИ дает огромные возможности полиции, но содержит и реальные риски, если ИИ используется без необходимых мер предосторожности и ограничений. Согласно результатам опроса парламентариев в девяти странах Европейского Союза, более 78% из них активно ратуют за широкое использование предиктивного полицейского софта, особенно нацеленного на предупреждение преступлений. В то же время лишь 15% опрошенных поддержали использование ИИ в судебной сфере, за исключением нормализации электронного документооборота, за который выступают все.
В комментариях высказывалась точка зрения, что в полиции использование ИИ нет альтернативы хотя бы потому, что это уже активно делает криминал. Что же касается судебной сферы, то здесь главное – обеспечить равенство сторон. На вопрос о том, не даст ли ИИ преимущества крупным юридическим фирмам, ответы в 85% случаев были положительными. Самый неожиданный эффект — в том, что более половины парламентариев высказалось за мораторий использовании ИИ вообще в судебной сфере в ближайшие 15 лет.
Категорическими противниками активного использования ИИ в уголовных процессах являются сами судьи. Во Франции, которая является одной из самых продвинутых стран в использовании интеллектуального софта в судопроизводстве, лишь немногим более 15% судей полагают, что ИИ им в ближайшие 10 лет необходим. Главным аргументом в пользу негативного отношения к ИИ является тот факт, что значительная часть специфических человеческих черт, таких как настроение, контекст, ценности, эмоции не могут быть оцифрованы, и соответственно не будут приниматься во внимание машиной. А именно эти факторы являются, по мнению судей, чрезвычайно важными при вынесении вердикта, особенно в уголовных процессах.
Существенно различаются позиции экспертов, специалистов и общественности относительно применения ИИ в правоохранительной деятельности и в уголовном судопроизводстве. Подавляющее большинство не только профессионалов, но и гражданских активистов, хотя и с оговорками, но поддерживают широкое использование ИИ в полиции. Это одобрение базируется на мнении, согласно которому инструменты ИИ являются не более чем вспомогательными компонентами расследовательской работы. Более того, полиция с самых первых годов своей институционализации старалась максимально использовать бумажные аналоги нынешнего ИИ, а именно бумажные архивы, досье на преступников и преступные группировки, фотографии, постоянно собирала информацию как опосредовано, так и путем внедрения осведомителей.
В современных западных обществах сложился консенсус относительно того, что работа полиции всегда по существу носила и носит информационный характер, включая поиск, хранение, обработку и анализ информации относительно готовящихся или совершенных преступлений. Будучи де факто с самых своих истоков информационным видом деятельности, полиция как нельзя лучше подходит для использования IT инструментария. Поэтому во всех странах, где для этого есть технологические и финансовые возможности, полиция вместе с разведкой и банковской сферой являются основными секторами внедрения передовых информационных технологий.
Что же до судопроизводства, то, по крайней мере, в государствах ЕС не только подавляющая часть активистов, но и самих работников судопроизводства рассматривают ИИ исключительно как помощника в работе с документами, включая их архивирование, поиск и т.п. Этому способствуют три обстоятельства.
Первое. По странным причинам в экспертном сообществе и общественном мнении сложилась фантастическая картина, что в будущем судопроизводством будет заниматься именно ИИ, в конечном счете, будет выносить приговоры и определять судьбы.
Второе принципиальное возражение против использования ИИ заключается, как описано выше, в том, что использование продвинутых информационных технологий, в том числе ИИ, подрывает равенство перед законом и равносостязательность судебных процессов.
Наконец, третья группа возражений против широкого использования ИИ в уголовном судопроизводстве имеет, если можно так выразиться, статистический характер. Профессионалы понимают, что, по сути, специализированный ИИ – это мощнейший вычислитель, обрабатывающий статистические данные. Соответственно использование предиктивной, особенно судебной аналитики, может привести к тому, что прошлое поведение определенной группы людей с конкретными параметрами будет, в конечном счете, решить судьбу отдельного человека. Каждый подсудимый, хотя и имеет определенные, общие с другим людьми, характеристики, но оказывается на судебной скамье в результате комбинации уникальных жизненных обстоятельств. Единичная судьба никак не связана и не коррелируется с групповой статистикой. Пожалуй, в западноевропейских государствах ЕС именно возможность статистических данных влиять на судьбы отдельных людей и является главным аргументом общественности против использования ИИ в судебной сфере.

§ 15. Потенциал и ограничения предиктивной судебной аналитики

По мнению экспертов ЭС, термин, пришедший из-за океана, «предиктивная судебная аналитика» необходимо отбросить, поскольку он неоднозначен и вводит в заблуждение. Гораздо лучше использовать термин «интеллектуальный аналитический судебный софт». Данный термин не вызывает нареканий у судей и общественности и принят в IT отрасли Европы.
Консенсусная точка зрения среди специалистов по софту для правоохранительной и судебной сфер состоит в следующем. Нейтральность алгоритмов – это миф. Машины еще не научились самостоятельно писать алгоритмы. Даже нейронные сети – это не самососвершенствующиеся программы, как многие считают, а программы, позволяющие менять оценку тех или иных факторов, используемых для распознавания чего-то, в зависимости от вновь поступающих данных. ИИ – это произведенное человеком устройство, выполняющее команды, которые записаны на созданных людьми искусственных языках для выполнения тех или иных расчетных алгоритмов, порожденных не машиной, а конкретным человеческим разумом. Т.е. все три главных компонента ИИ – это машины, языки и алгоритмы – созданы людьми.
Поскольку любые люди, и математики не исключение, имеют свои картины мира, взгляды, ценности, то так или иначе они отражают их в алгоритмах. Любой алгоритм, будучи порождением определенных математиков и разработчиков, несет в себе их внутренний мир. Когда люди выступают против ИИ, они в иррациональной форме демонстрируют свою неготовность вручить свою жизнь математику. Фактически замена судей алгоритмами не проходит в Европе, достаточно далекой от маркетингового бизнеса, потому, что ни государства, ни общество не готовы поменять профессионалов – судей, на математиков, которые ничего не понимают в законах. Все остальные соображения о боязни ИИ – это просто американские феномены, которые сами компьютерные фирмы используют для продвижения продукции.
10 лет назад никто не предлагал отказаться от компьютерных программ, например, для написания судебных документов или расчетов тех или иных данных. Ни одному здравомыслящему человеку не могла прийти в голову мысль наделять текстовой процессор World или таблицы Excel свойствами искусственного разума. В условиях экономической стагнации IT компании вложили гигантские, исчисляемые миллиардами долларов, средства в маркетинг, рекламу и заморочили голову потребителю появлением чего-то похожего на человеческий разум у машин. При этом, за эти годы алгоритмика не изменилась, выросла лишь производительность компьютеров и появились впервые в истории человечества большие данные.
К сожалению, историческая форма использования интеллектуального софта в судебной сфере завела общество и судебную систему в дебри бессмысленных дискуссий об ИИ. Эксперты ЕС считают, что с этим положением необходимо покончить. Прежде всего, они предлагают на общеевропейском уровне провести серию конференций и круглых столов, собрав их вместе с разработчиками инструментов, юристами, работниками государственных органов, средств массовой информации, для того, чтобы выработать четкую, ясную, соответствующую реалиям и помогающую делу терминологию. Судебные советы, профессиональные ассоциации и коллегии адвокатов также должны принять активное участие в этих круглых столах. Необходимо покончить с ситуацией, когда в юридической сфере мелькают случайные или рекламные IT термины, затрудняющие использование передовых технологий.
Необходимо создать группы технического аудита и предоставить им право исследовать предлагаемые частным сектором как ИИ прогнозно-аналитические и иные программы. Главная же задача состоит в определении на основе широких дискуссий конкретных участков работы и сфер, где в ближайшие годы наиболее эффективно использование интеллектуального прогнозно-аналитического софта в судопроизводстве.

Глава IV. Основные направления правового регулирования ИИ

§ 1. Вводные положения

Исследование «European Tech Insights 2019», проведенное Университетом управления в Мадриде (IE), показало, что более двух третей европейцев всех возрастов считают, что новые технологии, если они не будут должным образом контролироваться, принесут больше вреда, чем пользы для общества в ближайшее десятилетие. Это опасение, в свою очередь, ведет к растущему сопротивлению инновациям и требованию ужесточить регулирование. Подавляющее большинство опрошенных европейцев ожидают, что их правительства введут новые законы и налоги, чтобы ограничить автоматизацию и предотвратить замещение рабочих мест, даже если это повлечет за собой остановку технического прогресса. Эти результаты согласуются по странам, возрастным группам, полам и идеологиям.
Исследование проводилось в 8 европейских странах – Франции, Германии, Ирландии, Италии, Испании, Нидерландах и Великобритании.
Большинство опрошенных граждан ЕС выступают за правительства, продвигающие политические меры по ограничению автоматизации бизнеса компаниями. Минимальные интервенционные меры по дополнительному налогообложению предприятий, которые сокращают рабочие места из-за автоматизации (67%), предоставлению дополнительной поддержки тем, кто пострадал в результате потери рабочих мест (71%), одобряются значительной частью населения, в то время как более решительные меры государственного вмешательства имеют еще более высокий уровень поддержки: 72% опрошенных считают, что правительства должны установить ограничения на количество рабочих мест, которые могут быть заменены машинами на предприятиях. 74% считают, что предприятиям следует разрешить замену только самых опасных или вредных для здоровья рабочих мест.
Подавляющее большинство европейцев ожидают, что правительства введут новые законы и налоги, чтобы ограничить автоматизацию и предотвратить замещение рабочих мест, даже если это приведет к замедлению экономического прогресса. Эти результаты согласуются по странам, возрастным группам, полам и, что особенно удивительно, идеологиям. И все же, подобные меры в настоящее время находятся вне политической дискуссии.
Одновременно расследование выявило парадокс, заключающийся в том, что, хотя общественность опасается технологических достижений, особенно что касается повышения уровня автоматизации, каждый четвертый европеец предпочитает, чтобы искусственный интеллект принимал важные решения по управлению их страной. В таких странах, как Нидерланды, Германия и Великобритания, этот процент еще выше: каждый третий житель выступает за это.
Исследование также показывает, что люди не только обеспокоены предстоящим технологическим преобразованием, но и считают, что учреждения, на которые возложен этот процесс, не справляются со своими обязанностями. Большинство опрошенных (60%) считают, что система образования не обучает их решать проблемы, возникающие в связи с новыми технологиями.
Экспертная группа ЕС по искусственному интеллекту (ИИ) констатировала в феврале 2019 года принципиальное отличие политики, инвестиций, правового регулирования и практического использования ИИ в ЕС по сравнению с Соединенными Штатами и Китаем.
В отличие от США ЕС в гораздо большей степени привержен тщательному предварительному изучению долговременных политических, социально-психологических и поведенческих аспектов внедрения новых решений в сфере ИИ. ЕС также принципиально отличается подходом от Китая, поскольку ставит на первый план при разработке и внедрении ИИ безусловное соблюдение прав личности, меньшинств и в целом гражданского общества. В этом плане развитие ИИ в странах ЕС – это своеобразный третий путь эволюции ИИ по отношению к США и Китаю.
Этот подход в полной мере реализуется при реформировании Директивы об ответственности за качество ИИ и Директивы по развитию машинной инфраструктуры ИИ, а также совершенствовании программной базы. В качестве предварительного заявления Целевая группа CEPS констатирует, что применительно к подавляющему большинству программно-аппаратных решений в сфере ИИ она не видит необходимости внесения принципиально новых изменений в нормативные документы, регулирующие требования к программно-аппаратной базе ИИ. По мнению Группы, подавляющая часть программно-аппаратных решений в сфере ИИ не требует внесения принципиальных изменений в законодательства, нормативные требования и стандарты эксплуатации. Причина в том, что основная часть так называемых программно-аппаратных систем ИИ, используемых как в бизнесе, так и в сфере государственного управления, не представляют собой чего-то принципиально нового и отличного от ранее использованных пакетов статистического анализа больших данных. Лишь незначительная часть программно-аппаратных комплексов, в основном находящаяся сейчас в сфере экспериментальных, исследовательских и опытно-конструкторских разработок, по своим возможностям заметно отличаются от привычной компьютерной техники и программного обеспечения. Соответственно, главным направлением ИИ на сегодняшний день является не прокламируемая социальными медиа революция, а реальная эволюция, постепенное улучшение на основе больших данных, более мощных аппаратных средств и более разнообразных, чем раньше, статистических программ и программ по распознаванию.
Комиссия ЕС еще до принятия соответствующих законодательных решений указала на то, как ИИ может реально изменять поведение граждан, а также, как он может быть использован для социального инжиниринга недобросовестными акторами и организованной преступностью.
При рассмотрении действующего законодательства, и что более важно, при формировании законодательной базы разработки и использования ИИ Европейская Комиссия учитывала следующее:
- необходимость перейти от нарративной, описательной формы подготовительных материалов к данным, отражающим прогнозные перспективы и анализ рисков, связанных с использованием ИИ;
- необходимость оставаться открытой для новой формы «инновационных сделок», в рамках которых разработчики ИИ бросают вызов действующему регулированию, демонстрируя, что они могут достичь более значительных преимуществ и создать программно-аппаратные средства решения задач, которые не ставились ранее. По сути, инновационная сделка означает, что ЕС должен создать возможность для исследователей в области ИИ работать вне действующего законодательства. Должна быть создана своего рода «законодательная песочница», в которой получившие специальное разрешение компании могут работать вне общеустановленной нормативной базы. Подобный подход к инновационным сделкам позволит европейским исследователям оставаться на самых передовых позициях без ослабления контроля над применением ИИ в бизнесе и федеральных органах;
- с токи зрения методологии необходимо проанализировать разработку новых критериев для определения тем в сфере ИИ, которые могут финансироваться за счет общеевропейских ресурсов. В настоящее время распределение общеевропейских средств осуществляется в основном по критерию соотношения текущих затрат и будущих результатов. Подавляющее большинство экспертов в настоящее время полагают, что подобный критерий из-за неопределенности результатов не применим к ИИ. Видимо, нет иного пути, как осуществлять капиталовложения в области ИИ в зависимости от экспертных оценок наиболее уважаемых и оригинально мыслящих экспертов. Для этого наиболее подходят методики качественных сравнений (больше-меньше, лучше-хуже), чем количественных формальных критериев.
Подготовка нормативной документации по разработке и использованию ИИ в странах ЕС должна осуществляться обязательно не только с привлечением соответствующей комиссии, представителей федеральных органов, бизнеса, ведущих разработчиков, но и в той или иной форме конечных пользователей — представителей гражданского общества.
Крайне важно, чтобы любая форма саморегулирования оценивалась с особой тщательностью и поддавалась проверке, была прозрачной для государственных органов, гражданского общества и бизнеса.
Нормативное регулирование ИИ должно строиться на сочетании юридических норм и саморегулируемых схем. Эта двойственность связана с объектом регулирования. ИИ и в эволюционном, и тем более в революционном варианте – одном из наиболее динамичных технологических пакетов четвертой производственной революции. Право же всегда консервативно. Оно фиксирует нормы и неформальные правила, сложившиеся в прошлом. При невысоких темпах научно-технического прогресса научно-технические разработки можно регулировать с использованием юридических норм. Однако, в условиях экспоненциального роста и высокой динамики исключительно юридическое регулирование будет сдерживать развитие технологий. Именно поэтому и необходим блок саморегулирования.
Саморегулируемые схемы призваны включать в себя, прежде всего, кодексы поведения разработчиков алгоритмов (например, принципы Asilomar), корпоративные правила конфиденциальности, требования к защите данных, протоколы обработки жалоб и контроля за обеспечением требований (например, протоколы, обеспечивающие право на забвение) и т.п. В большинстве случаев в рамках нормативно-саморегулируемой кодификации оптимальным является разделение, когда на стадии разработки в основном действует схема саморегуляции, а на стадии использования ИИ – юридического регулирования.
При этом, важно, чтобы любая форма саморегулирования поддавалась оценке, проверке и была достаточно прозрачной для контроля государственными органами. Образцом для этого являются RegTech и SupTech. Что касается пользовательского применения ИИ, то здесь возможно сочетание юридических норм с регулированием «снизу вверх» (по инициативе гражданского общества). Вместо того, чтобы полагаться исключительно на законодательное регулирование или саморегулирование со стороны бизнеса, применительно к этой сфере целесообразно юридическое регулирование совместить с протоколами и нормами, разработанными структурами гражданского общества и НКО, и использовать их в качестве отраслевых частных стандартов применения ИИ к данным граждан.
В настоящее время именно таким образом действует мета-регуляторная схема, разработанная альянсом ISEAL. Эта схема устанавливает правила и критерии, которым должны следовать частные регуляторы в сфере оказания услуг, связанных с социальным развитием и экологией. В рамках частных стандартов определяются критерии подотчетности, прозрачности, недискриминации, требования к аудиту и сертификации. Все это, в конечном счете, приводит к повышению уровня доверия между бизнесом, федеральными органами власти и пользователями. Если применить этот порядок к ИИ, то для платформ, алгоритмы которых проверены и постоянно контролируются саморегулируемыми ассоциациями или гражданскими НКО, можно использовать специальный логотип, ярлык, ясно дающий понять конечным пользователям, что именно эти платформы ИИ не несут им никаких угроз и рисков, поскольку подверглись тройной проверке со стороны государства, бизнеса и самих пользователей.
Перечисленные выше формы представляют собой наиболее эффективные алгоритмы делегирования определенных этапов правового регулирования частному сектору и конечным пользователям при обязательном и жестком контроле со стороны государства и в целом органов ЕС.
Наиболее эффективное соединение усилий юридического кодирования, саморегуляции и общественного контроля происходит в тех случаях, когда участниками регулирования совместно определены основные, всеобъемлющие принципы регулирующего вмешательства. В любом случае, базируясь на делегировании и общественном контроле, эти формы обеспечивают большую гибкость, адаптивность, а за счет этого — долговечность регулирования по сравнению с традиционным юридическим нормотворчеством. Как уже отмечалось, нормотворчество не только требует в каждом конкретном случае значительного времени на разработку кодифицирующих актов, но и, как любая правовая норма, устанавливает строгие стандарты на будущее, исходя из прошлого опыта. Чем быстрее и революционнее технологическое развитие, тем в меньшей степени, как само развитие, так и его прикладные результаты могут регулироваться исключительно на правовой основе, по принципу «сверху вниз».
Новый подход ЕС к регулированию новаций базируется именно на смешанном использовании юридических норм, саморегуляции и контроля со стороны гражданского общества. Например, недавно принятые законы о сетевом нейтралитете и о соблюдении авторских прав предполагают, что окончательные решения относительно провайдера интернет-услуг по соблюдению им законов принимаются на основе общественного контроля со стороны подписчиков услуг соответствующим нормативным органом.
В этом отличие европейского подхода от американского и китайского. В американском подходе по большому счету все решает бизнес, а соответственно организации гражданского общества и группы потребителей зачастую протестуют против самоуправства корпораций. В то же время в Китае все решает государство и юридические акты не только созданы государством, но и преследуют исключительно его интересы, иногда в ущерб интересам потребителей. Реализуемый в ЕС подход позволяет балансировать интересы разработчиков, государства и пользователей, и развивает подход к регулированию интернета, который в международном масштабе базируется именно на сочетании глобального частного регулирования, странового государственного контроля и регионального или странового пользовательского подхода.
Для того, чтобы системный подход к регулированию ИИ был результативен, его целесообразно разбить на фазы регулирующего вмешательства (например, на установление повестки дня, определение стандартов, разграничения сфер юридической кодификации, бизнес-саморегудляции и гражданского контроля, эффективную систему мониторинга и оценки, обеспечение соблюдения разграничения прав, обязанностей и функций сторон регулирования, и постоянную открытую отчетность об эффективности регулирования).
Принципиально возможны два типа осведомленности о регулировании: соответственно ручное и алгоритмическое. При ручном варианте специально выделенные аналитики с той или иной периодичностью рассматривают функционирование системы во всех ее блоках и фазах и подготавливают аналитические материалы, которые рассматривают эксперты – своеобразные судьи.
По состоянию на 2018 г. в Европе и Китае основной формой была именно ручная. В то же время в Соединенных Штатах все активнее используется алгоритмическая форма осведомленности. Она предусматривает, что законодательно устанавливаются принципы, которым должны следовать онлайн-платформы при разработке и использовании алгоритмов. На основе этих правил сами платформы разрабатывают алгоритмы, а также дополняют правила путем разработки соответствующей бизнес-модели и формы отчетности перед государственными органами, позволяющими осуществлять мониторинг и оценку платформ. По сути, в Соединенных Штатах впервые в истории создан прецедент публичного законодательного регулирования принципов разработки алгоритмов. Поскольку именно платформенные решения в настоящее время являются основной сферой использования ИИ в бизнесе, можно полагать, что чем дальше, тем больше ручной принцип будет заменяться алгоритмическим.
Принципиальное различие между этими двумя типами регулирования состоит в следующем. Традиционное ручное регулирование предполагает предписывание обязательных норм людям, выполняющим те или иные работы в рамках бизнеса (например, законодательство нормативно запрещает продавцу обсчитывать покупателя или продавать ему некачественный товар. Норма применяется к действиям человека-продавца – Е.Л., В.О.). В случае же алгоритмического регулирования устанавливаются обязательные для разработчиков и программистов правила разработки алгоритмов.
Особая, совершенно неразработанная тема – это регулирование поведения потребителей. Поведенческая экономика появилась только в последние десятилетия. Соответственно ни в одной стране мира нет не только законов, но и саморегулирующих подходов к данной тематике. В конечном счете, в рамках использования ИИ и больших данных, поведение потребителя не только в интернете, но и в цифровой реальности может определяться не его волей, а выбором определенной архитектуры платформы и ее интерфейса. Фактически создатели платформ де факто определяют поведение потребителя вне зависимости от его желаний.
В странах ЕС в настоящее время ведутся острые дебаты о преимуществах и недостатках так называемого Наджа или Подталкивания. Его основоположник К.Санстейн утверждает, что Надж – это либертарианский патернализм. Т.е. при помощи алгоритма и интерфейса он подталкивает людей к осуществлению тех поступков, которые несут им пользу, а не вред. Осуществляется это, по его словам, на основе алгоритмов онлайн платформ, использующих опции по умолчанию, при помощи определенных цветов, за счет расположения элементов интерфейса и т.п., которые подталкивают потребителя к выбору, наиболее полезному для его здоровья, благополучия и т.п. Между тем, значительная часть социальных психологов и даже политологов полагают, что Надж может быть использован, возможно, даже с большей эффективностью, не для достижения положительных с точки зрения персоны или общества действий, а как манипулятивная технология, позволяющая воздействовать на население, по сути, принуждая граждан к покупкам конкретных товаров и услуг или выбору определенного кандидата в электоральном процессе и т.п.
Особой темой, обсуждение которой вновь усилилось в рамках регулирования ИИ, является правовое регулирование дизайна платформ. Еще в 1999 г. Лоуренс Лесинг показал, что тот или иной дизайн платформы может работать как на потребителя, так и позволять собственникам или производителям платформы осуществлять действия, уголовно наказуемые в физическом мире, но безнаказанные в интернет-пространстве. В 2015 г. исследователи Гамбургского университета выявили, что из 100 обследованных европейских платных сервисов в 84 легкость платной подписки сочетается с трудностями, а иногда почти невозможностью отписаться от платной услуги. Поскольку применение ИИ, например, на торговых платформах для потребителей интернет-услуг означает, прежде всего, еще возможность еще меньше, чем сегодня напрягаться и думать, то следует ожидать увеличения рисков и опасностей изъятия средств за счет дизайн-решений. Если не применить к этой уловке жесткие регулятивные нормы, то уже в ближайшие годы дизайн-вымогательство, будучи уголовно ненаказуемой формой, будет все более и более распространяться, а ущерб, наносимый им кошелькам потребителей, исчисляться уде миллиардами евро.
Дизайн-вымогательство – это лишь один пример более мощного технологического течения. Суть его в следующем. Все новые и новые информационные технологии делают человека-потребителя или занятого в бизнесе клиента все более уязвимым перед теми или иными ухищрениями, ловушками и методами манипулирования. Чем дольше эти недружественные для потребителей решения будут оставаться в серой зоне, тем больше опасность, что киберпреступность будет уходить от уголовно наказуемых форм деятельности в ненаказуемые зоны, где, по сути, будут использоваться с умыслом манипулятивные методы и технологии, многократно умножаемые возможностями ИИ.
Решения RegTech и SupTech в настоящее время используются исключительно в сфере финансовых услуг. Однако их потенциал существенно шире. Эти технологические пакеты могут быть использованы в любом регулируемом секторе для проведения оценки рисков и угроз и создания систем непрерывного мониторинга. Помимо обязательной оцифровки отраслевой отчетности, они позволяют осуществлять автоматизацию проверки технических регламентов, стандартов, нормативных требований на их реализуемость в практике работы компаний и на их соответствие согласованным на государственном уровне нормам. По сути, указанные технологии представляют собой эффективные инструменты использования ИИ для анализа нормативно-правовой документации и практики ее использования в работе любой компании, в первую очередь, осуществляющей свою деятельность в интернете.
Заслуживают широкого распространения и опробации адаптивные варианты регулирования (экспериментальное формирование нормативной политики). Скорость, с которой развиваются технологии и разрушительный характер новых бизнес-моделей во многих секторах побудили регулирующие органы во всем мире искать экспериментальные подходы к регулированию. Эти подходы позволяют найти компромисс между естественным консерватизмом правовых норм и быстротечным техническим прогрессом.
Существует несколько возможных способов обеспечить высокую адаптивность регулирования. Они включают:
- использование «нормативных песочниц» и других экспериментальных подходов, применяемых лишь для ограниченного, а в отдельных случаях конкретно прописанного круга юридических и физических лиц, для обеспечения наработки решений, которые затем будут положены в основу саморегуляции и гражданского контроля, а главное, совершенствования законодательства на долгосрочный период;
- создание технологических дорожных карт и мнений хозяев и разработчиков платформ в процессе выработки законодательной политики в сфере интернет-бизнеса, ИИ и т.п.;
- широкое использование инструментария открытого правительства, позволяющего привлечь к выдвижению, разработке и анализу нормативных актов бизнес и гражданское общество, а также использовать их возможности для мониторинга эффективности реализации и выявления недостатков уже принятых юридических решений.
По-прежнему ядром регулирования информационных технологий вообще, и ИИ в частности, являются законодательные нормы, а также отраслевые стандарты и технические требования. Вопрос технических требований и стандартов является одним из важнейших в части регулирования ИИ. Здесь полезно напомнить, что еще несколько лет назад в период работы регулирующих органов США и ЕС по разработке Трансатлантического торгово-инвестиционного партнерства, одним из главных камней преткновения стала несовместимость технических стандартов и нормативных требований к информационным технологиям вообще, и ИИ в частности между США и ЕС.
В Соединенных Штатах используются гораздо более гибкие стандарты, которые созданы в основном в рамках саморегулирования. В ЕС же технические требования – это прерогатива органов ЕС и страновых регулирующих органов. Как уже отмечалось, европейский подход позволяет избежать многих опасностей для конечных пользователей. Однако, американский подход обеспечил заокеанскому бизнесу и университетам несомненное лидерство в сфере интернет-технологий вообще, и ИИ в особенности. В конечном счете, в Соединенных Штатах хорошо понимают, что IT отрасль была, есть и будет находиться в серой зоне, и соответственно ее правовое регулирование всегда будет носить догоняющий характер. Данное обстоятельство является технологической реальность. В этой связи ЕС необходимо полностью учесть эту реальность, и не повторять ранее совершенных просчетов, сделанных применительно к ИИ, в отношении протоколов Р2Р и блокчейна.
Во всех случаях анализ рисков новых технологий должен стать не просто неотъемлемой частью нормативной практики ЕС, но и приоритетным направлением ее деятельности. Необходимо особо выделять наиболее динамичные факторы в развитии технологий, которые по причинам межблоковой и международной технологической конкуренции целесообразно оставлять в серых зонах. Европейская, как и китайская традиция, предусматривает, что вся деятельность должна быть юридически кодифицирована и подпадать под сферу действия законов. Это, безусловно, создает большую защищенность бизнес-потребителям и конечным пользователям из числа домохозяйств, но делает европейские разработки аутсайдерами по отношению к американским. Необходимо готовиться, также как готовятся США и страны Британского Содружества наций, прежде всего, Канада, Австралия и Новая Зеландия, к постепенному переходу от подхода «закон как текст» с его толкованием людьми, к решениям «закон как код» и его исполнению техноплатформами.
Уже упомянутый Л.Лессинг еще в 1999 г. утверждал, что со временем «закон как текст» сменится «законом как кодом». При этом он справедливо полагал, что главное преимущество «закона как текста» состоит в его реализуемости через людей, а не через самоисполняемые программы. Самоисполняемая программа, по его мнению, не может предоставить уровня гибкости и нюансов, необходимого для адекватной интерпретации конкретных ситуаций. Поэтому, по мнению Л.Лессинга первоначально «закон как текст» и «закон как код» будет сосуществовать. Причем второй будет понемногу вытеснять первый из тех сфер, где трактовка закона однозначна, а ситуации не имеют нюансов и т.п. Полное же вытеснение «закона как текста» и человека-судьи «законом как кодом» и его программным самоисполнением произойдет только и если ИИ, не будучи так называемым общим или универсальным интеллектом, сможет за счет распознавания фактов учитывать большее число нюансов и более качественно распознавать сложные ситуации, чем судья-человек.
В части мониторинга и оценки регулятивной политики в области ИИ во всех случаях необходимо обеспечить максимально полный сбор данных и их непредвзятый анализ, как основу оценки не только эффективности, но и соответствия работы ИИ законодательно, нормативно и общественно установленным критериям. Безусловно, критерии для мониторинга должны быть разработаны не отдельными странами, а ЕС в целом. Это позволит обеспечить беспрепятственный мониторинг в рамках всего европейского политического и экономического пространства, а также исключит крайне вредную двусмысленность в национальных законодательствах, которую сейчас активно использует киберпреступность.

§ 2. Реформирование правил и ответственности?

Одним из ключевых аспектов политико-правовой регламентации ИИ является выбор режима ответственности за ущерб, нанесенный ИИ, как юридическим, так и физическим лицам. В последние два года государства ЕС и Европейская Комиссия приступили к активному обсуждению этой тематики и анализу концептуальных предложений со стороны юридических фирм и разработчиков ИИ. Особенно остро эта проблема стоит в отношении ущерба, нанесенного конечному пользователю — домохозяйствам (в случае В2В ответственность, как правило, регулируется договорным правом и соответственно прямыми договорами между производителями, эксплуатантами и потребителями).
Есть три основных аспекта темы ущерба, нанесенного ИИ, которые должны быть обсуждены, и соответственно найдено политико-правовое решение в самое ближайшее время. Первый связан с сферой ответственности; второй – с типом конкретных инструментов правовой защиты, а следовательно и типом ответственности; третий касается проблем распределения ответственности между производителями. Дело в том, что ИИ – это всегда сложное программно-аппаратное устройство, в ходе производства которого сотрудничают производители харда, производители софта, сервисные компании, а также провайдеры интернет-услуг. Кроме того, в настоящее время формируются компании-эксплуатанты, которые сдают рабочее время ИИ конечным потребителям по модели «ИИ как сервис».