Russian
| English
"Куда идет мир? Каково будущее науки? Как "объять необъятное", получая образование - высшее, среднее, начальное? Как преодолеть "пропасть двух культур" - естественнонаучной и гуманитарной? Как создать и вырастить научную школу? Какова структура нашего познания? Как управлять риском? Можно ли с единой точки зрения взглянуть на проблемы математики и экономики, физики и психологии, компьютерных наук и географии, техники и философии?"

«Искусственный интеллект. Судебная система. Этика и право (главы из книги)» 
Елена Ларина, Владимир Овчинский

В целом, представляется, что решение проблемы связано с созданием взаимосвязанной системы технических регламентов и стандартов, определяющих требования к харду, софту, к сервисному обслуживанию и подключению ИИ к интернету. При наличии таких стандартов и регламентов, отклонения от них и более того, нарушение, которое в итоге повлекло сбой в работе ИИ, нанесший ущерб потребителю, могут быть четко зафиксированы и распределены по конкретным виновникам и масштабам их вины. Более того, как раз в подобного рода случаях в перспективе «закон как текст» может уступить место «закону как коду». Согласно оценке экспертов в области ИИ, достаточно часто могут иметь место случаи, когда четкое распределение ответственности за сбой в системе ИИ, повлекшее за собой ущерб, установить сложно. Например, зафиксированы случаи, когда сама по себе система ИИ работала в нормальном регламенте при соблюдении всех стандартов, однако при взаимодействии с человеком имели место сбои. Проще всего обвинить в ущербе человека. Однако при тщательном изучении инцидентов было установлено, что сбой произошел из-за растерянности человека, вызванной в свою очередь, не вполне дружественным интерфейсом.
Столь же экзотическими на первый взгляд, однако, достаточно массовыми являются случаи, когда сбои в работе ИИ связаны с вычислениями в облаке. Когда к облаку одновременно подключаются несколько мощных ИИ, происходит конфликт взаимодействия между различными вычислительными системами или так называемые флеш-сбои. Здесь на сегодняшний день тоже нет однозначно прописанных требований и критериев, нарушение которых могло бы однозначно трактоваться как вина одного из участников процесса. Третья группа факторов связана со сбоями, которые происходят из-за того, что в рамках одной комплексной системы ИИ используются компоненты и элементы, созданные различными поставщиками.
Отдельную группу составляют факторы, когда при взаимодействии с робототехникой, управляемой ИИ, виноватым оказывается человек. Например, в марте 2018 г. в г.Темпа, штат Аризона автомобиль Volvo, управляемый Uber, не смог распознать женщину, пересекающую улицу, и задавил ее. В результате, государственные органы в течение достаточно длительного времени разбирались, кто несет ответственность за происшествие: производитель датчика распознавания, компания-производитель автомобиля, компания, поставляющая для Volvo видеокамеры или кто-либо еще. В ходе расследования выяснилось, что поодиночке и совместно все эти компоненты системы работали штатно. Одновременно удалось установить, что жертва в момент перехода улицы находилась под воздействием наркотиков и небольшой дозы алкоголя. В результате, с привлечением ведущих специалистов по робототехнике был сделан окончательный вывод. Поскольку действия человека, находящегося в состоянии алкогольного или наркотического опьянения, имеют другую моторику, нежели в нормальном состоянии, программному обеспечению, распознающему пешехода, было трудно идентифицировать объект как субъекта, который на красный свет пересекал при достаточно сильном движении дорогу. Грубо говоря, женщина погибла из-за целого комплекса обстоятельств, когда в буквальном смысле она была единственной, кто нарушил заранее установленные правила.
Сегодня очевидно, что, например, в Соединенных Штатах, Сингапуре, Нидерландах роботомобили, в том числе траки и такси уже в 2020 г. могли бы массово выйти на дороги. Однако видимо этого не произойдет, поскольку окончательно не решены вопросы распределения ответственности при инцидентах с ними. Вопрос распределения ответственности сегодня является главным для формирования юридической нормативной базы использования ИИ.
Фактически судьбы таких прорывных технологий, как ИИ, зависят от дополнения юридической системы, регулирующей отношения физических и юридических лиц специальными случаями, когда между юридическим и физическим лицом находится сложное устройство, имеющее многих производителей.
Робототехника, оснащенная ИИ, это отнюдь не первое сложное техническое устройство, изготавливаемое многими производителями, с которыми взаимодействуют люди. Лучший пример тому – авиатехника. Там тоже постоянно возникают проблемы поиска конкретного виновника нанесения ущерба и соответственно стороны, выплачивающей компенсацию пострадавшему, либо членам его семьи. Казалось бы, в случае с ИИ можно пойти по пути авиатехники. Однако, существует проблема. Случаи авиакатастроф крайне редки. Ежегодно их случается не более нескольких десятков. Что же касается, например, роботомобилей с ИИ тогда, когда их станет сотни тысяч, а то и миллионы, то здесь инциденты могут происходить гораздо чаще, особенно на первом этапе.
Как бы там ни было, в рамках определения режима ответственности, необходимо решить три главных вопроса. Первый – будет ли ответственность выражена, прежде всего, в финансовой форме, либо предусматривать и уголовные сроки наказания. Второй – будет ли перед конечным пользователем нести ответственность только эксплуатант ИИ, либо будет использоваться система солидарной ответственности, включающая всех поставщиков, провайдеров и эксплуатантов, связанных с конкретным ИИ. Третий – будет ли реализован принцип одноранговой или многоранговой ответственности. В случае одноранговой – безусловную ответственность перед потребителем несет только эксплуатант ИИ. Он же в свою очередь выставляет регрессивные иски поставщикам ИИ или отдельных его компонентов. В случае многоранговой ответственности изначально перед потребителем будут нести ответственность все так или иначе связанные с конкретным изделием ИИ производители. В этом случае суть расследования будет в том, чтобы свести до минимума круг конкретных виновников, исключив из него добросовестных производителей компонентов ИИ.
Покажем это на простом примере. Идеальным примером одноранговой ответственности является строгая ответственность работодателя перед клиентом за действия своих сотрудников при исполнении ими своих обязанностей. В реальной практике в странах ЕС в основном используется так называемая относительно строгая ответственность. Она допускает более широкий набор исключений, часто связанных со степенью предсказуемости действия и т.п. типичным случаем относительно строгой ответственности является действующий режим ответственности за качество продукции или ответственности за ущерб, причиненный животными, находящимися под наблюдением своих хозяев.
Что касается ответственности перед конечным пользователем, то большинство правовых систем стран ЕС базируются на принципе «единого окна», т.е. единого субъекта, который несет ответственность за возмещение ущерба. При этом, эта система предусматривает дальнейшее расщепление ответственности. Материальную ответственность в таких случаях несет один единый субъект, как правило, страховая компания, а ответственность за нарушения технических регламентов, стандартов, отраслевых правил и т.п., носящие в том числе уголовный характер, несет конкретный виновник происшествия.
Кроме того, в европейском законодательстве подход «единого окна» предусматривает возможность первому ответственному субъекту подать в суд на другие субъекты цепочки создания стоимости для получения возмещения. Например, если авария вызвана неполадками в датчике автомобиля с самостоятельным управлением, то изготовитель автомобиля будет нести ответственность перед лицами, которым нанесен ущерб. При этом, он сможет добиться возмещения своих затрат путем иска непосредственно производителю датчика.
Кроме того, в случае ИИ возникает проблема, которой нет в коллизиях, связанных с авиатранспортом, автомобилями, судами и т.п. Невероятно малая доля происшествий с такого рода сложными системами связана с человеческим фактором не на стороне эксплуатанта, а на стороне пользователя. В прошлом году произошло лишь два случая, когда люди погибли в аэропортах стран ЕС, оказавшись на взлетно-посадочных полосах во время взлета и приземления самолетов. Тщательный анализ выявил, что в обоих случаях люди сознательно обманули охранные системы и персонал аэропорта. Пока подобного рода инциденты крайне редки, но при массовом внедрении ИИ казусы и инциденты по вине пользователей могут стать гораздо более частыми. При этом сами пользователи будут стремиться получить материальную компенсацию за полученный ущерб. Соответственно, если не вооружить суды четкими и однозначными рекомендациями и инструкциями, чем дальше, тем больше они будут заниматься инцидентами, связанными с человеко-машинным взаимодействием, априори решая конфликты в пользу человека.
Есть еще одна проблема. Она на данный момент совершенно не отрефлектирована специалистами в юриспруденции. Особенность ИИ заключается в том, что он действует в большинстве случаев в рамках всемирной сети. Соответственно, весьма вероятно, что отказы или сбои в работе ИИ могут происходить не по причинам, связанным с программно-аппаратными средствами, а с общесетевыми проблемами. На сегодняшний день нет даже наметок законодательного определения в рамках солидарной ответственности конкретной ответственности всех юридических лиц, связанных с функционированием ИИ в интернете, включая провайдеров.

§ 3. К кому приравнять ИИ: к объектам, животным или рабам?

Рассмотрение режима ответственности для ИИ неизбежно сводится к наиболее фундаментальному вопросу: можно ли рассматривать ИИ как обычный технический объект, который находится под полным контролем человека, или же ИИ обладает некоторыми элементами автономии и разумности. Если ответ положительный, то это делает возможным применение к компаниям, производящим и эксплуатирующим программно-аппаратные комплексы ИИ, того же набора правил, включая технические регламенты, отраслевые и объектные стандарты и юридические нормы, как к производителям и экслуатантам обычных технически сложных, многокомпонентных изделий, типа самолетов, кораблей и т.п.
Если ИИ рассматривается как своего рода развитие или расширение возможностей человека, то правила ответственности, применимые к людям можно ограниченно использовать и для ИИ. При этом, ответственность появляется когда имеет место субъективный элемент, например, халатность или намерение причинить вред, которые привели к нанесению ущерба, а также на основе дистрибуции собственности, которая наносит ущерб третьей стороне.
Разумно ожидать, что ИИ в перспективе будет использоваться в основном не как объект, а как услуга. В этих обстоятельствах остается открытым вопрос, должна ли ответственность за услугу иметь договорной характер или ответственность неконтрактного характера (деликтная ответственность).
В последние годы растет число юристов, отвергающий приравнивание ИИ к обычным сложным многокомпонентным устройствам. Они предлагают рассматривать ИИ как животное, особенно в тех случаях, когда ИИ предполагает определенную степень автономии. Это опция в последнее годы подкрепляется научными исследованиями, согласно которым в ближайшие годы продвинутые системы ИИ сравняются по мощности интеллекта с кошкой. Этот вариант подразумевает, что сам по себе ИИ не имеет статуса юридического лица, но также как опасные дикие животные налагает большие дополнительные требования к собственникам ИИ, так как это сегодня действует в законодательствах большинства стран относительно ответственности владельцев диких животных. Наиболее детальная система ответственности за животных, содержащихся частными лицами в неволе, предусматривается в системе общего права США.
В последние годы ряд британских и израильских юристов предложили разрабатывать законодательство по ИИ по аналогии с римским правом в отношении рабов. Такое толкование подтверждается тем фактом, что само по себе слово «робот» впервые использованное Карлом Чапеком на чешском языке, означает «принудительный труд» или «раб». В римском праве хозяева несут ответственность за ущерб, причиненный их рабами. В южных штатах Америки еще в первой половине XIX века хозяин нес полную ответственность за каждый противозаконный поступок раба, независимо от того, был ли он совершен на службе и в рамках выполнения работ в интересах рабовладельца, либо в частной жизни раба.
Ряд американских правоведов предложили рассматривать ИИ как наемного работника и предоставлять ему юридическое лицо, а также обязанность проявлять должную осторожность. При этом, строгая ответственность по-прежнему будет возлагаться на владельца ИИ, но сам по себе ИИ, имеющий юридическое лицо, может быть запрошен для компенсации ущерба, в том числе реквизирован в пользу лица, которому был нанесен ущерб. Фактически это будет своего рода передача раба от одного рабовладельца другому в счет покрытия ущерба.
Этот американский подход связан с успехами в сверхбыстром глубинном обучении. Часть современных программистов и математиков полагают, что уже в ближайшие три-пять лет ИИ будет способен сам себе писать программы, а также реплицировать усовершенствование модели себя на автоматизированных предприятиях. В этом случае вообще не понятно, в какой роли выступает человек — собственник ИИ, и к кому предъявлять требования компенсации за нанесенный ущерб. В этой связи не вызывает удивления предложение, поступившее от Нидерландов в Европейский парламент, которое предусматривает рассмотрение семейство роботов, подключенных к единому мощному ИИ даже не как наемных работников, а как прямых юридических лиц, несущих неограниченную ответственность без связи с разработчиком.

§ 4. Действующее законодательство ЕС

Нынешние правила ЕС об ответственности за системы ИИ в основном базируются на двух законодательных актах: Директиве об ответственности за качество продукции и Директиве об ответственности за механизмы. Эти директивы предусматривают, что если устройство причиняет вред человеку или его частной собственности, то производитель несет ответственность за выплату компенсации.
Недавняя оценка показала, что директивы по-прежнему обеспечивают хороший баланс между защитой прав потребителей и поощрением инноваций. При этом ЕС пообещал, что в течение 2019 г. будут опубликованы толкования директив, где будут обновлены и привязаны к инновациям такие понятия, как «дефект», «продукт», «производитель», «узлы и детали», «программные» и «аппаратные». При этом, в толкованиях предусматривается, можно ли включить использование «ИИ как услуга» в сферах действия директив, а также, как интерпретировать разницу в ответственности изготовителей харда и софта.
В последнее время ЕС опубликовал Директиву по машинному оборудованию. Она устанавливает общие требования по охране труда и технике безопасности для роботов и 3D принтеров. Это – хороший пример, как совершенствуется европейское законодательство в наиболее инновационных сферах. Директива по машинному оборудованию является законодательным актом, который предусматривает создание «нормативных песочниц», а также комплексное регулирование, включающее общеевропейское и страновое юридическое регулирование, саморегулирование ассоциаций производителей и общественный контроль со стороны гражданского общества.
Будущий режим ответственности использования ИИ должен быть разработан в сочетании с совершенствованием системы страхования. Предполагая, что всегда можно отследить ответственное лицо в автоматизированном процессе, будущие Руководящие принципы политики могут потребовать, чтобы компания, разрабатывающая, внедряющая и продающая ИИ предоставляла регулирующим органам финансовые документы, подтверждающие ее способность имущественно реагировать на любые потенциальные обязательства, возникающие в ходе эксплуатации ее техники. В случае, если это невозможно, пользователи должны знать и иметь возможность либо отказаться от такого использования, либо обратиться к страховщикам, которые самостоятельно принимают решение о страховании подобного рода изделий.
При рассмотрении правовых основ регулирования, необходимо иметь в виду не только указанные выше директивы, но и множество отраслевых нормативных актов, регламентирующих стандарты, технические регламенты и юридические взаимоотношения. Например, страховые компании и банки уже распространяют некоторые требования о раскрытии информации, которые сложились в высокотехнологичных отраслях и на ИИ. Хорошим примером этого является Директива о распределении страхования от 1 октября 2018 г.
В соответствии с Директивой страховые компании смогут принимать на страхование лишь те сложные технические средства, производители которых предоставляют утвержденный перечень информации о техническом средстве, его компонентах, а также возможных выявленных в том числе в ходе испытаний и практической эксплуатации уязвимостях, порождающих определенные риски.
Первопроходцем в деле юридического регулирования робототехники и ИИ стала Британия. В июле 2018 г. первой в мире она приняла Закон об автоматизированных электрических транспортных средствах, включая беспилотные автомобили, суда, а также дроны. Закон 2018 г. предусматривает подход «легкого прикосновения», и как ожидается, что предусмотрено структурой закона будет обновляться по мере развития технологий и инфраструктуры. Это – первый законодательный акт во всем мире, который построен по принципу легкого прикосновения. Т.е. в нем предусмотрены лишь основные понятия и термины в этой сфере и общая конструкция, связанная с правами, обязанностями и ответственностью производителей, эксплуатантов автоматизированных транспортных средств, а также конечных потребителей. Закон построен таким образом, чтобы по мере развития робототехники он мог в упрощенном порядке развиваться и расширяться сообразно динамике техники и технологий.
Указанный закон является первым законодательным актом во всем мире, в котором изложена формализованная правовая модель страхования и ответственности за роботомобили – автоматические транспортные средства. Поскольку это абсолютная юридическая новация, учреждения ЕС в настоящее время проявляют определенную осторожность, называя его моделью. Что же касается Великобритании, то до конца 2019 г. будет принят дополнительный подзаконный акт, регламентирующий вступление в силу указанного закона и особенности его трактовки.
Что касается содержания закона, то необходимо отметить ряд обстоятельств. Закон предоставляет страховщикам возможность ограничить свою ответственность в соответствии с разделом 2 (1) перед страхователями, и в определенных обстоятельствах перед третьими лицами, когда несчастные случаи были вызваны отказом застрахованного лица, либо с ведома застрахованного лица установить критические для безопасности обновления программного обеспечения. Иными словами, если эксплуатант беспилотного автомобиля не установил вовремя обновление, предоставленное производителем софта к машине, и по этой причине произошла авария, то всю ответственность будет нести эксплуатант, а не производитель автоматизированного средства.
Аналогичным образом несчастные случаи, вызванные самостоятельным изменением программного обеспечения эксплуатантом, запрещенные условиями полиса страхования, также могут быть исключены из страхового покрытия. Тем не менее, страховщики по-прежнему будут нести строгую ответственность за выплату компенсаций большинству третьих лиц, пострадавших в результате несчастных случаев, к которым применяется закон 2018 г.
Британский закон создает важнейший прецедент. Он предусматривает основополагающую роль страховщиков в контроле за программно-аппаратным обеспечением автономных транспортных средств. Соответственно, со временем страховщики будут оказывать давление на поставщиков ИИ, чтобы перейти к определенному уровню стандартизации и унификации. Вполне очевидно, что страховщики из компаний, рассчитывающих риски, получающих и отдающих деньги превратятся в компании по контролю за техникой безопасности автоматизированных транспортных средств, а затем и иной робототехники.
Закон также устанавливает законное право суброгации для страховщиков – владельцев полностью или частично возместить свои убытки за счет другой стороны, ответственной, в конечном счете, за произошедший несчастный случай. Что касается взаимодействия между человеком и машиной в недавно принятом правительственном Кодексе испытания автономных транспортных средств, разъясняется, что водитель или оператор роботомобиля и любого другого автоматизированного средства, типа дрона или судна должен обязательно иметь возможность взять под свой контроль транспортное средство, отключив автоматизированное управление в любое время. Таким образом, создается впечатление, что пока законодатели хотят избежать возможности появления полностью автоматизированных транспортных средств, которые будут априори не только независимы от человека, но и не предусматривать возможности вмешательства в экстренных случаях со стороны оператора.
Важно отметить следующее. Ситуацию, которую законодатели решают в отношении роботомобилей – беспилотных легковых машин и грузовых траков сходны с историей дронов в первой половине десятых годов. Тогда шли ожесточенные дискуссии относительно возможности или невозможности производства военных дронов, выполняющих все функции, включая открытие огня без вмешательства человека. Соединенные Штаты и страны ЕС жестко находились на позиции разделения функций ИИ и человека в управлении дроном: ИИ управлял полетом, а человек принимал решение об открытии огня. В то же время Израиль и ряд других государств полагали возможным производство и боевое использование полностью автоматизированных дронов. В рамках дискуссии было проведено натурное испытание, в ходе которого беспилотные дроны показали полное превосходство перед дронами с использованием человека.

§ 5. Стимулирование инноваций на основе данных с использованием политических инициатив

Область, в которой институты ЕС должны быть особенно активными, это – инновации, основанные на данных. На заседаниях Целевой группы CERPS удалось установить, что в большинстве случаев разработка ИИ представляет собой полный технопакет или стек технологий, базирующийся на использовании и обработке больших наборов данных. Отсутствие данных стало ключевой проблемой, не позволяющей большинству европейских компаний использовать методы машинного обучения и ИИ. Хотя не все типы ИИ требовательны к данным и используют машинное обучение, в подавляющем большинстве случаев наличие больших наборов данных – это главная предпосылка эффективного развития ИИ.
При этом, разработчики в Соединенных Штатах и в Китае могут рассчитывать на работу с намного более разнообразными и обширными данными, чем в Европе, где существуют гораздо более строгие законы о конфиденциальности при использовании данных.
В общем и целом, сейчас в странах ЕС большие наборы данных более доступны, чем в прошлом. Однако, лишь немногие участники европейского рынка имеют прямой доступ к наборам данных, позволяющим использовать эффективные методы ИИ. По сути, Европа с жесткими критериями конфиденциальности, соблюдения авторского права и правилами приобретения данных и т.п. с каждым годом все более уступает в конкурентной борьбе Китаю и США, где данные на порядок более доступны, чем в Европе.
Как найти правильный баланс между обеспечением доступности больших данных и необходимостью сохранять неприкосновенность частной жизни и конфиденциальность бизнеса? Целевая группа CEPS согласовала следующие рекомендации.
Крайне важно обеспечить максимальную открытость данных, собираемых правительствами и статистическими государственными органами на всех уровнях — от федерального до уровня коммун — и их предоставление в форматах, пригодных для машинного обучения и использования. На сегодняшний день это – главное направление перехода от закрытого к открытому правительству в рамках ЕС.
По состоянию на сегодняшний день, несмотря на принятые на уровне ЕС и государств-членов решения, основные и наиболее интересные массивы данных, хранящихся в правительствах и собранных государствами за счет средств налогоплательщиков, недоступны для исследователей, предпринимателей и компаний, желающих участвовать в инновациях, основанных на данных. Так, например, только в 12 странах ЕС в число открытых включены данные, связанные с правонарушениями любого уровня тяжести, а также данные о криминогенности тех или иных регионов, муниципий и даже кварталов.
Несмотря на Директиву ЕС, ни одна из новых стран-членов ЕС, за исключением балтийских стран, не раскрыла данные по расходам самого правительства на государственный аппарат и государственных служащих. В связи с этим 25 апреля 2018 г. на рассмотрение Европейской Комиссии внесен пересмотренный вариант Директивы об информации в государственном секторе. Он предусматривает обязательное для всех стран-членов ЕС предоставление информации в машиночитаемом виде по расширенному перечню номенклатуры документов и позиций, включая особо чувствительную для гражданского общества и бизнеса информацию по экологической обстановке, информацию, связанную с правонарушениями, а также расходованием средств на оборону, разведку, полицию и т.п.
Наряду с обеспечением перелома в предоставлении правительственных данных, важно ускорить формирование единого общеевропейского рынка данных. Он предусмотрен регламентом, принятым в ноябре 2018 г. В то же время возможные исключения из свободного потока, например, основанного на требованиях национальной безопасности того или иного государства, должны быть заранее кодифицированы с тем, чтобы избежать произвольной трактовки регламента отдельными государствами.
Регламент запрещает правительствам и законодательным органам отдельных стран вводить ограничения на локализацию данных. Это позволяет коммерческим организациям хранить данные в любой точке ЕС, или, если это транснациональные международные компании, то по обязательному согласованию с ЕС — за пределами ЕС. Это позволяет компетентным органам получать доступ к данным для контроля и надзора независимо от того, где они хранятся и обрабатываются в ЕС. Регламент также предусматривает создание в 2019 г. Кодекса поведения для провайдеров услуг, которые хранят или обрабатывают данные. На основе Кодекса имеется в виду создать саморегулирующуюся Ассоциацию провайдеров и обработчиков больших данных ЕС.
ЕС в отличие от некоторых других стран и региональных объединений уделяет и будет продолжать уделять самое пристальное внимание защите данных. Европейская Комиссия будет и далее финансировать исследования, инновации, стандартизацию в области конфиденциальности «по умолчанию» или «по замыслу». ЕС будет всячески поощрять провайдеров и обработчиков данных, реализовывать для их хранения и анализа наиболее эффективные криптографические решения, и в первую очередь гомоморфное шифрование и нулевое доказательство знаний. Магистральным направлением развития баз данных и хранилищ неструктурированной информации Еврокомиссия полагает переход от традиционных решений к решениям, основанным на блокчейне. Эти решения уравнивают в правах правительства, бизнес, гражданское общество и позволяют выстраивать не только и без того господствующие вертикальные связи, но и горизонтальные цепочки создания ценностей на основании данных. ЕС полагает, что блокчейн-технологии станут основным направлением хранения и обработки данных на ближайшую перспективу.
Необходимо решить вопрос, связанный с разрешением интеллектуального анализа текстов и данных, как в исследовательских, так и в коммерческих целях. В отличие от Соединенных Штатов, Китая и России, в Европе крайне затруднен интеллектуальный анализ текстов по причине необходимости соблюдения авторского права. В отличие от упомянутых стран, в Европе для того, чтобы осуществлять интеллектуальный анализ текста, необходимо получить согласие автора текста или правообладателя. На практике это невозможно. В связи с этим уже сегодня европейский бизнес, который подчиняется жестким этическим принципам (так называемому этическому анализу данных) проигрывает своим конкурентам за океаном, в Китае и России.
В ближайшее время эксперты ЕС рекомендуют избегать дальнейшего ужесточения регулирования доступа к данным, связанного с соблюдением авторского права, интеллектуальной собственности и т.п. В целом бизнес не одобряет новый тип права собственности на данные и указывает, что ключевой вопрос во взаимодействии касается не только собственности, но и того, как организован доступ. Нынешние правила фактически блокируют возможность специализированных компаний обрабатывать личные данные, а также данные, на которые распространяется право интеллектуальной собственности.
Существует необходимость в осуществлении большей ясности относительно правовой основы для машинно генерируемых данных. Европейская Комиссия полагает, что в ближайшем будущем регулирование данных будет связано с переходом от общих регулятивных документов к отраслевым, учитывающим конкретную специфику. Безусловно, переход к уже одобренным на уровне ЕС правилам и подходам к правовому регулированию доступа, хранения и обработки данных, потребует всестороннего учета интересов не только собственников данных, но и их провайдеров, а главное, конечных потребителей.
Возможно, наиболее острый вопрос в ЕС – это тема использования персональных и индивидуальных, но обезличенных данных. Законодательство ЕС — не просто наиболее сырое среди всех ведущих IT зон мира, но и носит по существу почти запретительный характер. По мнению целевой группы , эта тема является предметом наиболее острых дискуссий, как в законодательных органах стран ЕС, так и в гражданском обществе.
При всей разнородности позиций фактом остается то, что сверхжесткое регулирование, по сути, запрет использования персональных и даже обезличенных индивидуальных данных не позволили не то, что в масштабах отдельных стран, но и ЕС в целом, создать континентальный поисковик, конкурирующий с Google, Bing и Yandex, собственную европейскую социальную сеть или торговую платформу, типа Amazon. Хорошо известно, что в основе экономики этих платформ лежит сделка между ними и пользователями, когда бесплатный доступ к услугам платформы разменивается на бесплатный доступ к данным о пользователе. Эту сделку потребители осуществляют вполне сознательно и ставят специальный значок согласия. Если ЕС не осознает это и не изменит своей позиции, то окончательно и бесповоротно превратится в рынок для сторонних платформ. Это в цифровом мире равносильно колониальному статусу.

§ 6. Принципы ОЭСР по ответственному управлению надежным ИИ

25 мая 2019 года все 36 стран, входящих в Организацию экономического сотрудничества и развития (ОЭСР), поддержали Принципы ответственного управления надежным ИИ:
1. Инклюзивный рост, устойчивое развитие и благополучие
Заинтересованные стороны должны активно участвовать в ответственном управлении заслуживающим доверия ИИ в достижении полезных результатов для людей и планеты, таких как расширение человеческих возможностей и повышение креативности, расширение участия недопредставленных групп населения, сокращение экономического, социального, гендерного и другого неравенства и защита природной среды, таким образом, стимулируя инклюзивный рост, устойчивое развитие и благосостояние;
2. Ориентированные на человека ценности и справедливость
а) Участники ИИ должны уважать верховенство закона, права человека и демократические ценности на протяжении всего жизненного цикла системы ИИ. К ним относятся свобода, достоинство и автономность, конфиденциальность и защита данных, недискриминация и равенство, разнообразие, справедливость, социальная справедливость и трудовые права, признанные на международном уровне.
б) С этой целью субъекты ИИ должны внедрять механизмы и гарантии, такие как способность к человеческой решимости, которые соответствуют контексту и соответствуют уровню техники;
3. Прозрачность и объяснимость
Участники ИИ должны обеспечить прозрачность и ответственное раскрытие информации о системах ИИ. С этой целью они должны предоставлять значимую информацию, соответствующую контексту и соответствующую уровню техники:
– способствовать общему пониманию систем ИИ,
– информировать заинтересованные стороны об их взаимодействии с системами искусственного интеллекта, в том числе на рабочем месте,
– дать возможность пострадавшим от системы ИИ понять результат и внутривенно дать возможность тем, на кого система ИИ оказывает негативное воздействие, оспаривать ее результаты на основе простой и понятной информации о факторах и логики, которая послужила основой для прогноза, рекомендации или решения;
4. Надежность, безопасность и безопасность
а) Системы AI должны быть надежными, надежными и безопасными на протяжении всего их жизненного цикла, чтобы в условиях нормального использования, предполагаемого использования или неправильного использования или других неблагоприятных условий они функционировали надлежащим образом и не представляли необоснованного риска для безопасности;
б) С этой целью субъекты ИИ должны обеспечивать отслеживаемость, в том числе в отношении наборов данных, процессов и решений, принятых в течение жизненного цикла системы ИИ, для обеспечения возможности анализа результатов и ответов системы ИИ на запрос, соответствующих контексту и в соответствии с уровнем техники;
с) Субъекты ИИ должны, исходя из своих ролей, контекста и способности действовать, применять систематический подход к управлению рисками на каждом этапе жизненного цикла системы ИИ на постоянной основе для устранения рисков, связанных с системами ИИ, включая конфиденциальность, цифровую безопасность, безопасность и предвзятость;
5. Подотчетность
Участники ИИ должны нести ответственность за надлежащее функционирование систем ИИ и за соблюдение вышеуказанных принципов, исходя из их ролей, контекста.