Содержание
- Введение
- I. Что такое искусственный интеллект?
- A. Нынешний искусственный интеллект на самом деле интеллектом не обладает
- B. Искусственный интеллект как технология
- 1. Машинное обучение
- 2. Правила, логика и перенос знаний
- 3. Гибридные системы искусственного интеллекта
- a. Гибридные системы машинного обучения / переноса знаний
- b. Гибридные системы «Человек-ИИ» и присутствие человека в контуре
- C. Возможности и ограничения современного ИИ
- II. Искусственный интеллект в праве
- A. Искусственный интеллект в юридической практике
- B. Применение норм права с использованием искусственного интеллекта
- 1. Использование ИИ судьями и административными чиновниками в процессе принятия решений
- 2. Использование искусственного интеллекта в полиции
- C. Искусственный интеллект и «пользователи» права
- D. Современные проблемы на стыке искусственного интеллекта и юридической практики
- Заключение
Введение
Главным мотивом для создания данной работы является формирование реалистичного и не окутанного мистикой восприятия ИИ на основе реальных возможностей данной технологии. Предполагается, что это будет контрастировать с дискуссиями вокруг ИИ, которые носят преимущественно футуристический характер. В такой литературе предлагаются спекуляции по поводу последствий развития ИИ, еще не воплотившихся в жизни и, возможно, даже не имеющих перспектив воплощения. Невзирая на то, что такие футуристические диалоги тоже играют свою роль, важно понимать, что они включают в себя существенные, иногда необоснованные допущения по поводу того направления, в котором движется технология. Подобная спекулятивная дискуссия часто отвлекает от важных, но, возможно, менее экзотических вопросов права и политики, в действительности поднимаемых технологией ИИ сегодня.
I. Что такое искусственный интеллект?
Что такое искусственный интеллект? Существует много вариантов ответа на данный вопрос, но начать следует с рассмотрения тех видов проблем, для решения которых часто задействуется технология ИИ. В подобном духе мы можем обозначить ИИ как использование технологий для автоматизации задач, которые «обычно требуют интеллекта человека». Такое обозначение ИИ подчеркивает, что данная технология часто сфокусирована на автоматизации конкретных видов задач: тех, которые предполагаются задействующими интеллект при их выполнении человеком.
Данное описание ИИ можно проиллюстрировать с помощью нескольких примеров. Исследователи успешно применяют технологию ИИ для автоматизации некоторых видов комплексной деятельности, например игра в шахматы, перевод с иностранного языка и вождение транспортного средства. Почему данные задачи обозначаются как задачи для ИИ, а не как задачи по автоматизации в целом? Потому что их объединяет одна общая черта: когда данные виды задач выполняются человеком, он пользуется различными когнитивными процессами высокого порядка, которые ассоциируются с интеллектом человека.
Например, когда люди играют в шахматы, они пользуются определенным диапазоном когнитивных способностей, в том числе логическое мышление, разработка стратегии, планирование и принятие решений. Аналогичным образом, когда люди осуществляют перевод с одного языка на другой, они активируют мозговые центры высокого порядка для обработки символов, контекста, языка и значения. Наконец, когда люди водят автомобили, они задействуют ряд мозговых систем, включая те, которые ассоциируются со зрением, ориентацией в пространстве, пониманием происходящей ситуации, передвижением и выработкой оценок. Если коротко, когда инженеры автоматизируют какой-нибудь вид деятельности, который требует когнитивной активности при его осуществлении человеком, это часто называют применением искусственного интеллекта. Данное определение не может полностью описать все виды деятельности, связанные с искусственным интеллектом, однако оно полезно как рабочий вариант.
A. Нынешний искусственный интеллект на самом деле интеллектом не обладает
Итак, теперь у нас есть общее описание того, что такое ИИ. Однако также важно понимать, чем современная технология ИИ не является. Когда многие слышат термин «искусственный интеллект», они представляют себе современные системы ИИ как мыслительные машины. Параллельно с этим существует распространенное заблуждение о том, что существующие системы ИИ производят свои результаты путем участия в какой-то синтетической компьютерно-познавательной деятельности, которая находится на одном уровне с человеческим мышлением или превосходит его.
Реальность такова, что современные системы искусственного интеллекта определенно не являются интеллектуальными мыслительными машинами ни в каком содержательном смысле. Скорее, о чем мы и будем говорить далее, системы ИИ нередко способны производить полезные и разумные результаты без участия интеллекта. Данные системы достигают таких результатов, в основном, благодаря эвристике, т.е. через нахождение паттернов в данных и использование знаний, правил и информации, которые специально закодированы людьми в формы, доступные для компьютерной обработки. Благодаря этим вычислительным приближениям системы искусственного интеллекта часто могут производить на удивление хорошие результаты при работе над определенными комплексными задачами, требующими когнитивных способностей при их выполнении человеком. Однако следует отметить, что данные системы ИИ выполняют данные задачи с помощью вычислительных механизмов, которые не похожи на человеческое мышление и не находятся с ним на одном уровне.
Напротив, восприятие ИИ как состоящего из мыслительных машин со способностями на одном уровне с человеческой когнитивной деятельностью или выше, как его нередко называют: сильный ИИ (Strong AI) или искусственный общий интеллект (Artificial General Intelligence) — это не более чем амбиция. Данное художественное представление об ИИ используется в развлекательной индустрии, где компьютеры могут участвовать в произвольных разговорах на абстрактные темы, например по философии, и действуют как полностью независимые когнитивные системы. Невзирая на то, что сильный ИИ является целью исследовательских разработок, даже самая современная технология искусственного интеллекта не имеет никакого значимого сходства с искусственным общим интеллектом. Сегодняшние системы ИИ не в состоянии и даже вполне могут быть не предназначены для того, чтобы соответствовать высокоуровневым человеческим способностям, например абстрактное мышление, постижение концепций, гибкость суждений, общие навыки решения проблем, а также широкий спектр других функций, которые ассоциируются с интеллектом человека. Вместо этого современные системы искусственного интеллекта выделяются в узких и ограниченных условиях (например, игра в шахматы), которые обладают определенными характеристиками; нередко это такие виды деятельности, в которых есть явно правильный и неправильный ответ, различимые базовые паттерны и структуры, и где быстрый поиск с быстрым вычислением создают преимущества перед когнитивными способностями человека.
Разумеется, сильный ИИ вполне может когда-нибудь появиться (хотя многие эксперты в данной сфере относятся к этому скептически), но, как минимум по мнению автора данной работы, нет никаких существенных реальных доказательств, предполагающих, что мы близки к такому развитию событий в обозримом будущем (например, 5-10 лет). Поэтому предлагаемая в данной работе дискуссия воздерживается от спекуляций по поводу будущего развития и вместо этого сосредотачивается на текущем состоянии технологии искусственного интеллекта.
B. Искусственный интеллект как технология
Существует еще один подход к пониманию понятия об искусственном интеллекте: изучать не проблемы, которые он может или не может решить, а НИОКР соответствующей дисциплины. В общем смысле, многие воспринимают искусственный интеллект как одну из отраслей компьютерных наук. Однако на самом деле ИИ представляет собой междисциплинарную область, которая включает в себя идеи, методики и исследователей из различных профессий, среди которых (среди прочего) статистика, лингвистика, робототехника, электротехника, математика, неврология, экономика, логика и философия. Если опуститься на один уровень ниже, ИИ можно считать совокупностью технологий, выросших из научных и частных исследований. Поэтому мы можем сформировать для себя более полезное восприятия ИИ, если начнем лучше понимать те базовые технологии, благодаря которым он существует.
Итак, какие механизмы на самом деле позволяют ИИ автоматизировать такие задачи как игра в шахматы, перевод с иностранного языка или вождение автомобиля? На сегодняшний день самые успешные подходы к технологии искусственного интеллекта разделяются на две широкие категории: (1) машинное обучение, а также (2) логические правила и перенос знаний. Давайте более внимательно рассмотрим каждый из данных методов.
1. Машинное обучение
Под машинным обучением понимается семейство методик ИИ, которые объединяет несколько общих характеристик. По сути, большинство методов машинного обучения работает через обнаружение полезных паттернов в больших массивах данных. Затем данные системы могут использовать данные паттерны в различных задачах, например вождение автомобиля или обнаружение обмана при помощи таких методов, которые часто дают полезные результаты, похожие на разумные. Машинное обучение — это не один подход, а скорее широкая категория компьютерных методик, которых объединяют данные функции. Среди базовых методик машинного обучения, о которых, возможно, слышали читатели, нейронные сети (neural networks) / глубокое обучение (deep learning), наивный байесовский классификатор (naive Bayes classifier), логистическая регрессия (logistic regression), а также случайные леса (random forests). Поскольку на сегодняшний день машинное обучение является доминирующим подходом в искусственном интеллекте, мы уделим машинному обучению немного больше внимания.
Для начала важно разъяснить значение слова «обучение» в термине «машинное обучение». Если исходить из самого названия, можно подумать, что данные системы учатся аналогично тому, как это делают люди. Но это не так. Скорее, слово «обучение» используется только как грубая метафора обучения человека. Например, когда люди учатся, мы часто измеряем прогресс в функциональном смысле: прогрессирует ли человек в конкретной задаче с течением времени благодаря накоплению опыта. Аналогичным образом, мы можем грубо охарактеризовать системы машинного обучения как обучающиеся с функциональной точки зрения в том смысле, что они тоже могут улучшать свою эффективность в определенных задачах с течением времени. Для них это возможно благодаря исследованию еще большего объема данных и поиску дополнительных паттернов. Важно отметить, что слово «обучение» не подразумевает, будто бы данные системы искусственным образом воспроизводят нейронные системы высокого порядка, которые человек задействует во время обучения. Скорее данные алгоритмы повышают свою эффективность с помощью исследования большего объема данных и обнаружения дополнительных паттернов в таких данных, что помогает им принимать более качественные автоматизированные решения.
Давайте попробуем сформировать интуитивное понимание того, каким образом системы машинного обучения используют содержащиеся в данных паттерны, чтобы давать разумные результаты. Например, обычный фильтр спама в электронной почте. В большинстве программ работы с электронной почтой используется машинное обучение для автоматического обнаружения во входящих электронных письмах спама (т.е., нежелательных и непрошеных коммерческих электронных писем) и его перенаправления в отдельную папку для спама.
Каким образом такая система машинного обучения автоматически идентифицирует спам? Нередко основным методом является «тренировка» системы путем предоставления ей многочисленных примеров электронных писем со спамом, а также многочисленных примеров «хороших» электронных писем. Далее программное обеспечение для машинного обучения может обнаружить паттерны во всех таких примерах электронных писем, чтобы в дальнейшем пользоваться ими для определения вероятности того, что новое входящее электронное письмо является спамом или хорошим письмом. Например, когда приходит новое электронное письмо, пользователям часто дается возможность пометить электронное письмо как спам или не спам. Каждый раз, когда пользователи помечают электронное письмо как спам, они дают системе пример для тренировки. Для программного обеспечения машинного обучения это является сигналом того, что ему передан проверенный человеком пример электронного письма со спамом, и ему следует проанализировать данное письмо на паттерны-ориентиры, благодаря которым его можно выделить среди хороших электронных писем.
Как может выглядеть полезный пример такого паттерна? В одном распространенном подходе используются простые словесные вероятности. Данная методика подразумевает, что система будет пытаться обнаружить слова и фразы, вероятность появления которых в электронном письме со спамом выше средней. Например, давайте представим, что пользователь пометил 100 электронных писем как спам. Допустим, алгоритм машинного обучения исследует все эти электронные письма и отслеживает, насколько часто определенные слова встречаются в электронных письмах со спамом при сравнении с хорошими электронными письмами. Представим, что система находит следующий паттерн: среди электронных писем, которые содержат слово «free» (бесплатно), 80 % представляют собой спам и лишь 20 % из них являются хорошими электронными письмами (при этом не забываем, что общий показатель писем со спамом составляет 5 %). Алгоритм машинного обучения только что обнаружил полезный паттерн: присутствие конкретного слова «free» в электронном письме является сигналом о том, что данное электронное письмо с вероятностью, превышающей средний показатель (80 % против 5 %), является спамом.
Теперь система машинного обучения может использовать данный паттерн для принятия разумных и автоматизированных решений в дальнейшей фильтрации спама. В следующий раз, когда придет электронное письмо со словом «free» в тексте, система решит, что данное электронное письмо с высокой степенью вероятности является спамом, и автоматически направит данное электронное письмо в папку для спама. Мы можем считать это результатом, достигнутым с помощью разума, потому что примерно так же поступил бы человек при быстром просмотре электронного письма, если бы заметил в нем такие слова как «free» и счел бы его спамом. В целом, в данном примере система автоматически обучилась с помощью поиска паттернов среди предыдущих данных из электронных писем со спамом; в частности, она узнала, что слово «free» является статистически индикатором того, что входящее электронное письмо с высокой степенью вероятности является спамом.
Как говорилось выше, системы машинного обучения предназначены для обучения и совершенствования с течением времени. Как им удается прогрессировать в деле идентификации спама? Изучая еще больше данных и выискивая еще более полезные признаки спама. Например, давайте также представим, что пользователь пометил еще 100 электронных писем как спам. Исследуя данную сокровищницу электронных писем, программное обеспечение может понять вторую корреляцию самостоятельно: электронные письма из государства Беларусь оказываются спамом гораздо чаще, чем письма из любых других мест. Система изучила еще один сигнал о вероятности поступления спама, что должно улучшить ее функцию фильтрации. Теперь, имея два сигнала: слово «free» и отправителя из Беларуси, система электронной почты расширила свой комплекс паттернов, указывающих на поступление спама. Если в будущем придет электронное письмо со словом «free» в тексте или от отправителя из Беларуси, система с высокой степенью вероятности пометит его как спам.
Данные примеры более определенно демонстрируют несколько моментов по поводу машинного обучения. Во-первых, они показывают, каким образом программное обеспечение может изучить полезный паттерн самостоятельно, не требуя участия программиста, который прямо пропишет такой паттерн заранее. В нашем примере программное обеспечение изучило правило о том, что присутствие слова «free» является хорошим индикатором спама само по себе, так как ее алгоритм специально предназначен для идентификации слов, которые коррелируют со спамом и рассчитывают связанные с этим вероятности. Другими словами, никакому программисту не нужно вручную готовить инструкции для программного обеспечения и обозначать такое слово как «free» в качестве вероятного индикатора спама; скорее программное обеспечение машинного обучения определило это автоматически через расчет слов, которые чаще всех ассоциируются со спамом. Таким образом, алгоритмы машинного обучения в определенном смысле могут программировать сами себя, поскольку они обладают возможностью самостоятельного обнаружения полезных правил для принятия решений, исследуя данные и находя статистические аномалии, а не пользуясь заранее подготовленными для них правилами, прямо сформулированными человеком-программистом.
Во-вторых, данный пример иллюстрирует, что программное обеспечение обучалось путем повышения своей эффективности с течением времени, пользуясь все большим объемом данных. Сначала программное обеспечение обнаружило только один показатель спама: присутствие слова «free», но с течением времени оно вычислило еще один признак спама: электронные письма от отправителя из Беларуси. Благодаря этому программное обеспечение расширило объем эвристических правил через исследование большего объема данных, что позволило ему более качественно чем раньше находить электронные письма со спамом. Это иллюстрирует, почему слово «обучение» в термине «машинное обучение» является просто метафорой для процесса обучения человека и не включает в себя воспроизведение мозговых и когнитивных процессов высокого порядка, используемых в процессе обучения человека; скорее оно обозначает поиск дополнительных полезных паттернов в растущем объеме данных.
Данный пример также поможет нам понять ограничения машинного обучения при его сравнении с интеллектом человека и сильным искусственным интеллектом. Когда человек читает электронное письмо и узнает в нем спам, он постигает содержащиеся в нем слова и их значение через активацию когнитивных центров высокого порядка, которые ассоциируются с использованием речи. Скорость данного процесса может быть очень высокой, когда человек, анализируя значение, принимает решение о том, является ли конкретное электронное письмо спамом. В фильтре спама на основе машинного обучения, напротив, система не понимает значение слов наподобие «free» или концепцию государства (например, Беларусь), но ей это и не нужно. Скорее вышеописанная система на основе машинного обучения принимает свои автоматизированные решения на основе эвристического правила — присутствие статистически существенных сигналов, например слова «free» — чтобы принимать свои решения, которые со стороны кажутся разумными.
Интересным и, возможно, удивительным является то, что данные паттерны и эвристические правила могут иногда давать разумные результаты (совпадающие с результатами, к которым пришел бы человек после прочтения), не пользуясь базовой когнитивной системой человека. Данный факт поражает, ведь машины могут пользоваться выявленными паттернами для принятия разумных решений по определенным комплексным аспектам, не понимая их базового значения или значимости так, как это делал бы человек. Данное наблюдение будет важно для нас во время исследования применения машинного обучения в юридическом контексте и поможет нам понять ограничения искусственного интеллекта в праве.
В целом, на данный момент машинное обучение является самым значительным и важным подходом к работе с искусственным интеллектом. Оно лежит в основе большинства крупных систем искусственного интеллекта, которые влияют на жизнь общества сегодня, включая автономные транспортные средства, прогнозную аналитику, выявление обмана, а также большая часть автоматизации в медицинской сфере. Однако важно отметить, что машинное обучение очень сильно зависит от доступности данных. Распространение машинного обучения подпитывается колоссальным расширением доступного объема данных в Интернете, так как все больше общественных процессов и институтов осуществляет свою деятельность с помощью компьютеров, в которых хранятся сетевые данные. Поскольку эффективность машинного обучения часто зависит от доступности больших объемов высококачественных, структурированных, доступных для машинной обработки данных, подходы к развитию машинного обучения зачастую плохо применимы в ситуациях, где данных мало или они низкого качества. Далее мы покажем, что право является одной из сфер деятельности, где высококачественные и доступные для машинной обработки данные в настоящее время встречаются сравнительно редко, исключая несколько нишевых направлений.
2. Правила, логика и перенос знаний
Перейдем к другой крупной ветви ИИ: логические правила и перенос знаний. Целью данного направления ИИ является моделирование феноменов и процессов реальной действительности в доступной для компьютера форме; обычно это делается для целей автоматизации. Работа в данном направлении нередко подразумевает участие программиста, который предоставляет компьютеру ряд правил, демонстрирующих основополагающую логику и знания из сферы того направления деятельности, которое программист пытается моделировать и автоматизировать. Поскольку правила о знаниях специально представляются на языке компьютера, у него появляется возможность обработать и изучить их с помощью дедуктивных методов.
Работа над переносом знаний обладает долгой и выдающейся историей в исследованиях искусственного интеллекта, а также сыграла роль в появлении многих так называемых экспертных систем. В экспертной системе программисты совместно с экспертами какой-нибудь области (например, медицина) стараются создать модель данной сферы профессиональной деятельности в понятном для компьютеров виде. Обычно создатели системы пытаются перенести знания экспертов в ряд формальных правил и структур, доступных для компьютерной обработки. Если создать такую медицинскую экспертную систему, в дальнейшем она позволит своим пользователям давать автоматизированные диагнозы экспертного уровня с помощью закодированного знания (например, если у пациента есть симптомы А и Б, то на основе своих правил экспертная система принимает решение о высокой вероятности медицинского состояния В).
Хорошим примером правовой экспертной системы является программа подготовки налоговых деклараций (например, TurboTax). Для создания такой системы разработчики программного обеспечения консультируются с налоговыми юристами и другими экспертами в сфере законодательства о налогообложении личного дохода, а затем переносят смысл и логику налоговых норм в набор сопоставимых формальных правил, доступных для компьютерной обработки.
Попробуем получить интуитивное понимание того, что на самом деле означает процесс «перевода» закона в компьютерное правило. Допустим, существует налоговая норма о том, что каждый доллар дохода сверх 91 000 долларов США облагается маржинальной налоговой ставкой 28 %. Программист может воспользоваться логикой данного правового положения и перевести его в компьютерное правило на базе выражения if-then (если... , то... ), которое надлежащим образом отражает смысл нормы (например, если доход > 91 000, то ставка = 28 %). При наличии такого формального представления, программное обеспечение для подготовки декларации может пользоваться подобным компьютерным правилом во время анализа отчетности о доходе и автоматически применять налоговую ставку. Точно так же можно сделать со многими другими переведенными налоговыми нормами. Это очень упрощенный пример, однако он демонстрирует базовую логику, лежащую в основе процесса перевода из сферы права в сферу компьютерных правил.
Выражаясь более общими словами, данные методы искусственного интеллекта на основе знаний, логики и правил включают в себя вычисления с применением нисходящего программирования. Это означает, что программист должен заранее предоставить компьютеру прямо сформулированные правила выполнения операций и принятия решений. Данный подход противоположен вышеприведенному примеру восходящего программирования в машинном обучении, где компьютерный алгоритм сам определил свои собственные правила работы.
Нужно обозначить несколько моментов, связанных с данными системами переноса знаний на основе правил. Они не оказали такого сильного влияния как системы машинного обучения, однако такой прямо сформулированный нисходящий перенос знаний имеет свои преимущества. Когда правила сформулированы на языке компьютерного программирования, компьютер может манипулировать данными правилами, выстраивая их в дедуктивные цепочки и приходя к неочевидным выводам об окружающем мире. Такие системы могут комбинировать факты об окружающем мире с помощью логических правил и предупреждать своих пользователей о том, что нам трудно высчитать самостоятельно. Кроме того, системы искусственного интеллекта на базе знаний могут направить вычислительные мощности на раскрытие трудных для обнаружения деталей (например, противоречий), которые содержатся в системах и недоступны для понимания человека.
Также их можно задействовать в комплексных цепочках компьютерных логических заключений, которые слишком сложны для человека. Возьмем пример из налогового контекста. Допустим, у кого-то есть отдельная кредитная карта для деловых поездок. Кодекс о налогах на доходы часто рассматривает деловые расходы отдельно от личных. Можно запрограммировать компьютер с добавлением правила о том, что расходы по определенной кредитной карте следует помечать как деловые расходы. Запрограммировав правило о другом способе обработке деловых расходов, компьютер может автоматически обрабатывать многотысячные расходы по другому способу с помощью правила об обработке налоговых деклараций. Суть примера в том, что системы искусственного интеллекта на основе знаний и правил могут оказаться очень мощными инструментами при правильном использовании. Экспертные системы на основе знаний и другие системы по управлению политиками очень широко распространены в деловом мире.
3. Гибридные системы искусственного интеллекта
В предыдущем разделе было обозначено, что в общем смысле есть два широких направления для программирования компьютерных систем в целях выполнения ИИ-задач. Первый подход включает в себя машинное обучение, где системы опираются на выявляющие паттерны в данных алгоритмы, которые можно направить на принятие разумных решений. Второй подход включает в себя перенос знаний и логические правила, где прямо сформулированные факты и правила из сферы какой-либо деятельности прямым текстом программируются в программном обеспечении, оформляя знания экспертов из какой-либо профессии по поводу того, каким образом работает система или осуществляется деятельность. Оба подхода к работе с искусственным интеллектом могут быть эффективными в зависимости от того, в какой сфере они применяются. В данном разделе исследуются различные способы, на основе которых системы искусственного интеллекта на самом деле представляют собой сочетание различных методик.
A. Гибридные системы машинного обучения / переноса знаний
Следует отметить один момент, в котором многие современные системы ИИ нельзя называть полноценными системами машинного обучения или основанными на знаниях; скорее они являются гибридами этих двух подходов. Например, автономные автомобили функционируют на основе обученных систем машинного обучения, которые помогают им ездить. Система учится водить самостоятельно с помощью повторяющегося процесса обучения, благодаря которому она автоматически определяет правильные действия водителя. Однако в немалой степени активность автономного автомобиля также зависит от прямо сформулированных правил и переноса знаний. Во многих проектах автономных транспортных средств человек программирует серию правил на основе знаний о процессе вождения, представляющих собой правильное поведение в целом. Например, в это поведение входит необходимость остановиться возле знака «Стоп», и это, скорее всего, будет запрограммировано вручную. Кроме того, программисты вручную обновляют элементы, которые представлены на карте, например, идентифицируют знаки «Стоп». То есть, настолько сложные системы ИИ (автономные транспортные средства) должны опираться на сочетание технологий ИИ, в том числе моделей машинного обучения, а также на вручную запрограммированные правила о переносе знаний об окружающем мире. Поэтому мы можем считать их гибридными системами. Более существенным является то, что нам не нужно полагать, будто системы ИИ включают в себя исключительно тот либо иной подход; скорее они сочетают их оба.
B. Гибридные системы «Человек-ИИ» и присутствие человека в контуре
Еще один важный момент: многие из успешных систем ИИ не являются полностью автономными, а скорее представляют собой гибриды процессов принятия решений компьютером и человеком. Под полностью автономной системой понимается такая система, которая принимает все основные решения по поводу своего функционирования. Многие из ведущих систем ИИ, напротив, автоматизированы в той части, в которой это для них возможно, но иногда они привлекают человека для принятия важного решения. Такая структура системы известна как присутствие «человека в контуре». Если в контуре системы присутствует человек, система делает все возможное, чтобы функционировать автономно в тех условиях, когда это возможно. Однако система возложит на человека сложное решение или оценку, которые все еще за пределами ее возможностей или если принятие решения компьютером неприемлемо с социальной точки зрения.
Например, одной из основных проблем для автономных транспортных средств является то, что часто называют проблемой «длинного хвоста». Данным термином обозначается идея о том, что разнообразие неожиданных обстоятельств во время вождения настолько велико, что очень трудно в полной мере обучить систему машинного обучения, чтобы она была способна справиться со всеми обстоятельствами. Допустим, возникло ДТП, и вся дорога перекрыта; возможно, полицейская машина временно направляет транспортные средства по тротуару. Автономный автомобиль не сможет самостоятельно разобраться, что делать в данном случае. Среди популярных подходов к использованию автономных автомобилей можно обнаружить так называемый удаленный доступ. Когда автономный автомобиль окажется в непонятной для себя ситуации, он может просто позвать на помощь и связаться с колл-центром с живыми работниками. Эти люди смогут увидеть происходящую ситуацию через датчики автономного автомобиля и разберутся, что делать. Например, они могут взять на себя удаленное управление транспортным средством, вывести его из сложной ситуации и вернуть его в автономный режим, когда обстановка будет казаться обычной. Это один из примеров возможного участия человека в контуре управления, когда человеку передается право принятия решений в сложной ситуации, выходящей за пределы возможностей автономного транспорта. В более общем смысле можно сказать, что многие из сложных систем ИИ не будут полностью автономными, а скорее они могут включать людей в контур управления для особо сложных решений или оценок, неподвластных современному искусственному интеллекту. Далее мы увидим, что частично автономные системы с присутствием человека в контуре часто встречаются в юридической сфере.
C. Возможности и ограничения современного ИИ
Вернемся ненадолго назад, чтобы более реалистично оценить как возможности, так и ограничения современной технологии ИИ. Если мы разберемся в технологии, то увидим, почему ИИ чаще полезен в определенных задачах, а для каких-то не подходит. Это очень важно, потому что эти ограничения распространяются и на юридический контекст. Желательно, чтобы мы могли критически оценить, в чем конкретно ИИ имеет хорошие шансы повлиять на право; но еще нужно понимать, в каких сферах его влияние менее вероятно.
В этом отношении следует соблюдать осторожность, экстраполируя нынешние достижения ИИ на будущее. Некоторые иногда предполагают, что, поскольку ИИ успешно автоматизировал какую-то задачу (например, шахматы, вождение или видеоигры), его естественным образом можно использовать почти в любых видах комплексных задач. Однако современный ИИ больше похож на «узкий» интеллект, т.е. на узкоспециализированные системы для конкретных видов задач с определенными характеристиками. Многие из современных технологий ИИ нельзя адаптировать с одной функции на другую, никак не связанную с первой. Например, будет ошибкой предполагать, что сам по себе факт победы ИИ над гроссмейстером Го (игры, знаменитой своей сложностью) позволяет считать данную конкретную технологию дающей возможность для автоматизации других сложных задач, например составление креативных правовых доводов или решение проблем. Проблемы из различных сфер имеют разные характеристики, в силу которых они более или менее подвластны ИИ. Понимание этой разницы имеет ключевое значение для понимания того влияния, которое имеет ИИ в праве сегодня (и будет иметь в ближайшем будущем).
Если коротко, современная технология ИИ больше подходит тем видам деятельности, в основе которых есть паттерны, правила, четкие правильные ответы, а также полуформальные или формальные структуры, из которых формируется весь процесс. И наоборот, ИИ плохо подходит или вообще не подходит для тех сфер, которые можно называть концептуальными, абстрактными, зависимыми от суждений о ценностях, не связанными условиями или ориентированными на оценочные суждения; требующими здравого смысла или интуиции; подразумевают необходимость в убежденности или дискуссии в свободном формате; требуют понимания гуманитарных концепций реального мира, например социальных норм, социальных конструкций или социальных институтов. Рассмотрим эти тенденции поочередно.
В целом, искусственный интеллект хорошо подходит для задач, в которых есть правильные и неправильные ответы, а также четкие недвусмысленные правила. Например, одна из причин, почему обнаружение спама поддается автоматизации с помощью искусственного интеллекта, заключается в том, что в данной сфере есть правильные и неправильные ответы: в целом, конкретное электронное письмо — это либо спам, либо нет. Шахматы — еще один пример, где искусственный интеллект обладает уверенностью в том, каким образом элементы расставлены на доске, а также имеет правильные и неправильные ответы для получения желательных результатов, например достижение конечного состояния «шах и мат». Аналогичным образом искусственный интеллект продемонстрировал, каким образом он может самостоятельно научиться выигрывать в видеоигры. В играх часто тоже есть четкие правила о том, что является примером положительного или отрицательного поведения.
Многие или даже большинство проблем реального мира, напротив, не демонстрируют такие дихотомические наборы объективных ответов по принципу «да или нет». Например, когда правительство принимает решение создать приют для бездомных в одном районе, предпочитая его перед другим районом, такого рода проблема не имеет объективного ответа. Скорее это своего рода проблема государственной политики, подверженная субъективному толкованию и подразумевающая поиск тонких компромиссов, а также баланса расходов между разными общественными интересами и группами. Если коротко, в той части, в которой проблемная сфера больше похожа на последнюю ситуацию, т.е. не связанную конкретными условиями, зависящую от суждений о ценностях, а также субъективную и не имеющую конкретных правильных и неправильных ответов, технология искусственного интеллекта чаще окажется гораздо менее полезной.
Во-вторых, искусственный интеллект часто эффективен в ситуациях, имеющих базовые паттерны или структуры, которые можно обнаружить в данных или с помощью переноса знаний. И вновь, обнаружение спама в электронных письмах представляет собой хороший пример проблемной сферы с базовыми паттернами: если электронное письмо содержит определенные слова, например «free», и получено от отправителя, с которым вы раньше не контактировали и который находится в определенном известном месте, то существует высокая вероятность того, что такое письмо является спамом. Аналогичным образом языковой перевод часто осуществляется на основе презумпции о том, что конкретные схожие слова часто появляются вместе в определенном контексте, причем статистическая вероятность этого выше при сравнении с другими не связанными словами. Например, такое слово как «король» часто может появляться в текстах рядом со схожими словами, например «монарх» или «сюзерен», с более высокой статистической периодичностью по сравнению с другими словами. Искусственный интеллект может скомпоновать такого рода паттерн, что помогает идентифицировать слова, которые с самой высокой степенью вероятности ассоциируются со значением слова «король». Аналогичным образом многие экспертные системы, например медико-диагностические, работают на основе кодирования медицинских тенденций в отношении диагностических симптомов, в частности, используя экспертов из данной сферы, например врачей.
Многие проблемы иного порядка из реального мира, напротив, не всегда будут иметь такие четкие базовые паттерны, которые можно скомпоновать для получения полезных результатов. Например, если попробовать написать оригинальное и убедительное эссе на свободную тему, не факт, что получится найти статистический паттерн на основе прежних текстов для автоматического создания такого убедительного эссе. Аналогичным образом, если появится желание написать роман и подготовить для него убедительный довод на философскую тему, не факт, что получится проработать тексты на наличие статистических паттернов (разве только очень общих), которые могли бы с легкостью и автоматически создать такой полезный довод для включения в роман.
Еще одной характеристикой, в силу которой какая-нибудь проблемная зона становится подвластной искусственному интеллекту, является наличие возможности захватывать и кодировать релевантную информацию. В случае систем знаний на основе правил становым хребтом искусственного интеллекта являются доступные данные, так как их источником являются люди, а именно эксперты в той сфере, к которой относится проблема. Например, если попробовать разработать экспертную систему для оказания помощи врачам при постановке диагноза, такая система должна задавать вопросы о симптомах и выносить суждения о возможном диагнозе, и знание о том, какие вопросы следует задавать и какие симптомы являются релевантными, будет получено во время работы с экспертами в данной сфере, например с теми врачами, которые специализируются в конкретном направлении. Аналогичным образом, во время разработки экспертной системы на основе налога на прибыль, например TurboTax, знание о релевантных правилах будет получено во время работы с юристами, бухгалтерами и другими экспертами в сфере налоговой кодификации.
Во многих проблемных сферах, напротив, нет легкого пути для идентификации или захвата релевантного знания. В некоторых случаях ключевые концепции или абстракции нельзя осмысленным образом закодировать в понятной для компьютера форме. Данные проблемные сферы хуже поддаются автоматизации с помощью подхода, в котором используется искусственный интеллект на основе переноса знаний.
Также есть другие сферы, в которых искусственный интеллект часто добивается успеха, если в них присутствуют проблемы, где скорость вычисления, поиска или расчетов создает уверенное преимущество перед возможностями человека. И вновь, шахматы представляют собой хороший пример того, каким образом искусственный интеллект получает преимущество. Одной из причин того, почему автоматические шахматные системы регулярно побеждают гроссмейстеров, является наличие у автоматизированных систем возможности пользоваться своим невероятно быстрым оборудованием в целях поиска по миллиардам возможных шахматных позиций, чтобы найти такую, которая с самой высокой степенью вероятности даст положительный результат. Еще один пример: выявление мошенничества с кредитными картами. Пусть даже человек, в принципе, способен вручную просматривать транзакции на кредитной карте в поисках признаков мошенничества, на практике, в связи с ежедневным осуществлением миллиардов транзакций на кредитных картах, выполнение такого анализа человеком невозможно. В данном случае преимущество в виде невероятных вычислительных возможностей современного компьютерного оборудования совместно с возможностями машинного обучения в части автоматического обнаружения аномалий, которые являются признаками мошенничества, делает такой процесс пригодным для автоматизации с помощью искусственного интеллекта. Также есть много других видов проблем, где вычислительная мощность, напротив, имеет лишь небольшое преимущество перед анализом человека либо вообще его не имеет.
Наконец, как мы уже упоминали выше, современные технологии искусственного интеллекта, в целом, не очень хорошо применимы либо вообще не применимы для таких проблем, которые включают в себя абстрактные концепции или идеи, например «разумность» или «гудвил», требующие настоящего понимания основополагающего значения слов. Аналогичным образом данные автоматизированные технологии зачастую слабо эффективны во многих проблемных сферах, которые требуют здравого смысла, вынесения суждений или интуиции. Наконец, автоматизация с использованием искусственного интеллекта часто не эффективна и, возможно, непригодна во многих проблемных сферах, которые прямо и фундаментально связаны с государственной политикой, субъективной интерпретацией или подразумевают необходимость социального выбора между спорными и противоречащими друг другу наборами ценностей. Понимание данных ограничений поможет нам разобраться, в каких сферах современный искусственный интеллект имеет потенциал применения, а в каких он менее применим в рамках юридической практики.
II. Искусственный интеллект в праве
Имея перед собой общее описание искусственного интеллекта, можно перейти к тому, каким образом искусственный интеллект используется в юридической практике. По своей сути, понятие искусственного интеллекта в юридической практике подразумевает использование
компьютерных и математических методик для того, чтобы сделать право более понятным, управляемым, полезным, доступным или предсказуемым. Рассматривая данную концепцию, можно проследить истоки похожих идей до Готтфрида Лейбница в 1600-х годах. Лейбниц был математиком, входившим в число знаменитых изобретателей арифмометра; но еще он получил юридическое образование и стал одним из первых, кто задумался о возможностях совершенствования права за счет формальных математических методов.
В новейшей истории, начиная с середины двадцатого века, исследование идей из компьютерных наук и искусственного интеллекта, их применения в праве, стало развиваться активнее. История применения искусственного интеллекта в праве почти параллельна более общему пути исследований искусственного интеллекта как такового. Аналогично искусственному интеллекту в более широком смысле правовой искусственный интеллект на начальном этапе в основном фокусировался в правовых системах, основанных на переносе знаний и правилах. Большинство исследований началось в университетских лабораториях, значительная часть активности наблюдалась в Европе. В период между 1970 и 1990 годами многие из ранних проектов пересечения искусственного интеллекта и права были сосредоточены на формализованном моделировании юридической аргументации в форме, доступной для компьютерной обработки, а также на вычислительном моделировании законодательства и юридических правил. Начиная, самое раннее, с 1987 года, проводятся регулярные Международные конференции искусственного интеллекта и права (ICAIL), на которых представляются данные варианты применения методик искусственного интеллекта в праве.
Среди первых исследователей в сфере пересечения искусственного интеллекта и права были Анна Гарднер (Anne Gardner), Л. Торн МакКарти (L. Thorne McCarty), Кевин Эшли (Kevin Ashley), Редбуд Уинкельс (Radboud Winkels), Марке Сержо (Market Sergot), Ричард Сюскинд (Richard Susskind), Генри Праккен (Henry Prakken), Роберт Ковальски (Robert Kowalski), Тревор Бенч-Кейпон (Trevor Bench-Capon), Эдвина Риссланд (Edwina Rissland), Кинчо Ло (Kincho Law), Карл Брантинг (Karl Branting), Майкл Генесерет (Michael Genesereth), Роланд Фогл (Roland Vogl), Барт Ферхейдж (Bart Verheij), Гвидо Говернатори (Guido Governatori), Джованни Сартор (Giovanni Sartor), Рональд Стэмпер (Ronald Stamper), Кароль Хэфнер (Carole Hafner), Лейман Аллен (Layman Allen), а также настолько много других великолепных исследователей, что всех упомянуть невозможно.
Однако, начиная примерно с 2000 года, искусственный интеллект и юридическая практика ушли от методик переноса знаний и отдали предпочтение подходам на основе машинного обучения, как и вся остальная сфера искусственного интеллекта. Многие из более современных вариантов реализации искусственного интеллекта в юридической практике разработаны легалтех стартапами и предназначены для повышения эффективности юридической практики самыми разными способами. Среди других более передовых прорывов в сфере юридического применения искусственного интеллекта можно обнаружить междисциплинарные университетские исследовательские центры в сфере юридического инжиниринга, например Центр юридической информатики CodeX при Стэнфордском университете. Такой частный и университетский подход к исследованиям позволил компьютерным системам с подключением искусственного интеллекта понемногу находить применение в различных областях юридической системы.
Сегодня можно выделить один полезный подход к восприятию применения искусственного интеллекта в юридической практике, а именно концептуально разделить пользователей искусственного интеллекта на три категории: администраторы права (т.е., те, кто творит и применяет право, в том числе государственные служащие, например судьи, законодатели, административные служащие и полиция), практики права (т.е., те, кто использует искусственный интеллект в юридической практике, в основном это адвокаты), а также те, чья деятельность регулируется правом (т.е., общественность, бизнес и организации, которые регулируются правом и используют его для достижения своих целей). Давайте рассмотрим каждую категорию поочередно.
A. Искусственный интеллект в юридической практике
Адвокаты, т.е. практики права, выполняют множество различных юридических задач, в том числе консультируют клиентов, оценивают силу юридических позиций, избегают рисков, составляют договоры и другие документы, участвуют в процессуальных разбирательствах и во многих других видах деятельности. Какие из этих задач, которые традиционно выполняются юристами, можно частично или полностью автоматизировать с помощью искусственного интеллекта?
Некоторые уроки по поводу того, в каком направлении может двигаться использование искусственного интеллекта в юридической практике, а в каких сферах оно может быть более ограничено, можно по крупицам скомпоновать на основе примеров, среди которых выделяется перспективный досудебный анализ (litigation discovery) и составление обзоров с помощью технологий. Под перспективным досудебным анализом понимается процесс сбора доказательств для судебного разбирательства. В современном коммерческом судопроизводстве это часто подразумевает получение и изучение огромных объемов документации, представленной юрисконсультом противной стороны. Традиционно обзор документов представлял собой задачу, которая выполнялась адвокатами путем быстрого просмотра каждого документа и обозначения (нередко вручную) потенциальной релевантности документа для рассматриваемых правовых проблем или, возможно, факта распространения на него юридической тайны.
В середине 2000-х годов, с появлением электронного анализа, стало возможно так называемое предиктивное программирование и обзор с помощью технологии. Предиктивное программирование — это общее наименование для целого класса компьютерных методик рассмотрения документов, целью которых является автоматическое выделение во время анализа для целей судопроизводства таких документов, которые могут оказаться релевантными или не релевантными. В последнее время в данных технологиях предиктивного программирования задействованы методики искусственного интеллекта, например машинное обучение и перенос знаний, чтобы помочь с автоматизацией данной деятельности. Некоторые программы для электронного анализа (e-discovery software) с подключением машинного обучения можно «тренировать» на примерах документов: учить программное обеспечение находить паттерны, например электронные письма и другие документы, которые, скорее всего, будут релевантны для судебного разбирательства. Такое программное обеспечение для автоматизированного обзора стало необходимо в связи с развитием электронного анализа, так как массивы документов, имеющих отношение к определенным судебным искам, стали разрастаться до сотен тысяч и иногда миллионов документов, что намного превосходит возможности человека.
Однако важно понимать ограничения автоматизированного предиктивного программирования. Обычно компьютер не имеет последнего слова в вопросе о релевантности документа. В конечном итоге именно живые юристы принимают решение по поводу того, являются ли конкретные документы релевантными для рассматриваемого дела и юридической практики в целом. Причиной является то, что компьютерная программа попросту не способна принимать решения, подразумевающие понимание права и фактов, а также изучать стратегию, политику и другие абстракции, с которыми современные технологии искусственного интеллекта качественно работать не в состоянии. Скорее мы можем воспринимать автоматизированные системы предиктивного программирования как использование паттернов и эвристических правил для исключения документов, которые, скорее всего, не релевантны для дела. Таким образом, вместо необходимости привлекать живых адвокатов для составления заключений по безбрежному морю наверняка не релевантных документов, мы используем ПО для исключения большинства не релевантных документов, чтобы сэкономить ограниченное время адвоката и направить ему тот поднабор документов, релевантность которого гораздо более вероятна. В конечном итоге, не компьютер, а человек принимает решение о том, будет ли документ полезным и релевантным для юридической практики и соответствующего дела. Это очень хорошая иллюстрация того, что многим сложным системам ИИ по-прежнему требуется присутствие человека в контуре (см. выше); это урок о том, каким образом ИИ применяется в юридической практике в более широком смысле. В тех сферах права или юридической практики, где требуется вынесение суждений, скорее всего, будет трудно заменить когнитивную деятельность человека с учетом того, на каком уровне сейчас находится технология ИИ.
Пример с досудебным анализом интересен еще одним моментом. Это именно такого рода задача, на частичную автоматизацию которой с помощью ИИ мы можем рассчитывать с учетом его характеристик. Нередко бывает так, что в комплекте документов прослеживаются четкие базовые эвристические правила, которые можно вычленить с помощью алгоритмов. Допустим, у нас судебное
разбирательство
о харасменте; можно натренировать программное обеспечение на поиск ключевых слов, которые могут встречаться в соответствующих электронных письмах; либо система может использовать информацию, которую она обнаружила в прошлых похожих делах, для поиска слов, которые могут встречаться в таких электронных письмах. Для многих современных подходов с использованием искусственного интеллекта необходима такая проблемная сфера, в которой есть базовые паттерны или структуры. Данное правило применимо к определенным направлениям юридической практики, например анализ документов, однако существует много юридических задач, подразумевающих прибегание к абстракциям, концептуальным понятиям и выполнение других когнитивных задач, с которыми современная технология искусственного интеллекта справляется не очень хорошо.
Есть еще другие примеры того, как машинное обучение используется в таких условиях и таких задачах, которые традиционно выполнялись юристами. Среди таких примеров анализ договоров в больших объемах (например, во время юридической проверки при слиянии (merger due diligence)), что помогает автоматически объединять договоры и другие юридические документы с помощью искусственного интеллекта (компоновка документов) и проводить правовые исследования с помощью искусственного интеллекта.
Важно отметить, что данные системы искусственного интеллекта могут быстро достичь пределов своих возможностей. Данная технология часто дает не более чем первый грубый прогон при выполнении многих юридических задач, например, создавая шаблон документа для юриста. В других случаях программное обеспечение может просто выделять правовые вопросы, о которых следует знать юристу. Во многих комплексных ситуациях, напротив, итоговый продукт (например, полноценный договор о слиянии в письменной форме) обычно создается не программным обеспечением искусственного интеллекта. Человек по-прежнему активно вовлекается в контур выполнения комплексных юридических задач. Значительный объем автоматизации наблюдается именно в той части юридической практики, которую можно назвать механической и повторяющейся.
Еще одним интересным направлением использования искусственного интеллекта в юридической практике является прогнозирование юридических результатов. Одна из традиционных функций, которая выполнялась адвокатами для клиентов, заключалась во взвешивании доводов клиента и правовой позиции клиента в гипотетическом или реальном судебном разбирательстве. Все чаще адвокаты и другие стороны, заинтересованные
в исходе судебных разбирательств, используют системы машинного обучения для составления прогнозов по поводу исхода дела на основе данных, а не интуиции, чтобы облегчить процесс оценки своих шансов на победу в разбирательстве.
В целом, сегодня юристы выполняют разные задачи, от очень абстрактных да рутинных и механических. При этом гораздо вероятнее, что современный искусственный интеллект сумеет автоматизировать юридическую задачу только если в ней есть какие-то базовые структуры или паттерны, которые он сможет скомпоновать. Юридические задачи, напротив, подразумевают абстрактное мышление, умение решать проблемы, адвокатскую практику, консультирование клиентов, эмоциональный интеллект, анализ политик, а также формирование стратегии на уровне общей картины; маловероятно, что их можно автоматизировать с учетом ограничений современной технологии искусственного интеллекта.
B. Применение норм права с использованием искусственного интеллекта
1. Использование искусственного интеллекта судьями и административными чиновниками в процессе принятия решений
Еще одной гранью сотрудничества между искусственным интеллектом и юридической практикой является использование искусственного интеллекта во время применения норм права. В основном это означает использование систем с реализацией технологии искусственного интеллекта государственными чиновниками для принятия важных юридических или политических решений. Хорошим примером из данной сферы является использование систем искусственного интеллекта судьями, принимающими решения о вынесении вердикта или назначении залога для ответчиков по уголовным делам. Например, когда судья намеревается вынести решение о возможности выпустить ответчика по уголовному делу под залог в ожидании судебного процесса, часто он оценивает риски того, что ответчик может скрыться или совершить еще одно преступление. Сегодня судьи все чаще пользуются программными системами с реализацией искусственного интеллекта для выведения бальной оценки, которая в числовой форме определяет риск совершения ответчиком еще одного преступления. В данных системах часто используются алгоритмы машинного обучения, в которых содержатся данные о преступлениях и которые пытаются выполнять экстраполяцию и прогнозировать поведение ответчика для судьи. Разумеется, судьи не обязаны следовать данным автоматизированным оценкам уровня риска, но они часто влияют на решение судьи. Это один из примеров того, как искусственный интеллект используется во время применения права государственным служащим.
Среди других примеров государственных систем, в которых используется искусственный интеллект, сфера назначения различных государственных пособий. Во многих государственных организациях есть запрограммированные системы, в которых содержится серия правил по поводу того, каким заявителям следует назначить пособие, а каким — нет. Обычно они внедряются как мера по повышению эффективности, чтобы государственные работники быстрее обрабатывали заявления. Однако важно отметить, что данные системы часто предусматривают автоматизированную компьютерную оценку, которая либо в полном объеме предопределяет итоговое решение или, как минимум, влияет на него.
2. Использование искусственного интеллекта в полиции
Еще одной важной сферой применения искусственного интеллекта во время отправления правосудия является полицейский контекст. Полиция использует технологии искусственного интеллекта, в основном, в двух базовых контекстах. Первый подразумевает выполнение так называемых предупредительных функций полиции. Под этим понимается использование технологии машинного обучения для определения паттернов на основе данных о прошлых преступлениях, чтобы попытаться определить место и время будущих попыток совершить преступление. Затем полиция может попробовать воспользоваться этими данными, чтобы определенным образом распределить свои ресурсы и обеспечить присутствие полиции в тех районах, где, по ее мнению, это даст лучший эффект. Вторым важным моментом в контексте использования искусственного интеллекта в правоприменительной практике является технология распознавания лиц. Для полицейских департаментов стало ежедневной практикой применять сканирование больших скопления народа или пытаться идентифицировать подозреваемых через сопоставление фото- или видеоданных с базами данных, содержащими фотографии лиц, ранее попадавших в сферу деятельности государственных или правоприменительных органов.
C. Искусственный интеллект и «пользователи» права
Третье направление искусственного интеллекта включает в себя пользователей права. Под пользователями мы понимаем обычных людей, организации и компании, деятельность которых регулируется правом и которые пользуются инструментами права (например, договорами) при осуществлении личной и коммерческой деятельности. Стоит обратить внимание на некоторые сферы, в которых происходит контакт между искусственным интеллектом и юридической практикой. Во-первых, во многих компаниях используются системы определения политик на основе бизнес-логики, что помогает им соблюдать нормы права. По сути, они представляют собой частные экспертные системы, содержащие генеральные компьютерные правила в отношении той деятельности компании, которая, скорее всего, соответствует или не соответствует различным регулирующим нормам. Например, кампании необходимо учитывать комплексные экспортно-импортные правила. Чтобы обеспечить их соблюдение, компания может создавать модели релевантных норм с помощью логических методик и переноса знаний, обеспечивая для своих внутренних процессов отсутствие таких видов деятельности, которые могут нарушать соответствующие нормы.
Еще один пример использования искусственного интеллекта в контексте применения права связан с так называемыми вычисляемыми договорами (computable contracts). Под ними понимаются юридические договоры, выраженные в электронной форме; в них предмет договора представлен в понятной для компьютера форме. Хороший пример можно найти в сфере договоров купли-продажи ценных бумаг в финансовой индустрии, где договоры оформляются в понятной для компьютера форме, что позволяет компьютеру автоматически выполнять заложенную в договор базовую логику трейдинга.
Последним примером использования искусственного интеллекта в праве будут так называемые системы юридической самопомощи. Это простые экспертные системы, часто в виде чат-ботов, дающих обычным пользователям ответы на базовые юридические вопросы. Хороший пример: приложение Do Not Pay (не плати), дающее доступ к базовой юридической экспертной системе, позволяющей пользователям ознакомиться с юридической системой.
D. Современные проблемы на стыке искусственного интеллекта и юридической практики
Наконец, в зоне контакта между искусственным интеллектом и правом есть несколько важных современных проблем, на которые следует обратить внимание. Полноценный обзор не входит в задачу данной работы, однако очень важно обозначить их для читателя. Одна из самых важных современных проблем связана с потенциальной необъективностью в процессе принятия решений на основе алгоритмов. Если государственные служащие пользуются машинным обучением или другими моделями искусственного интеллекта для принятия важных решений, влияющих на жизни или свободы людей (например, вынесение уголовных приговоров), важно определить, воспринимаются ли люди базовыми компьютерными моделями справедливо и равноценно. Многие критики поднимали вопрос о том, что компьютерные модели, изучающие паттерны на основе данных, могут иметь незаметную предубежденность против определенных групп в силу заложенной в такие данные необъективности.
Например, представим себе программное обеспечение, которое использует машинное обучение для прогнозирования риска повторного преступления и создает свою модель прогнозирования на основе прошлых полицейских записей об арестах. Также давайте представим, что на определенной территории полицейская деятельность сама по себе является необъективной; например, допустим, полиция часто арестовывает представителей определенного этнического меньшинства с непропорционально более высокой периодичностью, если сравнивать его с социальными группами, которые не являются меньшинствами, в связи с каким-то определенным преступлением. Если такое имеет место, необъективность деятельности полиции незаметно проникнет в полицейские данные из записей об арестах. В свою очередь, любая система машинного обучения, которая изучает паттерны на основе этих данных, может незаметно внести эту необъективность в код.
Еще одна современная проблема на пересечении между искусственным интеллектом и правом связана с наличием возможности интерпретировать деятельность систем искусственного интеллекта, а также с прозрачностью процесса принятия решений системами искусственного интеллекта. Многие системы искусственного интеллекта разрабатываются таким образом, что базовый механизм не в состоянии интерпретировать даже его создатели (программисты). Многие критики высказывали обеспокоенность по поводу того, что системы искусственного интеллекта, которые задействованы в процессах принятия решений, должны поддаваться толкованию, интерпретации или, хотя бы, быть прозрачными. Другие настаивали, что от самих систем следует требовать представления автоматизированных разъяснений по поводу того, почему они приняли определенное решение.
Последняя проблема связана с потенциальными сложностями, имеющими отношение к подчинению автоматизированным компьютерным процессам принятия решений, так как искусственный интеллект все теснее интегрируется в государственное управление. Существует обеспокоенность по поводу того, что автоматизированные решения, усиленные искусственным интеллектом, будут казаться непропорционально более нейтральными, объективными и точными, чем на самом деле. Например, если судья получает автоматизированный отчет о том, что, по мнению модели машинного обучения, вероятность совершения еще одного преступления ответчиком составляет 80,2 %, такой прогноз обладает аурой механической точности и непредвзятости. Беспокойство вызывает именно то, что судьи
(и другие
государственные служащие) могут отдавать несоразмерное предпочтение этой ложной точности, не учитывая ограничения модели, существующие неопределенности, субъективность положенных в основу модели решений, а также тот факт, что, даже если модель приняла точное решение, есть не менее двух шансов из десяти, что ответчик по уголовному делу повторного преступления не совершит.
Заключение
Цель данной работы в том, чтобы дать реалистичный и разгоняющий завесу тайны обзор зоны контакта между искусственным интеллектом и юридической практикой. На данный момент искусственный интеллект не имеет ни волшебных способностей, ни интеллекта с человеческо-познавательной точки зрения. Скорее, современная технология искусственного интеллекта в состоянии давать разумные результаты без вовлечения интеллекта через формирование паттернов, правил и эвристических индикаторов, которые позволяют ей принимать полезные решения в конкретных узких контекстах.
Однако у современной технологии искусственного интеллекта есть свои ограничения. Она в особенности плохо справляется с абстракциями, не умеет постигать смысл, переносить знания из одной сферы в другую, а также работать с никак не структурированными или неограниченными задачами. Скорее, многие задачи, где искусственный интеллект проявил себя успешно (например, шахматы, выявление мошенничества с кредитными картами, поиск опухолей), имеют хорошо структурированные области с очевидно правильными или неправильными ответами, а также надежные базовые паттерны, которые можно обнаружить с помощью алгоритмов. Понимание преимуществ и ограничений современной технологии искусственного интеллекта имеет большое значение для понимания возможностей применения искусственного интеллекта в праве. Это поможет нам иметь реалистичное понимание того, где искусственный интеллект имеет шансы повлиять на юридическую практику и отправление правосудия, а также, что не менее важно, где он таких шансов не имеет.