Управляющий партнер юридической консалтинговой компании «Юсконсалт», налоговый консультант, архитектор бизнес-партнерств Евгения Бондаренко ― о том, где сегодня эффективно использовать искусственный интеллект, а где ― абсолютно нецелесообразно.
— Евгения, в конце мая стало известно, что российские разработчики запустили бета-версию виртуального юриста. Насколько, на ваш взгляд, опасен для профессии искусственный интеллект?
— Если мы говорим о юристах-переговорщиках, то ИИ их не заменит. Если говорить о формировании каких-то новых позиций, развитии науки, новой судебной практики, где большое место занимают прогнозы, аналитика — тоже маловероятно.
— С чем связан такой оптимизм?
— Искусственный интеллект оперирует той информацией, которая уже была в прошлом. Он проводит анализ существующей судебной практики, имеющихся данных и исходя из них просчитывает вероятность принятия конкретного судебного решения. Такие программы уже существуют: например Casebook. Они предоставляют клиентам информацию о статистике принятых дел конкретным судьей, о том, в чью пользу складывается практика, делают подборку доводов, которые могут быть приведены. Во многих информационных базах («Гарант», система «Юрист», «Консультант+») уже есть интуитивный поиск, также есть программы по разработке договоров на базе шаблонов.
Так что на рутинных операциях ИИ уже сейчас вполне может заменить юристов. Например, регистрация юрлица, оформление типовых договоров, заполнение деклараций, которые предлагают банки. Наверное, это хорошо, так как ИИ позволит уменьшить стоимость операций, сократит время операции, высвободит юриста для более сложной работы.
— А в судах ИИ может работать?
— С одной стороны, искусственный интеллект уже работает в судах: когда ты приезжаешь на слушание, робот объявляет, в каком зале будет проходит заседание, называет номер дела, судью и т.д.
В Китае активно внедряют ИИ в работу суда, ИИ готовит проект решения, и судья в случае своего несогласия должен привести обоснование. Попытки внедрения ИИ в работу российских судов уже проводятся, такой эксперимент проводил «Мегафон Ритейл» на трех мировых участках Белгородской области. Система должна была распознавать входящие документы, анализировать их и готовить проект решения. Эксперимент проводили не со всеми делами: программное обеспечение обрабатывало только заявления ФНС о выдаче судебных приказов.
Внедрение ИИ в судебное разбирательство возможно, но в только в ограниченных случаях, где не требуется судебного усмотрения, где нет больших штрафов, где не требуется исследовать большой массив доказательств и личность стороны по делу.
— В чем заключаются риски ИИ для юристов, для вашей профессии?
— Если посмотреть мировую практику, то недавно адвокат Стивен А. Шварц (опыт в адвокатской практике — 30 лет) из компании Levidow, Levidow&Oberman воспользовался помощью чат-бота ChatGPT с искусственным интеллектом (разработка OpenAI Илона Маска) в деле против Колумбийской авиалинии Avianica. Чат-бот выдавал кейсы из судебной практики, которых в реальности не было, а адвокат сформировал на их основе иск. Ни судья, ни представители ответчика не могли найти эти дела ни по номерам, ни по использованным цитатам. Сейчас решается вопрос о привлечении адвоката к ответственности.
С другой стороны, студент Стэнфордского университета Джошуа Браудер в 2015 году создал робота для использования владельцами автомобилей, несогласными с полученными штрафами за парковку. Программа генерирует вопросы для робота как основу для текста апелляции. Первый успех у робота уже есть: сумма выигранных дел составляет 3 млн долларов. Тем не менее усматривается уязвимость результата действия робота-юриста: он умеет задавать вопросы и отвечать на них, но не учитывает факторы, которые оценивает юрист-человек, в частности, кто сидел за рулем во время парковки и позволяли ли дорожные условия правильно припарковаться.
С 2015 года робот преуспел, и, по данным Д. Браудера, в общей сложности по шаблонам робота DoNotPay удалось выиграть более 2 млн споров и судебных дел от имени частных лиц против учреждений и организаций. Подробнее об этом писали федеральные СМИ, например РБК.
Проект, анонсированный недавно российскими разработчиками, основан на российском законодательстве. Но несмотря на это доля ошибки — пока ИИ научится — все равно существует, то есть полностью положиться на ИИ нельзя, всю собранную им информацию нужно перепроверять.
— На ваш взгляд, кто выиграет в противостоянии юрист vs робот?
— В 2018 году в «юридическом баттле» в рамках VIII Петербургского Международного юридического форума с ботом победил юрист, партнер «Пепеляев Групп» Роман Бевзенко. Робот подстраивался под человека, но все равно оперировал инструментариями кодексов, а когда юрист формирует позицию по делу, он смотрит судебную практику, дух закона, прогнозирует, в каком направлении будет развиваться дело. Насколько это может делать искусственный интеллект? Пока он действует в режиме алгоритма «вопрос-ответ». Нестандартную ситуацию он решить не может плюс может ошибиться в своих суждениях.
Именно так произошло с делом, которое рассматривали робот и Роман Бевзенко.
— Наверное, это зависит от обучаемости ИИ?
— Возможно, но для того, чтобы ИИ был рабочим, в него нужно загрузить очень много информации. О чем тоже заявляет Д. Браудер: ИИ необходимо будет обучать, выявлять и минимизировать ошибки. Так что пока это немассовая история, которая в любом случае, требует проверки. В отношении Д. Браудера возбуждаются различные дела и подаются жалобы другими юристами, так как сам Браудер не имеет юридического образования, робот ― тем более, а без образования нельзя оказывать юридическую помощь. Все, кто обращаются к ИИ, не должны с себя снимать ответственность за принятые решения.
Но в некоторые случаях, где используется BigData, искусственный интеллект уже сегодня объективно лучше.
Но при сборе проведении сложной аналитики, в переговорах, в выстраивании стратегии защиты, алгоритма действий и в судебном представительстве ИИ пока не заменит человека.
— Если посмотреть на проблему ИИ шире, то в чем ключевые опасности внедрения искусственного интеллекта вы сейчас видите?
— Я бы выделила несколько самых значимых рисков.
Отмечу, что на территории Италии в связи с распространением персональных данных пользователей, общавшихся с чат-ботом, было введено временное ограничение на использование чат-бота ChatGPT.
— Есть вероятность, что аналогичные решения будут приниматься в других странах?
— Думаю, что да, ограничения применения ИИ будут вводиться с целью сохранения персональных данных, с целью сохранения ресурсов в руках человека и права принятия решения, но это сейчас.
А что будет в будущем ― мы не знаем, если следовать за мыслью фантастов (а многое, из того, о чем они писали, в прошлом казалось нереальным, а сейчас это обыденность ― как самолет и реальность ― как полет в космос), то нас ждут разные варианты будущего: робот-судья, робот, отстаивающий свои права, решающий за человека, и ИИ, создающий мир по своим правилам и т.д.
Истцом выступает московская компания «Энергосила»
Следователи проводят проверку условий проживания девушки в семье
Местами пройдёт небольшой снег
Медики стали оперативнее приезжать по вызовам пациентов
Подрядчик обещает, что завтра дорожная ситуация на кольце нормализуется