Написать письмо +7 9622-84-01-01 | +7 9145-94-01-01

 

Безграничные опасности

«То, что искусственный интеллект будет нейтрален по отношению к человеку — это миф. Он был развеян еще в Новое время, когда стало понятно, что у техники есть своя автономия и независимость от человека. Человек стал заложником созданной им техники, он не может освободиться от обратного воздействия техники на человека. Очевидно, что в искусственном интеллекте, создаваемом человеком, заключены не только безграничные возможности, но и безграничные опасности», — отмечается в тексте выступления Момотова в Катаре на пленарном заседании по теме «Перспективы использования искусственного интеллекта в судебной системе РФ».

Глава Совета судей РФ считает, что система искусственного интеллекта спонтанно может вырасти в опасный для человека мир. Поскольку у искусственного интеллекта свои законы и свой язык, то решения нейросетей могут стать для человека непредсказуемыми и даже опасными.

Иррациональность и отсутствие логики

Момотов поясняет, что процессуальное законодательство требует от судьи при оценке доказательств руководствоваться своим внутренним убеждением, которое является гораздо более сложной категорией, чем программные алгоритмы. В зависимости от конкретных обстоятельств одни и те же доказательства могут быть в одном деле отвергнуты, а в другом деле, наоборот, приняты за основу, указывает он.

«Представляется, что система искусственного интеллекта никогда не сможет проникнуть в глубину человеческой психики, искусственный интеллект может оценивать обстоятельства дела только с точки зрения формальной логики, и именно поэтому искусственный интеллект никогда до конца не сможет понять фабулу дела, так как во многих делах, например, семейных, и, особенно, уголовных, очень много иррационального, а не формально-логического», — отмечает председатель Совета судей РФ.

Кроме того, суд при вынесении решения руководствуется целым рядом оценочных и ценностных критериев, закрепленных в законе: принципами справедливости и гуманизма, разумности и добросовестности, напоминает Момотов.

«Понимание таких общих категорий формируется у человека в процессе социализации, воспитания, становления личности — все это невозможно воспроизвести в программном алгоритме», — считает он.

В условиях динамично обновляющегося законодательства, вызванного, в том числе, научно-техническим прогрессом, нередки случаи, когда при отсутствии конкретного правового регулирования суды применяют аналогию закона и аналогию права, под которой понимается разрешение спора исходя из общих начал и смысла законодательства, поясняет Момотов.

«Смысл законодательства, то есть его дух, может быть выявлен только человеком с высоким уровнем правовой культуры, а никак не компьютером», — полагает глава Совета судей РФ.

Формальная отмена

С особенной ясностью невозможность замены судьи искусственным интеллектом проявляется в кассационном судопроизводстве, подчёркивает Момотов. Он напоминает, что основаниями для отмены судебного постановления в кассационном порядке выступает не любое формальное нарушение, а только существенное нарушение правовых норм, которое повлияло на исход дела и без устранения которого невозможны восстановление и защита нарушенных прав, свобод и законных интересов.

«Эти критерии вытекают из принципа правовой определенности, в силу которого отмена судебного решения по формальным основаниям недопустима. Дать оценку тому, соответствует ли допущенное нарушение критерию существенности и способно ли оно повлиять на исход дела, может только профессиональный судья. В свою очередь, компьютерный алгоритм будет фиксировать любое нарушение и приходить к выводу об отмене судебного акта, даже в том случае, если формальная отмена приведет к такому же исходу дела. Поэтому говорить о замене судьи искусственным интеллектом как минимум преждевременно, а скорее всего невозможно», — указывает Момотов.

Даже в Европейской этической хартии о применении искусственного интеллекта в судебных системах, утвержденной Европейской комиссией по эффективности правосудия Совета Европы, сформулирован «принцип пользовательского контроля», напоминает глава Совета судей. Этот принцип даёт возможность судье не согласиться с решением, предложенным искусственным интеллектом, и принять собственное решение по делу, а участнику спора дана возможность прямого обращения к суду без применения искусственного интеллекта и право оспорить принятое с помощью искусственного интеллекта решение.

«Принцип «пользовательского контроля» показывает, что авторы Хартии понимают невозможность полной замены судьи искусственным интеллектом. И с этим следует согласиться», — резюмирует Момотов.