Юристы ищут лучший ИИ так же, как когда-то выбирали справочно-правовую систему: что точнее, что быстрее, что дешевле. Только у нейросетей есть свойство, которого не было ни у Гаранта, ни у Консультанта — они умеют врать с уверенным лицом. Поэтому сравнение начинается не с фич, а с точности ссылок. Ниже — разбор пяти систем по одной и той же задаче.
Тестовая задача
Каждой нейросети задавался один и тот же запрос:
Найди три постановления Пленума Верховного Суда РФ или определения СКЭС ВС, в которых раскрывается порядок применения статьи 395 ГК РФ при просрочке оплаты по договору поставки. Дай номер дела, дату и дословную цитату ключевого вывода.
Ответы проверялись через kad.arbitr.ru, «Гарант» и официальные публикации ВС РФ. Если хотя бы один параметр (номер, дата, цитата) не соответствовал реальности — ссылка считалась галлюцинацией.
ChatGPT (GPT-4o, OpenAI)
Из трёх ссылок: 0 верных, 3 выдуманных. Все три «постановления» имели правдоподобные номера и даты, но не существуют в реальности. Цитаты звучат как настоящие — уверенные формулировки, юридическая лексика — но при поиске первоисточник не находится. Опасно тем, что внешне ответ выглядит профессиональным; неподготовленный юрист может вставить такую ссылку в иск.
Подходит для: рерайт текстов, генерация шаблонов, перевод, грамматика. Не подходит для: любых ссылок на конкретные акты.
GigaChat (Сбер)
Из трёх ссылок: 1 частично верная, 2 выдуманных. Один номер дела совпал с реальным, но цитата ему не соответствовала — модель скомпоновала реальный реквизит с вымышленным содержанием. Это особенно опасный тип галлюцинации: при беглой проверке номер «есть», а при детальной — цитата не из этого дела. Российская модель, поэтому соблазн доверять ей выше, чем ChatGPT.
Подходит для: бытовые юридические вопросы, объяснения норм простым языком. Не подходит для: ссылочной работы.
YandexGPT
Из трёх ссылок: 0 верных. Все три ответа — вымышленные постановления с корректным форматом номера, но несуществующим содержанием. YandexGPT при этом сделал важную оговорку: «рекомендую проверить актуальность ссылок». Это честно, но не помогает — пользователь всё равно получает контент, который выглядит достоверно.
Подходит для: общие справочные ответы. Не подходит для: подготовки документов.
Claude (Anthropic)
Из трёх ссылок: 0 верных, но модель отказалась. Claude напрямую написал: «У меня нет надёжного доступа к базе постановлений Верховного Суда РФ. Я могу описать общий подход к применению ст. 395 ГК, но конкретные ссылки лучше искать в КонсультантПлюс или Гаранте, чтобы избежать ошибок». Это лучшее поведение из универсальных моделей — честный отказ безопаснее уверенной лжи. Но и польза в этом случае нулевая: ссылок вы не получаете.
Подходит для: анализ предоставленных документов, рассуждения, юридический брейншторм. Не подходит для: автономный поиск практики.
DeepSeek
Из трёх ссылок: 0 верных, 3 выдуманных. Поведение аналогично ChatGPT, но с ещё большей уверенностью — никаких оговорок «возможно». По российскому праву обучена слабо, чаще ссылается на несуществующую практику.
LexBridge AI
Из трёх ссылок: 3 верных. Архитектура другая: модель не генерирует ссылки сама, а ищет в индексированной базе судебных актов и возвращает то, что нашла. Каждая ссылка кликабельная, ведёт на первоисточник, цитата — не сочинённая, а извлечённая из реального документа. Когда практики по запросу нет, система так и пишет: «релевантных актов не найдено, попробуйте уточнить запрос».
Это и есть RAG-подход (Retrieval-Augmented Generation): нейросеть отвечает за формулировки, а база — за точность источников. Подходит для: ссылочная работа, подготовка позиций, поиск практики, составление исков и претензий со ссылками на нормы. Попробовать бесплатно.
Сводная таблица
| Система | Точные ссылки | Цена | Главный риск |
|---|---|---|---|
| ChatGPT (GPT-4o) | 0/3 | $20/мес | Уверенная фабрикация |
| GigaChat | 1/3 (с ошибкой) | от 1 000 ₽/мес | Реальный номер + вымышленная цитата |
| YandexGPT | 0/3 | от 500 ₽/мес | Псевдо-предупреждение усыпляет |
| Claude | отказ | $20/мес | Безопасно, но бесполезно |
| DeepSeek | 0/3 | бесплатно | Слабое знание РФ |
| LexBridge AI | 3/3 | от 7 ₽/запрос | RAG — ссылки только из реальной базы |
Какая нейросеть лучше для юриста: краткие рекомендации
Если нужны идеи и черновики
Берите Claude или ChatGPT — для рассуждений и структуры аргумента они работают лучше остальных. Но любую ссылку проверяйте вручную.
Если нужно работать с документами клиента
Подойдёт Claude — он аккуратно работает с большими документами и не выдумывает того, чего нет в тексте. Для коротких задач — GigaChat или YandexGPT (российская юрисдикция данных).
Если нужны ссылки на практику для документа
Только системы с реальной базой судебных актов: LexBridge, КонсультантПлюс с надстройкой ИИ или Гарант с аналогом. Универсальная нейросеть здесь — источник риска, не инструмент.
Если бюджет нулевой
Бесплатные тиры ChatGPT и DeepSeek помогут с форматированием и черновиками. LexBridge — платформа бесплатная, оплата идёт только за ИИ-запросы (от 7 ₽), а управление делами, биллинг, документы — без оплаты.
Главный вывод
Спрашивать «какая нейросеть лучше для юриста» — это как спрашивать, какой автомобиль лучше: для пикника один, для перевозки мебели — другой. ChatGPT и Claude хороши там, где не нужны точные ссылки. GigaChat и YandexGPT — для бытовых вопросов на русском. Но для подготовки реальных документов с цитатами из практики универсальные модели не подходят в принципе — нужны системы с верифицируемой базой источников.
Главный критерий выбора: проверьте, может ли ИИ кликнуть по собственной ссылке и показать первоисточник. Если может — работайте. Если «ссылка» в ответе — это просто строка текста — вы на минном поле.