Большие языковые модели, казалось бы, уже умеют писать письма, резюмировать многотомные дела и помогать с ресерчем. На этом месте можно сделать прекрасный, но опасный вывод: «Отдадим ИИ всё рутинное, а юристов сократим». В материале Софья Смирнова, советник M&A и корпоративной практики, директор по цифровой трансформации O2 Consulting, разбирает фундаментальные ограничения LLM в юридической работе: – почему галлюцинации заложены в саму архитектуру и процессы обучения моделей, а не лечатся «волшебным промптом»; – как «чёрный ящик» ИИ конфликтует с требованиями прозрачности и почему он не должен иметь доверия; – где проходят реальные пределы длинных контекстных окон и почему многошаговое юридическое мышление по‑прежнему остаётся слабым местом моделей; – почему даже «юридический» ИИ с доступом к базам данных продолжает ошибаться, а RAG снижает, но не устраняет риски; – какие экономические, технические и даже этические барьеры стоят между идеей и устойчивым использованием ИИ в практике. Получился этакий протокол «презумпции недостоверности». Полную версию материала можно скачать и прочитать по ссылке. |