Дамьен Шарлотен, французский юрист, специалист по данным и старший научный сотрудник бизнес-школы HEC Paris, за последние шесть месяцев зафиксировал как минимум 490 судебных документов, содержащих «галлюцинации» искусственного интеллекта. Этот термин описывает ответы ИИ, которые включают ложную или вводящую в заблуждение информацию, такую как сфабрикованные цитаты и ссылки на несуществующие судебные дела.

Темпы роста таких инцидентов ускоряются. Большинство случаев зафиксировано в США, где истцы представляли свои интересы самостоятельно, без адвоката. Реакция судей варьировалась от предупреждений до штрафов. Ярким примером стал случай с компанией MyPillow Inc. и ее основателем Майклом Линделлом. Федеральный судья в Колорадо установил, что юрист компании подал в рамках дела о клевете служебную записку, содержащую почти 30 ложных юридических ссылок.
Проблема не ограничивается юриспруденцией. Обзоры, генерируемые ИИ и появляющиеся в верхней части результатов веб-поиска, часто содержат ошибки. Еще одной серьезной проблемой является конфиденциальность: сотрудники могут загружать в общедоступные инструменты ИИ секретную информацию работодателя или клиентов.
Эксперты советуют относиться к ИИ как к ассистенту, а не как к замене человеческого суждения. Мария Флинн, генеральный директор некоммерческой организации Jobs for the Future, занимающейся развитием трудовых ресурсов, рекомендует использовать ИИ для дополнения рабочего процесса, а не для принятия ключевых решений. Например, Флинн использовала внутренний инструмент ИИ для генерации вопросов к встрече, но первоначальный результат не имел нужного контекста и потребовал от нее уточнений для получения приемлемого варианта.
Проверка точности является обязательным шагом. Полагаться на ИИ для получения фактической информации рискованно. Пилотный ИИ-инструмент в организации Марии Флинн не смог отличить завершенные проекты от предложений по финансированию, что привело к созданию неточного отчета. Она советует новичкам в компании просить опытных коллег проверять результаты, сгенерированные ИИ.
Джастин Дэниелс, адвокат из Атланты и акционер юридической фирмы Baker Donelson, отмечает, что люди склонны доверять ИИ, потому что его ответы звучат правдоподобно и это удобно. Он настаивает на необходимости потратить время на проверку: прочитать оригинал контракта, который обобщил ИИ, или проверить каждую юридическую ссылку.
Использование ИИ для записи и конспектирования встреч сопряжено с юридическими рисками. Даниэль Кейс, чикагский партнер юридической фирмы Fisher Phillips, предупреждает, что многие юрисдикции требуют согласия всех участников для записи разговора. Прежде чем использовать ИИ-секретаря в ситуациях с высоким риском, таких как внутренние расследования, оценка производительности или обсуждение правовой стратегии, необходимо проконсультироваться с юридическим или HR-отделом.
Защита конфиденциальной информации имеет первостепенное значение. Мария Флинн подчеркивает, что нельзя вводить корпоративные секреты или идентифицирующую информацию в бесплатные общедоступные инструменты ИИ. После загрузки ИИ может использовать эти данные для формирования ответов другим пользователям, не делая различий между общедоступной и частной информацией.
Необходимость обучения и повышения квалификации становится очевидной. Если работодатель не предлагает тренинги, следует самостоятельно экспериментировать с бесплатными инструментами, такими как ChatGPT или Microsoft Copilot. Университеты и технологические компании предлагают курсы, обучающие составлению эффективных запросов и дающие практические навыки.
Мария Флинн заключает, что знание ИИ становится критически важным для современного специалиста. «Самая большая потенциальная ловушка в изучении ИИ — это вообще не учиться им пользоваться».

Изображение носит иллюстративный характер
Темпы роста таких инцидентов ускоряются. Большинство случаев зафиксировано в США, где истцы представляли свои интересы самостоятельно, без адвоката. Реакция судей варьировалась от предупреждений до штрафов. Ярким примером стал случай с компанией MyPillow Inc. и ее основателем Майклом Линделлом. Федеральный судья в Колорадо установил, что юрист компании подал в рамках дела о клевете служебную записку, содержащую почти 30 ложных юридических ссылок.
Проблема не ограничивается юриспруденцией. Обзоры, генерируемые ИИ и появляющиеся в верхней части результатов веб-поиска, часто содержат ошибки. Еще одной серьезной проблемой является конфиденциальность: сотрудники могут загружать в общедоступные инструменты ИИ секретную информацию работодателя или клиентов.
Эксперты советуют относиться к ИИ как к ассистенту, а не как к замене человеческого суждения. Мария Флинн, генеральный директор некоммерческой организации Jobs for the Future, занимающейся развитием трудовых ресурсов, рекомендует использовать ИИ для дополнения рабочего процесса, а не для принятия ключевых решений. Например, Флинн использовала внутренний инструмент ИИ для генерации вопросов к встрече, но первоначальный результат не имел нужного контекста и потребовал от нее уточнений для получения приемлемого варианта.
Проверка точности является обязательным шагом. Полагаться на ИИ для получения фактической информации рискованно. Пилотный ИИ-инструмент в организации Марии Флинн не смог отличить завершенные проекты от предложений по финансированию, что привело к созданию неточного отчета. Она советует новичкам в компании просить опытных коллег проверять результаты, сгенерированные ИИ.
Джастин Дэниелс, адвокат из Атланты и акционер юридической фирмы Baker Donelson, отмечает, что люди склонны доверять ИИ, потому что его ответы звучат правдоподобно и это удобно. Он настаивает на необходимости потратить время на проверку: прочитать оригинал контракта, который обобщил ИИ, или проверить каждую юридическую ссылку.
Использование ИИ для записи и конспектирования встреч сопряжено с юридическими рисками. Даниэль Кейс, чикагский партнер юридической фирмы Fisher Phillips, предупреждает, что многие юрисдикции требуют согласия всех участников для записи разговора. Прежде чем использовать ИИ-секретаря в ситуациях с высоким риском, таких как внутренние расследования, оценка производительности или обсуждение правовой стратегии, необходимо проконсультироваться с юридическим или HR-отделом.
Защита конфиденциальной информации имеет первостепенное значение. Мария Флинн подчеркивает, что нельзя вводить корпоративные секреты или идентифицирующую информацию в бесплатные общедоступные инструменты ИИ. После загрузки ИИ может использовать эти данные для формирования ответов другим пользователям, не делая различий между общедоступной и частной информацией.
Необходимость обучения и повышения квалификации становится очевидной. Если работодатель не предлагает тренинги, следует самостоятельно экспериментировать с бесплатными инструментами, такими как ChatGPT или Microsoft Copilot. Университеты и технологические компании предлагают курсы, обучающие составлению эффективных запросов и дающие практические навыки.
Мария Флинн заключает, что знание ИИ становится критически важным для современного специалиста. «Самая большая потенциальная ловушка в изучении ИИ — это вообще не учиться им пользоваться».