
В Палo-Альто семья школьника подала федеральный иск против школьного округа Palo Alto Unified School District. Причина — учитель английского обвинила его сына в том, что сочинение написано ИИ, и снизила полугодовую оценку с A до C. Поводом стал отчет сервиса Turnitin (платформа проверки текстов на плагиат и AI-генерацию) — алгоритм показал 76% сгенерированного ИИ контента. Семья отправила в школу 1162 страницы доказательств — от черновиков до полной истории правок в Google Docs — но округ отказался пересматривать оценку. Иск подан 5 мая 2026 года в Северный окружной суд Калифорнии и опирается на две главы американского закона о гражданских правах.
Деталь, которая делает историю особенно громкой: сочинение было про «Суровое испытание» — пьесу Артура Миллера про Салемские процессы 1690-х годов, аллегорию на маккартизм. Текст про то, как сообщество ломает людей на основе ненадежных показаний и отказывается признавать ошибку. Школьника заставили переписать сочинение от руки в классе — получилась оценка D (то есть едва выше двойки). По данным иска, замдиректор школы Джерри Беркcон затем взял рукописный текст и попросил секретаршу перепечатать их и заново прогнал через Turnitin — без уведомления родителей и без их согласия.
Логика простая. Сам Turnitin признает у своих результатов погрешность ±15 процентных пунктов. Это значит, что 76% AI-контента — это коридор от 61% до 91%. Компания заявляет о ложноположительных срабатываниях (false positive — когда алгоритм помечает человеческий текст как сгенерированный) ниже 1%, но независимое исследование 2023 года в International Journal for Educational Integrity протестировало 14 популярных детекторов: даже Turnitin как лучший в выборке пропускал больше 50% перефразированного AI-текста. Исследование Стэнфорда показало, что детекторы непропорционально часто помечают как ИИ тексты людей с особенностями развития и тех, для кого английский неродной — повторяющиеся обороты и устойчивая лексика напоминают алгоритму «почерк» языковой модели. Сам Turnitin прямо пишет на своем сайте: его инструмент нельзя использовать как единственное основание для наказания студента, нужна оценка человеком.
Отдельный сюжет — Grammarly. Учительница ссылалась на то, что мальчик якобы признался в использовании Grammarly для подбора синонимов; семья это отрицает. Но дело не в этом: даже если бы он его использовал, Grammarly — не генератор ИИ-текстов, а грамматический помощник, которым пользуются миллионы школьников. Turnitin анализирует только финальный текст, а не процесс — и его собственный форум модераторов отмечает, что работы, прошедшие через Grammarly, могут давать AI-score под 100%. Исследование 2025 года в International Journal of Educational Technology in Higher Education показало: написанный человеком абстракт после редактирования в Grammarly получает 16% AI. Сам Grammarly признает, что его функции переписывания работают на больших языковых моделях.
Иск построен на двух главах американского антидискриминационного законодательства: Title IX (запрет дискриминации по полу в образовании, закон 1972 года) и Title VI (запрет дискриминации по национальному происхождению в программах с федеральным финансированием, закон 1964 года). По данным истцов, как минимум еще одного азиатского ученика в том же классе той же учительницы прогнали через ту же процедуру с тем же исходом — D после переписывания в классе. Мужчин в классе, по тем же данным, проверяли через Turnitin в 4-5 раз чаще, чем девушек. Семья просит восстановить оценку, удалить любые упоминания академической нечестности из школьных документов сына, выплатить компенсацию и запретить округу использовать AI-детекцию как основное доказательство без участия педагога и без возможности для ученика ответить.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1034328/