AI в СМИ без раскрытия: The Atlantic о скрытом ИИ-контенте в NYT
The Atlantic опубликовал расследование о том, как AI-контент проникает в крупные медиа — включая колонки NYT — без надлежащего раскрытия. О доверии к журналистике.

AI в СМИ без раскрытия: The Atlantic о скрытом ИИ-контенте в NYT
Одна из самых дискуссионных историй конца марта 2026 года — расследование The Atlantic о том, как AI-контент незаметно проникает в авторитетные СМИ. В центре — The New York Times и личные эссе в его знаменитой колонке «Modern Love». Вопрос, поднятый материалом: имеет ли читатель право знать, что читает текст, созданный или существенно изменённый AI?
Что выяснил The Atlantic
Материал «How AI Is Creeping Into The New York Times» (25 марта 2026) — результат нескольких месяцев работы журналистов The Atlantic.
Центральный кейс: личное эссе в рубрике «Modern Love» NYT, опубликованное от имени конкретного автора, вызвало подозрения у читателей. Текст демонстрировал признаки AI-генерации: определённые паттерны повторений, необычная для человеческого письма структура предложений, отсутствие специфических деталей, которые обычно присутствуют в личных историях.
По информации Futurism, «NYT столкнулся с критикой в сети после того, как пользователи начали подозревать, что личное эссе в колонке Modern Love было создано с помощью AI и опубликовано без раскрытия».
The Atlantic установил следующее:
-
AI-контент присутствует в opinion-разделах крупных изданий — не всегда в форме полностью написанного AI текста, но в форме существенного редактирования, перефразирования и структурирования через LLM.
-
Раскрытие отсутствует. Ни NYT, ни другие издания не имеют последовательной политики раскрытия использования AI в авторских материалах.
-
Противоречие с контрактами. Контракты NYT с авторами требуют, чтобы автор был «единственным автором» материала и запрещают AI-письмо без одобрения и раскрытия — но практика расходится с буквой контракта.
Почему это сложная этическая проблема
Кажется, всё просто: если AI написал текст — скажи об этом. Но реальность сложнее.
Что считать «AI-написанным»?
Спектр использования AI в журналистике широк:
- Журналист пишет текст сам, AI только проверяет грамматику → нет вопросов
- Журналист пишет черновик, AI его «полирует» → серая зона
- Журналист даёт AI тему и ключевые факты, AI пишет структуру, журналист редактирует → ещё серее
- Журналист публикует AI-текст с минимальными правками под своим именем → явное нарушение
Четкой границы нет. А значит, и понятие «раскрытия» требует определения: какой уровень использования AI обязывает к disclosure?
Изменяет ли AI участие качество текста?
Часть публикаций с AI-помощью может быть качественной журналистикой — AI как инструмент, не как замена автора. Грамотный редактор не превращает чужой текст в свой, используя AI для структурирования.
Но личные эссе — особый жанр. Читатель «Modern Love» читает это как личный опыт реального человека. Если большую часть текста написал AI — это принципиально другой продукт.
История: NYT и AI
New York Times имеет сложные отношения с AI:
Декабрь 2023: NYT подал иск против OpenAI, обвинив компанию в использовании материалов газеты для обучения GPT.
2024–2025: NYT объявил о внедрении «AI-ассистированной журналистики» для рутинных задач: создание сводок, первичная обработка данных, генерация аннотаций.
2026: The Atlantic показывает, что de facto граница не соблюдается. Авторы используют AI для личных эссе, редакция не выявляет это системно.
Парадокс: NYT судится с OpenAI за использование своего контента, но сам потенциально публикует AI-контент без раскрытия.
Реакция NYT
На момент публикации материала The Atlantic NYT не дал развёрнутого публичного комментария. По информации источников, издание проводит внутренний аудит публикаций на предмет AI-контента и рассматривает обновление редакционной политики с более чёткими правилами раскрытия.
Как другие издания подходят к AI-disclosure
Associated Press: запустила руководство по AI в журналистике, требующее явного раскрытия при «существенном» использовании AI.
The Guardian: принял политику: AI не может генерировать финальный публикуемый контент, но может использоваться для исследований и первичной обработки данных.
Bloomberg: использует AI для автоматической генерации финансовых отчётов — с явным тегом «Сгенерировано автоматически».
Forbes, MSN, CNET: получали критику за AI-контент с ошибками, слабо скрытый под человеческими именами.
Технологическая сторона: детекция AI-текста
Инструменты типа GPTZero, Turnitin AI Detector, Originality.AI пытаются определять AI-текст. Но:
- Точность низкая: высокий процент ложных срабатываний
- AI обходит детекторы: при небольшой редактуре «очеловеченный» AI-текст не детектируется
- Arms race: по мере улучшения AI-письма детекторы устаревают
Это означает: редакции не могут полагаться на автоматический детектинг. Требуется процессное решение — раскрытие на уровне авторского договора и редакционной проверки.
Последствия для доверия к медиа
В 2026 году доверие к журналистике и так находится на исторически низком уровне. AI-скандалы рискуют усугубить ситуацию:
Эффект выгорания доверия. Если читатели не знают, читают ли они человека или AI, ценность авторских голосов снижается.
Репутационные риски. Одного разоблачения достаточно для долгосрочного репутационного ущерба.
Регуляторная реакция. ЕС в рамках AI Act требует маркировки AI-контента — это может стать обязательным для издателей.
Практические предложения
Что реально могут сделать редакции:
- Явная политика раскрытия с четкими порогами: «AI-ассистированный», «существенно редактировано AI», «AI-написано»
- Авторские декларации: при подаче материала автор указывает степень использования AI
- Редакторский контроль: особенно для личных жанров (эссе, колонки)
- Читательские метки: явная маркировка в публикации
- Аудит прошлых публикаций: постфактум проверка проблемных материалов
Итог
Расследование The Atlantic поднимает вопрос, у которого нет простого ответа: AI-инструменты помогают журналистам работать эффективнее — но когда этот инструмент становится автором, читатель имеет право об этом знать.
The New York Times, как и другие крупные издания, столкнулся с системным вызовом: как установить правила в эпоху, когда граница между «AI-ассистированным» и «AI-написанным» размывается с каждым новым релизом GPT и Claude.
Ответ на этот вопрос определит, останутся ли «авторские тексты» смысловой единицей медиапотребления — или превратятся в анонимный контент, где имя автора ничего не гарантирует.
Следим за AI и медиа — подписывайтесь на @AI_and_zarubejka!
Оцените статью
0 реакций📬 Получай новые гайды первым
Раз в неделю, без спама
📚 Похожие статьи

От Vibe Coding к Agentic Engineering: Karpathy о будущем программирования
Andrej Karpathy ввёл новый термин — Agentic Engineering. Год назад был Vibe Coding, теперь AI-агенты пишут код сами. Разбираем эволюцию AI-программирования.

Ben Goertzel: AI превзойдёт человека в стратегическом мышлении через 2 года
CEO SingularityNET заявил, что AI научится думать и планировать лучше людей к 2028 году. Разбираем его аргументы, прогнозы и что это значит для будущего.

AI-тренды 2026: от хайпа к прагматизму
Что ждёт AI-индустрию в 2026 году? Разбираем главные тренды: агенты, маленькие модели, AI для науки и почему 40% проектов будут отменены.
Комментарии (0)
Обсудить в Telegram💬
Пока нет комментариев. Будьте первым!
💬
Хотите обсудить статью?
Присоединяйтесь к нашему Telegram-каналу для живого общения
Перейти в TelegramНужна помощь с настройкой?
Бесплатная консультация в Telegram. Поможем за 5 минут.
Получить консультацию