Назад
Аналитика13 марта 202610 мин

Бабушку посадили в тюрьму из-за ошибки AI: история Анджелы Липпс

Анджела Липпс, 50-летняя бабушка из Теннесси, провела почти 6 месяцев в тюрьме после ошибочной идентификации системой распознавания лиц. Её история — урок о том, почему AI не должен быть единственным доказательством.

Бабушку посадили в тюрьму из-за ошибки AI: история Анджелы Липпс

Бабушку посадили в тюрьму из-за ошибки AI: история Анджелы Липпс

14 июля 2025 года Анджела Липпс сидела дома в Теннесси и нянчила четырёх маленьких внуков. В дверь постучали — это были маршалы США с оружием наготове. Её арестовали.

Причина: система распознавания лиц полиции Фарго (Северная Дакота) идентифицировала её как организатора масштабного банковского мошенничества.

Проблема: она была невиновна. Алгоритм ошибся.

Анджела провела в тюрьмах Теннесси и Северной Дакоты почти шесть месяцев — 108 дней только под стражей в одном штате — прежде чем обвинения были сняты.

Как это произошло: хронология ошибки

Банковское мошенничество в Фарго

Полиция Фарго, Северная Дакота расследовала организованную схему банковского мошенничества. Мошенники посещали банки, подделывали документы и обналичивали чужие чеки.

У следствия были записи видеонаблюдения. Детективы запустили видео через программу распознавания лиц. Система выдала результат: «совпадение» с Анджелой Липпс из Теннесси.

Проблема: алгоритм ошибается системно

Системы распознавания лиц имеют известную проблему: они хуже работают с женщинами, особенно тёмнокожими женщинами. Согласно исследованиям MIT и NIST (Национальный институт стандартов и технологий США), уровень ложных совпадений для тёмнокожих женщин в некоторых системах в 10-100 раз выше, чем для белых мужчин.

Анджела Липпс — темнокожая женщина средних лет.

Арест без достаточных доказательств

Несмотря на то что распознавание лиц — это вероятностный алгоритм, не точная идентификация, Фарго использовал его как основание для выдачи ордера на арест.

14 июля 2025 года маршалы США приехали в Теннесси и арестовали Анджелу при её внуках. Детали ареста звучат жутко: оружие наготове, дети в слезах, женщина в наручниках без понимания, что происходит.

Шесть месяцев борьбы

В тюрьме Анджела настаивала на своей невиновности. Её адвокаты запрашивали доказательства. По мере изучения материалов дела начали всплывать несоответствия:

  • Предполагаемые свидетели не могли опознать её лично
  • Алиби на даты предполагаемых преступлений
  • Физические характеристики, не совпадающие с видео

Тем временем — важная деталь — полиция соседнего Вест-Фарго уже в ходе расследования решила не предъявлять обвинения, посчитав, что распознавания лиц недостаточно для уголовного дела. Та же самая улика, то же самое совпадение — и разные решения у двух подразделений полиции.

Наконец, 6 месяцев спустя обвинения были сняты. Анджела Липпс вышла на свободу.

Кто же совершил мошенничество

По данным InForum (местного издания в Фарго), полиция в итоге установила реального подозреваемого — человека, который действительно совершал мошенничество. У него нет никакого отношения к Анджеле Липпс.

Система распознавания лиц ошиблась. И эта ошибка стоила невинной женщине полугода жизни.

Это не первый случай: системная проблема

История Анджелы Липпс — не исключение. Это часть растущей статистики.

Задокументированные случаи ошибочных арестов на основе распознавания лиц в США:

  • Роберт Уильямс (Детройт, 2020) — арестован, задержан 30 часов
  • Майкл Оливер (Детройт, 2020) — арестован, потерял работу
  • Нижони Уоркман (Аризона, 2021) — 11 дней под стражей
  • Рэндал Рид (Джорджия, 2022) — задержан по ошибке
  • Анджела Липпс (Теннесси/Северная Дакота, 2025) — 6 месяцев

Все известные задокументированные случаи — темнокожие или американские индейцы. Это не случайность: это следствие системных ошибок алгоритмов.

Технические причины ошибок

Почему системы распознавания лиц ошибаются именно с тёмнокожими женщинами?

Проблема обучающих данных. Большинство баз данных для обучения систем исторически содержали непропорционально много белых мужчин. Алгоритм «видит» их лучше — потому что видел их чаще при обучении.

Качество видео. Банковские видеокамеры часто имеют плохое качество, неправильное освещение, нестандартные ракурсы. Алгоритм, не обученный на таких условиях, ошибается чаще.

Отсутствие верификации. Даже качественные системы дают процент ошибок. При миллионах запросов — это тысячи ложных совпадений. Большинство из них никогда не становятся арестами. Но некоторые — становятся.

Уровень порога. Разные полицейские департаменты устанавливают разный порог уверенности. Одни требуют 99%, другие действуют при 70%. Фарго, судя по всему, использовал недостаточно высокий порог.

Законодательные ответы: что меняется

История Анджелы Липпс оказалась не просто медийной историей — она ускорила законодательные инициативы.

Вашингтон и Орегон приняли законы об AI-чатботах

На этой же неделе два штата — Вашингтон и Орегон — приняли законы о безопасности AI в потребительских приложениях. Хотя эти законы не напрямую о распознавании лиц, они часть более широкой волны:

Вашингтон: Обязательная маркировка AI-сгенерированного контента и раскрытие информации о том, когда решения принимаются с участием AI.

Орегон: Запрет использования AI-систем в критических решениях (найм, кредит, медицина) без объяснения и права на оспаривание.

Федеральный уровень

В Конгрессе США снова появились инициативы по ограничению использования распознавания лиц в правоохранительной деятельности:

  • Требование человеческой проверки перед любым арестом
  • Запрет использования распознавания как единственного доказательства
  • Стандарты точности для систем, используемых полицией

Пока ни один федеральный закон не принят, но история Анджелы Липпс стала аргументом в дебатах.

Где запрещено распознавание лиц

Несколько городов уже запретили или ограничили использование распознавания лиц полицией:

  • Сан-Франциско — запрет с 2019 года
  • Бостон — запрет с 2020 года
  • Портленд — запрет для частного бизнеса и полиции

Европейский союз через EU AI Act создаёт один из самых жёстких регуляторных режимов: биометрическое идентификация в реальном времени в публичных местах по большей части запрещена.

Что говорит этика AI

Дело Анджелы Липпс поднимает несколько фундаментальных вопросов:

Может ли вероятностный алгоритм быть основанием для лишения свободы?

В уголовном праве существует принцип «вне разумных сомнений». Алгоритм распознавания лиц — это вероятность, а не факт. Он говорит «похожа», а не «это она». Использование такой улики как основания для ареста — это нарушение базовых правовых принципов.

Кто несёт ответственность?

Компания, создавшая алгоритм? Полицейский, принявший решение об аресте? Прокурор, подписавший ордер? Государство, допустившее использование непроверенной технологии?

В случае Анджелы Липпс никто пока не наказан. Никто не несёт ответственности за шесть месяцев её жизни.

Равенство перед технологией

Если система ошибается преимущественно для одних социальных групп — это не просто техническая проблема. Это дискриминация, запрограммированная в алгоритм.

Практические выводы

Для граждан: Вы имеете право знать, используется ли AI при принятии решений, затрагивающих вас. В уголовном процессе — право требовать раскрытия доказательств, в том числе алгоритмических.

Для разработчиков AI: Точность на бенчмарке — не то же самое, что точность в реальном мире. Особенно когда реальный мир включает людей, которых мало было в обучающей выборке.

Для регуляторов: Недостаточно разрешить или запретить технологию. Нужны стандарты точности, обязательная верификация, ответственность за ошибки и компенсация для пострадавших.

Для полицейских: Алгоритм — это инструмент, а не приговор. Его результат должен быть отправной точкой для расследования, а не его итогом.

История Анджелы продолжается

После освобождения Анджела Липпс рассказала свою историю журналистам. По её словам:

«Я потеряла полгода жизни. Мои внуки видели, как меня арестовывали с оружием. Никто из тех, кто это сделал, не извинился».

Она рассматривает иск против города Фарго. Исход — неизвестен.

Итог

История Анджелы Липпс — не антиутопия. Это произошло в реальном мире в 2025 году.

AI мощен. Распознавание лиц — полезный инструмент. Но мощь без ответственности опасна. И когда технология ошибается непропорционально в отношении определённых групп людей — это не технический баг, а системная проблема, требующая системного решения.

Законы Вашингтона и Орегона об AI — шаг в правильном направлении. Но история Анджелы показывает: нужно двигаться быстрее.


Следите за AI-регулированием и правами человека? Подписывайтесь на @AI_and_zarubejka — разбираем законы и реальные истории!

Распознавание лицAI ОшибкиПрава человекаЗаконAI Безопасность

Понравилась статья? Поделись с друзьями!

Поделиться:

Оцените статью

0 реакций

📬 Получай новые гайды первым

Раз в неделю, без спама

Комментарии (0)

Обсудить в Telegram

Комментарии модерируются

💬

Пока нет комментариев. Будьте первым!

💬

Хотите обсудить статью?

Присоединяйтесь к нашему Telegram-каналу для живого общения

Перейти в Telegram

Нужна помощь с настройкой?

Бесплатная консультация в Telegram. Поможем за 5 минут.

Получить консультацию