Правительство Марка Карни (Mark Carney) активно берёт курс на внедрение искусственного интеллекта в государственное управление. Звучит как шаг в будущее. Но критики бьют тревогу: такой подход может буквально стоить людям жизни.
Что происходит?
Новый кабинет министров декларирует масштабное использование ИИ в работе государственных структур. Это преподносится как модернизация, повышение эффективности и экономия ресурсов. Однако за красивыми лозунгами скрываются серьёзные вопросы о безопасности, прозрачности и подотчётности.
Проблема не в самом ИИ как технологии — она в том, как и где его собираются применять. Когда алгоритм ошибается при рекомендации фильма на стриминговом сервисе, это неприятно. Когда алгоритм ошибается при принятии решений о здравоохранении, социальных выплатах или правоохранительной деятельности — последствия могут быть катастрофическими.
Где конкретно зарыта опасность?
Системы искусственного интеллекта обучаются на исторических данных. А исторические данные в Канаде — как и во многих других странах — отражают годы системной дискриминации, неравенства и предвзятости. Если скормить такую «отравленную» базу алгоритму, он воспроизведёт и усилит те же самые перекосы, только теперь под маской объективности и научности.
Представьте: система ИИ помогает принимать решения о том, кому выделить место в приюте, кому одобрить медицинскую процедуру или кого проверить на границе. Ошибка в таких контекстах — это не баг в программе, это чья-то сломанная жизнь или хуже.
«Эффективность» как прикрытие
Один из главных аргументов сторонников ИИ в госуправлении — скорость и снижение затрат. Чиновник устаёт, ошибается, требует зарплату. Алгоритм работает круглосуточно и не просит повышения.
Но эта логика игнорирует принципиальную вещь: государство — это не корпорация, оптимизирующая прибыль. Его задача — служить людям, особенно наиболее уязвимым. А именно уязвимые группы населения чаще всего оказываются в «слепых пятнах» алгоритмов.
Кто несёт ответственность?
Ещё один критический вопрос — подотчётность. Когда живой чиновник принимает неверное решение, есть механизмы обжалования, есть конкретный человек, которого можно призвать к ответу. Когда решение выдаёт «чёрный ящик» алгоритма — кто виноват? Разработчик?



