Будьте в курсе

Экономьте время, читая только главное.

ИИ в руках правительства Карни: ставка на прогресс или риск для жизней?

ИИ в руках правительства Карни: ставка на прогресс или риск для жизней?

Правительство Марка Карни (Mark Carney) активно берёт курс на внедрение искусственного интеллекта в государственное управление. Звучит как шаг в будущее. Но критики бьют тревогу: такой подход может буквально стоить людям жизни.

Что происходит?

Новый кабинет министров декларирует масштабное использование ИИ в работе государственных структур. Это преподносится как модернизация, повышение эффективности и экономия ресурсов. Однако за красивыми лозунгами скрываются серьёзные вопросы о безопасности, прозрачности и подотчётности.

Проблема не в самом ИИ как технологии — она в том, как и где его собираются применять. Когда алгоритм ошибается при рекомендации фильма на стриминговом сервисе, это неприятно. Когда алгоритм ошибается при принятии решений о здравоохранении, социальных выплатах или правоохранительной деятельности — последствия могут быть катастрофическими.

Где конкретно зарыта опасность?

Системы искусственного интеллекта обучаются на исторических данных. А исторические данные в Канаде — как и во многих других странах — отражают годы системной дискриминации, неравенства и предвзятости. Если скормить такую «отравленную» базу алгоритму, он воспроизведёт и усилит те же самые перекосы, только теперь под маской объективности и научности.

Представьте: система ИИ помогает принимать решения о том, кому выделить место в приюте, кому одобрить медицинскую процедуру или кого проверить на границе. Ошибка в таких контекстах — это не баг в программе, это чья-то сломанная жизнь или хуже.

«Эффективность» как прикрытие

Один из главных аргументов сторонников ИИ в госуправлении — скорость и снижение затрат. Чиновник устаёт, ошибается, требует зарплату. Алгоритм работает круглосуточно и не просит повышения.

Но эта логика игнорирует принципиальную вещь: государство — это не корпорация, оптимизирующая прибыль. Его задача — служить людям, особенно наиболее уязвимым. А именно уязвимые группы населения чаще всего оказываются в «слепых пятнах» алгоритмов.

Кто несёт ответственность?

Ещё один критический вопрос — подотчётность. Когда живой чиновник принимает неверное решение, есть механизмы обжалования, есть конкретный человек, которого можно призвать к ответу. Когда решение выдаёт «чёрный ящик» алгоритма — кто виноват? Разработчик?


Источник: пресс-релиз

Прокрутить вверх