Чем рискует государство, доверяя алгоритмам принимать решения

Чем рискует государство, доверяя алгоритмам принимать решения  - фото 1Академический директор Центра подготовки руководителей и команд цифровой трансформации Екатерина Потапова выступила на конференции ЮНЕСКО

«При внедрении технологий искусственного интеллекта в госуправление России важно учитывать опыт других стран, чтобы не повторить их ошибок и не допустить коллапсов, аналогичных, например, тому, что произошло в Великобритании с системой социальной поддержки населения», - отметила академический директор Центра Екатерина Потапова в докладе на конференции ЮНЕСКО. Эксперт дала практические рекомендации, как избежать негативных последствий работы алгоритмов.
На прошлой неделе в Ханты-Мансийске завершил свою работу Международный IT-форум с участием стран БРИКС и ШОС. Одним из важнейших его мероприятий стала Международная конференция «Информация и коммуникация в цифровую эпоху: явные и неявные воздействия». Она прошла в рамках Межправительственной программы ЮНЕСКО «Информация для всех» при поддержке Комиссии РФ по делам ЮНЕСКО, Минцифры РФ и правительства Югры.
Академический директор Центра Екатерина Потапова выступила на конференции с докладом по теме «Чем рискует государство, доверяя алгоритмам принимать решения по социальным вопросам».
Эксперт проанализировала зарубежные подходы к использованию искусственного интеллекта в социальной сфере, выявила негативные тенденции и привела практические рекомендации, как не допустить повторения подобных ситуаций в России.
Автоматизированные системы принятия решений (Automated Decision-Making Systems, ADMS) могут стать причиной возникновения новых этических вызовов или усугубления уже существующих проблем. Так, система универсального кредита в Англии привела к коллапсусоциальной поддержки. 200 000 британских домохозяйств столкнулись с вычетами из своих пособий в результате того, что коммунальные компании договариваются с Пенсионным фондом об автоматической оплате задолженности клиентов. Фонд не запрашивает согласие заявителя на эти вычеты, если они менее 25%. Он также не проводит проверки нуждаемости и не пытается согласовать реалистичные планы платежей с кредиторами. Эксперт привела кейс Хелен Тимсон с вычетами из ее пособия без ее согласия и против ее воли. В двух случаях были произведены вычеты за несуществующие долги, а в другом случае платежи за воду были взяты из ее пособия и зачислены на чужой счет. В результате вычетов она оказалась на грани нищеты и была не в состоянии платить за квартиру.
Подобных примеров в других странах много, даже в самых благополучных и технологически продвинутых. Удобство использования искусственного интеллекта на одной стороне весов перевешивает нарушение приватности, возможные ошибки и трагические случайности на другой чаше.
Решением проблем, по мнению Екатерины Потаповой, должно быть следующее. Если услуга оказывается в электронном виде, должны оставаться аналоговые пути предоставления сервиса. Сервисы должны разрабатываться с полным исследованием клиентского пути и быть клиентоцентричными: обрабатывать все сложные кейсы иметь адекватную линию поддержки. Разработчикам сервисов нужно предусматривать защиту от мошенничества в цифровой среде и повышенные меры информационной безопасности. Ответственность за сервис всегда должна быть на должностных лицах, а не на искусственном интеллекте. Нужно бороться с предвзятостью алгоритмов и использовать их только для принятия позитивных для граждан решений. Решения, ухудшающие положение людей, должны приниматься человеком, а не искусственным интеллектом. И регулярно должен проводиться этический аудит, в ходе которого проверяются основания, на которых были приняты решения, степень серьезности и распространения последствий работы алгоритма.

 

Все выпуски журнала «ЭкоГрад» в электронной версии читайте на pressa.ru,

Бумажные экземпляры спецвыпусков и книги В. Климова можно приобрести на OZON

Добавить комментарий


Защитный код
Обновить