Рубрики
Созданный искусственный интеллект ИИ пошел не по плану алгоритмы искусственный интеллект преступление экономика общество

Темная сторона искусственного интеллекта в государственной службе

Getting your Trinity Audio player ready...
Распространяйте любовь

Искусственный интеллект и машинное обучение способны произвести революцию в нашей жизни и работе, но поскольку мы все больше полагаемся на эти технологии, крайне важно обеспечить их этичное проектирование, внедрение и мониторинг. К сожалению, это не всегда так, о чем свидетельствуют многочисленные примеры темной стороны искусственного интеллекта со всего мира. От предвзятой системы ИИ, используемой для прогнозирования преступности в Чикаго, до оценки благосостояния с помощью ИИ в Австралии и использования ИИ в системе уголовного правосудия в Германии - эти технологии слишком часто закрепляют существующие предубеждения и неравенство. В этой статье мы рассмотрим некоторые из этих примеров и обсудим, что необходимо сделать правительствам и обществам, чтобы предотвратить будущие скандалы с использованием ИИ и уменьшить "слепые пятна" в обществе и правительстве.

Каковы "слепые пятна" общества?

Слепые пятна - это области общества, в которых отдельные люди или группы людей придерживаются предубеждений или не имеют достаточной информации или понимания. В политике и обществе эти "слепые пятна" могут проявляться по-разному, в том числе:

  1. Недостаточное представительство: Слепые пятна в политике могут возникать, когда определенные группы, такие как женщины, цветные люди или ЛГБТК+ сообщество, недостаточно представлены в процессе принятия политических решений и не учитывают их взгляды и опыт.
  2. Неосознанные предубеждения: Слепые пятна в обществе также могут быть результатом неосознанных предубеждений, когда люди имеют предвзятые представления об определенных группах, которые определяют их восприятие и действия, даже если они не осознают этого.
  3. Ограниченное понимание: Слепые пятна также могут быть результатом ограниченного понимания определенных социальных проблем или опыта, таких как бедность или инвалидность. Это может привести к неадекватной политике или решениям, которые не устраняют коренные причины этих проблем.
  4. Эхо-камеры: В эпоху социальных сетей люди часто получают информацию и взгляды, которые соответствуют их собственным убеждениям и ценностям, создавая "эхо-камеры", в которых трудно оспорить собственные предубеждения и предположения.

Эти "слепые пятна" в политике и обществе могут иметь негативные последствия, включая увековечивание неравенства и несправедливости и препятствование прогрессу в создании более инклюзивного и справедливого общества. Решение этих проблем требует постоянных усилий по расширению представительства и понимания, борьбе с предубеждениями и предположениями, а также поиску различных точек зрения и опыта.

Опасности нерегулируемого внедрения ИИ: Увековечивание предвзятости и усиление "слепых зон

Массовое внедрение ИИ и машинного обучения, а также растущая автоматизация со стороны правительств потенциально могут привести к появлению в обществе еще больших "слепых пятен". Это связано с тем, что системы ИИ хороши лишь настолько, насколько хороши данные и алгоритмы, которые ими управляют, и если эти системы не разработаны и не внедрены с учетом разнообразия, справедливости и прозрачности, они могут увековечить или усилить существующие предубеждения и несправедливость.

Например, если система ИИ обучена на предвзятых данных, она будет принимать решения, отражающие эти предвзятости, что потенциально может привести к неравным результатам. Кроме того, если процесс принятия решений системами ИИ непрозрачен, может быть трудно выявить и устранить источники предвзятости, что может еще больше усугубить существующие "слепые пятна".

Примеры неправильной работы правительственного искусственного интеллекта

Нидерланды

Скандал с детским пособием (голландский: toeslagen affaire) в Нидерландах является примером того, как использование ИИ и машинного обучения при принятии государственных решений может привести к "слепым пятнам" в обществе и серьезным последствиям.

В данном случае правительство Нидерландов использовало систему искусственного интеллекта для выявления мошенничества в программе детских пособий (toeslagenschandaal). Однако система была основана на неверных предположениях и не была должным образом протестирована, что привело к тому, что тысячи семей были ошибочно обвинены в мошенничестве и лишены пособий. Скандал вызвал широкое общественное возмущение, поскольку многие пострадавшие семьи с трудом сводили концы с концами и не могли легко оспорить это решение.

Скандал с детскими пособиями подчеркивает важность учета "слепых пятен" общества при внедрении систем искусственного интеллекта и машинного обучения в процесс принятия государственных решений. В данном случае правительство не учло должным образом опыт и взгляды семей с низким уровнем дохода, что привело к созданию системы, которая была не только неточной, но и имела разрушительные последствия для пострадавших.

Соединенные Штаты

В США в городе Чикаго была внедрена система искусственного интеллекта для прогнозирования мест совершения преступлений, однако было установлено, что эта система имеет значительное предубеждение против афроамериканских общин. Это привело к усилению полицейского надзора в этих районах, что нанесло вред общинам и способствовало порочному кругу чрезмерного полицейского контроля и чрезмерной криминализации. Предвзятость системы искусственного интеллекта была обусловлена использованием исторических данных о преступности, которые были искажены и отражали чрезмерную полицейскую активность в афроамериканских общинах.

Индия

В Индии искусственный интеллект был внедрен для оценки финансового состояния малого бизнеса и принятия решений об одобрении кредитов, однако выяснилось, что система предвзято относится к предприятиям, принадлежащим женщинам и представителям низших каст. Это привело к неравному доступу к финансированию и увековечило существующее социальное неравенство. Предвзятость системы искусственного интеллекта была вызвана недостаточной представленностью этих групп в обучающих данных, что привело к неточной оценке их финансового состояния. 

Великобритания

В Великобритании для определения права на получение пособий по инвалидности была введена система искусственного интеллекта, но вскоре выяснилось, что она неточна и нечувствительна. Это привело к тому, что многим людям с ограниченными возможностями было ошибочно отказано в пособиях, и они испытывали финансовые трудности. Неточности в системе ИИ были вызваны непониманием сложных потребностей людей с ограниченными возможностями и опорой на несовершенные данные и процессы.

Австралия

В Австралии была введена система искусственного интеллекта для определения соответствия получателей социальных пособий, но вскоре выяснилось, что она является чрезмерно карательной. Это привело к тому, что многим людям было ошибочно отказано в пособиях или их пособия были сокращены, что привело к значительным финансовым трудностям и стрессу. Суровый подход системы искусственного интеллекта был обусловлен непониманием сложности жизни людей и чрезмерной зависимостью от строгих правил и алгоритмов.

Германия

В Германии было обнаружено, что система искусственного интеллекта, разработанная для оценки риска рецидивизма среди обвиняемых по уголовным делам, предвзято относится к лицам с цветным цветом кожи. Это привело к неравному обращению в системе правосудия страны, где цветные люди чаще попадают в группу риска и сталкиваются с более суровым приговором или отказом в условно-досрочном освобождении по сравнению с их белыми коллегами с аналогичным послужным списком.

Канада

В Канаде в системе искусственного интеллекта, которая использовалась для определения иммиграционного статуса и права на получение пособий, были обнаружены широко распространенные неточности. В результате многие люди были ошибочно депортированы или лишены пособий, что привело к разрушительным последствиям для их жизни и семей.

Справедливый искусственный интеллект для лучшего будущего

Искусственный интеллект (ИИ) способен произвести революцию в работе правительств и обществ, однако крайне важно принять меры для обеспечения справедливого, точного и беспристрастного его использования. Для достижения этой цели необходимо рассмотреть и учесть несколько ключевых факторов.

  1. Повышение прозрачности и подотчетности при разработке и внедрении систем ИИ.
  2. Постоянный мониторинг и оценка для обеспечения справедливой и точной работы систем искусственного интеллекта.
  3. Представление различных точек зрения и опыта в разработке и внедрении систем ИИ.
  4. Вовлечение в процесс разработки представителей разных рас, полов и социально-экономического положения.
  5. Устранение потенциальных предубеждений и ошибок в системах ИИ, особенно в таких чувствительных областях, как уголовное правосудие, социальное обеспечение и трудоустройство.

Основное чтение

Для читателей, заинтересованных в дальнейшем изучении влияния темной стороны искусственного интеллекта, книга ‘Weapons of Math Destruction’ by Cathy O’Neil is a valuable resource. It highlights the ways in which mathematical models can perpetuate and amplify social inequalities, and provides recommendations for how to create more responsible and equitable use of data and technology.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

ru_RURussian