Getting your Trinity Audio player ready... |
Sztuczna inteligencja i uczenie maszynowe mają potencjał, aby zrewolucjonizować sposób, w jaki żyjemy i pracujemy, ale ponieważ w coraz większym stopniu polegamy na tych technologiach, kluczowe jest zapewnienie, że są one projektowane, wdrażane i monitorowane w sposób etyczny. Niestety, nie zawsze tak jest, co pokazują liczne przykłady ciemnej strony AI z całego świata. Od tendencyjnego systemu AI używanego do przewidywania przestępstw w Chicago, przez napędzane przez AI oceny opieki społecznej w Australii, po wykorzystanie AI w systemie sądownictwa karnego w Niemczech, technologie te zbyt często utrwalają istniejące uprzedzenia i nierówności. W tym artykule przeanalizujemy niektóre z tych przykładów i omówimy, co rządy i społeczeństwa muszą zrobić, aby zapobiec przyszłym skandalom napędzanym przez AI i zmniejszyć społeczne i rządowe ślepe punkty.
Jakie są społeczne ślepe punkty?
Ślepa plama odnosi się do obszarów społeczeństwa, w których jednostki lub grupy mają uprzedzenia lub brakuje im wystarczających informacji lub zrozumienia. W polityce i społeczeństwie te ślepe punkty mogą przejawiać się na wiele sposobów, w tym:
- Brak reprezentacji: Ślepa plama w polityce może wystąpić, gdy pewne grupy, takie jak kobiety, osoby kolorowe lub społeczność LGBTQ+, są niedostatecznie reprezentowane w procesie podejmowania decyzji politycznych i nie są brane pod uwagę ich perspektywy i doświadczenia.
- Nieświadome uprzedzenia: Ślepa plama w społeczeństwie może również wynikać z nieświadomych uprzedzeń, kiedy to jednostki posiadają z góry przyjęte wyobrażenia o pewnych grupach, które kształtują ich postrzeganie i działania, nawet jeśli nie są tego świadome.
- Ograniczone zrozumienie: Ślepa plama może również wynikać z ograniczonego zrozumienia pewnych kwestii społecznych lub doświadczeń, takich jak ubóstwo lub niepełnosprawność. Może to prowadzić do nieodpowiedniej polityki lub rozwiązań, które nie uwzględniają podstawowych przyczyn tych problemów.
- Komory echa: W dobie mediów społecznościowych jednostki są często narażone na informacje i perspektywy, które są zgodne z ich własnymi przekonaniami i wartościami, tworząc "komory echa", w których trudno jest zakwestionować własne uprzedzenia i założenia.
Te martwe punkty w polityce i społeczeństwie mogą mieć negatywne konsekwencje, w tym utrwalanie nierówności i niesprawiedliwości oraz utrudnianie postępu w tworzeniu bardziej integracyjnego i sprawiedliwego społeczeństwa. Zajęcie się tymi martwymi punktami wymaga ciągłych wysiłków w celu zwiększenia reprezentacji i zrozumienia, zakwestionowania uprzedzeń i założeń oraz poszukiwania różnorodnych perspektyw i doświadczeń.
Niebezpieczeństwa związane z nieuregulowanym przyjęciem AI: Utrwalanie uprzedzeń i wzmacnianie ślepych punktów
Masowe przyjęcie AI i uczenia maszynowego, a także rosnąca automatyzacja ze strony rządów, może potencjalnie prowadzić do większych ślepych plam w społeczeństwie. Dzieje się tak, ponieważ systemy AI są tylko tak dobre, jak dane i algorytmy, które je napędzają, a jeśli te systemy nie są zaprojektowane i wdrożone z myślą o różnorodności, sprawiedliwości i przejrzystości, mogą utrwalić lub wzmocnić istniejące uprzedzenia i niesprawiedliwości.
Na przykład, jeśli system AI jest szkolony na tendencyjnych danych, będzie podejmował decyzje odzwierciedlające te tendencje, co może potencjalnie prowadzić do nierównych wyników. Ponadto, jeśli proces decyzyjny systemów AI nie jest przejrzysty, może być trudno zidentyfikować i zająć się źródłami stronniczości, co może jeszcze bardziej pogłębić istniejące martwe punkty.
Przykłady nieudanych prób rządowej sztucznej inteligencji
Holandia
Skandal z zasiłkiem na dzieci (dutch: toeslagen affaire) w Holandii jest przykładem tego, jak wykorzystanie AI i uczenia maszynowego w rządowym procesie decyzyjnym może prowadzić do społecznych ślepych uliczek i poważnych konsekwencji.
W tym przypadku rząd holenderski wykorzystał system AI do wykrywania oszustw w programie zasiłków na dzieci (toeslagenschandaal). System opierał się jednak na błędnych założeniach i nie został odpowiednio przetestowany, co doprowadziło do tego, że tysiące rodzin zostało niesłusznie oskarżonych o oszustwo i odebrano im świadczenia. Skandal wywołał powszechne oburzenie opinii publicznej, ponieważ wiele z poszkodowanych rodzin z trudem wiązało koniec z końcem i nie było w stanie łatwo zakwestionować decyzji.
Skandal związany z zasiłkami na dzieci podkreśla znaczenie uwzględnienia społecznych ślepych punktów podczas wdrażania systemów AI i uczenia maszynowego w procesie podejmowania decyzji przez rząd. W tym przypadku rząd nie uwzględnił odpowiednio doświadczeń i perspektyw rodzin o niskich dochodach, co doprowadziło do powstania systemu, który był nie tylko niedokładny, ale także miał druzgocące konsekwencje dla tych, których dotyczył.
Stany Zjednoczone
W Stanach Zjednoczonych miasto Chicago wdrożyło system sztucznej inteligencji, aby przewidzieć, gdzie wystąpi przestępczość, ale okazało się, że system ten był znacząco stronniczy wobec społeczności afroamerykańskich. Spowodowało to zwiększenie nadzoru policyjnego na tych obszarach, co wyrządziło szkody społecznościom i przyczyniło się do błędnego koła nadmiernej polityki i nadmiernej kryminalizacji. Stronniczość systemu AI wynikała z wykorzystania historycznych danych dotyczących przestępczości, które były zniekształcone w celu odzwierciedlenia nadmiernej polityki w społecznościach afroamerykańskich.
Indie
W Indiach wprowadzono sztuczną inteligencję, aby ocenić kondycję finansową małych firm i określić zatwierdzenia pożyczek, ale odkryto, że system był stronniczy wobec firm należących do kobiet i osób z niskich kast. Skutkowało to nierównym dostępem do finansowania i utrwalało istniejące nierówności społeczne. Stronniczość systemu AI wynikała z braku reprezentacji tych grup w danych szkoleniowych, co prowadziło do niedokładnej oceny ich kondycji finansowej.
Zjednoczone Królestwo
W Wielkiej Brytanii wprowadzono system sztucznej inteligencji w celu określenia uprawnień do świadczeń z tytułu niepełnosprawności, ale wkrótce okazało się, że system ten był niedokładny i niewrażliwy. Doprowadziło to do tego, że wielu osobom niepełnosprawnym niesłusznie odmówiono przyznania świadczeń i cierpiały one z powodu trudności finansowych. Nieścisłości w systemie AI wynikały z braku zrozumienia złożonych potrzeb osób niepełnosprawnych i oparcia się na wadliwych danych i procesach.
Australia
W Australii wprowadzono system sztucznej inteligencji w celu określenia uprawnień odbiorców pomocy społecznej, ale szybko okazało się, że jest on zbyt represyjny. W rezultacie wielu osobom niesłusznie odmówiono przyznania świadczeń lub zmniejszono ich wysokość, co spowodowało znaczne trudności finansowe i stres. Surowe podejście systemu AI wynikało z braku zrozumienia złożoności życia ludzi i nadmiernego polegania na surowych zasadach i algorytmach.
Niemcy
W Niemczech odkryto, że system sztucznej inteligencji, który został zaprojektowany do oceny ryzyka recydywy wśród oskarżonych, jest stronniczy wobec osób kolorowych. Spowodowało to nierówne traktowanie w krajowym systemie sprawiedliwości, gdzie osoby kolorowe są częściej uznawane za osoby wysokiego ryzyka i narażone na surowsze wyroki lub odmowę zwolnienia warunkowego w porównaniu z ich białymi odpowiednikami o podobnej kartotece.
Kanada
W Kanadzie okazało się, że system sztucznej inteligencji, który był wykorzystywany do określania statusu imigracyjnego i uprawnień do zasiłków, zawierał powszechne nieścisłości. W wyniku tego wiele osób zostało niesłusznie deportowanych lub odmówiono im przyznania świadczeń, co doprowadziło do niszczących konsekwencji dla ich życia i rodzin.
Sprawiedliwa SI dla lepszej przyszłości
Sztuczna inteligencja (AI) ma potencjał, aby zrewolucjonizować sposób funkcjonowania rządów i społeczeństw, ale kluczowe jest podjęcie kroków w celu zapewnienia, że jej wykorzystanie jest uczciwe, dokładne i bezstronne. Aby to osiągnąć, należy rozważyć i zająć się kilkoma kluczowymi czynnikami.
- Zwiększona przejrzystość i odpowiedzialność w zakresie rozwoju i wdrażania systemów AI.
- Bieżące monitorowanie i ocena w celu zapewnienia, że systemy AI działają sprawiedliwie i dokładnie.
- Reprezentacja różnorodnych perspektyw i doświadczeń w rozwoju i wdrażaniu systemów AI.
- Włączenie w proces rozwoju osób z różnych ras, płci i środowisk społeczno-ekonomicznych.
- Zajęcie się potencjalnymi stronniczościami i błędami w systemach AI, zwłaszcza w obszarach wrażliwych, takich jak wymiar sprawiedliwości w sprawach karnych, opieka społeczna i zatrudnienie.
Lektura podstawowa
Dla czytelników zainteresowanych dalszym zgłębianiem wpływu ciemnej strony AI, książka ‘Weapons of Math Destruction’ by Cathy O’Neil is a valuable resource. It highlights the ways in which mathematical models can perpetuate and amplify social inequalities, and provides recommendations for how to create more responsible and equitable use of data and technology.