Kategoriler
Yapay zeka üretildi Yapay zeka ters gitti algoritmalar yapay zeka SUÇ EKONOMİ toplum

Kamu Hizmetinde Yapay Zekanın Karanlık Yüzü

Getting your Trinity Audio player ready...
Sevgiyi yaymak

Yapay zeka ve makine öğrenimi, yaşam ve çalışma şeklimizde devrim yaratma potansiyeline sahiptir, ancak bu teknolojilere giderek daha fazla güvendiğimiz için, bunların etik bir şekilde tasarlanmasını, uygulanmasını ve izlenmesini sağlamamız çok önemlidir. Ne yazık ki, dünyanın dört bir yanından YZ'nin karanlık yüzüne dair çok sayıda örneğin gösterdiği gibi, durum her zaman böyle değil. Chicago'da suçu tahmin etmek için kullanılan önyargılı YZ sisteminden, Avustralya'daki YZ destekli refah değerlendirmelerine ve Almanya'daki ceza adaleti sisteminde YZ kullanımına kadar, bu teknolojiler çoğu zaman mevcut önyargıları ve eşitsizlikleri sürdürmüştür. Bu makalede, bu örneklerden bazılarını inceleyecek ve gelecekteki YZ destekli skandalları önlemek ve toplumsal ve hükümetsel kör noktaları azaltmak için hükümetlerin ve toplumların ne yapması gerektiğini tartışacağız.

Toplumsal kör noktalar nelerdir?

Kör noktalar, bireylerin veya grupların önyargılara sahip olduğu veya yeterli bilgi veya anlayışa sahip olmadığı toplum alanlarını ifade eder. Siyasette ve toplumda bu kör noktalar, aşağıdakiler de dahil olmak üzere çeşitli şekillerde ortaya çıkabilir:

  1. Temsil eksikliği: Kadınlar, beyaz olmayanlar veya LGBTQ+ topluluğu gibi belirli gruplar siyasi karar alma süreçlerinde yeterince temsil edilmediğinde ve bakış açıları ve deneyimleri dikkate alınmadığında siyasette kör noktalar oluşabilir.
  2. Bilinçsiz önyargı: Toplumsal kör noktalar, bireylerin farkında olmasalar bile algılarını ve eylemlerini şekillendiren belirli gruplar hakkında önyargılı fikirlere sahip oldukları bilinçsiz önyargılardan da kaynaklanabilir.
  3. Sınırlı anlayış: Kör noktalar, yoksulluk veya engellilik gibi belirli sosyal konuların veya deneyimlerin sınırlı bir şekilde anlaşılmasından da kaynaklanabilir. Bu durum, söz konusu sorunların temel nedenlerini ele almada başarısız olan yetersiz politikalara veya çözümlere yol açabilir.
  4. Yankı odaları: Sosyal medya çağında bireyler genellikle kendi inanç ve değerleriyle örtüşen bilgi ve bakış açılarına maruz kalmakta, bu da kişinin kendi önyargı ve varsayımlarına meydan okumasının zor olduğu "yankı odaları" yaratmaktadır.

Siyaset ve toplumdaki bu kör noktalar, eşitsizlik ve adaletsizliği sürdürmek ve daha kapsayıcı ve adil bir toplum yaratma yolunda ilerlemeyi engellemek gibi olumsuz sonuçlara yol açabilir. Bu kör noktaların ele alınması, temsil ve anlayışı artırmak, önyargı ve varsayımlara meydan okumak ve farklı bakış açıları ve deneyimler aramak için sürekli çaba gerektirir.

Düzenlenmemiş YZ Benimsemesinin Tehlikeleri: Önyargıların Sürdürülmesi ve Kör Noktaların Güçlendirilmesi

Yapay zeka ve makine öğreniminin kitlesel olarak benimsenmesi ve hükümetler tarafından otomasyonun artırılması, potansiyel olarak toplumda daha büyük kör noktalara yol açabilir. Bunun nedeni, yapay zeka sistemlerinin yalnızca onları yönlendiren veriler ve algoritmalar kadar iyi olması ve bu sistemlerin çeşitlilik, adalet ve şeffaflık göz önünde bulundurularak tasarlanmaması ve uygulanmaması durumunda mevcut önyargıları ve adaletsizlikleri sürdürebilmesi veya güçlendirebilmesidir.

Örneğin, bir yapay zeka sistemi önyargılı veriler üzerinde eğitilirse, bu önyargıları yansıtan kararlar verecek ve potansiyel olarak eşit olmayan sonuçlara yol açacaktır. Ayrıca, YZ sistemlerinin karar verme süreci şeffaf değilse, önyargı kaynaklarını belirlemek ve ele almak zor olabilir, bu da mevcut kör noktaları daha da kötüleştirebilir.

Devlet Yapay Zekasının Ters Gittiği Örnekler

Hollanda

Hollanda'daki çocuk yardımı (Hollandaca: toeslagen affaire) skandalı, hükümet karar alma süreçlerinde yapay zeka ve makine öğreniminin kullanılmasının nasıl toplumsal kör noktalara ve ciddi sonuçlara yol açabileceğinin bir örneğidir.

Bu vakada, Hollanda hükümeti çocuk yardımı (toeslagenschandaal) programındaki sahtekarlığı tespit etmek için bir yapay zeka sistemi kullanmıştır. Ancak sistemin yanlış varsayımlara dayanması ve düzgün bir şekilde test edilmemesi, binlerce ailenin yanlışlıkla dolandırıcılıkla suçlanmasına ve yardımlarının ellerinden alınmasına yol açtı. Skandal, etkilenen ailelerin birçoğunun geçim sıkıntısı çekmesi ve karara kolayca itiraz edememesi nedeniyle kamuoyunda yaygın bir öfkeye neden oldu.

Çocuk yardımı skandalı, hükümet karar alma süreçlerinde yapay zeka ve makine öğrenimi sistemlerini uygularken toplumsal kör noktaları dikkate almanın önemini vurgulamaktadır. Bu vakada hükümet, düşük gelirli ailelerin deneyimlerini ve bakış açılarını doğru bir şekilde hesaba katmamış, bu da sadece hatalı değil aynı zamanda etkilenenler için yıkıcı sonuçları olan bir sisteme yol açmıştır.

Birleşik Devletler

Amerika Birleşik Devletleri'nde Chicago şehri, suçun nerede işleneceğini tahmin etmek için bir yapay zeka sistemi uygulamış, ancak sistemin Afro-Amerikan topluluklara karşı önemli bir önyargıya sahip olduğu tespit edilmiştir. Bu durum, söz konusu bölgelerde polis gözetiminin artmasına neden olmuş, bu da topluluklara zarar vermiş ve aşırı polislik ve aşırı suçlulaştırma kısır döngüsüne katkıda bulunmuştur. Yapay zeka sistemindeki önyargı, Afro-Amerikan topluluklardaki aşırı polisliği yansıtacak şekilde çarpıtılmış olan geçmiş suç verilerinin kullanılmasından kaynaklanıyordu.

Hindistan

Hindistan'da, küçük işletmelerin finansal sağlığını değerlendirmek ve kredi onaylarını belirlemek için yapay zeka kullanılmaya başlandı, ancak sistemin kadınların ve düşük kasttan bireylerin sahip olduğu işletmelere karşı önyargılı olduğu keşfedildi. Bu durum finansmana erişimde eşitsizliğe yol açmış ve mevcut toplumsal eşitsizlikleri devam ettirmiştir. Yapay zeka sistemindeki önyargı, bu grupların eğitim verilerinde temsil edilmemesinden kaynaklanıyordu ve bu da finansal sağlıklarının yanlış değerlendirilmesine yol açıyordu. 

Birleşik Krallık

Birleşik Krallık'ta, engellilik yardımlarına uygunluğu belirlemek için bir yapay zeka sistemi uygulamaya konuldu, ancak kısa süre sonra sistemin hatalı ve duyarsız olduğu keşfedildi. Bu durum birçok engelli bireyin haksız yere yardımlardan mahrum kalmasına ve maddi sıkıntı çekmesine yol açmıştır. YZ sistemindeki yanlışlıklar, engelli bireylerin karmaşık ihtiyaçlarının anlaşılmamasından ve kusurlu veri ve süreçlere güvenilmesinden kaynaklanıyordu.

Avustralya

Avustralya'da, sosyal yardım alanların uygunluğunu belirlemek için bir yapay zeka sistemi getirildi, ancak kısa süre sonra aşırı cezalandırıcı olduğu keşfedildi. Bu durum, birçok kişinin haksız yere yardımlardan mahrum kalmasına ya da yardımlarının azaltılmasına neden olarak ciddi mali sıkıntılara ve strese yol açtı. YZ sisteminin sert yaklaşımı, insanların yaşamlarının karmaşıklığının anlaşılmamasından ve katı kurallara ve algoritmalara aşırı güvenilmesinden kaynaklanıyordu.

Almanya

Almanya'da, suçluların yeniden suç işleme riskini değerlendirmek üzere tasarlanan bir yapay zeka sisteminin beyaz olmayan bireylere karşı önyargılı olduğu ortaya çıktı. Bu durum, ülkenin adalet sistemi içinde, beyaz olmayan kişilerin yüksek riskli kabul edilme ve benzer kayıtlara sahip beyaz meslektaşlarına kıyasla daha sert cezalara çarptırılma veya şartlı tahliyenin reddedilmesiyle karşı karşıya kalma olasılığının daha yüksek olduğu eşitsiz muameleyle sonuçlandı.

Kanada

Kanada'da, göçmenlik statüsünü ve sosyal yardımlara uygunluğu belirlemek için kullanılan bir yapay zeka sisteminde yaygın yanlışlıklar olduğu tespit edildi. Bu durum, çok sayıda kişinin yanlışlıkla sınır dışı edilmesine veya yardımlardan mahrum bırakılmasına yol açarak bu kişilerin hayatları ve aileleri için yıkıcı sonuçlar doğurdu.

Daha İyi Bir Gelecek için Adil Yapay Zeka

Yapay Zeka (AI), hükümetlerin ve toplumların çalışma biçiminde devrim yaratma potansiyeline sahiptir, ancak kullanımının adil, doğru ve tarafsız olmasını sağlamak için adımlar atılması çok önemlidir. Bunu başarmak için birkaç temel faktör dikkate alınmalı ve ele alınmalıdır.

  1. Yapay zeka sistemlerinin geliştirilmesi ve uygulanmasında şeffaflık ve hesap verebilirliğin artırılması.
  2. AI sistemlerinin adil ve doğru bir şekilde çalıştığından emin olmak için sürekli izleme ve değerlendirme.
  3. Yapay zeka sistemlerinin geliştirilmesi ve uygulanmasında farklı bakış açılarının ve deneyimlerin temsil edilmesi.
  4. Farklı ırklardan, cinsiyetlerden ve sosyo-ekonomik geçmişlerden gelen bireylerin gelişim sürecine dahil edilmesi.
  5. Özellikle ceza adaleti, refah ve istihdam gibi hassas alanlarda, yapay zeka sistemlerindeki potansiyel önyargıların ve hataların ele alınması.

Temel okuma

Yapay zekanın karanlık yüzünün etkisini daha fazla keşfetmek isteyen okuyucular için kitap ‘Weapons of Math Destruction’ by Cathy O’Neil is a valuable resource. It highlights the ways in which mathematical models can perpetuate and amplify social inequalities, and provides recommendations for how to create more responsible and equitable use of data and technology.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

tr_TRTurkish