Kategori
AI yang dihasilkan AI menjadi kacau algoritma kecerdasan buatan kejahatan ekonomi masyarakat

Sisi Gelap AI dalam Pelayanan Publik

Getting your Trinity Audio player ready...
Sebarkan cinta

Kecerdasan buatan dan pembelajaran mesin memiliki potensi untuk merevolusi cara kita hidup dan bekerja, tetapi karena kita semakin bergantung pada teknologi ini, penting bagi kita untuk memastikan bahwa teknologi ini dirancang, diimplementasikan, dan dipantau dengan cara yang etis. Sayangnya, hal ini tidak selalu terjadi, seperti yang ditunjukkan oleh berbagai contoh sisi gelap AI dari seluruh dunia. Mulai dari sistem AI yang bias yang digunakan untuk memprediksi kejahatan di Chicago, hingga penilaian kesejahteraan yang didukung oleh AI di Australia, dan penggunaan AI dalam sistem peradilan pidana di Jerman, teknologi ini terlalu sering mengabadikan bias dan ketidaksetaraan yang ada. Dalam artikel ini, kami akan membahas beberapa contoh tersebut dan mendiskusikan apa yang perlu dilakukan oleh pemerintah dan masyarakat untuk mencegah skandal yang didukung oleh AI di masa depan dan mengurangi titik-titik buta masyarakat dan pemerintah.

Apa yang dimaksud dengan titik-titik buta masyarakat?

Titik buta mengacu pada area masyarakat di mana individu atau kelompok memiliki bias atau tidak memiliki informasi atau pemahaman yang memadai. Dalam politik dan masyarakat, titik buta ini dapat muncul dalam beberapa cara, termasuk:

  1. Kurangnya representasi: Titik buta dalam politik dapat terjadi ketika kelompok-kelompok tertentu, seperti perempuan, orang kulit berwarna, atau komunitas LGBTQ+, kurang terwakili dalam pengambilan keputusan politik dan tidak diperhitungkan perspektif dan pengalamannya.
  2. Bias yang tidak disadari: Titik buta sosial juga dapat terjadi akibat bias yang tidak disadari, di mana individu memiliki prasangka tentang kelompok tertentu yang membentuk persepsi dan tindakan mereka, meskipun mereka tidak menyadarinya.
  3. Pemahaman yang terbatas: Titik buta juga dapat diakibatkan oleh pemahaman yang terbatas terhadap isu-isu atau pengalaman sosial tertentu, seperti kemiskinan atau disabilitas. Hal ini dapat menyebabkan kebijakan atau solusi yang tidak memadai yang gagal mengatasi akar permasalahan.
  4. Ruang gema: Di era media sosial, individu sering kali terpapar dengan informasi dan perspektif yang selaras dengan keyakinan dan nilai-nilai mereka sendiri, menciptakan "ruang gema" di mana sulit untuk menantang bias dan asumsi mereka sendiri.

Titik-titik buta dalam politik dan masyarakat ini dapat menimbulkan konsekuensi negatif, termasuk melanggengkan ketidaksetaraan dan ketidakadilan, serta menghambat kemajuan menuju terciptanya masyarakat yang lebih inklusif dan adil. Mengatasi titik-titik buta ini membutuhkan upaya berkelanjutan untuk meningkatkan representasi dan pemahaman, menantang bias dan asumsi, serta mencari perspektif dan pengalaman yang beragam.

Bahaya Adopsi AI yang Tidak Diatur: Melanggengkan Bias dan Memperkuat Titik Buta

Adopsi besar-besaran AI dan pembelajaran mesin, serta peningkatan otomatisasi oleh pemerintah, berpotensi menimbulkan titik buta yang lebih besar di masyarakat. Hal ini dikarenakan sistem AI hanya sebaik data dan algoritma yang menggerakkannya, dan jika sistem ini tidak dirancang dan diimplementasikan dengan mempertimbangkan keragaman, keadilan, dan transparansi, maka sistem ini dapat melanggengkan atau memperbesar bias dan ketidakadilan yang ada.

Misalnya, jika sistem AI dilatih dengan data yang bias, maka sistem tersebut akan membuat keputusan yang mencerminkan bias tersebut, sehingga berpotensi menghasilkan hasil yang tidak setara. Selain itu, jika proses pengambilan keputusan sistem AI tidak transparan, akan sulit untuk mengidentifikasi dan mengatasi sumber bias, yang selanjutnya dapat memperburuk titik buta yang ada.

Contoh AI Pemerintah yang salah

Belanda

Skandal tunjangan anak (bahasa Belanda: toeslagen affaire) di Belanda adalah contoh bagaimana penggunaan AI dan pembelajaran mesin dalam pengambilan keputusan pemerintah dapat menyebabkan titik buta masyarakat dan konsekuensi serius.

Dalam kasus ini, pemerintah Belanda menggunakan sistem AI untuk mendeteksi kecurangan dalam program tunjangan anak (toeslagenschandaal). Namun, sistem ini didasarkan pada asumsi yang salah dan tidak diuji dengan benar, sehingga ribuan keluarga dituduh melakukan kecurangan dan tunjangan mereka dicabut. Skandal ini mengakibatkan kemarahan publik yang meluas, karena banyak keluarga yang terkena dampak sedang berjuang untuk memenuhi kebutuhan hidup mereka dan tidak dapat dengan mudah menggugat keputusan tersebut.

Skandal tunjangan anak menyoroti pentingnya mempertimbangkan titik buta masyarakat ketika menerapkan sistem AI dan pembelajaran mesin dalam pengambilan keputusan pemerintah. Dalam kasus ini, pemerintah tidak memperhitungkan pengalaman dan perspektif keluarga berpenghasilan rendah dengan baik, sehingga menghasilkan sistem yang tidak hanya tidak akurat, tetapi juga memiliki konsekuensi yang sangat buruk bagi mereka yang terkena dampaknya.

Amerika Serikat

Di Amerika Serikat, kota Chicago menerapkan sistem AI untuk memprediksi di mana kejahatan akan terjadi, tetapi sistem tersebut ternyata memiliki bias yang signifikan terhadap komunitas Afrika-Amerika. Hal ini mengakibatkan peningkatan pengawasan polisi di area tersebut, yang menyebabkan kerugian bagi masyarakat dan berkontribusi pada lingkaran setan pemolisian yang berlebihan dan kriminalisasi yang berlebihan. Bias dalam sistem AI disebabkan oleh penggunaan data kejahatan historis, yang miring untuk mencerminkan pemolisian yang berlebihan di komunitas Afrika-Amerika.

India

Di India, AI diperkenalkan untuk mengevaluasi kesehatan keuangan usaha kecil dan menentukan persetujuan pinjaman, tetapi ditemukan bahwa sistem tersebut bias terhadap bisnis yang dimiliki oleh wanita dan individu kasta rendah. Hal ini mengakibatkan akses yang tidak setara terhadap pembiayaan dan melanggengkan ketidaksetaraan sosial yang ada. Bias dalam sistem AI disebabkan oleh kurangnya representasi kelompok-kelompok ini dalam data pelatihan, yang mengarah pada penilaian yang tidak akurat terhadap kesehatan keuangan mereka. 

Inggris Raya

Di Inggris, sebuah sistem AI diperkenalkan untuk menentukan kelayakan tunjangan disabilitas, tetapi segera diketahui bahwa sistem tersebut tidak akurat dan tidak sensitif. Hal ini menyebabkan banyak penyandang disabilitas yang secara keliru ditolak tunjangannya dan mengalami kesulitan keuangan. Ketidakakuratan dalam sistem AI ini disebabkan oleh kurangnya pemahaman akan kebutuhan kompleks para penyandang disabilitas dan ketergantungan pada data dan proses yang cacat.

Australia

Di Australia, sebuah sistem AI diperkenalkan untuk menentukan kelayakan penerima tunjangan, namun segera diketahui bahwa sistem ini terlalu menghukum. Hal ini mengakibatkan banyak orang yang secara keliru ditolak mendapatkan tunjangan atau tunjangannya dikurangi, sehingga menyebabkan kesulitan keuangan dan stres yang signifikan. Pendekatan yang keras dari sistem AI ini disebabkan oleh kurangnya pemahaman tentang kompleksitas kehidupan masyarakat dan ketergantungan yang berlebihan pada aturan dan algoritme yang ketat.

Jerman

Di Jerman, sebuah sistem kecerdasan buatan yang dirancang untuk mengevaluasi risiko pengulangan tindak pidana di antara para terdakwa kriminal telah ditemukan memiliki bias terhadap orang-orang kulit berwarna. Hal ini mengakibatkan perlakuan yang tidak setara dalam sistem peradilan di negara tersebut, di mana orang kulit berwarna cenderung dianggap berisiko tinggi dan menghadapi hukuman yang lebih berat atau penolakan pembebasan bersyarat dibandingkan dengan orang kulit putih yang memiliki catatan serupa.

Kanada

Di Kanada, sebuah sistem kecerdasan buatan yang digunakan untuk menentukan status imigrasi dan kelayakan untuk mendapatkan tunjangan ternyata memiliki ketidakakuratan yang meluas. Hal ini mengakibatkan banyak orang dideportasi secara salah atau ditolak tunjangannya, sehingga menimbulkan konsekuensi yang sangat buruk bagi kehidupan dan keluarga mereka.

AI yang Adil untuk Masa Depan yang Lebih Baik

Kecerdasan Buatan (AI) memiliki potensi untuk merevolusi cara pemerintah dan masyarakat beroperasi, tetapi sangat penting untuk mengambil langkah-langkah untuk memastikan penggunaannya adil, akurat, dan tidak bias. Untuk mencapai hal ini, beberapa faktor kunci harus dipertimbangkan dan ditangani.

  1. Peningkatan transparansi dan akuntabilitas dalam pengembangan dan penerapan sistem AI.
  2. Pemantauan dan evaluasi berkelanjutan untuk memastikan bahwa sistem AI bekerja secara adil dan akurat.
  3. Representasi dari beragam perspektif dan pengalaman dalam pengembangan dan penerapan sistem AI.
  4. Penyertaan individu dari berbagai ras, jenis kelamin, dan latar belakang sosial-ekonomi dalam proses pembangunan.
  5. Mengatasi potensi bias dan kesalahan dalam sistem AI, terutama di bidang-bidang sensitif seperti peradilan pidana, kesejahteraan, dan ketenagakerjaan.

Bacaan penting

Bagi pembaca yang tertarik untuk mengeksplorasi lebih jauh dampak dari sisi gelap AI, buku ‘Weapons of Math Destruction’ by Cathy O’Neil is a valuable resource. It highlights the ways in which mathematical models can perpetuate and amplify social inequalities, and provides recommendations for how to create more responsible and equitable use of data and technology.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

id_IDIndonesian