TL;DR

Aplikasi Big Data atau apa pun aplikasi pembelajaran mesin tetap memerlukan pengawasan untuk menghasilkan keputusan yang benar. Tanpa pengawasan, sebuah algoritma pembelajaran mesin yang dimiliki oleh aplikasi Big Data dapat menghasilkan keputusan rasis.

Rangkuman Artikel

Suatu hari Prof. Latanya Sweeney menemukan bahwa Google Ads menyarankan namanya sebagai orang yang pernah di penjara. Padahal, dia tidak pernah masuk penjara. Hal ini membuat dia meneliti lebih lanjut.

Setelah diteliti lebih lanjut, ternyata algoritma pembelajaran Google Ads menemukan bahwa sekitar 80% lebih nama yang biasa diberikan kepada bayi kulit hitam berisi artikel tentang kriminalitas yang berakhir di penjara. Artinya, Google Ads membentuk informasi tersebut dari artikel-artikel yang berisi nama tersebut.

Seorang matematikawan, Prof. Alvaro Bedoya, menjelaskan bahwa selain data, input yang diberikan (tanpa sengaja) oleh pengguna Big Data juga dapat mempengaruhi keputusan pembelajaran mesin (machine learning) pada perangkat lunak Big Data. Misalnya, keputusan menghasilkan calon tenaga kerja.

Pada awalnya, perangkat lunak AcmeIN memilih calon pekerja dengan variasi usia. Ketika perusahaan-perusahaan yang menggunakan AcmeIN memilih calon-calon tenaga kerja dengan usia muda, perangkat lunak AcmeIN kemudian belajar. Pada kueri berikutnya, AcmeIN 2.0, perangkat lunak akan menyaring orang-orang yang usianya tidak masuk secara otomatis. Padahal, belum tentu pekerjaan tersebut memiliki batasan umur.

Berdasarkan dua orang tersebut, penulis menyarankan ada beberapa hal yang perlu dilakukan:

  1. Meningkatkan kapasitas teknologi para advokat kepentingan umum, dan membentuk kelompok yang lebih besar berisi teknolog yang peduli kepentingan publik. Dengan terlibatnya teknolog dalam debat pengambilan keputusan dan meleknya pengambil keputusan tentang teknologi Big Data dan algoritmanya, maka diharapkan pemerintah dan organisasi masyarakat tersebut menjadi lebih kuat.
  2. Menekankan “transparansi algoritma”. Dengan menjamin keterbukaan algoritma untuk sistem kritikal seperti edukasi dan pengadilan, kita dapat mengevaluasi bias yang mungkin terjadi dan memperjuangkan perubahan untuk menghapus bias tersebut.
  3. Mengeksplorasi regulasi yang efektif tentang data personal. Sistem hukum yang sekarang sudah tidak dapat lagi memberikan arahan bagaimana data pribadi kita dapat digunakan dalam teknologi yang setiap hari kita tergantung. Kita bisa lebih lanjut.

Can computers be racist? Big data, inequality, and discrimination

Bacaan Lebih Lanjut