Terus Berhubung Dengan Kami

teknologi komputer

OASI, mesin carian pertama yang menemukan algoritma yang digunakan pemerintah dan syarikat pada warganegara

SAHAM:

Diterbitkan

on

Kami menggunakan pendaftaran anda untuk menyediakan kandungan dengan cara yang anda setujui dan untuk meningkatkan pemahaman kami tentang anda. Anda boleh berhenti melanggan pada bila-bila masa.

  • Dicipta oleh Eticas Foundation, Observatory of Algorithms with Social Impact, OASI, mengumpulkan maklumat dari puluhan algoritma yang digunakan oleh Pentadbiran Awam dan syarikat di seluruh dunia untuk mengetahui lebih lanjut mengenai kesan sosial mereka.
  • Objektifnya adalah untuk memberi akses kepada orang ramai ke maklumat mengenai algoritma kerajaan dan syarikat, dan untuk mengetahui siapa yang menggunakannya, siapa yang mengembangkannya, ancaman apa yang mereka wakili dan jika mereka telah diaudit, antara ciri lain.
  • Bias dan diskriminasi algoritma biasanya berlaku berdasarkan umur, jantina, bangsa atau kecacatan, antara nilai-nilai lain, tetapi kerana ketelusan umum, masih belum mungkin mengetahui semua akibatnya kepada kumpulan yang terkena.

Eticas Foundation, sebuah organisasi nirlaba yang mempromosikan penggunaan algoritma dan sistem Kecerdasan Buatan (AI) yang bertanggungjawab, telah membuat Observatory of Algorithms with Social Impact (OASI). Observatorium ini memperkenalkan mesin pencari untuk mengetahui lebih lanjut mengenai alat yang membuat keputusan automatik penting terhadap warga, pengguna dan pengguna di seluruh dunia.

Pada masa ini, kedua-dua syarikat dan Pentadbiran Awam mengotomatisasi keputusan berkat algoritma. Walau bagaimanapun, pengembangan dan pengoperasiannya tidak mengikuti kawalan mutu luaran, dan tidak setegas yang seharusnya, yang menjadikan penduduk tidak terlindungi. Dengan mesin carian ini, sesiapa sahaja dapat mengetahui lebih lanjut mengenai algoritma ini: siapa yang mengembangkannya, siapa yang menggunakannya, skop aplikasi mereka, sama ada mereka telah diaudit, objektif atau kesan sosial mereka dan ancaman yang mereka wakili.

Pada masa ini, OASI mengumpulkan 57 algoritma, tetapi menjangkakan akan mencapai 100 algoritma pada bulan-bulan berikutnya. Di antara mereka, 24 telah digunakan di AS oleh syarikat Kerajaan dan Big Tech. Sebagai contoh, ShotSpotter, alat algoritma yang digunakan oleh Jabatan Polis Oakland untuk memerangi dan mengurangkan keganasan senjata api melalui mikrofon pemantauan suara, dan algoritma untuk meramalkan potensi penyalahgunaan dan pengabaian kanak-kanak yang digunakan oleh Allegheny County, Pennsylvania. Contoh lain dari syarikat adalah Rekognition, sistem pengecaman wajah Amazon, yang diaudit oleh Makmal Media MIT pada awal 2019, dan didapati menunjukkan prestasi yang jauh lebih buruk ketika mengenal pasti jantina seseorang jika mereka berkulit wanita atau berkulit gelap.

Diskriminasi yang paling biasa adalah berdasarkan usia, jantina, bangsa atau kecacatan, dihasilkan secara tidak sengaja oleh pemaju yang tidak mempunyai kemahiran sosioekonomi untuk memahami kesan teknologi ini. Dalam pengertian ini, jurutera ini merancang algoritma hanya berdasarkan kemahiran teknikal, dan kerana tidak ada kawalan luaran dan nampaknya berfungsi seperti yang diharapkan, algoritma terus belajar dari kekurangan data.

Memandangkan kurangnya ketelusan mengenai fungsi beberapa algoritma ini, Eticas Foundation, selain dari pelancaran OASI, sedang mengembangkan proyek audit luaran. Yang pertama adalah VioGén, algoritma yang digunakan oleh Kementerian Dalam Negeri Sepanyol untuk memberikan risiko kepada wanita yang meminta perlindungan setelah mengalami kes-kes keganasan rumah tangga. Eticas akan melakukan audit luaran melalui rekayasa terbalik dan data pentadbiran, wawancara, laporan atau skrip reka bentuk, untuk mengumpulkan hasil secara besar-besaran. Semua ini dengan objektif untuk mengesan peluang peningkatan dalam perlindungan wanita ini.

"Walaupun terdapat kaedah algoritma kawalan dan audit untuk memastikan bahawa teknologi menghormati peraturan dan hak asasi saat ini, Pentadbiran dan banyak syarikat terus memekakkan telinga untuk meminta ketelusan dari warga negara dan institusi," kata Gemma Galdon, pengasas Yayasan Eticas . "Sebagai tambahan kepada OASI, setelah beberapa tahun di mana kami telah mengembangkan lebih dari selusin audit untuk syarikat seperti Alpha Telefónica, PBB, Koa Health atau Bank Pembangunan Antara Amerika, kami juga telah menerbitkan Panduan untuk Audit Algoritma sehingga bahawa sesiapa sahaja boleh melaksanakannya. Objektifnya adalah untuk meningkatkan kesedaran, memberikan ketelusan dan mengembalikan keyakinan terhadap teknologi, yang tidak semestinya berbahaya. "

Dalam pengertian ini, algoritma yang dilatih dengan teknik pembelajaran mesin menggunakan sejumlah besar data sejarah untuk "mengajar" mereka memilih berdasarkan keputusan masa lalu. Biasanya data-data ini tidak mewakili realiti sosioekonomi dan budaya di mana ia diterapkan, tetapi pada banyak kesempatan mereka menggambarkan situasi tidak adil yang tidak dimaksudkan untuk diabadikan. Dengan cara ini, algoritma secara teknikal akan membuat keputusan "betul" sesuai dengan latihannya, walaupun kenyataannya adalah bahawa cadangan atau ramalannya berat sebelah atau diskriminasi.

Pengiklanan

Mengenai Eticas Foundation

Eticas Foundation berusaha untuk menerjemahkan ke dalam spesifikasi teknikal prinsip-prinsip yang memandu masyarakat, seperti peluang yang sama, ketelusan dan tanpa diskriminasi yang terdapat dalam teknologi yang membuat keputusan automatik mengenai kehidupan kita. Ia mencari keseimbangan antara perubahan nilai sosial, kemungkinan teknikal kemajuan terkini dan kerangka undang-undang. Untuk tujuan ini, ia mengaudit algoritma, mengesahkan bahawa jaminan undang-undang diterapkan ke dunia digital, terutama untuk Artificial Intelligence, dan melakukan pekerjaan yang intensif untuk meningkatkan kesadaran dan menyebarkan kebutuhan akan teknologi berkualiti yang bertanggungjawab.

Kongsi artikel ini:

EU Reporter menerbitkan artikel daripada pelbagai sumber luar yang menyatakan pelbagai sudut pandangan. Jawatan yang diambil dalam artikel ini tidak semestinya jawatan Pemberita EU.

tren