Terus Berhubung Dengan Kami

EU

#ArtificialIntelligence - Menangani risiko bagi pengguna

SAHAM:

Diterbitkan

on

Kami menggunakan pendaftaran anda untuk menyediakan kandungan dengan cara yang anda setujui dan untuk meningkatkan pemahaman kami tentang anda. Anda boleh berhenti melanggan pada bila-bila masa.

Litar elektronik kecerdasan buatan, mikrocip dengan otak yang bercahaya. © Vchalup / Adobe Stock   © Vchalup / Adobe Stock 

Kecerdasan buatan dan proses membuat keputusan automatik boleh menimbulkan ancaman tertentu kepada pengguna. Ketahui bagaimana Parlimen Eropah mahu melindungi mereka.

Apakah kecerdasan buatan dan mengapa ia berbahaya?

Oleh kerana algoritma pembelajaran boleh memproses set data dengan ketepatan dan kelajuan melebihi kapasiti manusia, aplikasi kecerdasan buatan (AI) telah menjadi semakin umum dalam kewangan, penjagaan kesihatan, pendidikan, sistem undang-undang dan seterusnya. Walau bagaimanapun, pergantungan kepada AI juga membawa risiko, terutama di mana keputusan dibuat tanpa pengawasan manusia. Pembelajaran mesin bergantung kepada pengenalan corak dalam dataset. Masalah timbul ketika data yang ada mencerminkan kecenderungan masyarakat.

Kecerdasan Buatan dalam proses membuat keputusan

AI semakin terlibat dalam sistem keputusan algoritma. Dalam banyak situasi, impak keputusan terhadap orang boleh menjadi penting, seperti akses kepada kredit, pekerjaan, rawatan perubatan, atau hukuman kehakiman. Oleh itu, pengambilan keputusan secara automatik boleh mengekalkan pembahagian sosial. Sebagai contoh, beberapa algoritma pengambilan pekerja didapati berat sebelah terhadap wanita.

Bagaimana untuk melindungi pengguna di era AI

Pembangunan AI dan proses membuat keputusan automatik juga memberikan cabaran kepada kepercayaan dan kebajikan pengguna. Apabila pengguna berinteraksi dengan sistem sedemikian, mereka harus dimaklumkan tentang bagaimana ia berfungsi.

Kedudukan Parlimen

Dalam pakej resolusi yang digunakan pada 23 Januari, yang jawatankuasa perlindungan pasaran dalaman dan pengguna menggesa Suruhanjaya Eropah untuk memeriksa sama ada langkah tambahan diperlukan untuk menjamin satu set hak yang kukuh untuk melindungi pengguna dalam konteks AI dan membuat keputusan automatik.

Suruhanjaya perlu menjelaskan bagaimana ia merancang untuk:
  • Memastikan pengguna dilindungi dari amalan komersil yang tidak adil dan diskriminasi serta dari risiko yang disertakan oleh perkhidmatan profesional AI yang dipandu;
  • menjamin ketelusan yang lebih tinggi dalam proses ini, dan;
  • pastikan hanya dataset berkualiti tinggi dan tidak berat sebelah digunakan dalam sistem keputusan algoritma

"Kita perlu memastikan perlindungan dan kepercayaan pengguna dipastikan, bahawa peraturan EU mengenai keselamatan dan liabiliti untuk produk dan perkhidmatan adalah sesuai untuk tujuan dalam era digital," kata ahli Greens Jerman / EFA Petra De Sutter, ketua jawatankuasa pasaran dalaman dan perlindungan pengguna.

Langkah seterusnya

MEP akan memilih resolusi tersebut pada pertengahan Februari. Selepas itu akan dihantar ke Majlis dan Suruhanjaya. The Suruhanjaya harus membentangkan rancangannya untuk pendekatan Eropah untuk AI pada 19 Februari.

Pengiklanan

Kongsi artikel ini:

EU Reporter menerbitkan artikel daripada pelbagai sumber luar yang menyatakan pelbagai sudut pandangan. Jawatan yang diambil dalam artikel ini tidak semestinya jawatan Pemberita EU.

tren