Thu. Sep 23rd, 2021

Bagaimana National Science Foundation Mengambil Kebijakan – Sebagian besar wacana publik seputar kebijakan kecerdasan buatan (AI) berfokus pada salah satu dari dua perspektif: bagaimana pemerintah dapat mendukung inovasi AI, dan bagaimana pemerintah dapat mencegah penggunaannya yang berbahaya atau lalai. Namun ada juga peran pemerintah dalam mempermudah penggunaan AI secara menguntungkan—dalam ceruk ini, National Science Foundation (NSF) telah menemukan cara untuk berkontribusi.

brainmysteries

Bagaimana National Science Foundation Mengambil Kebijakan

brainmysteries – Melalui program pemberian hibah yang disebut Keadilan dalam Kecerdasan Buatan (FAI), NSF menyediakan dana sebesar $20 juta untuk para peneliti yang bekerja pada masalah etika yang sulit dalam AI. Program, sebuah kolaborasi dengan Amazon, kini telah mendanai 21 proyek dalam dua tahun pertama, dengan openpanggilan untuk aplikasi di tahun ketiga dan terakhir. Ini adalah upaya penting, memajukan tren dukungan federal untuk kemajuan teknologi yang bertanggung jawab, dan NSF harus melanjutkan jalur pendanaan penting ini untuk AI etis.

Apa keadilan NSF dalam Program AI?

Program FAI adalah investasi dalam apa yang disebut NSF “penelitian yang diilhami penggunaan ”, di mana para ilmuwan berusaha menjawab pertanyaan mendasar yang terinspirasi oleh tantangan dunia nyata dan keterbatasan ilmiah yang mendesak. Penelitian yang diilhami penggunaan adalah alternatif dari “penelitian dasar” tradisional, yang mencoba membuat kemajuan mendasar dalam pemahaman ilmiah tanpa harus memiliki tujuan praktis yang spesifik.

Baca Juga : Faktor Yang Mempengaruhi Reproduktifitas Dalam Penelitian Ilmu Kehidupan

NSF lebih dikenal untuk penelitian dasar dalam ilmu komputer, di manaNSF menyediakan 87% dari semua dana penelitian dasar federal. Akibatnya, program FAI adalah bagian yang relatif kecil dari total investasi NSF di AI—sekitar $3,3 juta per tahun, mengingat Amazon menanggung setengah dari biayanya. Secara total, NSFmeminta $868 juta dalam pengeluaran AI, sekitar 10% dari seluruh anggarannya untuk tahun 2021, dan Kongres menyetujuisetiap sen . Khususnya, ini adalah definisi luas dari pengeluaran AI yang mencakup banyak aplikasi AI ke bidang lain, daripada kemajuan mendasar dalam AI itu sendiri, yang kemungkinan mendekati $100 atau $150 juta, menurut perkiraan kasar.

Program FAI secara khusus berorientasi pada prinsip etika “keadilan”—lebih lanjut tentang pilihan ini sebentar lagi. Meskipun ini mungkin tampak tidak biasa, program ini merupakan kelanjutan dari penelitian yang didanai pemerintah sebelumnya mengenai implikasi moral dan konsekuensi dari teknologi.

Mulai tahun 1970-an, pemerintah federal mulaiaktif membentuk penelitian bioetika ditanggapan terhadap kemarahan publik setelah AP melaporkan Studi Sifilis Tuskegee. Sementara upaya awal mungkin reaksioner, mereka mempercepat kerja puluhan tahun untuk meningkatkan ilmu biomedis. Diluncurkan bersamaan dengan Proyek Genom Manusia pada tahun 1990, ada sebuahgaris luas penelitian berorientasi pada implikasi etika, hukum, dan sosial genomik.

Mulai tahun 2018, NSF didanai21 hibah eksplorasi tentang dampakAI pada Masyarakat , pendahulu program FAI saat ini. Saat ini, mungkin untuk menarik garis tren kasar melalui upaya ini, di mana pemerintah menjadi lebih peduli dengan sains murni pertama, kemudian etika proses ilmiah, dan sekarang hasil etis dari sains itu sendiri. Ini adalah perkembangan positif, dan patut didorong.

Fokus pada keadilan

NSF membuat keputusan sadar untuk fokus pada keadilan daripada tema umum lainnya seperti “dapat dipercaya” atau “desain yang berpusat pada manusia.” Dr. Erwin Gianchandani, wakil asisten direktur NSF, memilikimenjelaskan empat kategori masalah dalam domain FAI, dan masing-masing dapat dengan mudah dikaitkan dengan tantangan saat ini dan yang sedang berlangsung yang dihadapi AI. Kategori pertama difokuskan padabanyak definisi matematis yang saling bertentangan tentang keadilan dan kurangnya kejelasan tentang mana yang sesuai dalam konteks apa.

Satu proyek yang didanai mempelajari persepsi manusia tentang metrik keadilan apa yang paling tepat untuk suatu algoritme dalam konteks keputusan jaminan—aplikasi yang sama darialgoritma COMPAS yang terkenal. Studi ini menemukan bahwa responden survei sedikit lebih menyukai algoritme yang memiliki tingkat positif palsu yang konsisten (berapa banyak orang yang tidak perlu ditahan di penjara sambil menunggu persidangan) antara dua kelompok ras, daripada algoritme yang sama-sama akurat untuk kedua kelompok ras. Khususnya, ini adalah kualitas yang berlawanan dari algoritme COMPAS, yang adil dalam akurasi totalnya, tetapi menghasilkan lebih banyak positif palsu untuk terdakwa Kulit Hitam.

Kategori kedua, tulis Gianchandani, adalah “untuk memahami bagaimana sistem AI menghasilkan hasil tertentu.” NSF melihat ini terkait langsung dengan keadilan karena memberi pengguna akhir lebih banyak informasi tentang keputusan AI memberdayakan mereka untuk menentang keputusan itu. Ini adalah poin penting—secara default, sistem AI menyamarkan sifat proses pengambilan keputusan dan mempersulit seseorang untuk menginterogasi proses tersebut.

Mungkin proyek paling baru yang didanai oleh NSF FAI mencoba menguji kelayakanaudit crowdsourcing sistem AI . Dalam audit crowdsourced, banyak individu mungkin mendaftar untuk alat—misalnya, situs web atau ekstensi browser web—yang mengumpulkan data tentang bagaimana individu-individu tersebut diperlakukan oleh sistem AI online. Dengan menggabungkan data ini, kerumunan dapat menentukan apakah algoritme bersifat diskriminatif, yang secara fungsional tidak mungkin dilakukan oleh pengguna individu mana pun.

Kategori ketiga berusaha menggunakan AI untuk membuat sistem yang ada lebih adil, tugas yang sangat penting karena pemerintah di seluruh dunia terus mempertimbangkan apakah dan bagaimana memasukkan sistem AI ke dalam layanan publik. Satuproyek dari para peneliti di Universitas New York berusaha, sebagian, untuk mengatasi tantangan keadilan ketika suatu algoritma digunakan untuk mendukung pembuat keputusan manusia.

Ini mungkin terinspirasi oleh baru-baru inievaluasi hakim menggunakan penilaian risiko algoritmik di Virginia, yang menyimpulkan bahwa algoritme gagal meningkatkan keamanan publik dan memiliki efek yang tidak diinginkan dalam meningkatkan penahanan terdakwa muda. Para peneliti NYU memiliki tantangan serupa—mengembangkan alat untuk mengidentifikasi dan mengurangi bias sistemik dalam keputusan penuntutan yang dibuat oleh jaksa wilayah.

Kategori keempat mungkin yang paling intuitif, karena bertujuan untuk menghilangkan bias dari sistem AI, atau sebagai alternatif, memastikan sistem AI bekerja dengan baik untuk semua orang. Satu proyek berupaya membuat metrik evaluasi umum untuk AI pemrosesan bahasa alami, sehingga efektivitasnya dapat dibandingkan di seluruhbanyak bahasa yang berbeda , membantu mengatasi fokus rabun pada bahasa Inggris.

Proyek lain melihat keadilan dalam metode yang kurang dipelajari, sepertialgoritme jaringan , dan masih banyak lagi yang perlu ditingkatkan dalam aplikasi tertentu, seperti forperangkat lunak medis danperekrutan algoritmik . Dua yang terakhir ini sangat penting, karena bukti publik yang berlaku menunjukkan bahwa bias algoritmik dipenyediaan dan perekrutan inti kesehatan tersebar luas.

Pertukaran kemitraan perusahaan corporate

Kritikus mungkin meratapi Big Tech, yang berperan sebagai peran penting dalam penelitian AI , hadir bahkan dalam program federal ini—Amazon menyamai dukungan NSF, sehingga setiap organisasi membayar sekitar $10 juta. Namun tidak ada alasan untuk percaya bahwa independensi NSF telah dikompromikan. Amazon tidak memainkan peran apa pun dalam pemilihan aplikasi hibah, dan tidak ada penerima hibah yang dihubungi memiliki kekhawatiran tentang proses pemilihan hibah. Pejabat NSF juga mencatat bahwa setiap kolaborasi kerja dengan Amazon (seperti menerima dukungan teknik) sepenuhnya opsional.

Tentu saja, ada baiknya mempertimbangkan apa yang Amazon dapatkan dari kemitraan ini. MembacaDalam pengumuman FAI , terlihat bahwa program tersebut berupaya untuk berkontribusi pada “sistem AI tepercaya yang siap diterima” dan bahwa “proyek akan memungkinkan penerimaan yang lebih luas terhadap sistem AI.” Bukan rahasia lagi bahwa generasi perusahaan teknologi besar saat ini akan mendapat manfaat besar dari meningkatnya kepercayaan publik terhadap AI. Namun, pendanaan perusahaan untuk penelitian yang benar-benar independen adalah baik dan tidak dapat dibantah—terutama jika dibandingkan dengan opsi lain seperti perusahaanmendanai penelitian akademis secara langsung .

Di luar kontribusi pendanaan, mungkin ada manfaat sosial lainnya dari kemitraan. Salah satunya, Amazon dan perusahaan teknologi lainnya mungkin lebih memperhatikan hasil penelitian. Untuk perusahaan seperti Amazon, ini mungkin berarti memasukkan hasil ke dalam algoritmenya sendiri, atau ke dalam sistem AI yang dijualnya melalui Amazon Web Services (AWS).

Adopsi ke layanan cloud AWS mungkin sangat berdampak, karena ribuan ilmuwan data dan perusahaan menggunakan layanan tersebut untuk AI. Sebagai contoh saja, Profesor Sandra Wachter dari Oxford Internet Institute adalahsenang mengetahui bahwametrik keadilan yang dia dan rekan penulis anjurkan telah dimasukkan ke dalamLayanan cloud AWS , membuatnya jauh lebih mudah diakses oleh praktisi ilmu data. Secara umum, memiliki serangkaian fitur yang mudah digunakan yang diperluas untuk keadilan AI membuat ilmuwan data lebih mungkin mengeksplorasi dan menggunakan alat ini.

Nilai FAI

Secara totalitas, FAI adalah usaha penelitian kecil tapi perkasa. Berbagai tantangan yang ditimbulkan oleh AI semuanya ditingkatkan dengan lebih banyak pengetahuan dan metode yang lebih bertanggung jawab yang didorong oleh penelitian independen ini. Meskipun ada sejumlah besar dana perusahaan yang digunakan untuk penelitian AI, itu tidak independen atau terutama ditujukan untuk keadilan, dan mungkin sepenuhnya mengecualikan beberapa topik FAI (misalnya, keadilan dalam penggunaan AI oleh pemerintah).

Sementara ini adalah tahun terakhir program FAI, salah satu direktur program FAI NSF, Dr. Todd Leen, menekankan ketika dihubungi untuk bagian ini bahwa “NSF tidak akan meninggalkan masalah penelitian penting ini,” dan bahwa misi FAI akan diserap ke dalam direktorat umum ilmu komputer. Penyerapan ini mungkin datang dengan kerugian kecil—misalnya, kurangnya garis anggaran yang ditentukan dengan jelas dan tidak ada pelaporan terkonsolidasi tentang proyek penelitian yang didanai. NSF harus mempertimbangkan untuk melacak investasi ini dan mengkomunikasikan dengan jelas kepada komunitas riset bahwa keadilan AI adalah prioritas berkelanjutan dari NSF.

Pemerintahan Biden juga dapat secara khusus meminta dana NSF tambahan untuk keadilan dan AI. Untuk sekali ini, pendanaan ini tidak akan menjadi penjualan yang sulit bagi pembuat kebijakan. Kongres mendanai total permintaan anggaran $868 juta NSF untuk AI pada tahun 2021, dan Presiden Biden telah mengisyaratkan minat yang jelas untuk memperluas pendanaan sains anggaran yang diusulkannya membutuhkan peningkatan 20% dalam pendanaan NSF untuk tahun fiskal 2022, dan pemerintah telah meluncurkan aGugus Tugas Riset AI Nasional diketuai oleh Dr. Erwin Gianchandani. Dengan semua minat ini, mem-bookmark $ 5 hingga $ 10 juta per tahun secara eksplisit untuk kemajuan keadilan dalam AI jelas dimungkinkan, dan tentu saja bermanfaat.

By rainmys