Fri. Apr 26th, 2024

AI Otodidak Mungkin Memiliki Banyak Kesamaan Dengan otak ManusiaSelama satu Dekade  sekarang, banyak dari sistem kecerdasan buatan yang paling mengesankan telah diajarkan menggunakan inventaris data berlabel yang sangat besar. Sebuah gambar mungkin diberi label “kucing tabby” atau “kucing harimau”, misalnya, untuk “melatih” jaringan saraf tiruan untuk membedakan kucing dari harimau dengan benar. Strategi ini berhasil secara spektakuler dan sangat kurang.

AI Otodidak Mungkin Memiliki Banyak Kesamaan Dengan otak Manusia

brainmysteries – Pelatihan “diawasi” semacam itu membutuhkan data yang diberi label dengan susah payah oleh manusia, dan jaringan saraf sering mengambil jalan pintas, belajar mengaitkan label dengan informasi minimal dan terkadang dangkal. Misalnya, jaringan saraf mungkin menggunakan keberadaan rumput untuk mengenali foto sapi, karena sapi biasanya difoto di ladang.

“Kami meningkatkan generasi algoritma yang seperti mahasiswa yang tidak datang ke kelas sepanjang semester dan kemudian malam sebelum final, mereka menjejalkan,” kata Alexei Efros , seorang ilmuwan komputer di University of California , Berkeley. “Mereka tidak benar-benar mempelajari materi, tetapi mereka mengerjakan ujian dengan baik.”

Bagi para peneliti yang tertarik pada persimpangan kecerdasan hewan dan mesin, terlebih lagi, “pembelajaran yang diawasi” ini mungkin terbatas pada apa yang dapat diungkapkannya tentang otak biologis. Hewan—termasuk manusia tidak menggunakan kumpulan data berlabel untuk belajar. Untuk sebagian besar, mereka menjelajahi lingkungan mereka sendiri, dan dengan melakukan itu, mereka memperoleh pemahaman yang kaya dan kuat tentang dunia.

Baca Juga : 5 Hal Yang Perlu Diketahui Tentang Fakta Klaim Tentang Sains

Sekarang beberapa ahli saraf komputasi telah mulai mengeksplorasi jaringan saraf yang telah dilatih dengan sedikit atau tanpa data berlabel manusia. Algoritme “pembelajaran mandiri” ini telah terbukti sangat berhasil dalam memodelkan bahasa manusia dan, baru-baru ini, pengenalan gambar. Dalam pekerjaan baru-baru ini, model komputasi dari sistem visual dan pendengaran mamalia yang dibangun menggunakan model pembelajaran yang diawasi sendiri telah menunjukkan korespondensi yang lebih dekat dengan fungsi otak daripada rekan-rekan mereka yang belajar dengan pengawasan. Untuk beberapa ahli saraf, tampaknya jaringan buatan mulai mengungkapkan beberapa metode aktual yang digunakan otak kita untuk belajar.

Pengawasan yang Cacat

Model otak yang terinspirasi oleh jaringan saraf tiruan muncul sekitar 10 tahun yang lalu, sekitar waktu yang sama ketika jaringan saraf bernama AlexNet merevolusi tugas mengklasifikasikan gambar yang tidak diketahui. Jaringan itu, seperti semua jaringan saraf, terbuat dari lapisan neuron buatan, unit komputasi yang membentuk koneksi satu sama lain yang dapat bervariasi dalam kekuatan, atau “berat”. Jika jaringan saraf gagal mengklasifikasikan gambar dengan benar, algoritme pembelajaran memperbarui bobot koneksi antara neuron untuk membuat kesalahan klasifikasi tersebut lebih kecil kemungkinannya pada putaran pelatihan berikutnya. Algoritme mengulangi proses ini berkali-kali dengan semua gambar pelatihan, mengubah bobot, hingga tingkat kesalahan jaringan cukup rendah.

Sekitar waktu yang sama, ahli saraf mengembangkan model komputasi pertama dari sistem visual primata , menggunakan jaringan saraf seperti AlexNet dan penerusnya. Persatuan itu tampak menjanjikan: Ketika monyet dan jaring saraf tiruan diperlihatkan gambar yang sama, misalnya, aktivitas neuron asli dan neuron buatan menunjukkan korespondensi yang menarik. Model buatan pendengaran dan deteksi bau diikuti.

Namun seiring perkembangan lapangan, para peneliti menyadari keterbatasan pelatihan yang diawasi. Misalnya, pada tahun 2017, Leon Gatys, seorang ilmuwan komputer saat itu di Universitas Tübingen di Jerman, dan rekan-rekannya mengambil gambar Ford Model T, lalu melapisi pola kulit macan tutul di seluruh foto, menghasilkan gambar yang aneh namun mudah dikenali. . Jaringan saraf tiruan terkemuka dengan tepat mengklasifikasikan gambar asli sebagai Model T, tetapi menganggap gambar yang dimodifikasi sebagai macan tutul. Itu terpaku pada tekstur dan tidak memiliki pemahaman tentang bentuk mobil (atau macan tutul, dalam hal ini).

Strategi belajar mandiri dirancang untuk menghindari masalah seperti itu. Dalam pendekatan ini, manusia tidak melabeli data. Sebaliknya, “label berasal dari data itu sendiri,” kata Friedemann Zenke , ahli saraf komputasi di Institut Penelitian Biomedis Friedrich Miescher di Basel, Swiss. Algoritme yang diawasi sendiri pada dasarnya menciptakan celah dalam data dan meminta jaringan saraf untuk mengisi bagian yang kosong. Dalam apa yang disebut model bahasa besar, misalnya, algoritma pelatihan akan menunjukkan jaringan saraf beberapa kata pertama dari sebuah kalimat dan memintanya untuk memprediksi kata berikutnya. Ketika dilatih dengan kumpulan teks besar yang diperoleh dari internet, model tersebut tampaknya belajarstruktur sintaksis bahasa, menunjukkan kemampuan linguistik yang mengesankan—semuanya tanpa label atau pengawasan eksternal.

Upaya serupa sedang dilakukan dalam visi komputer. Pada akhir tahun 2021, Kaiming He dan rekan-rekannya mengungkapkan “ pengenkode otomatis bertopeng ” mereka , yang dibangun di atas teknik yang dipelopori oleh tim Efros pada tahun 2016. Algoritme pembelajaran yang diawasi sendiri secara acak menutupi gambar, mengaburkan hampir tiga perempat dari masing-masing gambar. Auto-encoder bertopeng mengubah bagian yang tidak terselubung menjadi representasi laten—deskripsi matematis terkompresi yang berisi informasi penting tentang suatu objek. (Dalam kasus gambar, representasi laten mungkin deskripsi matematis yang menangkap, antara lain, bentuk objek dalam gambar.) Sebuah decoder kemudian mengubah representasi tersebut kembali menjadi gambar penuh.

Algoritme pembelajaran yang diawasi sendiri melatih kombinasi encoder-decoder untuk mengubah gambar bertopeng menjadi versi lengkapnya. Setiap perbedaan antara gambar asli dan gambar yang direkonstruksi dimasukkan kembali ke dalam sistem untuk membantunya belajar. Proses ini berulang untuk satu set gambar pelatihan sampai tingkat kesalahan sistem cukup rendah. Dalam satu contoh, ketika penyandi otomatis bertopeng yang terlatih diperlihatkan gambar bus yang sebelumnya tidak terlihat dengan hampir 80 persennya dikaburkan, sistem berhasil merekonstruksi struktur bus.

“Ini adalah hasil yang sangat, sangat mengesankan,” kata Efros.

Representasi laten yang dibuat dalam sistem seperti ini tampaknya mengandung informasi yang jauh lebih dalam daripada yang dapat dimasukkan oleh strategi sebelumnya. Sistem mungkin mempelajari bentuk mobil, misalnya—atau macan tutul—dan bukan hanya polanya. “Dan ini benar-benar ide mendasar dari pembelajaran mandiri—Anda membangun pengetahuan Anda dari bawah ke atas,” kata Efros. Tidak ada menit terakhir menjejalkan untuk lulus tes.

Otak yang Diawasi Sendiri

Dalam sistem seperti ini, beberapa ahli saraf melihat gema dari cara kita belajar. “Saya pikir tidak ada keraguan bahwa 90 persen dari apa yang dilakukan otak adalah pembelajaran yang diawasi sendiri,” kata Blake Richards , seorang ahli saraf komputasi di McGill University dan Mila, Quebec Artificial Intelligence Institute. Otak biologis dianggap terus-menerus memprediksi, katakanlah, lokasi objek di masa depan saat bergerak, atau kata berikutnya dalam sebuah kalimat, sama seperti algoritme pembelajaran mandiri yang mencoba memprediksi celah dalam gambar atau segmen teks. Dan otak juga belajar dari kesalahan mereka sendiri—hanya sebagian kecil dari umpan balik otak kita yang berasal dari sumber eksternal yang mengatakan, pada dasarnya, “jawaban salah.”

Misalnya, perhatikan sistem visual manusia dan primata lainnya. Ini adalah studi terbaik dari semua sistem sensorik hewan, tetapi ahli saraf telah berjuang untuk menjelaskan mengapa mereka memasukkan dua jalur terpisah: aliran visual ventral, yang bertanggung jawab untuk mengenali objek dan wajah, dan aliran visual dorsal, yang memproses gerakan (” jalur apa” dan “di mana”, masing-masing).

Richards dan timnya menciptakan model yang diawasi sendiri yang mengisyaratkan sebuah jawaban. Mereka melatih AI yang menggabungkan dua jaringan saraf yang berbeda: Yang pertama, disebut arsitektur ResNet, dirancang untuk memproses gambar; yang kedua, dikenal sebagai jaringan berulang, dapat melacak urutan input sebelumnya untuk membuat prediksi tentang input yang diharapkan berikutnya. Untuk melatih AI gabungan, tim memulai dengan urutan, katakanlah, 10 frame dari sebuah video dan biarkan ResNet memprosesnya satu per satu. Jaringan berulang kemudian memprediksi representasi laten dari frame ke-11, sementara tidak hanya mencocokkan 10 frame pertama. Algoritme pembelajaran yang diawasi sendiri membandingkan prediksi dengan nilai aktual dan menginstruksikan jaringan saraf untuk memperbarui bobotnya untuk membuat prediksi lebih baik.

By rainmys