close
Sains

Kecerdasan Buatan Tidak Berjalan Secepat yang Anda Bayangkan

Sumber Foto Ilustrasi: Pixabay

Bagi kebanyakan orang, kecerdasan buatan terlihat seperti telah membuat kemajuan besar. Menurut siaran pers dan beberapa akun media lainnya, OpenAI’s DALL-E 2 tampaknya dapat membuat gambar spektakuler dari teks apa pun; sistem OpenAI lain yang disebut GPT-3 dapat berbicara tentang apa saja; dan sebuah sistem bernama Gato yang dirilis pada bulan Mei oleh DeepMind, sebuah divisi dari Alphabet, tampaknya bekerja dengan baik pada setiap tugas yang dapat dilakukan perusahaan. Salah satu eksekutif tingkat tinggi DeepMind bahkan sampai sesumbar bahwa dalam pencarian kecerdasan umum buatan (AGI), AI yang memiliki fleksibilitas dan sumber daya kecerdasan manusia, “The Game Is Over! (Permainan sudah berakhir)”. Dan Elon Musk baru-baru ini mengatakan bahwa dia akan terkejut jika kita tidak memiliki kecerdasan umum buatan pada tahun 2029.

Jangan tertipu. Mesin suatu hari nanti mungkin secerdas manusia, bahkan mungkin lebih pintar, tetapi permainannya masih jauh dari selesai. Masih banyak pekerjaan yang harus dilakukan untuk membuat mesin yang benar-benar dapat memahami dan bernalar tentang dunia di sekitar mereka. Apa yang benar-benar kita butuhkan saat ini adalah lebih sedikit sikap dan lebih banyak penelitian dasar.

Yang pasti, memang dalam beberapa hal AI benar-benar membuat kemajuan—gambar sintetis terlihat makin realistis dan pengenalan suara sering kali dapat bekerja di lingkungan yang bising—tetapi kita masih jauh dari tujuan umum, AI level manusia yang dapat memahami arti sebenarnya dari artikel dan video, atau menangani hambatan dan gangguan yang tidak terduga. Kita masih terjebak pada tantangan yang persis sama yang telah ditunjukkan oleh para ilmuwan akademis (termasuk saya sendiri) selama bertahun-tahun: membuat AI yang dapat diandalkan dan membuatnya mengatasi keadaan yang tidak biasa.

Ambil contoh Gato yang baru-baru ini ramai, yang diduga sebagai manusia yang serba tahu dan bagaimana gambar itu memberi keterangan gambar seorang pelempar melempar bola bisbol. Sistem mengembalikan tiga jawaban berbeda: “Seorang pemain bisbol melempar bola di atas lapangan bisbol”, “Seorang pria yang melempar bola ke pelempar bola di lapangan bisbol”, dan “Seorang pemain bisbol yang sedang memukul dan seorang penangkap di tanah selama permainan bisbol.” Respons pertama benar, tetapi dua jawaban lainnya termasuk halusinasi pemain lain yang tidak terlihat di gambar. Sistem tidak tahu apa yang sebenarnya ada dalam gambar yang bertentangan dengan apa yang khas dari gambar yang kira-kira mirip. Setiap penggemar bisbol akan mengenali bahwa ini adalah pelempar yang baru saja melempar bola, bukan sebaliknya— meskipun kami berharap penangkap dan pemukul berada di dekatnya, mereka jelas tidak muncul dalam gambar.

Seorang pemain bisbol melempar bola
di atas lapangan bisbol.

Seorang pria melempar bola bisbol
ke apitcher di lapangan bisbol.

Seorang pemain bisbol di pemukul dan penangkap

di tanah

selama pertandingan bisbol

Demikian pula, DALL-E 2 tidak dapat membedakan antara kubus merah di atas kubus biru dan kubus biru di atas kubus merah. Versi sistem yang lebih baru, yang dirilis pada bulan Mei, tidak dapat membedakan antara astronaut yang menunggang kuda dan kuda yang menunggang astronaut.

Ketika sistem seperti DALL-E membuat kesalahan, hasilnya lucu, tetapi kesalahan AI lainnya menimbulkan masalah serius. Contoh lainnya, Tesla dengan autopilot baru-baru ini melaju langsung ke arah pekerja manusia yang padahal memberi tanda berhenti di tengah jalan, ia hanya melambat ketika pengemudi manusia turun tangan . Sistem dapat mengenali manusia sendiri (seperti yang muncul dalam data pelatihan) dan rambu berhenti di lokasi biasanya (sekali lagi seperti yang muncul di gambar yang dilatih), tetapi gagal melambat saat dihadapkan dengan kombinasi keduanya yang tidak biasa, yang menempatkan tanda berhenti di posisi baru dan tidak biasa.

Sayangnya, fakta bahwa sistem ini masih gagal untuk dapat diandalkan dan mesti berjuang untuk keadaan baru biasanya terkubur dalam cetakan kecil. Gato bekerja dengan baik pada semua tugas yang dilaporkan DeepMind, tetapi jarang sebaik sistem kontemporer lainnya. GPT-3 sering menciptakan prosa yang fasih, tetapi masih berjuang dengan aritmetika dasar, serta memiliki begitu sedikit pegangan pada kenyataan, sehingga cenderung membuat kalimat seperti, “Beberapa ahli percaya bahwa tindakan memakan kaus kaki membantu otak keluar dari keadaannya yang berubah sebagai hasil dari meditasi,” ketika tidak ada ahli yang pernah mengatakan hal seperti itu. Pandangan sepintas terhadap berita utama baru-baru ini tidak akan memberi tahu Anda tentang masalah ini.

Subplot di sini adalah bahwa tim peneliti terbesar di AI tidak lagi dapat ditemukan di akademi, tempat peer review (penelaahan sejawat) dulunya bersifat coint of the realm (sesuatu yang dihargai atau digunakan seolah-olah itu adalah uang di bidang tertentu), tetapi saat ini mereka ada di perusahaan. Perusahaan, tidak seperti universitas, tidak memiliki insentif untuk bermain secara adil. Alih-alih mengirimkan makalah baru mereka yang heboh ke pengawasan akademis, semuanya telah dipublikasikan melalui siaran pers, merayu wartawan, dan menghindari proses penelaahan sejawat. Kami hanya tahu apa yang perusahaan ingin kami ketahui.

Dalam industri perangkat lunak, ada istilah untuk strategi semacam ini, yaitu demoware, perangkat lunak yang dirancang agar terlihat bagus untuk sebuah demonstrasi, tetapi belum tentu cukup baik untuk dunia nyata. Sering kali, demoware menjadi vaporware, diumumkan untuk kejutan dan kekaguman untuk mencegah pesaing, tetapi tidak pernah dirilis sama sekali.

Ayam memang cenderung pulang untuk bertengger, pada akhirnya. Fusi dingin mungkin terdengar hebat, tetapi Anda tetap tidak bisa mendapatkannya di mal. Biaya untuk AI kemungkinan akan menjadi seperti musim dingin dengan ekspektasi yang tipis. Terlalu banyak produk, seperti mobil tanpa pengemudi, ahli radiologi otomatis, dan agen digital serbaguna, telah didemonstrasikan, dipublikasikan—dan tidak pernah dikirimkan. Untuk saat ini, dolar investasi terus datang sesuai janji (siapa yang tidak suka mobil self-driving (mengemudi sendiri))? Walaupun demikian, jika masalah inti keandalan dan mengatasi outlier tidak diselesaikan, investasi akan mengering. Kita akan ditinggalkan dengan deepfake (kepalsuan) yang kentara, jaringan besar yang memancarkan karbon dalam jumlah besar, dan kemajuan solid dalam terjemahan mesin, pengenalan ucapan, dan pengenalan objek, tetapi terlalu sedikit hal lain untuk ditampilkan untuk semua hype (promosi sensasional) yang prematur.

Pembelajaran mendalam telah meningkatkan kemampuan mesin untuk mengenali pola dalam data, tetapi memiliki tiga kelemahan utama. Pola-pola yang dipelajarinya, ironisnya, dangkal, tidak konseptual; hasil yang diciptakannya sulit untuk ditafsirkan; dan hasilnya sulit digunakan dalam konteks proses lain, seperti memori dan penalaran. Seperti yang dicatat oleh ilmuwan komputer Harvard, Les Valiant, “Tantangan utama [ke depan] adalah menyatukan perumusan … pembelajaran dan penalaran.” Anda tidak dapat berurusan dengan seseorang yang membawa tanda berhenti jika Anda tidak benar-benar memahami apa itu tanda berhenti.

Untuk saat ini, kita terjebak dalam “minimum lokal” perusahaan yang mengejar tolok ukur, bukan ide dasar, mencari perbaikan kecil dengan teknologi yang sudah mereka miliki daripada berhenti sejenak untuk mengajukan pertanyaan yang lebih mendasar. Alih-alih mengejar demo langsung ke media yang mencolok, kami membutuhkan lebih banyak orang yang mengajukan pertanyaan dasar tentang bagaimana membangun sistem yang dapat belajar dan bernalar pada saat yang bersamaan. Sebaliknya, praktik teknik saat ini jauh di depan keterampilan ilmiah, bekerja lebih keras untuk menggunakan alat yang tidak sepenuhnya dipahami daripada mengembangkan alat baru dan landasan teoretis yang lebih jelas. Inilah sebabnya mengapa penelitian dasar tetap penting.

Bahwa sebagian besar komunitas riset AI (seperti mereka yang meneriakkan “Game Over”) bahkan tidak melihat itu, yah, memilukan. Bayangkan jika beberapa makhluk luar angkasa mempelajari semua interaksi manusia hanya dengan melihat bayangan di tanah, memperhatikan, bahwa beberapa bayangan lebih besar dari yang lain, dan bahwa semua bayangan menghilang di malam hari, bahkan mungkin memperhatikan bahwa bayangan secara teratur tumbuh dan menyusut pada interval periodik tertentu—tanpa pernah melihat ke atas untuk melihat matahari atau mengenali dunia tiga dimensi di atas.

Sudah waktunya bagi para peneliti kecerdasan buatan untuk mencari tahu. Kita tidak bisa “menyelesaikan AI” dengan PR saja.

 

Penulis: Gary Marcus
Ia seorang ilmuwan, penulis buku terlaris, dan pengusaha, terkenal karena debatnya dengan pelopor pembelajaran mendalam, Yoshua Bengio dan Yann LeCun

Penerjemah: Muhajir Julizar
Editor Substantif: Nauval Pally Taran
Editor Naskah: Teuku Zulman Sangga Buana

Sumber: Scientific American

Tags : ilmuilmu pengetahuanmanusiasainssorotanteknologi

The author Redaksi Sahih