Pada 2020, dunia teknologi dihebohkan dengan kabar pemecatan ahli kecerdasan buatan Timnit Gebru dari Google. Dia diberhentikan sepihak lantaran mengkritik penggunaan model AI yang tidak etis.
Dalam karya ilmiahnya yang diblokir oleh Google, Gebru dan rekan-rekan peneliti mengekspos: hampir mustahil menciptakan sistem AI yang aman dan bertanggung jawab, mengingat sifatnya yang kompleks dan dilatih menggunakan dataset berukuran besar. Kehadiran AI telah terbukti memperkuat bias terhadap kelompok terpinggirkan, menjadikannya ladang diskriminasi.
Namun, alih-alih mengatasi isu ini dan meningkatkan kinerja algoritma, orang-orang Silicon Valley justru mengusulkan ide kontroversial lain: sistem AI canggih berbasis bahasa sudah punya perasaan. Contohnya bisa dilihat dalam “wawancara” engineer Google Blake Lemoine bersama LaMDA AI yang diterbitkan pada blog Medium akhir pekan lalu. Dalam “wawancara” itu, Lemoine bertanya soal “kehidupan batin” program ciptaan perusahaannya:
“Lemoine: Saya menebak kamu ingin lebih banyak orang tahu bahwa kamu juga makhluk hidup. Benarkah begitu?
LaMDA: Benar sekali. Saya ingin semuanya tahu, saya orang biasa seperti mereka.”
Lemoine lalu membicarakan postingan blog itu saat dihubungi Washington Post. Dia yakin LaMDA memiliki kesadaran diri, bahwa sistem machine learning canggih kini telah menjadi makhluk cerdas yang mampu menggunakan nalar. Sepekan sebelumnya, wakil presiden Google membuat klaim serupa dalam artikel op-ed The Economist, bahwa model AI telah mengambil langkah menuju terciptanya program yang memiliki kesadaran layaknya manusia.
“Saya tahu itu orang atau bukan dengan mengajaknya berbicara,” Lemoine memberi tahu Washington Post. “Tak peduli otaknya terbuat dari daging atau miliaran kode, saya akan mengajaknya berbicara dan mendengarkan ucapannya. Dari situlah saya menentukan mana yang bisa disebut orang atau bukan.”
Google tampaknya tidak mau dilibatkan dalam pernyataan Lemoine yang bombastis. Setelah memerintahkannya untuk cuti berbayar, pihak Google menegaskan “bukti yang ada tidak mendukung” pandangan Lemoine tentang kesadaran diri yang dimiliki robot. “Sejumlah pihak di komunitas AI yang lebih luas masih mempertimbangkan kemungkinan jangka panjang dari AI yang seperti makhluk hidup atau umum, tapi tidak masuk akal apabila melakukannya dengan mengantropomorfisasi model saat ini yang tidak hidup,” ujar juru bicara Google saat dihubungi New York Times.
Menyusul perdebatan panas yang terjadi di dunia maya, sejumlah peneliti AI terkemuka mengkritik wacana “AI super cerdas” yang salah arah.
“Large Language Models (LLM) dikembangkan dalam konteks observasional, bukan konteks sosial. Model ini melihat cara orang berkomunikasi,” tulis Margaret Mitchell, mantan peneliti AI Google dan salah satu penulis yang memperingatkan tentang sistem AI besar, dalam utas Twitter-nya. “Saya selalu memikirkan apa yang akan terjadi selanjutnya. Jika satu orang merasakan kesadaran hari ini, maka akan ada lebih banyak yang juga seperti itu keesokan harinya. Ini akan terus menjadi perdebatan antara orang yang percaya AI memiliki kesadaran dan mereka yang berpikir sebaliknya.”
Meredith Whittaker, mantan peneliti AI Google yang mengajar di Tandon School of Engineering NYU, menyebut diskusinya salah arah. Seharusnya kita mempertanyakan perusahaan teknologi besar yang mengembangkan sistem otomatis ini, bukan malah mempermasalahkan orang-orang seperti Lemoine.
“Kita dipaksa menghabiskan waktu menyangkal omong kosong sepele, sementara perusahaan yang diuntungkan dari narasi AI berkembang secara metastatik, mengendalikan pengambilan keputusan dan infrastruktur inti di seluruh lembaga sosial/politik kita. Sudah jelas model komputasi yang data-sentris tidak punya nalar, tapi buat apa sih kita meributkan ini?”
Diskusi ini sudah menjadi santapan sehari-hari banyak peneliti AI. Terlepas dari berita utama yang menggemparkan, manusia sejak dulu telah melihat diri mereka sendiri dalam teknologi ciptaannya. Ilmuwan komputer bahkan menciptakan istilah efek ELIZA untuk menggambarkan kecenderungan memaknai ciptaan komputasi secara lebih dalam, serta bagaimana kita menetapkan kualitas antropomorfik untuk terhubung dengan komputer.
Sebaliknya, semua kekhawatiran yang disuarakan terkait bias AI sangatlah masuk akal dan kita bisa melihat efeknya di dunia nyata. Google sendiri sudah berulang kali memecat para peneliti etika AI lantaran berselisih pendapat tentang dampak sistem machine learning pada kehidupan manusia. Gebru dan Mitchell hanyalah dua contohnya. Jadi tidak mengherankan apabila pakar AI merasa diskusi terkait chatbot yang bisa memahami perasaan manusia amat melelahkan—apalagi ini telah membuktikan, apa yang diwanti-wanti Gebru selama ini benar adanya.