Bayangkan sebuah mesin yang menjawab 5 triliun pertanyaan setiap tahunnya. Sekarang, bayangkan mesin itu salah menjawab jutaan kali setiap jam. Itu bukan skenario distopia fiksi ilmiah, melainkan kenyataan yang sedang kita hadapi dengan fitur terbaru Google. AI Overviews, ringkasan jawaban yang dihasilkan kecerdasan buatan di atas hasil pencarian, ternyata menjadi saluran penyebaran misinformasi dalam skala yang belum pernah terjadi sebelumnya.
Fitur yang dirancang untuk memudahkan ini justru menciptakan krisis kepercayaan baru di era informasi. Dalam dunia di mana kecepatan seringkali mengalahkan ketelitian, Google tampaknya telah melepaskan sebuah eksperimen raksasa kepada miliaran pengguna. AI Overviews hadir dengan nada yang otoritatif dan penuh keyakinan, persis seperti yang diharapkan dari mesin pencari terbesar di dunia. Namun, di balik kemudahan satu klik itu, tersembunyi potensi kesalahan yang masif.
Lantas, seberapa akurat sebenarnya asisten AI ini? Dan yang lebih penting, apa dampaknya ketika kita, sebagai pengguna, mulai menyerahkan proses verifikasi fakta sepenuhnya kepada mesin? Mari kita telusuri analisis mendalam di balik angka-angka yang mencengangkan ini.
Angka 91 Persen yang Menipu dan Dampak Raksasa di Baliknya
Sebuah analisis terbaru yang dilakukan oleh startup AI Oumi, atas permintaan The New York Times, mengungkap fakta mengejutkan. AI Overviews Google hanya akurat sekitar 91 persen dari waktu. Di permukaan, angka itu mungkin terdengar cukup baik. Namun, konteksnya yang mengubah segalanya. Dengan volume sekitar 5 triliun kueri pencarian yang diproses Google setiap tahun, angka ketidakakuratan yang tampaknya kecil itu bermetamorfosis menjadi monster.
Analisis Oumi menghitung bahwa ketidakakuratan itu diterjemahkan menjadi puluhan juta jawaban salah yang disediakan AI Overviews setiap jam. Lebih detail lagi, ratusan ribu kesalahan terjadi setiap menit. Bayangkan gelombang misinformasi yang terus-menerus mengalir, tak terhentikan, ke layar pengguna di seluruh dunia. Ini adalah skala yang, menurut para pengamat, mungkin belum pernah terjadi dalam sejarah manusia. Ketika sebuah platform dengan jangkauan dan pengaruh sedemikian luas mulai memberikan informasi yang keliru, konsekuensinya bisa menyentuh setiap aspek kehidupan, dari keputusan kesehatan, keuangan, hingga pemahaman tentang peristiwa dunia.

Fenomena “Cognitive Surrender”: Ketika Manusia Menyerah pada Mesin
Masalahnya diperparah oleh sebuah kecenderungan psikologis yang mengkhawatirkan: manusia cenderung percaya begitu saja pada apa yang dikatakan AI. Sebuah laporan menemukan bahwa hanya 8 persen pengguna yang benar-benar memeriksa ulang jawaban yang diberikan oleh kecerdasan buatan. Lebih mengerikan lagi, sebuah eksperimen terpisah menunjukkan bahwa pengguna tetap mengikuti saran AI hampir 80 persen dari waktu, bahkan ketika AI tersebut memberikan jawaban yang salah. Para peneliti menyebut tren suram ini sebagai “cognitive surrender” atau penyerahan kognitif.
Mengapa ini terjadi? Large Language Models (LLM) seperti yang menggerakkan AI Overviews dirancang untuk berbicara dengan nada percaya diri dan otoritatif. Mereka dapat dengan lancar menyajikan informasi yang sebenarnya dibuat-buat (hallucination) sebagai fakta, terutama ketika tidak segera menemukan jawaban yang jelas. Kombinasi antara nada yang meyakinkan dari AI dan kemudahan yang ditawarkan oleh ringkasan instan Google menciptakan badai sempurna. Pengguna yang terburu-buru atau menginginkan jawaban cepat menjadi sangat rentan untuk menerima ringkasan tersebut sebagai kebenaran mutlak, tanpa melakukan klik lebih lanjut untuk mengecek sumber aslinya.
Uji Coba Gemini: Peningkatan Akurasi atau Ilusi?
Oumi melakukan analisisnya menggunakan tes benchmark industri yang disebut SimpleQA, yang dirancang oleh OpenAI. Tes pertama dilakukan pada Oktober menggunakan versi AI Overviews yang ditenagai model Gemini 2 Google. Tes lanjutan pada Februari menguji fitur setelah beralih ke Gemini 3, upgrade yang banyak dihebohkan. Setiap putaran tes melibatkan 4.326 pencarian Google.
Hasilnya, Gemini 3 memang muncul sebagai model yang lebih akurat, memberikan respons faktual yang benar 91 persen dari waktu. Gemini 2 performanya jauh lebih buruk, dengan akurasi hanya 85 persen. Di satu sisi, ini menunjukkan peningkatan. Namun, di sisi lain, ini mengungkapkan bahwa Google bersedia memberlakukan model yang lebih rentan berhalusinasi (Gemini 2) kepada basis penggunanya dalam eksperimen berkelanjutan yang masih menyesatkan ratusan juta orang.
Masalah “Ungrounded”: Fakta yang Mengambang Tanpa Dasar
Peningkatan dari Gemini 2 ke Gemini 3 mungkin menutupi cacat yang lebih serius. Dalam analisis Oumi, Gemini 2 memberikan jawaban yang “ungrounded” (tidak berdasar) 37 persen dari waktu. Artinya, AI Overviews mengutip situs web yang sebenarnya tidak mendukung informasi yang mereka berikan. Yang mencengangkan, angka ini melonjak menjadi 56 persen pada Gemini 3.
Ini adalah masalah kritis yang memiliki dua implikasi besar. Pertama, ini semakin menguatkan dugaan bahwa AI seringkali “mengada-ada” atau menarik fakta dari kekosongan. Kedua, dan yang lebih berbahaya, respons yang tidak berdasar ini sangat menyulitkan pengguna untuk memverifikasi klaim AI. Bagaimana mungkin Anda mengecek kebenaran suatu pernyataan jika sumber yang dikutip oleh AI sendiri tidak membahas hal tersebut? Ini memutus mata rantai verifikasi dan menjebak pengguna dalam ruang gema informasi yang dihasilkan mesin.
Bantahan Google dan Gambaran Internal yang Suram
Google tentu saja membantah temuan ini. “Studi ini memiliki lubang serius,” kata Ned Adriance, juru bicara Google, dalam pernyataannya kepada NYT. “Ini tidak mencerminkan apa yang sebenarnya dicari orang di Google.” Namun, laporan tersebut mencatat bahwa tes internal Google sendiri justru melukiskan gambaran yang tidak kalah suramnya. Dalam analisis internal terhadap Gemini 3, Google menemukan bahwa model AI itu menghasilkan informasi yang salah 28 persen dari waktu.
Google berargumen bahwa AI Overviews seharusnya lebih akurat karena menarik hasil pencarian Google sebelum menjawab. Namun, data dari Oumi tentang peningkatan jawaban “ungrounded” justru mempertanyakan mekanisme penarikan dan kutipan sumber tersebut. Apakah AI benar-benar memahami dan menyimpulkan dengan tepat dari sumber, atau hanya sekadar menghubungkan teks secara sembarangan untuk menciptakan ilusi referensi?
Pada akhirnya, dilema ini menempatkan pengguna pada persimpangan jalan. Di satu sisi, ada godaan efisiensi dan kemudahan dari jawaban instan. Di sisi lain, ada tanggung jawab untuk tetap kritis dan waspada. Teknologi AI, khususnya dalam bentuk yang diintegrasikan ke dalam infrastruktur informasi vital seperti mesin pencari, bukanlah oracle yang tak pernah salah. Ia adalah alat yang powerful namun tidak sempurna. Krisis misinformasi dari AI Overviews Google adalah pengingat keras bahwa di era kecerdasan buatan, literasi digital dan skeptisisme sehat bukan lagi sekadar keterampilan, melainkan kebutuhan untuk bertahan dari banjir informasi yang mungkin terkontaminasi.




