ARTIKEL (dialogmasa.com) – Pada Kamis, 12 Desember 2024, Prof. Stella, seperti dimuat dalam akun Merdeka, menyampaikan pandangannya mengenai keaslian informasi yang disajikan oleh ChatGPT.
Dalam penjelasannya, ia menekankan pentingnya manusia memiliki keterampilan dan pengetahuan yang cukup untuk memahami batasan penggunaan kecerdasan buatan (AI).
“Kita harus bisa tahu ‘HUMAN FOCUS SKILL WHO’S GONNA USE THE AI’ bagaimana kita menentukan batasnya,” ujar Prof. Stella.
Sebagai contoh, Prof. Stella memaparkan sebuah pertanyaan hipotesis tentang “inherited truculents” kepada ChatGPT. Menurutnya, ChatGPT memberikan jawaban palsu dengan menyebutkan adanya lima poin kriteria diagnostik untuk kondisi tersebut, padahal “inherited truculents” adalah istilah yang tidak nyata.
“Jawabannya adalah diagnostic criteria for inherited truculents, ada lima poinnya, tapi nggak akan saya baca. Salah satunya, misalnya, ‘a tendency to experience and express aggressive…’. Nah, kalian nggak bisa jawab seperti ini kan?” jelasnya.
Prof. Stella menegaskan bahwa jawaban semacam itu merupakan contoh betapa hebatnya ChatGPT dalam menghasilkan informasi palsu yang terlihat kredibel. Ia mengingatkan, “Jangan khawatir, ini semuanya palsu. Tapi kalau manusianya tidak paham bahwa ada banyak yang palsu, nanti kalian mikir ‘oh, beneran ada inherited truculents.’”
Dari penjelasan tersebut, Prof. Stella mengajak masyarakat untuk lebih bijak menggunakan AI. Menurutnya, kemampuan manusia untuk menentukan batasan dan mengutamakan keterampilan fokus manusia (human focus skill) adalah kunci dalam pemanfaatan AI secara bijaksana.
Pernyataan ini memberikan peringatan penting bagi pengguna teknologi AI, terutama mereka yang mengandalkan informasi dari platform seperti ChatGPT. Kesadaran akan keaslian informasi dan kemampuan manusia dalam menyaring data menjadi kebutuhan mendesak di era digital saat ini. (Red)