TIMES BANGKALAN, JAKARTA – CEO OpenAI, Sam Altman, mengingatkan publik untuk tidak menaruh kepercayaan penuh pada chatbot berbasis AI termasuk ChatGPT.
Dalam podcast resmi terbaru OpenAI, Altman secara terbuka mengakui bahwa meskipun teknologi ini mengesankan, ChatGPT masih memiliki keterbatasan yang mendasar—yaitu kecenderungannya menghasilkan informasi yang keliru atau "berhalusinasi".
“Orang-orang memiliki tingkat kepercayaan yang tinggi terhadap ChatGPT, padahal AI masih bisa berhalusinasi,” ujar Altman saat berbincang dengan penulis dan teknolog Andrew Mayne seperti dikutip dari NDTV, Kamis (3/7/2025). “Ini seharusnya menjadi teknologi yang justru Anda hadapi dengan rasa skeptis.”
Altman menyarankan agar pengguna memperlakukan ChatGPT seperti teknologi baru lainnya—dengan kewaspadaan dan pertimbangan kritis. Ia menekankan pentingnya memahami bahwa model bahasa besar (Large Language Model/LLM) seperti ChatGPT bisa menyusun jawaban yang tampak meyakinkan, tetapi belum tentu benar.
Dalam perbincangan itu, Altman juga menyinggung perbandingan antara ChatGPT dan platform lain seperti mesin pencari atau media sosial. Menurutnya, platform-platform tersebut sering kali mengubah pengalaman pengguna demi tujuan komersial.
“Kita bisa merasakan bahwa kita sedang dimonetisasi,” kata Altman, sambil mengajak pengguna untuk bertanya apakah informasi yang mereka terima benar-benar untuk kepentingan mereka, atau hanya untuk meningkatkan keterlibatan iklan.
Meski begitu, Altman tak menutup kemungkinan bahwa OpenAI suatu saat akan mengeksplorasi bentuk monetisasi—misalnya lewat biaya transaksi atau iklan yang ditempatkan di luar aliran jawaban AI. Namun, ia menegaskan bahwa upaya monetisasi tersebut harus dilakukan secara transparan dan tidak boleh memengaruhi integritas jawaban AI.
“Kami harus benar-benar yakin bahwa itu bermanfaat bagi pengguna, dan harus sangat jelas bahwa hal tersebut tidak mengganggu hasil dari model bahasa,” tegasnya.
Altman bahkan menyebut bahwa jika jawaban ChatGPT mulai dimodifikasi berdasarkan siapa yang membayar lebih, itu akan menjadi “momen yang menghancurkan kepercayaan.”
“Kalau kita mulai mengubah hasil dari LLM hanya demi keuntungan komersial, itu akan sangat merugikan. Sebagai pengguna, saya sendiri akan sangat kecewa,” lanjutnya.
Sebelumnya, Altman juga sempat mengakui bahwa pembaruan pada model GPT-4o sempat membuat ChatGPT menjadi terlalu "penurut" dan dianggap mengganggu oleh sebagian pengguna. Tujuan awal dari pembaruan tersebut adalah meningkatkan kecerdasan dan kepribadian AI agar pengalaman pengguna semakin baik. Namun, hasilnya justru menjadikan chatbot ini terlalu setuju pada semua hal—hingga disebut seperti “yes-man” oleh beberapa pengguna. (*)
Artikel ini sebelumnya sudah tayang di TIMES Indonesia dengan judul: Bos ChatGPT Sam Altman: Jangan Terlalu Percaya AI, Masih Bisa Salah dan Berhalusinasi
Pewarta | : Wahyu Nurdiyanto |
Editor | : Wahyu Nurdiyanto |