JAKARTA RAYA – ChatGPT (Generative Pre-training Transformer) adalah sistem kecerdasan buatan yang berfungsi melakukan interaksi dalam percakapan berbasis teks. Tapi, saat ini platform tersebut kerap menampilkan jawaban bodoh sehingga ditinggalkan penggunanya.
Melansir Techradar, Kamis (14/9/2023), menurut SimilarWeb, trafik ke situs ChatGPT milik OpenAI turun hampir 10 persen dibandingkan bulan lalu. Sementara metrik dari Sensor Tower juga menunjukkan bahwa pengunduhan aplikasi di iOS juga mengalami penurunan.
Seperti yang dilaporkan oleh Insider, pengguna berbayar dari model GPT-4 mengeluh di media sosial dan forum OpenAI tentang penurunan kualitas output dari chatbot. Jawaban yang diberikan memang lebih cepat, tapi kualitasnya sangat rendah.
ADVERTISEMENT
SCROLL TO RESUME CONTENT
Peter Yang, pimpinan produk Roblox, menggunakan Twitter untuk mengecam hasil kerja chatbot baru-baru ini. Ia mengatakan bahwa ChatGPT saat ini memiliki kualitas yang sangat buruk.
Seorang pengguna dalam sebuah forum mengatakan bahwa pengalaman menggunakan GPT-4 baru-baru ini terasa “seperti mengendarai Ferrari selama sebulan dan tiba-tiba berubah menjadi pikap tua yang dipukuli”.
Berdasarkan penuturan para pengguna, ada satu titik beberapa pekn lalu, di mana GPT-4 menjadi jauh lebih cepat tetapi mengorbankan performa. Komunitas AI berspekulasi hal ini disebabkan oleh pergeseran etos desain OpenAI di balik model pembelajaran mesin yang lebih kuat.
Developer memecahnya menjadi beberapa model yang lebih kecil yang dilatih di area tertentu. Itu dapat bertindak bersama-sama untuk memberikan hasil akhir yang sama sekaligus lebih ringan untuk dijalankan oleh OpenAI.
OpenAI belum secara resmi mengonfirmasi hal ini, karena belum ada perubahan besar pada cara kerja GPT-4. Tapi, Sharon Zhou, CEO perusahaan pembuat AI Lamini, mengatakan ide multi-model sebagau langkah alami berikutnya dalam mengembangkan GPT-4.
Namun, ada masalah mendesak lainnya dengan ChatGPT yang dicurigai oleh beberapa pengguna sebagai penyebab penurunan kinerja baru-baru ini. Mereka meyakini masalah yang ada tidak siap untuk diatasi oleh industri AI.
Model bahasa besar (LLM) seperti ChatGPT dan Google Bard mengikis internet publik untuk mendapatkan data yang akan digunakan saat membuat tanggapan. Ledakan besar dalam konten yang dihasilkan oleh AI secara online, memungkinkan LLM mengambil materi yang telah dihasilkan oleh AI ketika berburu informasi di Internet.
Hal ini berisiko menciptakan lingkaran umpan balik, di mana model AI ‘belajar’ dari konten yang dihasilkan oleh AI itu sendiri. Ini dapat mengakibatkan penurunan koherensi dan kualitas output secara bertahap.
Dengan banyaknya LLM yang kini tersedia bagi para profesional dan masyarakat luas, risiko kanibalisme AI menjadi semakin lazim. Terutama karena belum ada demonstrasi yang berarti tentang bagaimana model AI dapat secara akurat membedakan antara informasi ‘nyata’ dan konten yang dihasilkan oleh AI.
Namun, kanibalisasi konten lebih merupakan risiko bagi masa depan AI itu sendiri. Ini sesuatu yang mengancam merusak fungsionalitas alat seperti ChatGPT, yang bergantung pada materi asli buatan manusia untuk mempelajari dan menghasilkan konten.(hab)
Penulis : Hadits Abdillah
Editor : Hadits Abdillah