Technologue.id, Jakarta - Alpaca, sebuah model bahasa kecil berbasis sistem LLaMA milik Meta, telah di-take down oleh para peneliti di Universitas Stanford. Kelompok ilmuwan komputer di Stanford mengembangkan Alpaca sebagai model terbuka dengan 7 miliar parameter yang dilaporkan hanya membutuhkan biaya kurang dari $600 untuk dibangun. Alpaca dilatih dengan 50.000 sampel teks untuk mengikuti instruksi yang telah ditentukan agar model tersebut berfungsi lebih mirip dengan teks-davinci-003 milik OpenAI.
Bersama dengan demo interaktif, Institut Kecerdasan Buatan Manusia di Stanford juga mempublikasikan data pelatihan Alpaca, kode untuk proses generasi datanya, dan kode pelatihan yang digunakan untuk menyetel model tersebut. Ketika kode tersebut dirilis, beberapa developer bahkan berhasil menjalankannya pada komputer Raspberry Pi dan bahkan ponsel Pixel 6.
Baca Juga:
Apple Bersiap Hadirkan Chatbot Berbasis Kecerdasan Buatan
Pada Senin (13/03), para peneliti meluncurkan Alpaca dengan demo publik yang dapat dicoba oleh siapa saja. Namun, model tersebut dengan cepat di-take down pada Selasa (21/03) karena biaya yang semakin mahal, kekhawatiran soal keamanan, dan "halusinasi," yang merupakan istilah yang digunakan oleh komunitas AI ketika sebuah chatbot dengan percaya diri menyatakan informasi yang salah atau menyatakan fakta yang tidak ada.
Dalam sebuah siaran pers yang mengumumkan rilis awal Alpaca, kepala tim penulis, Rohan Taori, seorang mahasiswa PhD di jurusan ilmu komputer di Stanford, menyadari bahwa menjalankan tes publik cukup beresiko.
"Mengimplementasikan demo interaktif untuk Alpaca juga memiliki risiko potensial, seperti penyebaran konten berbahaya yang lebih luas dan menurunkan hambatan untuk spam, penipuan, atau disinformasi," kata tim peneliti. Taori mengatakan bahwa timnya telah menerapkan filter konten dan sistem watermark yang dapat mengidentifikasi kata-kata Alpaca untuk memitigasi risiko tersebut.
Baca Juga:
Poe Quora, Chatbot Berbayar dengan GPT-4 dan Claude+
"Tujuan awal dari merilis demo adalah untuk menyebarkan penelitian kami secara mudah diakses. Kami merasa bahwa kami telah berhasil mencapai tujuan ini, dan mengingat biaya hosting dan kekurangan filter konten kami, kami memutuskan untuk menurunkan demo," kata seorang juru bicara yang mewakili Institut Kecerdasan Buatan Manusia di Universitas Stanford.
Meskipun demo web telah di-take down, dataset dan kode yang menjelaskan cara menyetel model tersebut tetap tersedia di GitHub. Para peneliti mengatakan bahwa mereka juga berencana untuk merilis detail bobot model tersebut.