Technologue.id, Jakarta - Stabilitas AI, perusahaan yang terkenal dengan AI generator gambar populer mereka, Stable Diffusion, kembali membuat kejutan dengan meluncurkan chatbot sumber terbuka baru mereka yang disebut StableLM. Chatbot ini dikembangkan untuk menjadikan model bahasa tingkat lanjut lebih mudah diakses dan didemokratisasi.
Solusi baru StableLM hanya menggunakan tiga hingga tujuh miliar parameter, yang jauh lebih kecil dan lebih efisien dibandingkan dengan kebanyakan solusi lainnya. Ukuran modelnya hanya 2% hingga 4% dari ukuran model parameter 175 miliar ChatGPT. Seperti Stable Diffusion, StableLM menawarkan solusi sumber terbuka dan gratis yang dapat diperluas oleh pengembang pihak ketiga.
Baca Juga:
Aplikasi Obrolan AI Baru Superchat Dengan Karakter Virtual
StableLM telah dilatih dengan kumpulan data eksperimental baru dari EleutherAI yang disebut "The Pile" yang berisi 1,5 triliun token, tiga kali lebih besar dari kumpulan data yang digunakan untuk melatih sebagian besar model AI. Dengan pelatihan ini, StableLM mampu melakukan percakapan dan menulis kode dengan kinerja tinggi.
Stabilitas AI menegaskan bahwa StableLM berfungsi pada sistem berbiaya rendah dan GPU yang kurang bertenaga, sehingga sangat efisien. Anda dapat menginstal dan menjalankan StableLM versi alfa dengan mengikuti petunjuk di repositori GitHub. Namun, disarankan untuk mencoba halaman demo Hugging Face terlebih dahulu karena sebagai rilis alfa, respons mungkin lambat dan hasilnya belum sebaik rilis final.
Penting untuk diingat bahwa StableLM adalah Model Bahasa Besar yang telah dilatih sebelumnya tanpa penyempurnaan tambahan. Oleh karena itu, hasilnya mungkin memiliki kualitas yang bervariasi dan berpotensi menyertakan bahasa dan pandangan yang menyinggung. Meskipun demikian, sifat sumber terbuka dan implementasi versi alfa StableLM yang ringan memungkinkan pengembang untuk mulai bekerja pada aplikasi.
Baca Juga:
Tingkatkan Pengalaman dengan Chatbot AI, Integrasi Aplikasi dengan ChatGPT dan Siri
Stabilitas AI telah mengumumkan rencana untuk mengembangkan model StableLM yang lebih besar dengan 15 miliar, 30 miliar, 65 miliar parameter, dan bahkan model parameter 175 miliar untuk masa depan. Hal ini menunjukkan bahwa StableLM memiliki potensi besar untuk pertumbuhan dan peningkatan.
Dalam persaingan dengan model AI lainnya seperti ChatGPT dan CollosalGPT, masih belum jelas apakah StableLM dapat bersaing dengan keunggulan mereka. Namun, dengan ukuran model yang terbatas yang tersedia saat ini, StableLM memulai dengan awal yang baik. Dalam waktu dekat, kita akan melihat bagaimana perkembangan StableLM akan berjalan dan seberapa jauh ia dapat membantu mendemokratisasi akses ke model bahasa tingkat lanjut.