Technologue.id, Jakarta - Ilya Sutskever, salah satu pendiri OpenAI, memulai perusahaan AI baru yang berfokus pada keselamatan. Sutskever mengungkapkan, Safe Superintelligence Inc (SSI) merupakan startup dengan menciptakan sistem AI yang aman dan kuat.
Kabar tersebut menggambarkan SSI sebagai startup yang mendekati keselamatan dan kemampuan secara bersamaan, sehingga memungkinkan perusahaan untuk memajukan sistem AI dengan cepat sambil memprioritaskan keselamatan. Hal ini juga menyoroti tekanan eksternal yang sering dihadapi tim AI di perusahaan seperti OpenAI, Google, dan Microsoft.
Baca Juga:
Apple Pakai ChatGPT-4o untuk Siri OpenAI Justru Diuntungkan, Kok Bisa?
“Model bisnis kami berarti keselamatan, keamanan, dan kemajuan. Semuanya terisolasi dari tekanan komersial jangka pendek. Dengan cara ini, kita dapat berkembang dengan damai," kata Sutskever.
Selain Sutskever, SSI didirikan bersama oleh Daniel Gross, mantan pimpinan AI di Apple, dan Daniel Levy, yang sebelumnya bekerja sebagai anggota staf teknis di OpenAI. Ketika diwawancari sejumlah media, Sutskever mengatakan produk pertama SSI adalah superintelligence yang aman.
Baca Juga:
Perkuat Siri, Kolaborasi dengan OpenAI Bikin Saham Apple Anjlok 2%
Sutskever mendirikan SSI tepat satu bulan resmi mengundurkan diri dari OpenAI. Tak lama setelah kepergian Sutskever, peneliti AI, Jan Leike juga mengumumkan pengunduran dirinya dari OpenAI, dengan alasan proses keselamatan tidak lagi berpengaruh pada produk yang cemerlang.
Saat OpenAI terus memajukan kemitraannya dengan Apple dan Microsoft, kemungkinan besar SSI tidak akan melakukan hal tersebut dalam waktu dekat.