Technologue.id, Jakarta - Salah satu tim AI Microsoft tidak sengaja menyebarkan 38TB data pribadi karyawannya. Hal tersebut terjadi saat pihak Microsoft mengunggah data pelatihan dalam upaya penawaran model AI untuk pengenalan wajah kepada peneliti lain.
Dikutip dari Gizchina, Jumat (22/9/2023), sebuah perusahaan keamanan siber, Wiz, menemukan tautan yang disertakan dalam file berisi cadangan komputer karyawan Microsoft.
Baca Juga:
Kenalan dengan Copilot, Teknologi Kecerdasan Buatan (AI) Milik Microsoft
File yang bocor tersebut berisi kata sandi untuk layanan Microsoft. Kebocoran data sebesar 38TB itu merupakan hal yang sangat serius.
Namun, Microsoft beralasan untuk tidak khawatir karena perusahaan menjamin data yang tersebar adalah data perusahaan dan tidak ada data dari pelanggan.
Lantas, bagaimana kasus tersebut bisa terjadi?
Microsoft menjelaskan bahwa tautan untuk file-file itu sengaja disertakan sehingga para peneliti yang tertarik dapat mengunduh model AI terbaru dan terlatih.
"Hal ini merupakan ketidaksengajaan. Para peneliti kami telah menggunakan fitur Azure yang disebut token SAS," ujar pihak Microsoft.
Baca Juga:
OpenAI Umumkan DALL-E 3 Hadirkan Detail Gambar AI Lebih Baik
Token SAS memungkinkan pengguna untuk membuat tautan yang dapat dibagikan atau memberikan izin akses kepada yang diberikan. Pengguna bisa memilih informasi apa saja yang dapat diakses melalui tautan SAS.
Dalam kasus Microsoft, para peneliti membagikan tautan yang memiliki akses ke akun penyimpanan rahasia dan pribadi. Jadi, siapapun yang memiliki akses ke token tersebut dapat dengan mudah masuk ke dalam file.