Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
Tim Ahli Etika AI Kritik Petisi Ajakan "Pause" Pengembangan AI
SHARE:

Technologue.id, Jakarta - Sebuah tim ahli etika AI ternama menulis sebuah surat balasan terhadap surat kontroversial yang meminta "jeda" pengembangan AI selama enam bulan lalu. Mereka mengkritik surat tersebut karena terlalu fokus pada ancaman masa depan yang hipotetis, menurut mereka, bahaya yang sebenarnya berasal dari potensi penyalahgunaan teknologi AI saat ini oleh orang-orang tidak bertanggungjawab.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major, dan Margaret Mitchell adalah tokoh penting di bidang AI dan etika, yang sempat populer karena isu pemutusan hubungan kerja oleh Google karena kritik yang mereka suarakan soal potensi kemampuan AI. Sejak saat itu, mereka bekerja sama di The Distributed Artificial Intelligence Research (DAIR) Institute, sebuah lembaga riset yang bertujuan untuk mempelajari, mengungkapkan, dan mencegah bahaya terkait AI.

Baca Juga:
Elon Musk dkk Ajukan Petisi Penghentian Sementara Pengembangan AI

Dalam surat tersebut, mereka menyebutkan bahwa ‘Ancaman masa depan yang hipotetis tersebut merupakan fokus dari sebuah ideologi berbahaya yang disebut longtermism, sebuah ideologi yang mengabaikan bahaya yang sebenarnya muncul dari penggunaan sistem AI saat ini.' Mereka juga menyebutkan masalah eksploitasi pekerja, pencurian data, media sintetis yang mendukung struktur kekuasaan yang ada, dan konsentrasi kekuatan tersebut di tangan yang lebih sedikit."

Kekhawatiran akan "apokalips robot" adalah sebuah pilihan yang tidak sesuai ketika kita memiliki, pada saat yang sama, laporan tentang perusahaan seperti Clearview AI yang digunakan sebagai dasar oleh oknum polisi untuk mendakwa seorang pria yang tidak bersalah.

Dalam surat yang ditulis oleh DAIR sebagai respons terhadap surat penundaan AI, para anggota DAIR memang sepakat dengan beberapa tujuan surat tersebut, salah satunya seperti tuntutan untuk mengidentifikasi media sintetis, namun mereka menekankan bahwa tindakan harus diambil sekarang, pada masalah yang ada saat ini, dengan solusi yang tersedia untuk segera diterapkan.

Dikutip dari surat terbuka DAIR : 

Apa yang kita butuhkan adalah regulasi yang menegakkan transparansi. Tidak hanya harus selalu jelas ketika kita berurusan dengan media sintetis, tetapi organisasi yang membangun sistem-sistem ini juga harus diwajibkan untuk mengungkapkan dan mendokumentasikan data pelatihan dan arsitektur model. Tanggung jawab untuk menciptakan alat yang aman untuk digunakan harus ditanggung oleh perusahaan yang membangun dan mendeploy sistem-sistem generatif, yang berarti bahwa pembangun sistem ini harus dipertanggungjawabkan atas hasil produksi mereka.

Perlombaan yang ada saat ini menuju "eksperimen AI" yang semakin besar bukanlah jalur yang telah ditentukan sebelumnya di mana satu-satunya pilihan yang ada hanyalah seberapa cepat kita berlari, tetapi merupakan serangkaian keputusan yang didorong oleh motif keuntungan. Tindakan dan pilihan perusahaan harus dibentuk oleh regulasi yang melindungi hak dan kepentingan masyarakat.

Saat ini memang waktunya untuk bertindak, namun fokus perhatian seharusnya tidak ditempatkan pada “pikiran digital yang kuat” yang imajiner. Sebaliknya, kita harus fokus pada praktik eksploitatif yang sangat nyata dan sangat nyata dari perusahaan yang mengaku membangunnya, yang dengan cepat memusatkan kekuasaan dan meningkatkan ketidaksetaraan sosial.

Baca Juga:
Tuai Kritik, Google Berjanji Bakal Memperbaiki dan Meningkatkan Chatbot AI Bard

Meskipun semakin kecil kemungkinannya bahwa perusahaan besar mana pun akan setuju untuk menghentikan upaya penelitiannya sesuai dengan surat terbuka tersebut, terlihat jelas dari keterlibatan yang diterima bahwa risiko, baik nyata maupun hipotetis, dari AI menjadi perhatian besar di banyak segmen masyarakat.

SHARE:

Indosat Catat Pendapatan Rp 41T Sepanjang 2024

LMF 2024 Digelar, Ada Lowongan Kerja Ramah Lingkungan