Pembaruan: Komite Alokasi Dana California meloloskan SB 1047 dengan amandemen signifikan yang mengubah RUU tersebut pada hari Kamis, 15 Agustus. Anda dapat membaca tentangnya di sini.
Di luar film fiksi ilmiah, tidak ada preseden untuk sistem AI yang membunuh orang atau digunakan dalam serangan siber besar-besaran. Namun, beberapa anggota parlemen ingin menerapkan perlindungan sebelum pelaku kejahatan mewujudkan masa depan dystopian itu. RUU California, yang dikenal sebagai SB 1047, mencoba menghentikan bencana dunia nyata yang disebabkan oleh sistem AI sebelum terjadi. RUU tersebut disahkan oleh senat negara bagian pada bulan Agustus, dan sekarang menunggu persetujuan atau veto dari Gubernur California Gavin Newsom.
Meskipun ini tampaknya merupakan tujuan yang dapat kita semua sepakati, SB 1047 telah menarik kemarahan para pelaku Silicon Valley, baik besar maupun kecil, termasuk kapitalis ventura, kelompok dagang teknologi besar, peneliti, dan pendiri perusahaan rintisan. Banyak RUU AI yang beredar di seluruh negeri saat ini, tetapi Undang-Undang Inovasi Aman dan Terjamin untuk Model Kecerdasan Buatan di California telah menjadi salah satu yang paling kontroversial. Berikut alasannya.
Apa yang akan dilakukan SB 1047?
SB 1047 berupaya mencegah model AI berskala besar digunakan untuk menimbulkan “kerugian kritis” terhadap kemanusiaan.
RUU tersebut memberikan contoh “kerugian kritis” sebagai pelaku jahat yang menggunakan model AI untuk membuat senjata yang mengakibatkan banyak korban, atau memerintahkan seseorang untuk mengatur serangan siber yang menyebabkan kerugian lebih dari $500 juta (sebagai perbandingan, penghentian CrowdStrike diperkirakan telah menyebabkan kerugian lebih dari $5 miliar). RUU tersebut menjadikan pengembang — yaitu, perusahaan yang mengembangkan model — bertanggung jawab untuk menerapkan protokol keselamatan yang memadai guna mencegah hasil seperti ini.
Model dan perusahaan apa saja yang tunduk pada aturan ini?
Aturan SB 1047 hanya akan berlaku untuk model AI terbesar di dunia: model yang menghabiskan biaya sedikitnya $100 juta dan menggunakan 10^26 FLOPS (operasi floating point, suatu cara untuk mengukur komputasi) selama pelatihan. Itu adalah jumlah komputasi yang sangat besar, meskipun CEO OpenAI Sam Altman mengatakan GPT-4 menghabiskan biaya pelatihan sebesar ini. Ambang batas ini dapat dinaikkan sesuai kebutuhan.
Saat ini, hanya sedikit perusahaan yang telah mengembangkan produk AI publik yang cukup besar untuk memenuhi persyaratan tersebut, tetapi raksasa teknologi seperti OpenAI, Google, dan Microsoft kemungkinan akan segera melakukannya. Model AI — pada dasarnya, mesin statistik masif yang mengidentifikasi dan memprediksi pola dalam data — secara umum menjadi lebih akurat seiring dengan pertumbuhannya, sebuah tren yang diharapkan banyak orang akan terus berlanjut. Mark Zuckerberg baru-baru ini mengatakan bahwa generasi berikutnya dari Meta Llama akan memerlukan komputasi 10x lebih banyak, yang akan menempatkannya di bawah wewenang SB 1047.
Terkait model sumber terbuka dan turunannya, rancangan undang-undang tersebut menetapkan pengembang asli bertanggung jawab kecuali pengembang lain menghabiskan $10 juta lagi untuk membuat turunan model asli.
RUU tersebut juga mensyaratkan protokol keselamatan untuk mencegah penyalahgunaan produk AI yang tercakup, termasuk tombol “berhenti darurat” yang mematikan seluruh model AI. Pengembang juga harus membuat prosedur pengujian yang mengatasi risiko yang ditimbulkan oleh model AI, dan harus mempekerjakan auditor pihak ketiga setiap tahun untuk menilai praktik keselamatan AI mereka.
Hasilnya harus berupa “jaminan yang wajar” bahwa mengikuti protokol ini akan mencegah bahaya kritis — bukan kepastian mutlak, yang tentu saja tidak mungkin diberikan.
Siapa yang akan menegakkannya, dan bagaimana?
Badan baru California, Board of Frontier Models, akan mengawasi peraturan tersebut. Setiap model AI publik baru yang memenuhi ambang batas SB 1047 harus disertifikasi secara individual dengan salinan tertulis protokol keamanannya.
Dewan Frontier Models akan dipimpin oleh sembilan orang, termasuk perwakilan dari industri AI, komunitas sumber terbuka, dan akademisi, yang ditunjuk oleh gubernur dan badan legislatif California. Dewan akan memberi nasihat kepada jaksa agung California tentang potensi pelanggaran SB 1047, dan mengeluarkan panduan kepada pengembang model AI tentang praktik keselamatan.
Kepala bagian teknologi pengembang harus menyerahkan sertifikasi tahunan kepada dewan yang menilai potensi risiko model AI-nya, seberapa efektif protokol keselamatannya, dan deskripsi tentang bagaimana perusahaan mematuhi SB 1047. Mirip dengan pemberitahuan pelanggaran, jika terjadi “insiden keselamatan AI”, pengembang harus melaporkannya ke FMD dalam waktu 72 jam setelah mengetahui insiden tersebut.
Jika langkah-langkah keselamatan pengembang dianggap tidak memadai, SB 1047 mengizinkan jaksa agung California untuk mengeluarkan perintah terhadap pengembang. Itu bisa berarti pengembang harus berhenti mengoperasikan atau melatih modelnya.
Jika model AI benar-benar ditemukan digunakan dalam bencana besar, jaksa agung California dapat menuntut perusahaan tersebut. Untuk model yang menghabiskan biaya pelatihan sebesar $100 juta, denda dapat mencapai $10 juta untuk pelanggaran pertama dan $30 juta untuk pelanggaran berikutnya. Besaran denda tersebut akan meningkat seiring dengan semakin mahalnya model AI.
Terakhir, RUU tersebut mencakup perlindungan bagi karyawan yang mencoba mengungkapkan informasi tentang model AI yang tidak aman kepada Jaksa Agung California.
Apa kata para pendukungnya?
Senator Negara Bagian California Scott Wiener, yang menulis RUU tersebut dan mewakili San Francisco, mengatakan kepada TechCrunch bahwa SB 1047 merupakan upaya untuk belajar dari kegagalan kebijakan masa lalu terkait media sosial dan privasi data, serta melindungi warga negara sebelum terlambat.
“Kita punya sejarah dengan teknologi yang menunggu terjadinya bahaya, lalu meremas-remas tangan kita,” kata Wiener. “Jangan menunggu sesuatu yang buruk terjadi. Mari kita hadapinya.”
Bahkan jika sebuah perusahaan melatih model senilai $100 juta di Texas, atau Prancis, perusahaan itu akan tercakup dalam SB 1047 selama perusahaan itu menjalankan bisnisnya di California. Wiener mengatakan Kongres telah melakukan “sangat sedikit undang-undang seputar teknologi selama seperempat abad terakhir,” jadi menurutnya California harus membuat preseden di sini.
Ketika ditanya apakah dia sudah bertemu dengan OpenAI dan Meta pada SB 1047, Wiener berkata, “kami sudah bertemu dengan semua laboratorium besar.”
Dua peneliti AI yang terkadang disebut sebagai “bapak baptis AI,” Geoffrey Hinton dan Yoshua Bengio, telah memberikan dukungan mereka terhadap RUU ini. Keduanya termasuk dalam kelompok komunitas AI yang khawatir tentang skenario kiamat berbahaya yang dapat ditimbulkan oleh teknologi AI. “Para pesimis AI” ini telah ada sejak lama di dunia penelitian, dan SB 1047 dapat mengkodifikasi beberapa perlindungan pilihan mereka menjadi undang-undang. Kelompok lain yang mensponsori SB 1047, Center for AI Safety, menulis surat terbuka pada bulan Mei 2023 yang meminta dunia untuk memprioritaskan “mengurangi risiko kepunahan akibat AI” seserius pandemi atau perang nuklir.
“Hal ini merupakan kepentingan jangka panjang industri di California dan AS secara umum karena insiden keselamatan besar kemungkinan akan menjadi hambatan terbesar untuk kemajuan lebih lanjut,” kata direktur Pusat Keamanan AI, Dan Hendrycks, dalam email kepada TechCrunch.
Baru-baru ini, motivasi Hendrycks sendiri dipertanyakan. Pada bulan Juli, ia meluncurkan perusahaan rintisan, Gray Swan, yang membangun “alat untuk membantu perusahaan menilai risiko sistem AI mereka,” menurut siaran pers. Menyusul kritik yang dapat diperoleh perusahaan rintisan Hendrycks jika RUU tersebut disahkan, kemungkinan sebagai salah satu auditor yang diwajibkan SB 1047 untuk dipekerjakan oleh pengembang, ia melepas saham ekuitasnya di Gray Swan.
“Saya melepas saham untuk mengirimkan sinyal yang jelas,” kata Hendrycks dalam email kepada TechCrunch. “Jika VC miliarder yang menentang keamanan AI yang masuk akal ingin menunjukkan bahwa motif mereka murni, biarkan mereka melakukan hal yang sama.”
Setelah beberapa amandemen yang disarankan Anthropic ditambahkan ke SB 1047, CEO Dario Amodei mengeluarkan surat yang mengatakan bahwa “manfaat RUU tersebut kemungkinan lebih besar daripada biayanya.” Itu bukan dukungan, tetapi sinyal dukungan yang setengah-setengah. Tak lama setelah itu, Elon Musk memberi sinyal bahwa ia mendukung RUU tersebut.
Apa kata lawan?
Semakin banyak pelaku Silicon Valley yang menentang SB 1047.
“Penentangan VC miliarder” Hendrycks kemungkinan merujuk pada a16z, perusahaan ventura yang didirikan oleh Marc Andreessen dan Ben Horowitz, yang menentang keras SB 1047. Pada awal Agustus, kepala bagian hukum perusahaan ventura tersebut, Jaikumar Ramaswamy, mengajukan surat kepada Senator Wiener, yang mengklaim bahwa RUU tersebut “akan membebani perusahaan rintisan karena ambang batasnya yang berubah-ubah dan sewenang-wenang,” sehingga menciptakan efek yang mengerikan pada ekosistem AI. Seiring kemajuan teknologi AI, biayanya akan semakin mahal, yang berarti bahwa lebih banyak perusahaan rintisan akan melewati ambang batas $100 juta dan akan tercakup oleh SB 1047; a16z mengatakan beberapa perusahaan rintisan mereka telah menerima jumlah tersebut untuk model pelatihan.
Fei-Fei Li, yang sering disebut sebagai ibu baptis AI, memecah kebisuannya mengenai SB 1047 pada awal Agustus, menulis di kolom Fortune bahwa RUU tersebut akan “merugikan ekosistem AI kita yang sedang berkembang.” Meskipun Li merupakan pelopor penelitian AI yang disegani dari Stanford, ia juga dilaporkan mendirikan perusahaan rintisan AI bernama World Labs pada bulan April, yang bernilai satu miliar dolar dan didukung oleh a16z.
Ia bergabung dengan akademisi AI yang berpengaruh seperti sesama peneliti Stanford Andrew Ng, yang menyebut RUU tersebut sebagai “serangan terhadap sumber terbuka” dalam pidatonya di acara Y Combinator pada bulan Juli. Model sumber terbuka dapat menimbulkan risiko tambahan bagi pembuatnya, karena seperti perangkat lunak terbuka lainnya, model tersebut lebih mudah dimodifikasi dan digunakan untuk tujuan yang sewenang-wenang dan berpotensi jahat.
Kepala ilmuwan AI Meta, Yann LeCun, mengatakan SB 1047 akan menghambat upaya penelitian, dan didasarkan pada “ilusi 'risiko eksistensial' yang didorong oleh segelintir lembaga pemikir delusi,” dalam sebuah posting di X. Llama LLM milik Meta adalah salah satu contoh utama LLM sumber terbuka.
Perusahaan rintisan juga tidak senang dengan RUU tersebut. Jeremy Nixon, CEO perusahaan rintisan AI Omniscience dan pendiri AGI House SF, pusat perusahaan rintisan AI di San Francisco, khawatir bahwa SB 1047 akan menghancurkan ekosistemnya. Ia berpendapat bahwa pelaku kejahatan harus dihukum karena menyebabkan kerusakan kritis, bukan laboratorium AI yang secara terbuka mengembangkan dan mendistribusikan teknologi tersebut.
“Ada kebingungan mendalam di inti RUU, bahwa LLM entah bagaimana bisa berbeda dalam tingkat kemampuan berbahayanya,” kata Nixon. “Menurut saya, kemungkinan besar semua model memiliki kemampuan berbahaya sebagaimana didefinisikan dalam RUU.”
OpenAI menentang SB 1047 pada akhir Agustus, dengan menyatakan bahwa langkah-langkah keamanan nasional yang terkait dengan model AI harus diatur di tingkat federal. Mereka mendukung RUU federal yang akan melakukannya.
Namun, Big Tech, yang menjadi fokus utama RUU tersebut, juga panik dengan SB 1047. Chamber of Progress — kelompok dagang yang mewakili Google, Apple, Amazon, dan raksasa Big Tech lainnya — mengeluarkan surat terbuka yang menentang RUU tersebut dengan mengatakan SB 1047 membatasi kebebasan berbicara dan “mendorong inovasi teknologi keluar dari California.” Tahun lalu, CEO Google Sundar Pichai dan eksekutif teknologi lainnya mendukung gagasan regulasi AI federal.
Anggota Kongres AS Ro Khanna, yang mewakili Silicon Valley, merilis pernyataan yang menentang SB 1047 pada bulan Agustus. Ia menyatakan kekhawatiran bahwa RUU tersebut “tidak akan efektif, menghukum pengusaha perorangan dan usaha kecil, serta merusak semangat inovasi California.” Sejak saat itu, ia bergabung dengan juru bicara Nancy Pelosi dan Kamar Dagang Amerika Serikat, yang juga mengatakan bahwa RUU tersebut akan merusak inovasi.
Silicon Valley secara tradisional tidak suka ketika California menetapkan regulasi teknologi yang luas seperti ini. Pada tahun 2019, Big Tech melakukan hal yang sama ketika RUU privasi negara bagian lainnya, Undang-Undang Privasi Konsumen California, juga mengancam akan mengubah lanskap teknologi. Silicon Valley melobi menentang RUU tersebut, dan beberapa bulan sebelum RUU tersebut mulai berlaku, pendiri Amazon Jeff Bezos dan 50 eksekutif lainnya menulis surat terbuka yang menyerukan RUU privasi federal sebagai gantinya.
Apa yang terjadi selanjutnya?
SB 1047 saat ini berada di meja Gubernur California Gavin Newsom di mana ia akhirnya akan memutuskan apakah akan menandatangani RUU tersebut menjadi undang-undang sebelum akhir Agustus. Wiener mengatakan ia belum berbicara dengan Newsom tentang RUU tersebut, dan tidak mengetahui posisinya.
RUU ini tidak akan berlaku efektif segera, karena Dewan Model Perbatasan baru akan dibentuk pada tahun 2026. Lebih jauh, jika RUU ini disahkan, kemungkinan besar akan menghadapi gugatan hukum sebelum itu, mungkin dari beberapa kelompok yang sama yang saat ini sedang menyuarakannya.
Koreksi: Artikel ini awalnya merujuk pada draf bahasa SB 1047 sebelumnya tentang siapa yang bertanggung jawab atas model yang disempurnakan. Saat ini, SB 1047 menyatakan pengembang model turunan hanya bertanggung jawab atas model tersebut jika mereka menghabiskan biaya tiga kali lebih banyak dari pengembang model asli untuk pelatihan.