Kamis malam, Oprah Winfrey menayangkan acara khusus tentang AI, yang diberi judul “AI dan Masa Depan Kita.” Para tamu termasuk CEO OpenAI Sam Altman, influencer teknologi Marques Brownlee, dan direktur FBI saat ini Christopher Wray.
Nada dominannya adalah skeptisisme — dan kewaspadaan.
Oprah mencatat dalam pernyataan yang telah disiapkan bahwa jin AI telah keluar dari botol, baik atau buruk, dan bahwa umat manusia harus belajar untuk hidup dengan konsekuensinya.
“AI masih di luar kendali kita dan sebagian besar… pemahaman kita,” katanya. “Namun, AI sudah ada di sini, dan kita akan hidup dengan teknologi yang dapat menjadi sekutu sekaligus saingan kita … Kita adalah makhluk yang paling mudah beradaptasi di planet ini. Kita akan beradaptasi lagi. Namun, perhatikan apa yang nyata. Taruhannya tidak bisa lebih tinggi lagi.”
Sam Altman terlalu banyak berjanji
Altman, wawancara pertama Oprah malam itu, mengemukakan argumen yang dipertanyakan bahwa AI masa kini mempelajari konsep dalam data yang menjadi bahan pelatihannya.
“Kami menunjukkan seribu kata dalam suatu urutan kepada sistem dan memintanya untuk memprediksi apa yang akan terjadi selanjutnya,” katanya kepada Oprah. “Sistem belajar untuk memprediksi, dan kemudian mempelajari konsep-konsep yang mendasarinya.”
Banyak ahli yang tidak setuju.
Sistem AI seperti ChatGPT dan o1, yang diperkenalkan OpenAI pada hari Kamis, memang memprediksi kata-kata berikutnya yang paling mungkin dalam sebuah kalimat. Namun, mereka hanyalah mesin statistik — mereka mempelajari pola data. Mereka tidak memiliki intensionalitas; mereka hanya membuat tebakan berdasarkan informasi.
Walaupun Altman mungkin melebih-lebihkan kemampuan sistem AI saat ini, ia menggarisbawahi pentingnya mencari cara untuk menguji keamanan sistem yang sama.
“Salah satu hal pertama yang perlu kita lakukan — dan ini sedang terjadi — adalah meminta pemerintah untuk mulai mencari tahu cara melakukan pengujian keamanan sistem ini, seperti yang kita lakukan untuk pesawat terbang atau obat-obatan baru,” katanya. “Saya pribadi, mungkin berbicara dengan seseorang di pemerintahan setiap beberapa hari.”
Dorongan Altman untuk regulasi mungkin mementingkan diri sendiri. OpenAI menentang RUU keselamatan AI California yang dikenal sebagai SB 1047, dengan mengatakan bahwa RUU itu akan “menghambat inovasi.” Namun, mantan karyawan OpenAI dan pakar AI seperti Geoffrey Hinton telah mendukung RUU tersebut, dengan alasan bahwa RUU itu akan memberlakukan perlindungan yang diperlukan pada pengembangan AI.
Oprah juga bertanya kepada Altman tentang perannya sebagai pemimpin OpenAI. Dia bertanya mengapa orang harus memercayainya dan Altman sebagian besar mengelak pertanyaan itu, dengan mengatakan perusahaannya berusaha membangun kepercayaan dari waktu ke waktu.
Sebelumnya, Altman mengatakan secara langsung bahwa orang-orang tidak boleh memercayai dia atau siapa pun untuk memastikan AI memberi manfaat bagi dunia.
CEO OpenAI itu kemudian mengatakan aneh mendengar Oprah bertanya apakah dia adalah “orang paling kuat dan berbahaya di dunia,” seperti yang tersirat dalam judul berita. Dia tidak setuju, tetapi mengatakan dia merasa bertanggung jawab untuk mendorong AI ke arah yang positif bagi kemanusiaan.
Oprah tentang deepfake
Seperti yang pasti terjadi dalam acara khusus tentang AI, subjek deepfake muncul.
Untuk menunjukkan seberapa meyakinkan media sintetis, Brownlee membandingkan cuplikan sampel dari Sora, generator video bertenaga AI milik OpenAI, dengan cuplikan yang dihasilkan AI dari sistem AI yang berusia beberapa bulan. Sampel Sora jauh lebih unggul — menggambarkan kemajuan pesat di bidang ini.
“Sekarang, Anda masih bisa melihat beberapa bagiannya dan tahu ada yang tidak beres,” kata Brownlee tentang rekaman Sora. Oprah mengatakan rekaman itu tampak nyata baginya.
Pertunjukan deepfake tersebut menjadi bagian dari wawancara dengan Wray, yang mengisahkan saat pertama kali ia mengenal teknologi deepfake AI.
“Saya berada di ruang konferensi, dan sekelompok [FBI] Orang-orang berkumpul untuk menunjukkan kepada saya bagaimana deepfake yang disempurnakan dengan AI dapat dibuat,” kata Wray. “Dan mereka membuat video saya mengatakan hal-hal yang belum pernah saya katakan sebelumnya dan tidak akan pernah saya katakan.”
Wray berbicara tentang meningkatnya prevalensi sextortion yang dibantu AI. Menurut perusahaan keamanan siber ESET, terjadi peningkatan 178% dalam kasus sextortion antara tahun 2022 dan 2023, yang sebagian didorong oleh teknologi AI.
“Seseorang yang menyamar sebagai teman sebaya menargetkan seorang remaja,” kata Wray, “lalu menggunakan [AI-generated] “Mengirim foto palsu untuk meyakinkan anak itu agar mengirim foto asli sebagai balasannya. Faktanya, pelakunya adalah seorang pria di balik keyboard di Nigeria, dan setelah mereka mendapatkan fotonya, mereka mengancam akan memeras anak itu dan berkata, jika kamu tidak membayar, kami akan membagikan foto-foto yang akan menghancurkan hidupmu ini.”
Wray juga menyinggung disinformasi seputar pemilihan presiden AS mendatang. Sambil menegaskan bahwa “ini bukan saatnya untuk panik,” ia menekankan bahwa merupakan kewajiban “setiap orang di Amerika” untuk “meningkatkan rasa fokus dan kehati-hatian” terhadap penggunaan AI dan mengingat bahwa AI “dapat digunakan oleh orang jahat untuk melawan kita semua.”
“Kami sering menemukan bahwa sesuatu di media sosial yang terlihat seperti Bill dari Topeka atau Mary dari Dayton sebenarnya adalah perwira intelijen Rusia atau Cina di pinggiran Beijing atau Moskow,” kata Wray.
Memang, jajak pendapat Statista menemukan bahwa lebih dari sepertiga responden AS melihat informasi yang menyesatkan — atau apa yang mereka duga sebagai misinformasi — tentang topik-topik utama menjelang akhir tahun 2023. Tahun ini, gambar-gambar menyesatkan yang dihasilkan AI dari kandidat Wapres Kamala Harris dan mantan presiden Donald Trump telah mengumpulkan jutaan penayangan di jejaring sosial termasuk X.
Bill Gates tentang gangguan AI
Untuk perubahan kecepatan yang optimis terhadap teknologi, Oprah mewawancarai pendiri Microsoft Bill Gates, yang mengungkapkan harapan bahwa AI akan memajukan bidang pendidikan dan kedokteran.
“AI itu seperti orang ketiga yang duduk di [a medical appointment,] membuat transkrip, menyarankan resep,” kata Gates. “Jadi, alih-alih dokter berhadapan dengan layar komputer, mereka berinteraksi dengan Anda, dan perangkat lunak memastikan ada transkrip yang benar-benar bagus.”
Namun, Gates mengabaikan potensi bias dari pelatihan AI yang buruk.
Satu studi terkini menunjukkan bahwa sistem pengenalan suara dari perusahaan teknologi terkemuka dua kali lebih mungkin salah menyalin audio dari orang kulit hitam dibandingkan dengan orang kulit putih. Penelitian lain menunjukkan bahwa sistem AI memperkuat kepercayaan lama yang tidak benar bahwa ada perbedaan biologis antara orang kulit hitam dan kulit putih — ketidakbenaran yang menyebabkan dokter salah mendiagnosis masalah kesehatan.
Di dalam kelas, kata Gates, AI dapat “selalu tersedia” dan “memahami cara memotivasi Anda … apa pun tingkat pengetahuan Anda.”
Tidak banyak ruang kelas yang melihatnya seperti itu.
Musim panas lalu, sekolah dan perguruan tinggi bergegas melarang ChatGPT karena kekhawatiran akan plagiarisme dan misinformasi. Sejak saat itu, beberapa telah mencabut larangan mereka. Namun, tidak semua yakin akan potensi GenAI untuk kebaikan, merujuk pada survei seperti UK Safer Internet Centre, yang menemukan bahwa lebih dari separuh anak-anak melaporkan telah melihat orang seusia mereka menggunakan GenAI dengan cara yang negatif — misalnya membuat informasi palsu yang dapat dipercaya atau gambar yang digunakan untuk membuat seseorang kesal.
Organisasi Pendidikan, Ilmu Pengetahuan, dan Kebudayaan PBB (UNESCO) akhir tahun lalu mendorong pemerintah untuk mengatur penggunaan GenAI dalam pendidikan, termasuk menerapkan batasan usia bagi pengguna dan pagar pembatas pada perlindungan data dan privasi pengguna.