Kunjungan CEO OpenAI Sam Altman dalam acara bertajuk Conversation with Sam Altman di Grand Ballroom Kempinski, Rabu (14/6/2023). | Republika/Meiliza laveda

Inovasi

Perusahaan AI Harus Membuktikan AI mereka Aman

AI akan dilarang untuk mengolah data sensitif untuk layanan tertentu,

Teknologi akuntabel nirlaba, AI Now, dan Pusat Informasi Privasi Elektronik (EPIC) merilis proposal kebijakan terkait pemanfaatan teknologi kecerdasan buatan (AI). Proposal ini berupaya membatasi seberapa besar kekuatan yang dimiliki perusahaan AI besar pada regulasi yang juga dapat memperluas kekuatan lembaga pemerintah terhadap beberapa penggunaan AI generatif.

Grup ini telah mengirimkan kerangka kerja tersebut ke politisi dan lembaga pemerintah, terutama di Amerika Serikat (AS), bulan ini. Kemudian, meminta mereka untuk mempertimbangkannya saat menyusun undang-undang dan peraturan baru seputar AI.

Kerangka kerja, yang mereka sebut Tata Kelola AI Zero Trust, bertumpu pada tiga prinsip. Yaitu menegakkan hukum yang ada, membuat aturan garis terang yang berani dan mudah diimplementasikan dan membebani perusahaan untuk membuktikan bahwa sistem AI tidak berbahaya di setiap fase siklus hidup AI.

photo
Kunjungan CEO OpenAI Sam Altman dalam acara bertajuk Conversation with Sam Altman di Grand Ballroom Kempinski, Rabu (14/6/2023). - (Republika/Meiliza laveda)

Definisi AI-nya mencakup AI generatif dan model dasar yang memungkinkannya, bersama dengan pengambilan keputusan algoritmik. “Kami ingin mengeluarkan kerangka kerja sekarang karena teknologinya berkembang dengan cepat, tetapi undang-undang baru tidak dapat bergerak dengan kecepatan itu,” kata Jesse Lehrich, salah satu pendiri Accountable Tech, kepada The Verge, Rabu (16/8/2023).

Lehrich menjelaskan, dengan datangnya musim pemilihan, Kongres akan segera pergi untuk berkampanye, membiarkan nasib peraturan AI tidak jelas. Saat pemerintah terus mencari cara mengatur AI generatif, kelompok itu mengatakan undang-undang saat ini seputar antidiskriminasi, perlindungan konsumen, dan persaingan membantu mengatasi bahaya yang ada.

photo
Marc Pollefeys, Profesor ilmu komputer di Swiss Federal Institute of Technology (ETH) di Zurich dan direktur laboratorium realitas campuran Microsoft dan AI di Zurich, mengenakan googles realitas campuran, berpose di sebelah Spot, robot berkaki empat dari Boston Dynamics, selama ARCHE 2023 (Advanced Robotic Capabilities for Hazardous Environments) yang bertujuan menguji potensi robotika untuk membantu penanggulangan bencana di Pusat Pelatihan Pasukan Penyelamat Angkatan Darat Swiss di Avully dekat Jenewa, Swiss, 13 Juli 2023. (EPA-EFE/SALVATORE DI NOLFI)

Diskriminasi dan biasa dalam AI adalah sesuatu yang telah diperingatkan oleh para peneliti selama bertahun-tahun. Sebuah artikel Rolling Stone baru-baru ini memetakan bagamana para ahli terkenal seperti Timnit Gebru menyuarakan peringatan tentang masalah ini selama bertahun-tahun hanya untuk diabaikan oleh perusahaan yang mempekerjakan mereka.

Lehrich menunjuk pada penyelidikan Komisi Perdagangan Federal terhadap OpenAI sebagai contoh aturan yang ada yang digunakan untuk menemukan potensi kerugian konsumen. Instansi pemerintah lainnya juga telah memperingatkan perusahaan AI bahwa mereka akan memantau secara ketat penggunaan AI sektor spesifik mereka.

Didefinisikan Secara Jelas

photo
Tablet Google Pixel didemonstrasikan pada acara Google I/O di Mountain View, California, Rabu, 10 Mei 2023.- (AP Photo/Jeff Chiu)

Kongres telah mengadakan beberapa dengar pendapat mencoba mencari tahu apa yang harus dilakukan tentang kebangkitan AI generatif. Pemimpin Mayoritas Senat Chuck Schumer mendesak kolega untuk “mengambil langkah” dalam pembuat aturan AI. Perusahaan AI besar seperti OpenAI pun telah secara terbuka untuk bekerja sama dengan pemerintah AS untuk menyusun peraturan. 

Termasuk juga, menandatangani perjanjian yang tidak mengikat dan tidak dapat dilaksanakan dengan Gedung Putih untuk mengembangkan AI yang bertanggung jawab. Kerangka kerja Zero Trust AI juga berusaha untuk mendefinisikan kembali batas undang-undang perlindungan digital seperti Section 230.

Sehingga perusahaan AI generatif dimintai pertanggungjawaban jika model tersebut mengeluarkan informasi yang salah atau berbahaya. “Gagasan di balik Section 230 masuk akal secara umum, tetapi ada perbedaan antara ulasan buruk di Yelp karena seseorang membenci restoran dan GPT mengarang hal-hal yang memfitnah,” kata Lehrich. 

Saat pembuat undang-undang terus bertemu dengan perusahaan AI, yang memicu kekhawatiran penangkapan peraturan, Accountable Tech dan mitranya menyarankan beberapa aturan bright-line atau kebijakan yang didefinisikan dengan jelas dan tidak menyisakan ruang untuk subjektivitas. Ini termasuk melarang penggunaan AI untuk pengenalan emosi, kebijakan prediktif, pengenalan wajah yang digunakan untuk pengawasan massal di tempat umum, penilaian sosial dan perekrutan, pemecatan dan manajemen SDM yang sepenuhnya otomatis.

Mereka juga meminta untuk melarang pengumpulan atau pemrosesan data sensitif dalam jumlah yang tidak perlu untuk layanan tertentu, pengumpulan data biometrik di bidang seperti pendidikan dan perekrutan, dan “iklan pengawasan”. Accountable Tech juga mendesak anggota parlemen untuk mencegah penyedia cloud besar memiliki atau memiliki kepentingan menguntungkan dalam layanan AI komersial besar untuk membatasi dampak perusahaan teknologi besar dalam ekosistem AI.

Jenis-jenis Kecerdasan Buatan - (Republika)

  ​

Penyedia cloud, seperti Microsoft dan Google memang memiliki pengaruh yang sangat besar pada AI generatif. OpenAI, pengembang AI generatif paling terkenal, bekerja sama dengan Microsoft, yang juga berinvestasi di perusahaan tersebut.

Google merilis model bahasa Bard yang besar dan sedang mengembangkan model AI lainnya untuk penggunaan komersial. Grup mengusulkan metode yang serupa dengan yang digunakan dalam industri farmasi, di mana perusahaan tunduk pada peraturan bahkan sebelum menerapkan model AI ke publik dan pemantauan berkelanjutan setelah rilis komersial.

Organisasi nirlaba tidak meminta satu badan pengatur pemerintah. Namun, Lehrich mengatakan, ini adalah pertanyaan yang harus dihadapi oleh pembuat undang-undang untuk melihat apakah pemisahan peraturan akan membuat peraturan lebih fleksibel atau menghambat penegakan hukum. Lehrich mengatakan dapat dimengerti bahwa perusahaan kecil mungkin menolak jumlah peraturan yang mereka cari.

Tetapi, dia yakin ada ruang untuk menyesuaikan kebijakan dengan ukuran perusahaan. “Secara realistis, kami perlu membedakan antara berbagai tahapan rantai pasokan AI dan persyaratan desain yang sesuai untuk setiap fase,” ujarnya. Dia menambahkan bahwa pengembang yang menggunakan model open-source juga harus memastikan panduan ini diikuti.

 

 
Perusahaan AI generatif akan dimintai pertanggungjawaban jika model tersebut mengeluarkan informasi yang salah atau berbahaya. 
 
 

Gerakan “Literasi Umat” merupakan ikhtiar untuk memudahkan masyarakat mengakses informasi. Gerakan bersama untuk menebarkan informasi yang sehat ke masyarakat luas. Oleh karena informasi yang sehat akan membentuk masyarakat yang sehat.

Donasi Literasi Umat

PBB Juga Khawatirkan Kecerdasan Buatan

Sekjen PBB menilai perlu agen internasional pengawas AI.

SELENGKAPNYA

Jejak Emisi Karbon Kecerdasan Buatan

Agar diketahui jumlah penggunaan listrik dan emisi karbon dari setiap penggunaan kecerdasan buatan.

SELENGKAPNYA

Uni Eropa Takuti Kecerdasan Buatan

AI dikhawatirkan bakal menyebarkan hoaks yang berbahaya.

SELENGKAPNYA