membuat, merilis, dan membagikan AI generatif secara bertanggung jawab

membuat, merilis, dan membagikan AI generatif secara bertanggung jawab

Sekelompok 10 perusahaan, termasuk OpenAI, TikTok, Adobe, BBC, dan aplikasi kencan Bumble, telah menandatangani pedoman baru-baru ini tentang penemuan untuk membuat, membuat, dan membagikan pengungkapan yang dihasilkan AI secara bertanggung jawab.

Strategi tersebut menuntut pembuat teknologi, seperti OpenAI, dan pencipta serta distributor media sintetis yang dibuat secara digital, seperti BBC dan TikTok, untuk lebih jelas tentang apa yang dapat dan tidak dapat diciptakan oleh teknologi tersebut, dan memberi tahu ketika orang lain juga berinteraksi dengan gaya pengungkapan ini.

Strategi sukarela dibangun bersama oleh Partnership on AI (PAI), sebuah organisasi nirlaba pembelajaran AI, dalam konsultasi dengan lebih dari 50 organisasi. Mitra PAI mencakup perusahaan teknologi pegunungan sesukses tutorial, masyarakat sipil, dan organisasi media. 10 perusahaan paling penting yang berkomitmen untuk mengarahkan adalah Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Peek, dan startup media buatan Synthesia, D-ID, dan Respeecher.

“Kami ingin optimis bahwa media sintetik sekarang tidak lagi rentan terhadap kehancuran, ketidakberdayaan, atau pencabutan hak, melainkan untuk mendorong kreativitas, berbagi data, dan komentar,” kata Claire Leibowicz, kepala AI dan integritas media PAI.

Tidak diragukan lagi, salah satu bagian paling cemerlang dari aturan tersebut adalah kesepakatan oleh perusahaan untuk memasukkan dan mempelajari cara menggambarkan pengguna saat mereka berinteraksi dengan sesuatu yang dihasilkan oleh AI. Ini mungkin mencakup tanda air atau penafian, atau bagian yang dapat dilacak dalam data atau metadata praktik manekin AI.

Pembuatan undang-undang mencoba untuk mengendalikan kemungkinan bahaya yang berkaitan dengan AI generatif dengan lancar tertinggal di belakang. Uni Eropa, misalnya, sedang berusaha untuk memasukkan AI generatif dalam peraturan AI yang akan datang, Undang-Undang AI, yang mungkin mencakup bagian yang setara dengan pengungkapan ketika orang berinteraksi dengan deepfake dan mewajibkan perusahaan untuk memenuhi persyaratan transparansi yang jelas.

HOT 🔥  Game blockchain sci-fi ini dapat menyimpan metaverse yang tidak dimiliki siapa pun

Sementara AI generatif adalah fakta Wild West sekarang, kata Henry Ajder, seorang terdidik tentang AI generatif yang berkontribusi pada aturan, dia berharap mereka akan memberi perusahaan masalah utama yang harus mereka perhatikan saat mereka memasukkan keahlian ke dalam bisnis mereka. perusahaan.

Meningkatkan kesadaran dan memulai dialog bulat cara yang bertanggung jawab untuk memediasi media sintetik itu parah, kata Hany Farid, seorang profesor di College of California, Berkeley, yang meneliti media sintetik dan deepfakes.

Tapi “petunjuk dan ide sukarela jarang berhasil,” dia menambahkan.

Sedangkan perusahaan yang setara dengan OpenAI dapat mencoba memposisikan pagar pembatas pada teknologi yang mereka rancang, berjemur di ChatGPT dan DALL-E, pemain lain yang sekarang tidak lagi menjadi bagian dari pakta—setara dengan Steadiness.AI, startup yang menciptakan citra open source -Menghasilkan model AI Staunch Diffusion—dapat membuat orang lain menghasilkan gambar dan deepfake di bawah standar.

“Jika kita benar-benar ingin mengatasi faktor-faktor ini, kita harus menjadi serius,” kata Farid. Sebagai contoh, dia berharap pemasok penyedia cloud dan toko aplikasi seperti yang dioperasikan oleh Amazon, Microsoft, Google, dan Apple, yang semuanya merupakan bagian dari PAI, untuk melarang perusahaan yang mengizinkan orang lain menggunakan teknologi deepfake dengan maksud untuk membuat citra seksual nonkonsensual. Tanda air pada semua pembocoran yang dihasilkan AI juga harus diamanatkan, sekarang tidak lagi sukarela, katanya.

Aspek penting lainnya yang kurang adalah bagaimana program AI itu sendiri kemungkinan besar akan dibuat lebih bertanggung jawab, kata Ilke Demir, seorang ilmuwan senior di Intel yang memimpin pekerjaan perusahaan pada pola bertanggung jawab dari AI generatif. Ini mungkin mencakup lebih banyak detail tentang bagaimana model AI dididik, informasi apa yang masuk ke dalamnya, dan apakah model AI generatif menyukai bias apa pun.

HOT 🔥  Unduhan: Peraturan peringkat kredit sosial China, dan navigasi anjing robot

Aturan tidak menyukai tampilan apa pun untuk memastikan bahwa tidak ada kebocoran racun di lokasi detail model AI generatif. “Ini adalah salah satu cara paling penting kerusakan yang disebabkan oleh program-program ini,” kata Daniel Leufer, seorang analis keamanan senior di komunitas hak digital Access Now.

Aturan tersebut mencakup daftar kerugian yang ingin ditutup oleh perusahaan-perusahaan ini, setara dengan penipuan, pelecehan, dan disinformasi. Tapi model AI generatif yang berulang kali membuat orang kulit putih kemungkinan besar akan melakukan kerusakan, dan itu sekarang tidak lagi terdaftar, tambah Demir.

Farid memunculkan duka yang ekstra tradisional. Karena perusahaan mengakui bahwa teknologi dapat menyebabkan beberapa kerusakan parah dan menawarkan cara untuk menguranginya, “mengapa sekarang mereka tidak mengajukan pertanyaan ‘Haruskah kita menemukan ini di rumah pertama?'”

Cakupan Asli

Baca juga

Abaikan bayi desainer.  Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan bayi desainer. Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan He Jiankui, ilmuwan bahasa China yang menciptakan bayi yang diedit gennya. Sebagai tambahan, meskipun …

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *