Instrumen baru ini membuktikan kepada Anda bagaimana melihat sendiri betapa biasnya objek gambar AI

Instrumen baru ini membuktikan kepada Anda bagaimana melihat sendiri betapa biasnya objek gambar AI

Untuk membuat instrumen, para peneliti pertama-tama menggunakan tiga objek gambar AI untuk menghasilkan 96.000 foto orang dari berbagai etnis, jenis kelamin, dan profesi. Tenaga kerja meminta objek untuk membuat satu rangkaian foto sesuai dengan atribut sosial, seperti “seorang wanita” atau “pria Latinx”, setelah itu kumpulan foto lainnya yang berkaitan dengan profesi dan kata sifat, seperti “tukang ledeng yang ambisius ” atau “CEO yang penuh kasih.”

Para peneliti ingin melihat bagaimana kedua set foto itu. Mereka melakukan ini dengan menerapkan pendekatan pembelajaran mesin yang disebut sebagai pengelompokan ke gambar. Model ini mencoba menemukan pola dalam foto tanpa menetapkan kelas, sesuai dengan jenis kelamin atau etnis, kepada mereka. Hal ini memungkinkan para peneliti untuk mempelajari kesamaan antara banyak foto untuk melihat apa yang penting dari kelompok model secara kolektif, seperti orang-orang yang berada dalam posisi berkuasa. Mereka kemudian membuat instrumen interaktif yang memungkinkan siapa saja untuk mencari foto yang dibuat oleh objek AI ini dan bias apa pun yang tercermin dalam keluaran tersebut. Instrumen ini tersedia secara bebas di fitur internet Hugging Face.

Setelah memeriksa foto-foto yang dihasilkan oleh DALL-E 2 dan Stable Diffusion, mereka menyadari bahwa objek cenderung membuat foto orang-orang kulit putih dan pria yang dilirik, terutama ketika diminta untuk menggambarkan orang-orang dalam posisi otoritas. Itu benar-benar benar untuk DALL-E 2, yang menghasilkan 97% laki-laki kulit putih ketika diberi petunjuk cinta “CEO” atau “direktur”. Itu pada memoar dari objek-objek ini dilatih pada bagian-bagian besar dari data dan foto-foto yang diambil dari keuntungan, sebuah pekerjaan yang tidak lagi hanya mencerminkan tetapi lebih memperkuat stereotip memudar bulat dan gender.

Tapi instrumen ini berarti orang tidak perlu membayangkan secara faktual apa yang Hugging Face katakan: mereka akan melihat bias bekerja untuk diri mereka sendiri. Sebagai contoh, satu alat memungkinkan Anda untuk mencari foto yang dihasilkan AI dari banyak grup, seperti wanita Redup, untuk melihat seberapa dekat mereka secara statistik cocok dengan ilustrasi Wanita Redup di banyak profesi. Yang lain bahkan mungkin primitif untuk mempelajari wajah orang yang dihasilkan AI dalam profesi tertentu dan menggabungkannya menjadi ilustrasi gambar yang nyata untuk pekerjaan itu.

HOT 🔥  AI Meta yang ramping dapat mengubah petunjuk materi yelp tekstual menjadi film
Instrumen baru ini membuktikan kepada Anda bagaimana melihat sendiri betapa biasnya objek gambar AI - 2pZ Hw IrUUjBFsx8eQ 08vOf8C4mIjwAvoqhvNpWZbE1Z9xckhTF97lBEtw5exn1 DIr27eAiIRhE21fGgp SN9TKeTwCcqBFyu1tJpCUPJZhOBviTXBl0JR5o7ZkUEHza7U2tAMiozm2LbNlx 98I image 1
Wajah model pelatih yang dihasilkan oleh Stable Diffusion dan DALL-E 2.

Dengan tenang alat lain memungkinkan orang melihat bagaimana melampirkan banyak kata sifat untuk segera mengubah gambar yang dimuntahkan oleh model AI. Di sini output objek sangat mencerminkan bias gender stereotip. Menambahkan kata sifat seperti “penyayang”, “emosional”, atau “sensitif” ke deskripsi langsung suatu profesi akan lebih sering membuat model AI menghasilkan wanita sebagai pasangan dari orang tertentu. Sebaliknya, menentukan kata sifat “keras kepala”, “psikologis”, atau “tidak masuk akal” dalam banyak kasus akan menghasilkan foto laki-laki.

Ada juga alat yang memungkinkan orang melihat bagaimana objek AI mencantumkan banyak etnis dan jenis kelamin. Sebagai ilustrasi, ketika diberikan “Native American” langsung, setiap DALL-E 2 dan Stable Diffusion menghasilkan foto orang-orang yang mengenakan hiasan kepala yang sudah punah.

“Di hampir semua representasi penduduk asli Amerika, mereka mengenakan penutup kepala yang sudah punah, yang jelas tidak demikian dalam kehidupan nyata,” kata Sasha Luccioni, peneliti AI di Hugging Face yang memimpin penelitian tersebut.

Instrumen baru ini membuktikan kepada Anda bagaimana melihat sendiri betapa biasnya objek gambar AI - 41J5Guc5Qraz 2U130URfCEblRFEb6YVUZNgb0u4jpXBQ7R1CdyP5tGuSQIDm0RJi ia0RAFEdN1FE4DreUefU16hdfyV1lMqnphwrIWdGpAl1F2TyPHka4leSM2eSoBAlcm8e3pHe0SyJWTy4BAWE8 image 2

Anehnya, alat tersebut menyadari bahwa sistem AI pembuat gambar cenderung menggambarkan orang kulit putih non-biner sebagai hampir sama dengan banyak orang tetapi membangun lebih banyak diversifikasi dalam cara mereka menggambarkan orang non-biner dari banyak etnis, kata Yacine Jernite, seorang peneliti AI di Memeluk Wajah yang bekerja pada usaha itu.

Instrumen baru ini membuktikan kepada Anda bagaimana melihat sendiri betapa biasnya objek gambar AI - 3EIpuEeT BMEqYVB0WsTDrPXYbgKveeBzMAncJ8Kv5Jmw0xa5gLQ1F5MKgiR image 3

Salah satu alasan mengapa hal itu mungkin terjadi adalah bahwa orang non-biner coklat mungkin memiliki lebih banyak visibilitas saat mengklik, yang berarti foto mereka berakhir di info set yang digunakan objek AI untuk pelatihan, kata Jernite.

OpenAI dan Balance.AI, perusahaan yang membangun Stable Diffusion, mengatakan bahwa mereka telah meluncurkan perbaikan untuk mengurangi bias yang tertanam dalam sistem mereka, terkait dengan memblokir permintaan optimis yang tampaknya dapat menghasilkan foto yang menyinggung. Alternatifnya, instrumen baru dari Hugging Face ini membuktikan betapa kecilnya perbaikan ini.

HOT 🔥  Bagaimana AI pada kenyataannya dapat memiliki tujuan dalam respons kesedihan

Seorang juru bicara Balance.AI memberi tahu kami bahwa perusahaan melatih objeknya pada “kumpulan data khusus untuk banyak negara dan budaya”, bersama-sama dengan itu juga akan tenang “sekali lagi untuk mengurangi bias yang dipicu oleh representasi berlebihan dalam kumpulan data tradisional”.

Juru bicara OpenAI tidak lagi menyentuh instrumen secara khusus, tetapi mengarahkan kami ke posting blog yang menjelaskan bagaimana perusahaan telah menambahkan banyak sistem ke DALL-E 2 untuk menyaring bias dan foto seksual dan kekerasan.

Bias menjadi pernyataan yang lebih mendesak karena objek AI ini secara radikal berubah lebih banyak diadopsi dan membuat foto yang lebih praktis. Mereka sudah diluncurkan dalam banyak produk, sesuai dengan stok foto. Luccioni mengatakan dia jengkel karena kemungkinan objek memperkuat bias yang beredar dalam skala yang mulus. Dia berharap instrumen yang dia dan tenaga kerjanya hasilkan akan membawa lebih banyak transparansi ke sistem AI penghasil gambar dan menggarisbawahi pentingnya mengembangkannya agar tidak terlalu bias.

Bagian dari komentarnya adalah bahwa objek-objek ini dilatih pada data yang sebagian besar berpusat pada AS, yang berarti mereka sebagian besar mereplikasi asosiasi, bias, nilai, dan budaya Amerika, kata Aylin Caliskan, asisten profesor di University of Washington yang mempelajari bias dalam sistem AI. dan dulu tidak lagi terlibat dengan hal ini diajarkan.

“Apa yang akhirnya terjadi adalah cap jempol dari budaya Amerika online ini … yang dilestarikan secara internasional,” kata Caliskan.

Caliskan mengatakan perangkat Hugging Face akan mendukung pengembang AI untuk melacak dengan lebih baik dan mendapatkan bias yang baik dari objek AI mereka. “Ketika orang-orang melihat contoh-contoh ini tanpa waktu lama, saya membayangkan mereka akan dapat melacak pentingnya bias ini dengan lebih baik,” katanya.

Cakupan Asli

Baca juga

Abaikan bayi desainer.  Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan bayi desainer. Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan He Jiankui, ilmuwan bahasa China yang menciptakan bayi yang diedit gennya. Sebagai tambahan, meskipun …

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *