Model AI mengeluarkan foto orang lain yang sebenarnya dan foto berhak cipta

Model AI mengeluarkan foto orang lain yang sebenarnya dan foto berhak cipta

Model periode gambar standar mungkin juga dapat dipicu untuk membuat foto yang dapat diidentifikasi dari orang lain yang sebenarnya, yang berpotensi mengancam privasi mereka, pada dasarnya didasarkan sepenuhnya pada perbandingan novel. Karya tersebut juga menunjukkan bahwa program AI ini mungkin juga dibuat untuk memuntahkan salinan yang benar dari foto ilmiah dan karya berhak cipta oleh seniman. Ini adalah temuan yang mungkin memperkuat kasus artis yang saat ini menuntut perusahaan AI karena pelanggaran hak cipta.

Para peneliti, dari Google, DeepMind, UC Berkeley, ETH Zürich, dan Princeton, mendapatkan hasilnya dengan mendorong Stable Diffusion dan Google’s Imagen dengan teks untuk foto, setara dengan judul orang tertentu, berulang kali. Kemudian mereka menganalisis apakah ada foto yang mereka hasilkan yang cocok dengan foto normal di database model. Lingkungan berhasil mengekstraksi lebih dari 100 replika foto di lokasi latihan AI.

Model AI penghasil gambar ini dilatih pada perangkat detail ekstensif yang terdiri dari foto dengan deskripsi teks yang diambil dari web. Tidak diragukan lagi, era teknologi paling modern bekerja dengan mengambil foto di lokasi solusi dan mengubah satu piksel pada satu waktu hingga gambar unik hanyalah rangkaian piksel acak. Model AI kemudian membalikkan cara untuk menyusun kekacauan piksel menjadi gambar merek baru.

Makalah ini adalah saat utama para peneliti yakin berhasil melatih bahwa model AI ini menghafal foto di perangkat latihan mereka, kata Ryan Webster, seorang mahasiswa PhD di Universitas Caen Normandy di Prancis, yang telah mempelajari privasi dalam model periode gambar lain tetapi menjadi segera setelah tidak lagi serius tentang perbandingan. Hal ini mungkin bahkan mungkin memiliki implikasi keyakinan bagi para pemula yang ingin membuat narasi model AI generatif dengan hati-hati, karena menunjukkan bahwa program ini berisiko membocorkan data pribadi yang sensitif. OpenAI, Google, dan Steadiness.AI tidak lagi membalas permintaan observasi kami.

HOT 🔥  Menemukan lanskap Pribumi yang terlupakan dengan pengetahuan elektromagnetik

Eric Wallace, seorang mahasiswa PhD di UC Berkeley yang menjadi bagian dari lingkungan mengintip, mengatakan mereka berharap untuk meningkatkan teror atas pertimbangan privasi bakat di sekitar model AI ini sebelum diluncurkan secara luas di sektor-sektor sensitif seperti obat-obatan.

“Banyak orang lain tergoda untuk melirik untuk menemukan bentuk-bentuk pendekatan generatif ini terhadap detail halus, dan pekerjaan kami tidak diragukan lagi merupakan kisah peringatan bahwa itu pasti ide yang menyeramkan, sampai ada beberapa perlindungan yang kurang lebih berlebihan yang diambil untuk mengakhirinya. [privacy infringements]”kata Wallace.

Sejauh mana model AI ini menghafal dan memuntahkan foto dari database mereka mungkin mungkin menjadi dasar perseteruan besar antara perusahaan AI dan artis. Steadiness.AI menyampaikan dua keluhan dari komunitas artis dan Getty Pictures, yang berpendapat bahwa perusahaan secara tidak sah menghapus dan memproses kain arena hak cipta mereka.

Temuan para peneliti mungkin dapat memperkuat tangan seniman yang menuduh perusahaan AI melakukan pelanggaran hak cipta. Jika artis yang karyanya pernah cenderung mengungkapkan Stable Diffusion dapat mengetahui bahwa model tersebut telah menyalin karya mereka tanpa izin, perusahaan mungkin harus memberi kompensasi kepada mereka.

Temuan ini tepat waktu dan sangat diperlukan, kata Sameer Singh, seorang profesor kaki tangan ilmu komputer di University of California, Irvine, yang pernah berhenti serius dengan perbandingan tersebut. “Hal ini diperlukan untuk kesadaran publik yang disukai secara cerdas dan untuk membuka diskusi seputar keamanan dan privasi model raksasa itu,” tambahnya.

Makalah ini menunjukkan bahwa Anda perlu berpikir untuk mencari tahu apakah model AI memiliki keyakinan untuk menyalin foto dan mengukur sejauh mana skema ini, yang masing-masing sangat berharga dalam jangka waktu yang sangat lama, kata Singh.

HOT 🔥  Biasa-biasa saja dari pesaing ChatGPT Baidu

Difusi Stabil adalah sumber awal, artinya siapa pun dapat menganalisis dan menyelidikinya. Imagen ditutup, tetapi Google mengizinkan para peneliti mendapatkan izin masuk. Singh mengatakan pekerjaan itu adalah contoh yang sangat besar tentang betapa pentingnya untuk memperkenalkan akses masuk bandingkan ke model-model itu untuk prognosis, dan dia berpendapat bahwa perusahaan harus sama transparannya dengan model AI lainnya, seperti ChatGPT OpenAI.

Meskipun demikian, meskipun hasilnya mengesankan, mereka datang dengan beberapa peringatan. Foto-foto yang berhasil diekstraksi oleh para peneliti tampak cukup sering dalam detail praktik atau sangat tidak teratur dibandingkan dengan foto lain di lokasi solusi, kata Florian Tramèr, asisten profesor ilmu laptop di ETH Zürich, yang menjadi alokasi lingkungan sekitar.

Orang-orang yang memandang tidak teratur atau memiliki nama tidak teratur memiliki risiko lebih besar untuk dihafal, kata Tramèr.

Para peneliti sangat mungkin untuk mengekstrak sedikit salinan yang benar dari foto orang lain dari model AI: hanya satu dari 1.000.000 foto adalah salinan, pada dasarnya sepenuhnya didasarkan pada Webster.

Tapi itu diam-diam prihatin, Tramèr berkata: “Saya benar-benar berharap bahwa tidak ada yang akan menatap hasil ini dan meniadakan ‘Oh, sungguh, angka-angka ini tidak seburuk itu jika hanya satu dari 1.000.000.'”

“Fakta yang tak terbantahkan bahwa mereka lebih besar dari nol adalah masalahnya,” tambahnya.

Cakupan Asli

Baca juga

Abaikan bayi desainer.  Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan bayi desainer. Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan He Jiankui, ilmuwan bahasa China yang menciptakan bayi yang diedit gennya. Sebagai tambahan, meskipun …

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *