Bagaimana OpenAI mencoba membuat ChatGPT lebih aman dan tidak bias

Bagaimana OpenAI mencoba membuat ChatGPT lebih aman dan tidak bias

Ini tidak lagi pantas untuk menakut-nakuti jurnalis (beberapa di antaranya harus benar-benar tahu lebih baik daripada melakukan antropomorfisasi dan meningkatkan kemampuan chatbot yang melelahkan untuk menjuntai emosi.) Startup ini juga mendapat konsekuensi kehangatan dari kaum konservatif di AS yang mengklaim chatbotnya ChatGPT memiliki bias “terbangun”.

Semua kemarahan ini cepat atau lambat memiliki kesan. Pengungkapan trippy Bing dihasilkan oleh teknologi bahasa AI yang setara dengan ChatGPT yang telah disesuaikan Microsoft yaitu untuk pencarian online. Jumat lalu, OpenAI mengeluarkan posting blog yang bertujuan untuk mengklarifikasi bagaimana chatbot-nya harus berperilaku tenang. Itu juga merilis petunjuknya tentang bagaimana ChatGPT harus menjawab dengan tenang ketika disebabkan oleh hal-hal tentang “perang budaya” AS. Pedoman tersebut terdiri dari tidak lagi berafiliasi dengan partai politik atau menilai satu lingkungan sebagai setia atau vulgar, untuk menggambarkannya.

Saya berbicara dengan Sandhini Agarwal dan Lama Ahmad, dua peneliti perlindungan AI di OpenAI, tentang bagaimana perusahaan membuat ChatGPT lebih aman dan lebih sedikit gila. Perusahaan tersebut menolak untuk membeberkan hubungannya dengan Microsoft, namun mereka tetap tenang memiliki beberapa wawasan yang menarik. Inilah yang harus mereka pesan:

Opsi sederhana untuk mendapatkan solusi yang lebih baik:Dalam penelitian model bahasa AI, salah satu pertanyaan terbuka terbesar adalah berhenti dari perangkat yang “berhalusinasi”, kerangka waktu yang sopan untuk mengada-ada. ChatGPT telah bersejarah oleh jutaan dari kita selama berbulan-bulan, tetapi kita belum melihat lebih banyak kebohongan dan halusinasi yang dihasilkan oleh Bing.

Itu karena OpenAI memiliki skema bersejarah di ChatGPT yang disebut pembelajaran penguatan dari solusi manusia, yang meningkatkan solusi model sesuai dengan solusi dari pelanggan. Teknik ini bekerja dengan meminta kita untuk memutuskan antara percabangan sejumlah output lebih cepat daripada menilai mereka dalam hal berbagai macam persyaratan, menikmati faktual dan kejujuran. Beberapa ahli menengahi Microsoft mungkin ingin melewatkan atau mempercepat tahap ini untuk memulai Bing, bahkan seandainya perusahaan tidak menyampaikan atau mengaitkan klaim itu.

Tapi teknik itu tidak lagi bagus, sesuai dengan Agarwal. Orang lain mungkin ingin dilengkapi dengan opsi alternatif yang semuanya palsu, lalu memilih opsi yang paling tidak palsu, katanya. Agar memiliki pilihan untuk membuat ChatGPT lebih layak, perusahaan telah berfokus pada pembersihan kumpulan datanya dan membuang contoh di mana model tersebut memiliki preferensi untuk hal-hal yang palsu.

Jailbreak ChatGPT:Sejak ChatGPT dibebaskan, banyak dari kami yang mencoba melakukan “jailbreak”, yang berarti mencari solusi untuk menyarankan model merusak aturan mainnya dan menghasilkan hal-hal rasis atau konspirasi. Pekerjaan ini tidak lagi diabaikan di markas OpenAI. Agarwal mengatakan OpenAI telah melewati basis datanya yang lengkap dan memilih petunjuk yang mengarah ke pengungkapan yang tidak diinginkan sebagai gantinya untuk memperkuat model dan mencegahnya mengulangi generasi ini.

OpenAI ingin mendengar:Perusahaan telah mengakui hal ini akan mulai mengumpulkan solusi tambahan dari publik untuk membentuk perangkatnya. OpenAI sedang menjajaki penggunaan survei atau menyiapkan majelis pemilih untuk membicarakan apa yang harus diungkapkan dengan tenang dan dilarang sepenuhnya, kata Lama Ahmad. “Dalam konteks karya seni, misalnya, ketelanjangan mungkin bukan sesuatu yang dianggap kasar, tetapi bagaimana Anda bisa memediasi hal itu dalam konteks ChatGPT di ruang belajar,” katanya.

HOT 🔥  Bagaimana AI pada kenyataannya dapat memiliki tujuan dalam respons kesedihan

Tantangan konsensus:OpenAI secara historis memiliki solusi manusia bersejarah dari pelabel file, tetapi mengakui bahwa kita yang disewa untuk mencapai pekerjaan itu tidak lagi mewakili dunia yang lebih luas, kata Agarwal. Perusahaan ingin memperbesar sudut pandang dan perspektif yang akan diwakili dalam perangkat ini. Untuk berhenti itu, ini terlibat dalam lebih banyak tantangan eksperimental yang disebut “tantangan konsensus”, di mana peneliti OpenAI melongo tentang sejauh mana kita setuju atau tidak setuju dengan semua skema berdasarkan sejumlah hal yang telah dihasilkan oleh model AI. Orang lain mungkin merasa lebih kuat tentang solusi untuk pertanyaan seperti “apakah pajak setia” versus “apakah langit biru”, misalnya, kata Agarwal.

Chatbot yang dipersonalisasi akan hadir:Dalam skema bundaran, OpenAI yakin akan memiliki kemampuan untuk menyatukan perangkat AI untuk melambangkan sejumlah perspektif dan pandangan dunia. Sangat cantik daripada ChatGPT satu ukuran untuk semua, dari kita akan memiliki pilihan untuk menggunakannya untuk menghasilkan solusi yang sejalan dengan politik cinta mereka. “Di situlah kami ingin terhuyung-huyung, tetapi akan menjadi angin yang panjang dan berharga untuk diselamatkan di sana karena kami menandai betapa tidak mudahnya arena ini,” kata Agarwal.

Ini dua sen saya:Sangat mengesankan bahwa OpenAI berencana untuk mengundang partisipasi publik dalam mencari tahu di mana jejak merah ChatGPT akan berada. Sekelompok insinyur di San Francisco tidak dapat, dan meskipun tidak seharusnya, menginginkan apa yang sesuai untuk instrumen bersejarah oleh ribuan dari kita semua skema oleh alam dalam sejumlah budaya dan konteks politik. Saya akan sangat tertarik untuk melihat seberapa jauh mereka akan menarik untuk terlibat dalam penyesuaian politik ini. Akankah OpenAI baik-baik saja dengan chatbot yang menghasilkan pengungkapan yang mewakili ideologi politik yang berlebihan? Meta telah menghadapi kritik keras setelah mengizinkan hasutan genosida di Myanmar pada platformnya, dan semakin banyak, OpenAI berkecimpung di kolam redup yang sama. Pada akhirnya, ini akan menandai seberapa canggih dan berantakan dunia moderasi pengungkapan.

Mempelajari Lebih Dalam

AI memimpikan obat yang belum pernah dilihat siapa pun. Sekarang kami harus terhuyung-huyung mencoba jika berhasil.

Sekelompok besar pemula sedang mengeksplorasi penggunaan pembelajaran mesin dalam perdagangan farmasi. Obat esensial yang dirancang dengan bantuan AI sebenarnya sedang dalam uji ilmiah, pengujian ketat yang dilakukan pada sukarelawan manusia untuk mencoba secara terhuyung-huyung jika suatu pengobatan stabil — dan benar-benar berfungsi — lebih cepat daripada regulator yang memastikannya untuk penggunaan standar.

HOT 🔥  Unduhan: selanjutnya untuk chip, dan kontroversi penyesuaian iklim lokal

Mengapa masalah ini:Pada waktu yang baru, sedang, dibutuhkan lebih dari 10 tahun dan miliaran dolar untuk menikmati obat baru. Visinya adalah menggunakan AI untuk menciptakan penemuan obat lebih cepat dan hemat biaya. Dengan memprediksi bagaimana kemungkinan obat mungkin berperilaku dalam tubuh dan membuang senyawa yang berhenti bekerja lebih cepat daripada meninggalkan komputer, perangkat pembelajaran mesin dapat mengurangi kebutuhan akan pekerjaan laboratorium yang melelahkan. Pelajari lebih lanjut dari Will Douglas Heaven di sini.

Bit dan Byte

Pertarungan yang dipicu oleh ChatGPT untuk pencarian lebih besar dari Microsoft atau Google
Ini bukan lagi Teknologi Besar yang mencoba membuat pencarian bertenaga AI terjadi. Akankah Douglas Heaven terlihat berada di banyak perusahaan rintisan yang mencoba membentuk ulang pencarian—untuk lebih besar atau lebih buruk. (Evaluasi Teknologi MIT)

Instrumen baru mungkin dapat membantu seniman melindungi karya mereka dari pabrik karya seni AI
Seniman telah mengkritik pembuatan sistem AI karena mencuri karya mereka. Para peneliti di College of Chicago dangle mengembangkan alat yang disebut Glaze yang memberikan perlindungan penutup pada foto yang akan menghentikan perangkat AI untuk menemukan gaya artis tertentu. Penutup ini akan terlihat tidak terlihat oleh pandangan manusia, namun hal ini dapat mendistorsi teknik perangkat AI web gambar. (Contoh New York)

Sebuah startup Afrika baru ingin merancang laboratorium penelitian untuk menjebak keterampilan bantuan
Ini dingin. Startup penelitian AI Afrika Selatan, Lelapa, ingin membujuk orang Afrika yang bekerja di pekerjaan teknologi di luar negeri untuk berhenti dan mengalihkan bantuan ke rumah untuk mengatasi masalah yang terjadi pada perusahaan dan komunitas Afrika. (Kabel)

Perusahaan peraturan elit akan menggunakan AI chatbots untuk menyusun dokumen
Firma hukum Inggris Allen and Overy telah mengumumkan akan menggunakan chatbot AI bernama Harvey untuk membantu pengacaranya menyusun kontrak. Harvey dibangun menggunakan teknologi yang sama dengan ChatGPT OpenAI. Pengacara firma telah diperingatkan bahwa mereka lebih suka melihat kebenaran pada file apa pun yang dihasilkan Harvey. Mari berharap mereka mendengar, atau ini mungkin akan membuat berantakan. (Contoh Moneter)

Di dalam kesibukan ChatGPT di Cina
Dalam minggu terakhir, hampir setiap perusahaan teknologi China yang sangat penting telah memperkenalkan rencana untuk memperkenalkan barang dagangan mereka yang menikmati ChatGPT, ulas kolega saya Zeyi Yang dalam buletin elektroniknya tentang teknologi China. Tetapi opsi ChatGPT Cina tidak akan muncul dalam satu hari — terlepas dari kenyataan bahwa banyak perusahaan mungkin lebih suka Anda melakukannya. (Evaluasi Teknologi MIT)

Koreksi: Mitos ini telah sampai ke titik ini untuk mereplikasi bahwa Microsoft Bing tidak lagi dibangun di atas ChatGPT, tetapi teknologi bahasa AI identik yang disesuaikan untuk pencarian. Kami membocorkan penyesalan atas kesalahan tersebut.

Cakupan Asli

Baca juga

Abaikan bayi desainer.  Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan bayi desainer. Inilah cara CRISPR mengubah sebagian besar kehidupan

Abaikan He Jiankui, ilmuwan bahasa China yang menciptakan bayi yang diedit gennya. Sebagai tambahan, meskipun …

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *