Moralitas yang berantakan membiarkan AI melahirkan pilihan hidup dan mati

Moralitas yang berantakan membiarkan AI melahirkan pilihan hidup dan mati

Dalam sebuah lokakarya di Rotterdam di Belanda, Philip Nitschke—“Dr. Sekarat” atau “Elon Musk dari bunuh diri yang dibantu” bagi sebagian orang — sedang mengawasi beberapa putaran pengujian sebelumnya pada mesin Sarco aslinya sebelum mengirimkannya ke Swiss, efek yang menurutnya pengguna pertamanya sudah siap.

Ini adalah prototipe ketiga yang telah dicetak dan disambungkan oleh lembaga nirlaba Nitschke, Exit Worldwide. Nomor 1 telah dipamerkan di Jerman dan Polandia. “Nomor dua pernah menjadi penderitaan,” katanya. Sekarang dia menyelesaikan kesalahan manufaktur dan dapat memulai: “Inilah orang yang paling pasti akan digunakan.”

Pod seukuran peti mati dengan gaya Superstar High-tail, Sarco adalah buah dari kampanye 25 tahun Nitschke untuk “mendemedikalisasi kematian” melalui pengetahuan. Disegel sepanjang mesin, seseorang yang telah memilih untuk mati harus menjawab tiga pertanyaan: Siapa kamu? Kamu ada di mana? Dan meruntuhkan Anda mengerti apa yang akan terjadi jika Anda menekan tombol itu?

Inilah yang akan terjadi: Sarco akan memungut dengan gas nitrogen. Penghuninya akan pingsan dalam waktu kurang dari satu menit dan meninggal karena sesak napas sekitar pukul 5.

Rekaman wawancara singkat dan terakhir itu kemudian akan diserahkan kepada pihak berwenang Swiss. Nitschke belum mendekati otoritas Swiss untuk mendapatkan persetujuan, tetapi Swiss adalah salah satu dari segelintir negara yang menikmati bunuh diri dengan bantuan yang dilegalkan. Itu adalah favorit selama kita yang ingin mati menciptakan tindakan terakhir itu sendiri.

Nitschke perlu melakukan bunuh diri dengan bantuan sebisa mungkin, memberi kita yang senang memilih untuk menghapus otonomi, dan dengan demikian martabat, di saat-saat terakhir mereka. “Anda sebenarnya tidak membutuhkan dokter untuk mati,” katanya.

Karena Sarco menggunakan nitrogen, gas yang tersedia secara luas, daripada barbiturat yang biasanya digunakan di klinik eutanasia, tidak memerlukan dokter untuk memberikannya suntikan atau sinyal off pada obat mematikan.

Sekarang tidak sekarang tidak sampai ke akarnya. Nitschke belum siap untuk menghindari institusi medis sepenuhnya. Swiss mewajibkan calon eutanasia mengulangi kemampuan mental, kata Nitschke, yang sebagian besar dinilai oleh psikiater. “Ada persepsi yang kuat bahwa jika seseorang meminta untuk mati, mereka memiliki semacam penyakit mental yang tidak terdiagnosis,” katanya. “Bahwa sekarang tidak rasional bagi orang tertentu untuk mempercayai kematian.”

Dia yakin dia punya solusi, sebaliknya. Exit Worldwide sedang mengerjakan algoritme yang diharapkan Nitschke akan memungkinkan kita menemukan penemuan evaluasi diri psikiatri di komputer. Secara teori, jika seseorang lulus tes online ini, sistem ini akan memberikan kode empat digit ke Sarco secara instan. “Itulah tujuannya,” kata Nitschke. “Setelah mengakui semua itu, misinya terbukti sangat canggih.”

Misi Nitschke mungkin tampak tidak sesuai—bahkan mengerikan—bagi sebagian orang. Dan persepsinya tentang kekuatan algoritme mungkin akan dikatakan berlebihan. Tapi dia bukan orang yang luar biasa yang mengintip untuk mempertahankan teknologi, dan khususnya AI, dalam keputusan hidup-atau-mati.

Tetapi efek Nitschke melihat AI sebagai upaya untuk memberdayakan orang Amerika untuk menghasilkan pilihan terakhir sendiri, yang lain bertanya-tanya apakah AI dapat membantu membantu orang Amerika dari beban pilihan tersebut. AI sudah terbiasa melakukan triase dan menangani pasien di berbagai bidang perawatan kesehatan cerdas yang sedang berkembang. Karena algoritme berubah menjadi bagian perawatan yang lebih penting dan lebih penting, sekarang kita harus terburu-buru karena peran mereka khusus untuk pilihan klinis, bukan yang tepat.

Perawatan klinis adalah sumber daya yang terbatas. Pasien harus menantikan janji temu untuk mengambil tes atau perawatan. Mereka yang membutuhkan transplantasi organ harus menantikan hati atau ginjal yang sah. Vaksin harus diluncurkan terlebih dahulu ke yang paling rentan (di negara-negara yang menyukainya). Dan selama pandemi terburuk, ketika rumah sakit menghadapi kekurangan tempat tidur dan ventilator, dokter harus membuat pilihan cepat tentang siapa yang akan menerima perawatan instan dan siapa yang tidak — dengan konsekuensi yang tragis.

Krisis covid memperkenalkan kebutuhan akan pilihan seperti itu ke tingkat fokus yang keras — dan membuat banyak orang bertanya-tanya apakah algoritme mungkin mendukung. Rumah sakit di seluruh dunia menjual alat AI asli atau terkooptasi yang ada untuk mendorong dengan triase. Beberapa rumah sakit di Inggris yang telah mengeksplorasi penggunaan alat AI untuk menunjukkan rontgen dada penyamaran melompat ke alat tersebut sebagai buku praktis, jangkauan yang kasar dan bernilai rendah untuk menetapkan kondisi covid yang paling ekstrem. Pemasok teknologi ini, seperti Qure.ai, yang sepenuhnya berbasis di Mumbai, India, dan Lunit, yang sepenuhnya berbasis di Seoul, Korea, mengambil kontrak di Eropa, AS, dan Afrika. Robotika Diagnostik, sebuah perusahaan Israel yang menyediakan alat triase penuh berbasis AI ke rumah sakit di Israel, India, dan AS, telah mengakui adanya lonjakan permintaan tujuh kali lipat untuk teknologinya di tahun pertama pandemi. Alternate in smartly being-care AI telah berkembang pesat sejak saat itu.

Kecepatan untuk mengotomatisasi ini menimbulkan banyak pertanyaan tanpa jawaban yang mudah. Bentuk keputusan apa yang tepat untuk menghabiskan algoritma untuk melahirkan? Bagaimana algoritma ini harus dibangun? Dan siapa yang akan mengetahui cara kerjanya?

HOT 🔥  Apakah tikus dengan sel otak manusia mengumpulkan tikus yang sangat baik?

Rhema Vaithianathan, direktur Pusat Analisis Pengetahuan Sosial dan seorang profesor di Sekolah Tinggi Teknologi Auckland di Selandia Baru, yang berspesialisasi dalam teknologi dalam makhluk cerdas dan kesejahteraan, berpikir itu eksklusif sebagian dari kita meminta AI untuk membantu menghasilkan banyak pilihan. “Kita harus mengatasi masalah yang diterima dokter sangat melelahkan,” katanya.

Tidak diragukan lagi, tampaknya sebagian besar inisiatif yang dia kerjakan memerlukan layanan mental-cerdas remaja, akibatnya kita yang lebih muda dikenali dan dirawat karena perilaku yang merugikan diri sendiri. Ada permintaan yang tinggi untuk sanatorium, dan karena itu perlu melibatkan perputaran yang tinggi, memulangkan penderita sesegera mungkin agar lebih banyak juga dapat diperkenalkan.

Dokter klinis menghadapi alternatif canggih antara mempertahankan penderita yang ada dalam perawatan dan merawat yang asli. “Dokter tidak membebaskan kami karena mereka sangat khawatir akan tindakan yang merugikan diri sendiri,” kata Vaithianathan. “Itu skenario mimpi buruk mereka.”

Bahkan ketika AI tampaknya tepat, siswa dan regulator sama-sama menuntut peringatan.

Vaithianathan dan rekan-rekannya dengan senang hati mencoba memetakan manekin pencari mesin yang akan diprediksi secara kebetulan penderita mana yang paling mungkin mengalami kebiasaan merugikan diri sendiri di masa depan dan mana yang mungkin sekarang tidak, menghabiskan alternatif yang disadari dari data catatan, termasuk catatan yang cerdas dan data catatan demografis, untuk memberi dokumen sumber daya lebih lanjut dalam pengambilan keputusan mereka. “Saya terus-menerus mencoba menerima kondisi-kondisi itu karena seorang dokter berjuang dan akan menyukai algoritme,” katanya.

Misi ini masih dalam tahap awal, tetapi sebelumnya para peneliti senang menemukan bahwa tidak akan ada data rekaman yang cukup untuk mempraktikkan model yang mungkin akan menghasilkan prediksi yang tepat. Mereka akan memungut mencoba. Model tidak harus yang terbaik untuk mendukung dokumen, kata Vaithianathan.

Mereka seharusnya bukan kru hebat yang mencoba memprediksi kemungkinan mengeluarkan penderita. Sebuah evaluasi yang diterbitkan pada tahun 2021 menyoroti 43 studi oleh para peneliti yang mengklaim menggunakan mesin pencari untuk memprediksi apakah pasien akan diterima kembali atau meninggal setelah mereka meninggalkan rumah sakit di AS. Tidak ada yang cukup untuk pengeluaran klinis, namun penulis berhenti terjaga untuk saat perangkat seperti itu “memberikan peningkatan kualitas perawatan dan dorongan yang membantu biaya perawatan yang cerdas.”

Namun meskipun AI tampaknya tepat, siswa dan regulator sama-sama menuntut peringatan. Untuk satu komponen, solusi yang diterapkan algoritme dan jangkauan penerapannya adalah artefak manusia, penuh dengan prasangka. Berhasil menjadi data rekaman dipenuhi oleh kita yang mungkin berkulit putih dan laki-laki, untuk mengilustrasikan, yang membelokkan energi prediktifnya. Dan perangkat menawarkan lapisan objektivitas yang mungkin akan membuat kita mengambil keputusan etis, memercayai mesin daripada mempertanyakan hasilnya.

Bidang yang sedang berlangsung ini adalah tema dalam e-book asli David Robinson, Voices in the Code, mengacu pada demokratisasi AI. Robinson, sarjana tamu di Matriks Ilmu Sosial di College of California, Berkeley, dan anggota perguruan tinggi Apple College, menceritakan memoar Belding Scribner. Pada tahun 1960 Scribner, seorang nephrologist di Seattle, memasukkan tabung Teflon sementara yang dikenal sebagai shunt ke telapak tangan beberapa pasiennya untuk menghentikan pembekuan darah saat mereka menjalani perawatan dialisis. Inovasi memungkinkan kita dengan penyakit ginjal untuk berhenti menjalani dialisis tanpa batas waktu, mengubah gagal ginjal dari kondisi mematikan menjadi penyakit jangka panjang.

Saat penemuan keluar, Scribner pernah dibanjiri permintaan perawatan. Tapi dia tidak bisa menikmati setiap orang. Siapa yang harus dia dukung dan siapa yang harus dia tenangkan lagi? Dia segera menyadari bahwa ini bukanlah keputusan klinis tetapi keputusan etis. Dia membentuk sebuah komite orang awam untuk dibentuk. Tentunya, pilihan mereka bukanlah yang terbaik. Prasangka pada waktu itu membuat panitia lebih menyukai laki-laki yang sudah menikah dengan pekerjaan dan rumah tangga, sebagai ilustrasi.

Menurut Robinson, pelajaran yang harus kita nikmati dengan tenang dari karya Scribner adalah bahwa proses tertentu—birokrasi, teknis, dan algoritmik—dapat menghasilkan pertanyaan canggih yang tampak netral dan objektif. Mereka akan mengaburkan aspek-aspek yang tepat dari sebuah alternatif—dan dalam banyak kasus konsekuensi yang mengerikan. menulis. Fenomena ini mendahului komputer, katanya, “tetapi sistem sepenuhnya berbasis peta dapat berkembang dan memperkuat gaya ini. Kuantifikasi mungkin juga akan menjadi obat bius yang tepat, dan komputer membuat obat bius itu lebih mudah untuk diberikan. implikasi menyakitkan dari pilihan yang ada. Bagi Scribner, hal itu seharusnya meminta panel terbuka dari orang awam — sebagai pengganti komunitas dokumen tujuan yang seolah-olah bertemu di balik pintu tertutup — siapa yang harus dipertahankan. Baru-baru ini, mungkin menunjukkan permintaan untuk algoritma taruhan utama untuk diaudit. Untuk saat ini, audit algoritme oleh pihak mandiri adalah barang dagangan yang lebih disukai daripada praktik aslinya. Namun, sekali lagi menghabiskan kasus penyakit ginjal, Robinson menunjukkan desain di mana hal itu juga dapat dilakukan.

HOT 🔥  Tips Agar aman menggunakan situs media sosial

Pada tahun 2000-an, sebuah algoritme telah dikembangkan di AS untuk menentukan penerima sumbangan ginjal. Namun beberapa dari kami patah hati dengan bagaimana algoritme dirancang. Pada tahun 2007, Clive Grawe, seorang kandidat transplantasi ginjal dari Los Angeles, tiba-tiba di ruangan yang penuh dengan pemeriksa klinis bahwa algoritme mereka pernah bias terhadap orang yang lebih tua dari kita yang mengaguminya. Algoritme telah dirancang untuk mengalokasikan ginjal dalam jangkauan yang dapat menyelamatkan kehidupan selama bertahun-tahun. Penderita muda, kaya, dan kulit putih yang paling favorit ini, kata Grawe dan sekelompok penderita.

Bias dalam algoritme semacam itu adalah favorit. Yang kurang disukai adalah para perancang algoritme tersebut setuju bahwa mungkin ada bidang. Setelah bertahun-tahun berkonsultasi dengan orang awam yang mengagumi Grawe, para desainer menemukan jangkauan yang tidak terlalu bias untuk memaksimalkan pilihan tahun yang dihemat—oleh, di antara banyak hal, rasa ingin tahu tentang kemampuan secara keseluruhan untuk boot ke usia. Salah satu kunci perubahan adalah bahwa hampir semua donor, yang terus-menerus dari kita yang senang meninggal lebih muda, sekarang tidak hanya cocok dengan penerima di kelompok usia yang sama. Beberapa dari ginjal ini mungkin sekarang akan mengejar kita yang lebih tua jika mereka sehat. Seperti halnya komite Scribner, ketenangan algoritme tidak akan menghasilkan pilihan yang akan disetujui setiap orang. Namun desain yang pernah dikembangkannya sangat kuat untuk kesalahan.

“Saya tidak harus duduk di sana dan memberikan injeksi. Dalam acara tersebut kemungkinan besar Anda akan mengaguminya, Anda menekan tombolnya.”

Philip Nitschke

Nitschke juga mengajukan pertanyaan yang melelahkan.

Seorang dokter pudar yang membakar lisensi klinisnya setelah berselisih selama bertahun-tahun dengan Australian Clinical Board, Nitschke memiliki keunggulan menjadi orang pertama yang secara legal memberikan suntikan mematikan sukarela ke 1 manusia lagi. Dalam sembilan bulan antara Juli 1996, ketika Northern Territory of Australia memperkenalkan undang-undang yang melegalkan eutanasia, dan Maret 1997, ketika otoritas federal Australia membatalkannya, Nitschke membantu empat penderitanya untuk menghapuskan diri mereka sendiri.

Pemimpin, seorang tukang kayu lemah berusia 66 tahun bernama Bob Dent, yang menderita kanker prostat selama 5 tahun, menguraikan keputusannya dalam sebuah surat terbuka: “Jika saya membawa hewan peliharaan dalam kondisi yang sama Saya ikut, saya mungkin akan diadili.”

Nitschke ingin memperkuat pilihan para penderitanya. Meski begitu, dia pernah patah hati dengan peran yang mereka minta untuk dia mainkan. Jadi dia membuat mesin untuk mendapatkan stasiunnya. “Saya tidak harus duduk di sana dan memberikan suntikan,” katanya. “Jika Anda mungkin akan mengaguminya, Anda menekan tombolnya.”

Mesin itu tidak luar biasa untuk dilihat: dulu sebenarnya adalah komputer notebook dihubungkan dengan spuit. Namun itu benar-benar mencapai tujuannya. Sarco adalah iterasi dari peta biasa itu, yang kemudian didapat oleh Museum Sains di London. Nitschke berharap algoritme yang mungkin akan melakukan evaluasi psikiatri mungkin akan menjadi langkah selanjutnya.

Namun ada kemungkinan etis bahwa harapan itu akan pupus. Menyusun sebuah program yang mungkin akan menilai kecerdasan mental seseorang adalah bidang yang belum terpecahkan—dan kontroversial. Seperti yang dicatat oleh Nitschke sendiri, para dokter tidak setuju dengan apa yang harus dicapai oleh orang yang berpikiran sehat untuk mati. “Anda juga dapat mengambil selusin jawaban dari selusin sekelompok psikiater,” katanya. Dalam banyak frase, mungkin tidak akan ada landasan favorit di mana sebuah algoritme mungkin akan dibuat.

Namun bukan itu intinya di sini. Worship Scribner, Nitschke bertanya apa yang dianggap sebagai keputusan klinis, apa yang dianggap etis, dan siapa yang akan mendapatkannya. Scribner berpikir bahwa orang awam—mewakili masyarakat sebagai suatu kesatuan—harus sangat senang dengan siapa yang menerima dialisis, karena ketika penderita menyukai kemungkinan yang kurang lebih sama untuk bertahan hidup, siapa yang hidup dan siapa yang mati tidak lagi menjadi tuntutan teknis. Seperti yang dijelaskan Robinson, masyarakat pasti bersalah atas pilihan semacam itu, meskipun desainnya dapat dengan mudah dikodekan dalam algoritme jika dilakukan secara inklusif dan transparan. Bagi Nitschke, bunuh diri dengan bantuan juga bisa menjadi keputusan etis, keputusan yang harus diambil oleh peserta untuk diri mereka sendiri. Sarco, dan algoritme teoretis yang dia bayangkan, hanya akan memberikan perlindungan pada kemampuan mereka untuk meruntuhkannya. peregangan sumber daya. Tetapi pekerjaan yang sebenarnya akan mengakui keburukan dan kesewenang-wenangan dari banyak pilihan yang akan diminta oleh AI. Dan itu ada pada kita.

Bagi Robinson, merancang algoritme adalah sedikit kekaguman pada undang-undang: “Dalam sudut pandang tertentu, tuntutan tentang seberapa mudah menghasilkan kode peta yang dapat mengatur kita adalah contoh nyata tentang bagaimana hanya untuk melahirkan solusi hukum. Dari kami tidak setuju mengacu pada manfaat dari banyak saran untuk membuat peta berisiko tinggi, jelas karena mereka tidak setuju mengacu pada manfaat dari banyak saran untuk membuat solusi hukum. Dan kitalah—dalam arti luas—yang bersalah atas solusi hukum yang sekarang kita senangi.

Liputan Asli

Baca juga

Operasi pembelajaran mesin menawarkan kelincahan, memacu inovasi

Operasi pembelajaran mesin menawarkan kelincahan, memacu inovasi

Banyak organisasi telah mengadopsi pembelajaran mesin (ML) dengan gaya sedikit demi sedikit, membangun atau mencari …

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *