Dalam wawancara dan pernyataan publik, banyak komunitas AI telah menolak klaim insinyur, sementara beberapa menunjukkan bahwa ceritanya menyoroti bagaimana teknologi dapat membuat orang mengaitkan sifat manusia dengannya. Tetapi dapat dikatakan bahwa keyakinan bahwa AI Google mungkin secara sadar menegaskan ketakutan dan harapan kami tentang apa yang dapat dilakukan teknologi ini.
LaMDA, yang merupakan singkatan dari Model Bahasa untuk Aplikasi Dialog, adalah salah satu dari beberapa sistem AI skala besar yang telah dilatih pada potongan besar teks dari Internet dan dapat merespons perintah tertulis. Mereka terutama bertanggung jawab untuk menemukan pola dan memprediksi kata atau kata mana yang harus muncul selanjutnya. Sistem seperti itu menjadi Lebih dan lebih baik Untuk menjawab pertanyaan dan menulis dengan cara yang mungkin tampak persuasif bagi manusia – dan Google sendiri LaMDA muncul Mei lalu di sebuah posting blog Sebagai seseorang yang dapat “dengan lancar menangani mata pelajaran yang tampaknya tak terbatas”. Tapi hasilnya juga bisa menggelikan, aneh, menyebalkan, dan rawan distraksi.
Insinyur, Blake Lemoine, dilaporkan mengatakan kepada The Washington Post bahwa dia telah berbagi bukti dengan Google bahwa LaMDA sensitif, tetapi perusahaan tidak setuju. Dalam sebuah pernyataan, Google mengatakan Senin bahwa timnya, yang mencakup ahli etika dan teknologi, “meninjau kekhawatiran Blake sesuai dengan prinsip AI kami dan memberi tahu dia bahwa bukti tidak mendukung klaimnya.”
Pada 6 Juni, Lemoine memposting di Medium bahwa Google telah menempatkannya pada cuti administratif berbayar “sebagai bagian dari penyelidikan terhadap masalah etika AI yang saya angkat di dalam perusahaan” dan bahwa dia dapat dipecat “segera.” (Dia menyebutkan pengalaman Margaret Mitchell, yang merupakan salah satu pemimpin tim AI etis Google sampai Google mengeluarkannya pada awal 2021 Setelah berterus terang tentang Berangkat akhir tahun 2020 untuk co-leader saat itu, Timnit Gebru. Gebru digulingkan setelah pertengkaran internal, termasuk yang terkait dengan makalah penelitian yang diminta oleh pimpinan AI perusahaan untuk menarik kembali presentasi di konferensi atau mencabut namanya).
Seorang juru bicara Google mengkonfirmasi bahwa Lemoine tetap dalam cuti administratif. Menurut Washington Post, dia dibebaskan karena melanggar kebijakan privasi perusahaan.
Periklanan
Lemoine tidak tersedia untuk komentar pada hari Senin.
Munculnya program komputer canggih yang terus-menerus dilatih pada data besar telah menimbulkan kekhawatiran tentang etika yang mengatur pengembangan dan penggunaan teknologi ini. Dan terkadang kemajuan dilihat dari apa yang bisa terjadi, daripada apa yang saat ini mungkin terjadi.
Anggota komunitas AI menanggapi eksperimen Lemoine di media sosial selama akhir pekan, dan secara umum sampai pada kesimpulan yang sama: AI Google jauh dari sempurna. Abiba Birhani, Senior Fellow AI Tepercaya di Mozilla, Indonesia Pada hari Minggu, “kita telah memasuki era baru ‘jaringan saraf sadar ini’ dan kali ini akan menghabiskan banyak energi untuk menyangkalnya.”
Gary Marcus, pendiri dan CEO Geometric Intelligence, yang telah dijual ke Uber, dan penulis buku seperti “Reboot AI: Membangun Kecerdasan Buatan yang Dapat Dipercaya” menggambarkan ide LaMDA sebagai ide yang disadari. “Absurditas di atas panggung” dalam sebuah tweet. cepat menulis file posting blog Memperhatikan bahwa semua sistem AI ini melakukan pencocokan pola dengan menarik basis data bahasa yang sangat besar.
Dalam sebuah wawancara dengan CNN Business pada hari Senin, Marcus mengatakan cara terbaik untuk memikirkan sistem seperti LaMDA adalah “versi yang dimuliakan” dari program pelengkapan otomatis yang dapat Anda gunakan untuk memprediksi kata berikutnya dalam pesan teks. Jika Anda menulis “Saya sangat lapar, jadi saya ingin pergi ke”, dia mungkin menyarankan “restoran” sebagai kata berikutnya. Tapi ini adalah prediksi yang dibuat menggunakan statistik.
“Tidak seorang pun harus berpikir bahwa penyelesaian diri, bahkan pada steroid, sadar,” katanya.
Dalam sebuah wawancara dengan Gebru, seorang pendiri dan CEO Lembaga Penelitian Kecerdasan Buatan TerdistribusiDAIR, atau DAIR, Lemoine mengatakan dia adalah korban dari banyak perusahaan yang mengklaim bahwa kecerdasan buatan yang disadari atau kecerdasan umum buatan — sebuah gagasan yang mengacu pada kecerdasan buatan yang dapat melakukan tugas-tugas seperti manusia dan berinteraksi dengan kita dengan cara yang berarti — tidak jauh. .
Misalnya, Ilya Sutskiver, salah satu pendiri dan kepala ilmuwan di OpenAI, mencatat, Indonesia Pada bulan Februari, “Jaringan saraf besar hari ini mungkin sedikit sadar.” Dan minggu lalu, Wakil Presiden Riset Google dan kolega Blaise Aguera y Arcas Saya menulis artikel untuk The Economist bahwa ketika dia mulai menggunakan LaMDA tahun lalu, “Saya semakin merasa seperti sedang membicarakan sesuatu yang cerdas.” (Artikel ini sekarang menyertakan catatan editor yang mencatat bahwa Lemoine telah “tertunda” setelah dia mengklaim dalam sebuah wawancara dengan The Washington Post bahwa chatbot LaMDA Google telah menjadi “responsif.”)
“Apa yang terjadi adalah bahwa ada perlombaan untuk menggunakan lebih banyak data, lebih banyak perhitungan, untuk mengatakan bahwa Anda membuat hal umum yang semuanya pengetahuan, dan menjawab semua pertanyaan Anda atau sesuatu,” kata Gebru. “Jadi, bagaimana Anda terkejut ketika itu? orang membayar Sampai batas maksimum? »
Dalam pernyataannya, Google mencatat bahwa LaMDA telah menjalani 11 “tinjauan terpisah dari prinsip-prinsip AI,” serta “penelitian dan pengujian yang ketat” terkait dengan kualitas, keamanan, dan kemampuan untuk membuat klaim berbasis bukti. pada fakta. “Tentu saja, beberapa komunitas AI yang lebih luas sedang mempelajari potensi jangka panjang dari AI sadar atau umum, tetapi tidak masuk akal untuk melakukannya dengan mewujudkan model percakapan saat ini. Dan itu tidak sensitif,” kata perusahaan itu.
“Ratusan peneliti dan insinyur telah melakukan percakapan dengan lambda dan kami tidak tahu ada orang lain yang membuat klaim ini, atau lambda itu antropomorfik seperti yang dilakukan Blake,” kata Google.
More Stories
Tìm hiểu về HMI và cách sử dụng
Bayonetta 3 – Penyihir mendapat filter telanjang
Apple tidak mengakui kesalahan tentang membangun komputer dengan M2