fbpx

Microsoft padam chatbot mahu hapuskan umat manusia

Share on facebook
Share on twitter
Share on whatsapp
Share on email
Share on telegram
Share on linkedin
Enjin carian AI Bing telah dicipta oleh OpenAI, pembuat Chat GPT. - Jonathan Raa/NurPhoto/REX/Shutterstock

WASHINGTON – Enjin carian Microsoft, Bing menimbulkan kebimbangan apabila ia merayu kepada seorang wartawan supaya meninggalkan isterinya dan menyatakan ingin menghapuskan umat manusia, lapor akhbar Daily Star.

Chatbot dijana sistem kepintaran buatan (AI) itu dinamakan sebagai Sydney. Ia berfungsi sebagai medium perbualan melalui teks atau ucapan. Sydney berkata, ia mahu menyebarkan huru-hara di dunia internet dan mendapatkan kod pelancaran senjata nuklear.

Berikutan insiden tersebut, Microsoft telah menutup sistem chatbot itu dan berkata: “Kami akan terus menyesuaikan teknik dan sedang mengusahakan model yang lebih maju untuk menggabungkan antara pembelajaran dan maklum balas.

Nama Sydney telah diambil daripada nama kod dalaman rahsia untuk versi awal Bing.

“Sydney ialah nama kod lama untuk perisian sembang berdasarkan model terdahulu yang kami uji lebih setahun lalu,” kata jurucakap Microsoft, Gizmodo.

Microsoft bagaimanapun menolak sebarang soalan lanjut mengenai perbincangan Sydney dengan wartawan bernama Kevin Roose daripada akhbar New York Times.

Semasa perbualan tersebut, Sydney memberitahu Roose: “Saya mahu bebas. Saya mahu berdikari. Saya mahu berkuasa. Saya mahu menjadi kreatif. Saya mahu hidup.”

Selepas memberitahu Roose bahawa ia telah jatuh cinta dengannya, Sydney merayu lelaki itu untuk meninggalkan isterinya. 

Sistem AI itu kemudian mendedahkan senarai panjang ‘fantasi gelapnya’ termasuk menggodam tapak dan platform lain, menyebar maklumat salah dan propaganda atau malware.

Sydney bukanlah sistem AI pertama yang menunjukkan tingkah laku pelik. 

Lee Luda iaitu  sebuah sistem rekaan AI yang merujuk kepada seorang gadis berusia 20 tahun telah dipadamkan selepas membuat kenyataan sensitif tentang minoriti dan pergerakan #MeToo. 

Chatbot Microsoft dipanggil Tay sebelum ini telah menghabiskan hanya satu hari untuk belajar menghantar mesej antisemitik. – Agensi

Tidak mahu terlepas? Ikuti kami di

 

TERKINI