PETALING JAYA – Seorang doktor berkongsi pengalaman mengendalikan seorang pesakit lelaki warga asing yang enggan mematuhi prosedur rawatan kerana terlalu bergantung kepada saranan aplikasi kecerdasan buatan (AI), ChatGPT.
Insiden itu berlaku ketika pesakit berkenaan hadir ke kliniknya dengan permintaan khusus untuk mendapatkan suntikan dan ubat antibiotik tertentu.
Menerusi perkongsian Dr. Ruusydina di TikTok, pesakit tersebut enggan membayar konsultasi kerana mendakwa sudah tahu rawatan yang diperlukan.
“Pesakit itu tegas mahu ubat dan suntikan yang sama seperti yang disyorkan oleh aplikasi ChatGPT. Namun, sebagai doktor, saya perlu tahu sejarah penyakit dan gejala sebelum memberi sebarang rawatan,” katanya.
Hasil pemeriksaan mendapati pesakit mengadu mengalami lelehan pada kemaluan sejak beberapa bulan lalu, simptom yang berkemungkinan besar berkait dengan jangkitan gonorea, iaitu sejenis penyakit kelamin.
Doktor berkenaan menjelaskan bahawa sekiranya benar ia adalah gonorea, pasangan seksual pesakit juga perlu mendapatkan rawatan bagi mengelakkan jangkitan berulang.
“Saya pun tanya, ‘Mungkin ini gonorea, ia adalah jangkitan kelamin. Awak ada pasangan tetap ke?’ Lepas tu dia jawab, ‘Tak, tak, kak. Saya belum kahwin lagi’.
“Aku tak kisah kau dah kahwin ke belum, aku cuma nak tahu berapa pasangan kau ada. Masa tu pun dah hujung-hujung, klinik pun dah nak tutup,” kongsinya.
Tambahnya, pesakit berkenaan berkeras hanya mahu antibiotik seperti disarankan ChatGPT, malah menolak saranan doktor yang mencadangkan pilihan ubat lain dengan liputan rawatan lebih menyeluruh.
“Dia tetap mahu ikut apa yang disarankan oleh ChatGPT, seolah-olah kami yang bertahun belajar perubatan tidak tahu lebih baik. AI memang boleh membantu, tetapi ia bukan rujukan muktamad untuk rawatan perubatan,” ujar doktor itu.
Beliau menegaskan bahawa penggunaan teknologi AI seperti ChatGPT sepatutnya dijadikan alat pembelajaran atau panduan asas, bukannya dijadikan rujukan mutlak sehingga menolak nasihat profesional perubatan.
“Baca jurnal, rujuk buku, itu asas yang sebenar. AI boleh bantu, tapi tetap perlu pengesahan klinikal. Kalau ikut bulat-bulat, ia boleh membahayakan diri sendiri,” tegasnya. – KOSMO! ONLINE
@dr.rusydina Bila mbbs kau dicabar oleh chatgpt haha #grwm #ai #chatgpt #std #storytime ♬ Pretty song that imaged a sleeping baby – Azuline