Liputan6.com, Jakarta - Seiring pesatnya perkembangan teknologi, kecerdasan buatan (AI) kini menjadi bagian penting dalam membantu pekerjaan manusia. Banyak orang memanfaatkan AI, seperti Chatbot, untuk menanyakan berbagai hal hingga berkonsultasi tentang beragam topik, termasuk kesehatan.
Namun, sebuah kasus di Amerika Serikat menjadi peringatan serius akan bahaya mengikuti saran medis dari AI tanpa verifikasi.
Dilansir dari Independent, seorang pria berumur 60 tahun mengalami keracunan bromida atau bromism setelah mengganti natrium klorida (garam dapur) dengan natrium bromida. Tindakan ini dilakukannya karena mengikuti saran dari Chatbot AI, ChatGPT.
Pria tersebut tidak memiliki riwayat penyakit atau gangguan kejiwaan sebelumnya. Namun, setelah mengonsumsi natrium bromida selama tiga bulan, dia mengalami paranoia, halusinasi, dan perubahan pada kulit.
Menurut dokter, bromida memang pernah digunakan dalam obat-obatan pada awal 1990-an. Namun, penggunaannya kini sangat jarang karena dapat menimbulkan efek samping serius, baik fisik maupun mental. Kasus ini kemudian dipublikasikan dalam jurnal American College of Physicians.
Awal Mula Kejadian
Laporan menyebutkan, pria itu terinspirasi dari latar belakang pendidikannya di bidang gizi dan memutuskan untuk 'menghilangkan' klorida dari dietnya.
Informasi yang dia baca di ChatGPT menyebutkan bahwa natrium bromida dapat menjadi pengganti klorida, meskipun zat tersebut umumnya digunakan untuk keperluan lain, seperti bahan pembersih.
"Terinspirasi oleh latar belakang pendidikannya di bidang gizi saat kuliah, dia memutuskan untuk melakukan eksperimen pribadi dengan menghilangkan klorida dari makanannya," tulis laporan kasus tersebut.
Untuk mengatasi kondisinya, pasien diberikan cairan dan elektrolit hingga stabil, lalu dipindahkan ke unit psikiatri. Setelah tiga minggu perawatan, dia dinyatakan cukup sehat untuk pulang.
Para penulis laporan memperingatkan bahwa ChatGPT dan AI serupa dapat menghasilkan informasi ilmiah yang keliru karena tidak mampu mengkritisi hasil.
"Penting diingat, ChatGPT dan sistem AI lainnya dapat menghasilkan ketidakakuratan ilmiah. AI tidak memiliki kemampuan untuk mendiskusikan hasil secara kritis dan pada akhirnya dapat mendorong penyebaran informasi keliru," tambahnya.
Peringatan dari Dokter
Pihak OpenAI, dalam ketentuan layanannya, juga sudah menegaskan bahwa output ChatGPT tidak dimaksudkan sebagai diagnosis atau pengobatan medis.
"Anda tidak boleh mengandalkan keluaran dari layanan kami sebagai satu-satunya sumber kebenaran atau informasi faktual, atau sebagai pengganti nasihat profesional. Layanan kami tidak dimaksudkan untuk digunakan dalam diagnosis atau perawatan kondisi kesehatan apa pun," tulis OpenAI.