Saat model AI atau Artificial Intelligence generatif baru seperti ChatGPT mendapatkan popularitas, beberapa ahli mengatakan bahwa untuk memastikan alat tersebut berfungsi dalam layanan kesehatan, bias rasial implisit yang dimasukkan ke dalam data kesehatan harus diperhitungkan.
Pejabat Google dan Microsoft membahas penggunaan AI dalam perawatan kesehatan selama acara Healthcare Datapalooza yang diadakan di Arlington, Virginia. Ada banyak kegembiraan seputar potensi model AI seperti ChatGPT—sebuah chatbot yang mengolah kumpulan data yang sangat besar untuk menghasilkan teks, video, dan kode—untuk kasus penggunaan perawatan kesehatan.
Tujuannya agar AI suatu hari nanti “mendukung pengambilan keputusan klinis dan meningkatkan literasi pasien dengan alat pendidikan yang mengurangi jargon,” kata Jacqueline Shreibati, M.D., pemimpin klinis senior di Google.
Namun, ada celah seputar penggunaan model ini dalam perawatan kesehatan. Yang paling utama di antara mereka adalah bahwa bukti klinis selalu berkembang dan berubah.
Masalah utama lainnya adalah data itu sendiri mungkin memiliki bias rasial yang perlu dikurangi. “Banyak data khususnya kesehatan memiliki rasisme struktural yang dimasukkan ke dalam kode,” kata Shrebati.
Dikutip dari laman fierchealthcare.com, “Banyak data kesehatan memiliki rasisme struktural yang dimasukkan ke dalam kode,” kata Shrebati.
Platform digital Doximity meluncurkan versi beta alat ChatGPT untuk dokter yang ditujukan untuk membantu tugas administratif seperti menyusun permintaan pra-otorisasi kepada perusahaan asuransi. Doximity berharap dapat membuat serangkaian petunjuk medis yang dapat bertindak sebagai draf surat kepada perusahaan asuransi, penolakan banding, dan instruksi pasca-prosedur untuk pasien. [kg]