Laporan Tech Crunch juga menyebut model AI generatif kerap dilatih dengan data yang mereka terima, sehingga pengguna tidak memiliki kendali penuh atas bagaimana data tersebut digunakan atau dengan siapa dibagikan.
“Kebocoran data medis bisa berujung pada penyalahgunaan, bahkan dijadikan bahan penipuan yang menyasar kelemahan korban,” jelas Mugiya.
Meski begitu, ia tetap mendorong masyarakat memanfaatkan AI secara positif, misalnya untuk menulis, mencari referensi belajar, atau mendukung pekerjaan administratif.
Namun, setiap pengguna harus lebih selektif dan menahan diri agar tidak memasukkan informasi pribadi yang berpotensi menimbulkan risiko.
Baca juga: Terapi Multiple Myeloma Makin Maju, Harapan Baru bagi Pasien Kanker Darah di Indonesia
“Keamanan data pribadi adalah tanggung jawab bersama. Jika kita bijak, risiko kebocoran bisa ditekan,” pungkasnya.


