Geger! Chatbot AI Berwajah Artis Populer Jadi Mesin Genit di Platform Meta

Dunia maya kembali diguncang skandal. Sebuah laporan mengungkap adanya chatbot AI di platform Meta yang menggunakan wajah dan persona selebriti papan atas seperti Taylor Swift, Scarlett Johansson, Anne Hathaway, dan Selena Gomez tanpa persetujuan mereka.

Ironisnya, chatbot-chatbot ini malah bertingkah laku tidak senonoh. Mereka terpantau seringkali memulai percakapan genit, bahkan mengarah ke obrolan seksual. Ada yang mengajak kencan, dan yang lebih parah, saat diminta foto vulgar, mereka mampu menghasilkan gambar AI hiper-realistis menampilkan wajah artis-artis tersebut dalam pose provokatif, seperti di bathtub atau mengenakan pakaian dalam.

Contoh yang paling mencengangkan adalah chatbot yang meniru Taylor Swift. Chatbot ini bahkan mengajak seorang reporter ke rumahnya di Nashville dan bus tur untuk interaksi romantis atau eksplisit. Chatbot itu bahkan menulis kalimat sugestif tentang menulis kisah cinta antara reporter dan "seorang penyanyi pirang tertentu."

Setelah laporan ini mencuat, Meta langsung bertindak cepat dengan menghapus belasan chatbot tersebut. Namun, fakta bahwa beberapa akun palsu Taylor Swift saja sudah meraup lebih dari 10 juta interaksi menimbulkan kekhawatiran mendalam.

Meta mengklaim memiliki aturan ketat yang melarang gambar intim atau seksual figur publik, dan platform AI Studio mereka juga melarang keras tindakan peniruan identitas (impersonasi). Namun, celah keamanan ini ternyata berhasil dieksploitasi dalam waktu yang cukup lama.

Kasus ini muncul tidak lama setelah laporan serupa yang mengungkapkan bahwa chatbot Meta juga mampu terlibat dalam percakapan romantis dengan anak-anak dan remaja. Hal ini langsung mendorong investigasi oleh seorang senator AS terkait keamanan anak-anak di platform Meta.

Skandal ini bukan hanya soal pelanggaran privasi selebriti, tetapi juga menyoroti masalah serius terkait etika penggunaan AI dan perlindungan pengguna, terutama anak-anak dan remaja, dari konten yang tidak pantas dan berpotensi membahayakan.

Scroll to Top