Sindobatam

Dapatkan berita terbaru

Wanita Kehilangan Rs 1,4 Lakh karena Penipuan Suara AI: Apa Artinya dan Bagaimana Tidak Menjadi Korban

Wanita Kehilangan Rs 1,4 Lakh karena Penipuan Suara AI: Apa Artinya dan Bagaimana Tidak Menjadi Korban

Baru-baru ini, seorang wanita berusia 59 tahun menjadi korban penipuan suara yang dihasilkan AI dan menderita kerugian sebesar $1,4 lakh. Penelepon tersebut, yang secara halus meniru keponakannya di Kanada, mengarang cerita yang menyedihkan, menekankan kebutuhan mendesak akan bantuan keuangan segera. Ini hanya itu Penipuan suara AI Yang sedang meningkat akhir-akhir ini.
itu Penipuan suara AIIni adalah jenis penipuan yang menggunakan kecerdasan buatan (AI) untuk membuat audio suara seseorang, sehingga membuat penelepon tampak seperti seseorang yang dikenal dan dipercaya oleh korban. Penipu sering kali menggunakan teknik ini untuk berpura-pura menjadi anggota keluarga, teman, atau bahkan perwakilan layanan pelanggan untuk mengelabui korban agar membocorkan informasi pribadi atau mengirimkan uang.
Penipuan suara paling umum yang menggunakan AI meliputi:
* Meniru identitas anggota keluarga atau teman: Penipu akan menghubungi korban dan mengaku sebagai anggota keluarga atau teman yang sedang dalam masalah dan membutuhkan uang segera. Penipu mungkin menggunakan nama korban atau nama anggota keluarga untuk membuat penipuan lebih meyakinkan.
* Meniru identitas perwakilan layanan pelanggan: Penipu akan menelepon korban dan mengaku berasal dari perusahaan yang berbisnis dengan korban, seperti bank atau perusahaan kartu kredit. Penipu kemudian dapat meminta korban untuk memverifikasi informasi pribadi atau melakukan pembayaran.
* Menyamar sebagai pejabat pemerintah: Penipu akan menghubungi korban dan mengaku berasal dari lembaga pemerintah, seperti IRS atau… Administrasi Jaminan Sosial. Pelaku kemudian dapat mengancam akan menangkap korban atau mengambil tindakan hukum lainnya jika korban tidak menuruti tuntutannya.
Berikut beberapa tip untuk membantu Anda menghindari penipuan suara menggunakan AI
– Jangan pernah memberikan informasi pribadi melalui telepon kecuali Anda yakin dengan identitas penelepon.
– Berhati-hatilah terhadap penelepon yang mendesak meminta uang atau informasi pribadi
– Jika Anda tidak yakin dengan keabsahan panggilan tersebut, tutup telepon dan hubungi perusahaan secara langsung
– Waspadai teknik penipuan suara terbaru menggunakan AI. Penipu terus mengembangkan taktiknya, jadi penting untuk selalu mengetahui informasi terbaru tentang penipuan.
– Laporkan aktivitas mencurigakan. Jika Anda mencurigai Anda menjadi sasaran penipuan suara AI, segera laporkan ke pihak berwenang.
Dia menonton Pakar hukum dunia maya Pavan Duggal menawarkan tindakan pencegahan terhadap Deepfake