AI x Scammers การโคลนเสียงหลอกเหยื่อให้คิดว่าคนที่เขารักกำลังร้องขอความช่วยเหลือ

ด้วยเทคโนโลยี AI ที่พัฒนาขึ้นอย่างก้าวกระโดด แม้มันจะมีข้อดีมากมายที่ทำให้มนุษย์เราทำอะไรหลายอย่างได้ง่ายดายยิ่งขึ้น แต่ข้อดีของมันก็ทำให้มนุษย์เราใช้ชีวิตยากเย็นขึ้นเช่นเดียวกันเพราะเหล่าอาชญากรก็สามารถใช้เครื่องมือเหล่านี้ในการเพิ่มขีดความสามารถของพวกเขา

หนึ่งในนั้นคือเหล่าสแกมเมอร์ที่มักมองหาการโจรกรรมด้วยเทคนิควิธีที่ซับซ้อนขึ้น และตอนนี้พวกเขาอาจพบแล้วนั่นก็คือการใช้ AI เพื่อเลียนแบบคนที่คุณรักทางโทรศัพท์

เมื่อ Ruth Card วัย 73 ปี ได้ยินสิ่งที่เธอคิดว่าเป็นเสียงของ Brandon หลานชายของเธอที่ปลายสายบอกว่าเขาต้องการเงินประกันตัว เธอและสามีจึงรีบไปที่ธนาคาร

“แน่นอนว่ามันเป็นความรู้สึก… หวาดกลัว” Card กล่าว “เราต้องช่วยเขาในตอนนี้”

ทั้งคู่ถอนเงินได้สูงสุด 3,000 ดอลลาร์แคนาดาที่ธนาคารแห่งหนึ่ง แต่โชคดีที่ผู้จัดการธนาคารที่มีความระแวดระวังแจ้งพวกเขาและเตือนว่ามีลูกค้ารายอื่นได้รับโทรศัพท์ที่คล้ายกันซึ่งฟังดูเหมือนเป็นเสียงจากคนที่คุณรัก แต่กลับกลายเป็นว่าเสียงนั้นเป็นเสียงปลอม

“เราเหมือนถูกดูดเข้าไป” Card กล่าว “เรามั่นใจว่าเรากำลังคุยกับ Brandon แน่ ๆ”

กฎหมายที่ยังเอื้อมไม่ถึง

ไม่ใช่ทุกคนที่โชคดี  Benjamin Perkin วัย 39 ปี ได้กล่าวว่าพ่อแม่วัยสูงอายุของเขาถูกโกงเงินไปหลายพันดอลลาร์ด้วยความช่วยเหลือจากผู้เลียนแบบโดยใช้ AI

พ่อแม่ของ Perkin ได้รับโทรศัพท์จากทนายความ ซึ่งอ้างว่าลูกชายของพวกเขาฆ่านักการทูตสหรัฐในอุบัติเหตุรถชน และต้องการเงินเป็นค่าดำเนินการทางกฎหมาย จากนั้นทนายความก็ปล่อยให้ Perkin พูดทางโทรศัพท์ และเสียงก็ฟังดูเหมือนเขา

สิ่งนี้ทำให้พวกเขาเชื่อมั่น ต่อมาเมื่อทนายความโทรกลับมาเพื่อขอเงินจำนวน 21,000 ดอลลาร์แคนาดา พ่อแม่ของเขาไปที่ธนาคารและส่งเงินผ่าน BitCoin ให้แทบจะทันที

แต่หารู้ไม่ว่านั่นคือโจร เคสของ Perkin จบลงด้วยความสูญเสียที่ไม่อาจจะดึงเงินคืนกลับมาได้

“เงินทั้งหมดมันหายไปแล้ว” Perkin กล่าว

เทคโนโลยีที่ใช้งานได้ง่ายจนเกินไป

การหลอกลวงด้วยการโคลนเสียงเป็นภัยคุกคามมาหลายปีแล้ว แต่ความแพร่หลายที่เพิ่มขึ้นของ AI ที่ทรงพลังและใช้งานง่าย หมายความว่าศักยภาพของเทคโนโลยีที่จะถูกนำไปใช้ในทางที่ผิดได้อย่างง่ายดายนั้นแซงหน้าความสามารถของผู้คนทั่วไปที่ตามไม่ทันกลอุบายของเหล่าโจรร้าย

Hany Farid ศาสตราจารย์ด้านนิติวิทยาศาสตร์แห่ง UC Berkeley กล่าวว่า “เมื่อ 2 ปีที่แล้ว แม้กระทั่งปีที่แล้ว คุณต้องการเสียงจำนวนมากเพื่อโคลนเสียงคนให้เหมือนจริงมากที่สุด” “แต่ตอนนี้… ถ้าคุณมีเพจ Facebook… หรือถ้าคุณอัดเสียงลง TikTok และเสียงของคุณอยู่ในนั้นเป็นเวลา 30 วินาที ผู้คนสามารถลอกเลียนเสียงของคุณได้อย่างง่ายดาย”

บริการที่มีชื่อว่า ElevenLabs ซึ่งเป็นบริการสังเคราะห์เสียงด้วย AI มีค่าใช้จ่ายเพียง 5 ดอลลาร์ต่อเดือน และสามารถให้ ผลลัพธ์ที่เหลือเชื่อ มีนักข่าวใช้มันเพื่อเจาะเข้าบัญชีธนาคารของตัวเอง หรือแม้กระทั่งถูกใช้ในการสร้างมีม เช่นการเลียนแบบเสียงของประธานาธิบดี Joe Biden 

เทคโนโลยีในการโคลนเสียงของ ElevenLabs มีมาตั้งแต่ปี 2022 ลองนึกภาพความเสียหายของมันว่ามากมายขนาดไหน หากถูกนำไปใช้โดยโจรร้ายที่กำลังแพร่ระบาดไปทั่วทุกมุมโลกในตอนนี้

References :
https://www.weeklyblitz.net/tech/scammers-can-impersonate-your-loved-ones-by-using-ai-generated-voice/
https://futurism.com/the-byte/voice-cloned-joe-biden-speeches
https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/
https://futurism.com/the-byte/scammers-voice-cloning-grandma-jail