ภัยทุจริตทางการเงินยุค AI
รับมืออย่างไรไม่ให้ตกเป็นเหยื่อ

Fraud in AI era

ในช่วงไม่กี่ปีที่ผ่านมา เราอาจได้ยินข่าวความเสียหายจากภัยทุจริตทางการเงินมากขึ้น และรูปแบบในการเข้าหาเหยื่อก็เปลี่ยนแปลงไปอย่างรวดเร็ว จากเดิมอาจอาศัยเพียงคำพูดหว่านล้อมหรือเรื่องเล่าปลุกความกลัว แต่ตอนนี้เทคโนโลยีได้เข้ามาเป็นเครื่องมือที่ทำให้การหลอกลวงแนบเนียนและน่าเชื่อถือมากกว่าเดิม

 

เทคโนโลยีอย่างปัญญาประดิษฐ์ (Artificial Intelligence: AI) ไม่ได้เข้ามามีบทบาทแค่ในแง่การพัฒนาในด้านต่าง ๆ เท่านั้น แต่ยังถูกนำไปใช้ในทางที่ผิดและสร้างความเสียหายให้กับเหยื่อที่หลงเชื่อ ทั้งการใช้ให้ AI สร้างภาพปลอม เสียงปลอม และตัวตนปลอมที่สมจริงจนยากที่จะมองออก การหลอกลวงในยุค AI แบบนี้จึงไม่ใช่เพียงเสียงโทรศัพท์จากคนแปลกหน้าอีกต่อไป แต่อาจเป็นวิดีโอคอลจากคนที่มีใบหน้าและเสียงที่คุ้นเคย เป็นตัวปลอมที่ AI สร้างขึ้นอย่างแนบเนียนจนแยกไม่ออก

 

เมื่อเทคโนโลยีสร้างความน่าเชื่อถือแบบปลอม ๆ ขึ้นมาได้ง่ายดาย มิจฉาชีพจะไม่ยอมทิ้งโอกาสการใช้ AI เป็นเครื่องมือแน่นอน คำถามสำคัญจึงไม่ใช่ AI จะพัฒนาไปไกลแค่ไหน แต่คือเราจะเตรียมรับมืออย่างไรเพื่อไม่ให้ตกเป็นเหยื่อ ในโลกที่แทบแยกคนคุ้นเคยออกจากภัยทางการเงินไม่ได้

Deepfake, Voice Cloning: เมื่อภาพที่เห็นและเสียงที่ได้ยิน อาจไม่ใช่คนจริง เสียงจริงอีกต่อไป

ในอดีต สิ่งที่เห็นกับตาและได้ยินกับหู คือหลักฐานยืนยันตัวตนที่น่าเชื่อถือที่สุด แต่ในยุคของ AI ทุกอย่างกลับไม่เป็นเช่นนั้น ทุกวันนี้เรากำลังเผชิญความท้าทายใหม่จาก Deepfake คือเทคโนโลยี AI ที่สามารถสร้าง ดัดแปลง หรือเลียนแบบใบหน้าและเสียงของบุคคลออกมาได้เสมือนจริง โดยอาศัยข้อมูลจากภาพถ่ายและคลิปเสียงเพียงไม่กี่วินาทีก็สร้าง “ตัวปลอม” ขึ้นมาได้ มิจฉาชีพเริ่มใช้ Deepfake เป็นอาวุธในการปลอมแปลงตัวตน และใช้ “ความไว้วางใจ” ก่อภัยทุจริตทางการเงินและสร้างความเสียหายเป็นวงกว้างไปทั่วโลก 

 

ข่าวโด่งดังเมื่อเดือนมกราคม ปี 2567 เมื่อพนักงานฝ่ายการเงินของบริษัทข้ามชาติแห่งหนึ่งในประเทศฮ่องกง1 ถูกหลอกให้โอนเงินกว่า 25 ล้านดอลลาร์สหรัฐให้กับกลุ่มมิจฉาชีพที่ใช้ Deepfake แอบอ้างเป็นประธานเจ้าหน้าที่ฝ่ายการเงิน (CFO) ของบริษัท โดยพนักงานให้ข้อมูลว่า เมื่อได้ประชุมออนไลน์ก็เชื่อสนิทใจ เพราะหน้าตาและเสียงของทุกคนเหมือนจริงมาก แม้ไม่มีคนจริง ๆ ในการประชุมนั้นเลย โดยตำรวจฮ่องกงชี้แจงว่า การหลอกลวงนี้ใช้ Deepfake จาก AI กว่า 20 ครั้ง เลียนแบบบุคคลในรูปภาพบนบัตรประจำตัวประชาชนที่ได้ขโมยมา

 

ต่อมาในปี 2568 ที่ประเทศสิงคโปร์2 ก็เกิดเหตุการณ์คล้าย ๆ กันขึ้น โดยมิจฉาชีพแอบอ้างเป็น CFO ของบริษัทข้ามชาติ และจัดการประชุมออนไลน์โดยใช้ Deepfake ปลอมแปลงน้ำเสียง ใบหน้า และการเคลื่อนไหวอย่างแนบเนียน ทำให้ผู้อำนวยการฝ่ายการเงินสั่งอนุมัติโอนเงินจำนวน 499,000 ดอลลาร์สหรัฐ ด้านตำรวจสิงคโปร์ให้ข้อมูลว่า เหตุการณ์นี้เป็นหนึ่งในกรณี Deepfake ที่น่าเชื่อถือที่สุดเท่าที่เคยเจอมา และได้ประกาศคำเตือนระดับชาติไปยังบริษัทและผู้เชี่ยวชาญด้านการเงินทั่วประเทศ 

 

นอกจากนี้ ยังมีความเสียหายจากการสังเคราะห์เสียง (Voice Cloning) ที่เกิดขึ้นแล้วทั่วโลกรวมทั้งในไทยด้วย มิจฉาชีพจะใช้ AI เลียนแบบให้สมจริง ทั้งน้ำหนักเสียง วิธีพูด และจังหวะการหายใจ โดยใช้เพียงตัวอย่างเสียงสั้น ๆ ของคนใกล้ชิดเหยื่อเท่านั้น การหลอกลวงรูปแบบนี้มักใช้สถานการณ์เร่งด่วน เช่น ประสบอุบัติเหตุ ถูกควบคุมตัว หรือเรื่องฉุกเฉินอื่น ๆ เพื่อกดดันให้เหยื่อตัดสินใจโอนเงินโดยไม่ทันตรวจสอบให้ดีก่อน เมื่อเสียงที่ได้ยินเป็นของลูก หลาน คู่สมรส หรือคนสนิท ความน่าสงสัยก็ยิ่งลดลงไปอีก
 

1 https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk
 

 The CEO Wasn't Real: Inside Singapore's $499K Deepfake Video Scam

 

Deepfake vs Voice cloning

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ Deepfake และ Voice Cloning

ในยุคที่ภาพและเสียงถูกสร้างขึ้นผ่าน AI ได้อย่างแนบเนียน การป้องกันตัวเองจึงไม่อาจใช้แค่ “ความรู้สึกคุ้นเคย” เพียงอย่างเดียว แต่ต้อง “เอ๊ะ” และสังเกตมากขึ้น โดยแนวทางในการสังเกตและรับมือเบื้องต้นเมื่อไม่แน่ใจว่านี่คือคนที่เรารู้จักจริง ๆ หรือเป็นมิจฉาชีพที่ใช้ Deepfake หรือ Voice Cloning มีดังนี้

 

1. สังเกตรายละเอียดเล็ก ๆ ในภาพวิดีโอ เช่น ความสัมพันธ์ระหว่างการขยับปากกับเสียงที่พูดออกมา ความเป็นธรรมชาติของสีหน้า แววตา การกะพริบตา ใบหน้ามีแสง เงา และขอบใบหน้า หรือขอบเสื้อผ้าไม่แหว่งหรือดูลอย ในช่วงที่มีการเคลื่อนไหวมาก สัญญาณภาพมักจะกระตุก และเสียงที่ได้ยินกับบรรยากาศโดยรอบควรสอดคล้องกัน ไม่คมชัดจนเกินไปเหมือนกับเสียงที่อัดจากสตูดิโอ

 

2. สังเกตความรู้สึกในเสียง เช่น จังหวะการพูด การหายใจ น้ำหนักเสียงต้องดูเป็นธรรมชาติ และอารมณ์กับเนื้อหาที่กำลังพูดควรสอดคล้องกัน ไม่ดูไร้อารมณ์และความรู้สึก

 

3. สังเกตคำสำคัญที่มิจฉาชีพมักจะใช้ เช่น โอนเงินให้ด่วน อย่าบอกใคร ห้ามวางสาย ถ้ามีคำเหล่านี้เกิดขึ้นระหว่างบทสนทนา ให้สงสัยก่อนเลยว่าเป็นมิจฉาชีพ

 

4. ตรวจสอบเพิ่มเติม เช่น โทรกลับไปยังเบอร์ที่บันทึกไว้ หรือช่องทางการติดต่อส่วนตัวที่เคยใช้ติดต่อกันก่อนหน้า สอบถามข้อมูลส่วนตัวที่รู้กันแค่คนใกล้ชิดเท่านั้น เช็กเลขบัญชีที่ให้โอนชื่อต้องตรงกับคนที่โทรมา และหากมิจฉาชีพอ้างตัวเป็นเจ้าหน้าที่จากหน่วยงานต่าง ๆ ให้โทรเช็กกับหน่วยงานที่แอบอ้างว่าเป็นเรื่องจริงหรือไม่

 

ทั้ง 4 วิธีข้างต้นนี้ จะช่วยให้เรามีสติและแยกแยะได้ดีขึ้นว่าอีกฝ่ายคือคนจริง ๆ หรือเป็นกลลวงจากมิจฉาชีพ และอย่าลืมว่า ทุกครั้งก่อนโอนเงินควรตรวจสอบให้รอบคอบเสมอ เพื่อป้องกันไม่ให้ความรีบร้อนกลายเป็นความเสียหายทางการเงิน

Deepfake vs Voice Cloning

Social Media Bot: เมื่อความน่าเชื่อถือทางออนไลน์ หลอกเหยื่อได้ครั้งละหลายคน

หาก Deepfake เป็นเหมือน “หน้ากาก” Social Media Bot ก็เปรียบเสมือน “กองทัพ” ที่ใส่หน้ากากเหล่านั้นเข้าไปหาเหยื่อ เพราะ “บอต” (bot) เป็นโปรแกรมอัตโนมัติที่ถูกนำมาใช้ทำงานบนแพลตฟอร์มโซเชียลมีเดีย เพื่อเลียนแบบพฤติกรรมของคน เช่น โพสต์ข้อความ กดไลก์ คอมเมนต์ ส่งข้อความส่วนตัว รวมถึงสามารถโต้ตอบบทสนทนาได้ทันที (real time) โดยมิจฉาชีพมักนำบอตมาใช้หลากหลายรูปแบบ เพื่อก่อภัยทุจริตทางการเงิน ซึ่งเกิดขึ้นแล้วทั่วโลก แม้ในไทยอาจจะยังไม่ได้แพร่หลายมากนัก เช่น

 

1. Mass Social Engineering: เมื่อบอตเข้าใจ “อารมณ์” มนุษย์ 

 

Mass Social Engineering คือ การใช้จิตวิทยาและความเร่งด่วนในการก่อภัยทุจริตทางการเงินเป็นวงกว้าง โดยบอตสมัยใหม่ไม่ใช่แค่โปรแกรมตอบข้อความอัตโนมัติอีกต่อไป แต่ได้พัฒนาไปสู่ “Emotionally Intelligent Chatbots” ที่สามารถสนทนา โต้ตอบ สร้างความสัมพันธ์ และความผูกพันทางอารมณ์กับเหยื่อได้อย่างต่อเนื่อง ส่วนใหญ่จะใช้เพื่อหลอกให้รักก่อนให้โอนเงิน (Romance Scams) และอีกวัตถุประสงค์คือ หลอกให้ลงทุน (Investment Scams) โดยจะใช้เวลาสร้างความไว้ใจ ก่อนชักชวนให้ลงทุนต่อไป สิ่งที่น่ากังวลคือ มิจฉาชีพหนึ่งคนสามารถใช้ AI สร้างบทสนทนากับเหยื่อหลายคนได้ในเวลาเดียวกัน ดังนั้น การหลอกลวงจึงเพิ่มขึ้นแบบทวีคูณโดยไม่ต้องเพิ่มจำนวนมิจฉาชีพ

 

2. Fake Social Proof: ความน่าเชื่อถือที่ถูกจัดฉาก

 

Fake Social Proof คือ การสร้างหลักฐานทางสังคมเพื่อจูงใจให้เชื่อว่ามีตัวตนจริงและมีความน่าเชื่อถือสูง โดยจะใช้บอตสร้างประวัติปลอม เช่น จำนวนเพื่อน ผู้ติดตาม คอมเมนต์ ยอดไลก์ และโพสต์ พบบ่อยในกลุ่มมิจฉาชีพที่หลอกให้ลงทุน มักจะพบหน้าม้าจำนวนมากรีวิวว่าลงทุนที่นี่ได้กำไรจริง ร่วมกันสร้างบรรยากาศและยืนยันความน่าเชื่อถือ เมื่อเหยื่อเห็น “เสียงส่วนใหญ่” สนับสนุน จึงลดระดับความระมัดระวังลงโดยไม่รู้ตัว แต่ทั้งหมดกลับเป็นเพียงเครือข่ายบอตที่ควบคุมจากศูนย์กลางเดียวกันเพื่อหลอกลวงเหยื่อ

 

3. Automated Reconnaissance: เมื่อข้อมูลส่วนตัว กลายเป็นวัตถุดิบ

 

Automated Reconnaissance คือ กระบวนการสอดแนมและรวบรวมข้อมูลกลุ่มเป้าหมายที่มิจฉาชีพต้องการจะโจมตี โดยใช้บอตทำหน้าที่ “Scraping” คือเข้าไปสอดแนมและรวบรวมข้อมูลส่วนตัวจำนวนมหาศาลแบบอัตโนมัติ เพียงไม่กี่นาทีบอตจะส่งข้อมูลกลับมาว่าแพลตฟอร์มไหนบ้างที่มีช่องโหว่ เพื่อส่งต่อให้มิจฉาชีพนำไปออกแบบแผนการหลอกลวงเฉพาะบุคคลได้

 

ในปี 2021 มีรายงานว่าข้อมูลผู้ใช้งาน LinkedIn กว่า 700 ล้านรายที่รวบรวมด้วย Automated Scraping ถูกนำมาประกาศขาย3 โปรแกรมอัตโนมัติดังกล่าวเข้าไปสอดส่องโปรไฟล์ที่ถูกตั้งค่าไว้เป็นสาธารณะ แล้วดึงชื่อ ตำแหน่งงาน อีเมล และประวัติการทำงานออกมาเก็บไว้ แม้ทาง LinkedIn จะออกมายืนยันว่ามีเฉพาะข้อมูลของผู้ที่ตั้งค่าเป็นสาธารณะเท่านั้น ทุกคนสามารถเข้าไปอ่านได้อยู่แล้ว แม้ scraping จะพบได้ในข้อมูลทางการตลาด เช่น พฤติกรรมผู้บริโภค หรือกลุ่มลูกค้า แต่การรวบรวม “ข้อมูลส่วนตัว” ถึง 700 ล้านรายก็ทำให้ผู้ใช้งานกังวลใจไม่น้อย เพราะข้อมูลเหล่านี้อาจเป็นจุดเริ่มต้นให้มิจฉาชีพทำทุจริตในชื่อของตนต่อไป

 

จะเห็นได้ว่า AI ไม่ใช่แค่ช่วยทำให้ “คุณภาพ” ของการหลอกลวงแนบเนียนขึ้นเท่านั้น แต่ยังเพิ่ม “ปริมาณ” การหลอกลวงด้วย เพราะสามารถใช้สแกนหาคนที่คาดว่าจะตกเป็นเหยื่อได้ทีละหลาย(ล้าน)ราย ทำให้เกิดการขยายขอบเขตการโจมตีเหยื่อได้กว้างกว่าเดิมอีกหลายเท่า

 

3www.forbes.com/sites/leemathews/2021/06/29/details-on-700-million-linkedin-users-for-sale-on-notorious-hacking-forum/

Social media bot

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ Social Media Bot

ขณะที่โพรไฟล์บนโลกออนไลน์ดูดีและสมจริง เรื่องราวบนหน้าจอกลับไม่ได้สะท้อนความเป็นจริงเสมอไป เพื่อไม่ให้ตกเป็นเหยื่อ เราสามารถสังเกตเบื้องต้น ได้ดังนี้

 

1. ระวังโพรไฟล์ที่ดูดีเกินจริง บัญชีบอตมักจะดูดีเกินจริง โปรไฟล์ที่ดูประสบความสำเร็จอย่างรวดเร็ว มีรีวิวดีทุกโพสต์ แต่ไม่มีข้อมูลยืนยันจากแหล่งอื่น อาจเป็นภาพลวงตาที่สร้างขึ้นเพื่อความน่าเชื่อถือ เมื่อขอเจอตัวจริงมักจะบ่ายเบี่ยงและปฏิเสธ ก็เพราะนักธุรกิจคนนั้นไม่มีตัวตนอยู่จริง

 

2. ดูพฤติกรรมบัญชี มากกว่ายอดผู้ติดตาม บัญชีบอตมักจะมีผู้ติดตามจำนวนมากในเวลาอันสั้น และโพสต์เนื้อหาซ้ำ ๆ อยู่เสมอ หากลองเข้าไปดูประวัติย้อนหลังอาจจะเห็นความผิดปกติได้ง่ายขึ้น 

 

3. สังเกตคอมเมนต์และเนื้อหาที่ดูเหมือนกันมากเกินไป หากมีผู้ใช้งานหลาย ๆ บัญชีเข้ามาคอมเมนต์หรือโพสต์เนื้อหาเดียวกันซ้ำ ๆ โดยมีรูปแบบหรือโครงสร้างประโยคที่คล้าย ๆ กัน เช่น การโฆษณา ชวนคลิกลิงก์ หรือชวนลงทุน นั่นก็อาจเป็นสัญญาณว่าผู้ใช้งานเหล่านั้นอาจเป็นบอตที่ถูกตั้งโปรแกรมให้กระจายข้อมูลอย่างเป็นระบบ ไม่ใช่ผู้ใช้งานจริง

 

4. อย่ารีบตัดสินใจเพราะแรงกดดัน มิจฉาชีพมักใช้กลยุทธ์ที่ทำให้เหยื่อรู้สึกว่าต้องรีบทำ รีบตัดสินใจ เช่น “คนอื่นทำกันหมดแล้ว” “ถ้าไม่โอนตอนนี้จะไม่ทันแล้ว” เพื่อกระตุ้นให้รีบโอนหรือรีบลงทุน ถ้าเจอแบบนี้ ให้หยุดคิด และตรวจสอบข้อมูลจากหลาย ๆ แหล่ง

 

4 วิธีเบื้องต้นนี้ จะช่วยให้เราเอะใจ ว่าที่คุยอยู่นั้นเป็น “คนจริง” หรือ “บอต” ความระมัดระวังเล็ก ๆ น้อย ๆ ของเรา อาจกลายเป็นเกราะป้องกันที่สำคัญที่สุด เพื่อไม่ให้ตกเป็นเหยื่อมิจฉาชีพ

Social media bot

AI-Generated Phishing: เมื่อ AI ปลอมอีเมลได้แนบเนียนยิ่งขึ้น

 

ในอดีต หากเราได้รับอีเมลจากมิจฉาชีพ ก็สามารถสังเกตได้ง่าย ๆ จากพิรุธในหลายจุด เช่น สะกดผิด ภาษาแปลกดูไม่เป็นธรรมชาติ แต่ยุคนี้ AI ได้เข้ามาทำลาย “สัญญาณเตือน” เหล่านั้นแล้ว เพราะ AI สามารถเขียนข้อความได้ลื่นไหล สุภาพ และเหมาะสมกับบริบทจนแทบแยกไม่ออกว่าเป็นอีเมลจริงหรือมิจฉาชีพ วิธีการที่มิจฉาชีพใช้ คือ

 

1. Hyper-Personalization คือ วิธีการที่มิจฉาชีพจะใช้เพื่อให้เข้าถึงเหยื่อได้แบบเฉพาะเจาะจง โดยใช้ AI วิเคราะห์ข้อมูลที่ดึงมาจากแพลตฟอร์มออนไลน์ เพื่อนำมาสร้างอีเมลที่ระบุชื่อโครงการจริง ชื่อเพื่อนร่วมงานจริง และเลียนแบบสำนวนการเขียนของหัวหน้างานหรือคู่ค้าของเหยื่อได้อย่างแม่นยำ การหลอกลวงทางอีเมลจึงไม่ใช่แค่ข้อความหว่านแหแบบเดิมอีกต่อไป แต่เป็น “Spear Phishing” หรือการโจมตีแบบเจาะจงเป้าหมายที่ศึกษามาแล้วเป็นอย่างดี

 

2. Multimodal Prompt Injection Attacks คือ การโจมตีหลายรูปแบบพร้อม ๆ กัน การโจมตีไม่ได้หยุดแค่การส่งอีเมล แต่อาจส่งข้อความแชตผ่านแอปพลิเคชัน แล้วตามด้วยการโทรศัพท์ที่ใช้เสียงปลอม ในจังหวะเวลาที่สอดคล้องกัน เพื่อสร้างสถานการณ์ให้ดูมีความเร่งด่วน เช่น ขออนุมัติธุรกรรมด่วน หรือต้องแก้ไขบัญชีที่มีปัญหา ทำให้เหยื่อรีบจนไม่มีเวลาตั้งคำถามกับความผิดปกติ

 

นอกจากนี้ AI ยังสามารถปรับแต่งถ้อยคำ โค้ด หรือลิงก์ในอีเมลให้หลบเลี่ยงระบบกรองสแปมได้อย่างรวดเร็ว เมื่อถูกบล็อกก็สามารถสร้างเวอร์ชันใหม่ได้ทันที ทำให้การป้องกันแบบเดิมไม่สามารถป้องกันได้อย่างมีประสิทธิภาพอีกต่อไป โดยงานศึกษาจาก Harvard University ในปี 2567 พบว่าอีเมลฟิชชิ่งที่ AI สร้างขึ้นมาแบบเจาะจงเหยื่อมีอัตราการคลิกสูงถึง 54% ซึ่งสูงกว่าอีเมลฟิชชิ่งทั่วไปถึง 4.5 เท่า4

 

จะเห็นได้ว่า AI สามารถทำให้ทั้งภาษา บริบท และจังหวะการสื่อสารแนบเนียนและดูน่าเชื่อถือ แต่ในทางกลับกัน ข้อความที่ดูน่าเชื่อถือเหล่านี้ อาจถูกออกแบบมาอย่างพิถีพิถันเพื่อหลอกเราโดยเฉพาะ 

 

4https://hbr.org/2024/05/ai-will-increase-the-quantity-and-quality-of-phishing-scams

AI generated phishing

วิธีสังเกตเบื้องต้น เพื่อไม่ให้ตกเป็นเหยื่อ AI-Generated Phishing

เมื่อ AI สามารถสร้างอีเมลให้ดูสมจริงจนแทบแยกไม่ออกว่าเป็นของจริงหรือของปลอม การสงสัยไว้ก่อนและตรวจสอบให้แน่ใจจึงเป็นสิ่งจำเป็น โดยสามารถสังเกตเบื้องต้นได้ ดังนี้

 

1. ตรวจสอบที่มาของอีเมลอย่างละเอียด แม้อีเมลจะดูมืออาชีพ แต่ก็ควรตรวจสอบชื่อผู้ส่ง ลิงก์ที่แนบมา และโดเมนเพื่อให้แน่ใจว่าตรงกับองค์กรที่เราต้องการติดต่อจริง

 

2. ตรวจสอบก่อนตอบกลับ ไม่ควรคลิกลิงก์หรือดาวน์โหลดไฟล์ทันที แต่ควรตรวจสอบด้วยการสอบถามผู้เกี่ยวข้องก่อน

 

3. สังเกตความเร่งด่วนและแรงกดดัน หากมีข้อความที่บังคับให้ต้องตัดสินใจเร็วหรือรีบโอนเงิน มักเป็นสัญญาณของอีเมลฟิชชิ่ง

 

4. ใช้เครื่องมือป้องกันและอัปเดตระบบเสมอ ควรติดตั้งและอัปเดตซอฟต์แวร์ที่ช่วยป้องกัน เพื่อช่วยคัดกรองอีเมลอันตราย

 

การสังเกต 4 ข้อเบื้องต้นนี้จะช่วยให้เราไม่ตกเป็นเหยื่อ และแยกแยะได้ว่าอีเมล ข้อความ หรือการติดต่อใดเป็นของจริง หรือถูกสร้างโดย AI และสามารถลดโอกาสตกเป็นเหยื่อมิจฉาชีพที่ใช้อีเมลฟิชชิ่ง

AI generated Phishing

หากตกเป็นเหยื่อแล้ว ควรทำอย่างไร?

 

หากเราพลาดโอนเงินให้มิจฉาชีพไปแล้ว สิ่งสำคัญที่สุดคือ “ความเร็ว” เพื่อเพิ่มโอกาสในการระงับเงินและติดตามเงินคืนได้ ขอแนะนำให้ทำดังนี้


1. โทรสายด่วน AOC. 1441 หรือธนาคารเจ้าของบัญชีทันที เพื่อขอ “ระงับบัญชีปลายทางชั่วคราว” ยิ่งเร็ว โอกาสระงับเงินและได้เงินคืนยิ่งมากขึ้น

 

2. แจ้งความที่สถานีตำรวจใกล้บ้าน 

 

3. เก็บข้อมูลและหลักฐานประกอบไว้ให้เจ้าหน้าที่ เช่น รูปโพรไฟล์โปรไฟล์หรือลิงก์ที่ระบุตัวตนบัญชีของคนร้ายได้ ภาพแชตสนทนา เลขที่บัญชีที่โอนไป และสลิปโอนเงิน

เมื่อโทรสายด่วน AOC. 1441 หรือแจ้งความเสร็จเรียบร้อยแล้วจะได้รับหมายเลข Police Case ID ที่สามารถนำมาใช้ในการติดตามความคืบหน้าของการดำเนินการทางกฎหมายได้

How to

แม้เทคโนโลยี AI จะสามารถปลอมแปลงภาพ เสียง ข้อความ และความน่าเชื่อถือได้อย่างสมจริง ไม่ว่าจะเป็น Deepfake ที่เลียนแบบหน้าตาและน้ำเสียง, Voice Cloning ที่เลียนเสียงคนใกล้ตัว, Social Media Bot ที่สร้างความน่าเชื่อถือจอมปลอม หรือ AI-Generated Phishing Email ที่ปรับแต่งข้อความให้เหมาะกับเหยื่อแต่ละคน สุดท้ายแล้วอำนาจการตัดสินใจโอนเงินยังอยู่ในมือของเรา ดังนั้น การเอ๊ะ การสังเกต การตั้งคำถามต่อสิ่งที่เห็นและได้ยิน และการตรวจสอบความถูกต้องก่อนตัดสินใจ จะกลายเป็นเกราะป้องกันที่สำคัญที่สุด เพื่อไม่ให้เราตกเป็นเหยื่อมิจฉาชีพ 

เรื่อง : กองบรรณาธิการ พระสยาม BOT Magazine

Tag ที่เกี่ยวข้อง

BOT Magazine Financial Wisdom ภัยทางการเงิน Financial Frauds FinTech AI Digital Finance