ระวัง! Deepfake กับการหลอกลวง ต้องรู้ให้เท่าทัน

ระวัง! Deepfake กับการหลอกลวง ต้องรู้ให้เท่าทัน

ระวัง! Deepfake กับการหลอกลวง ต้องรู้ให้เท่าทัน
แชร์เรื่องนี้
แชร์เรื่องนี้LineTwitterFacebook

ในยุคที่เทคโนโลยีสามารถบันดาลให้เราได้แทบทุกอย่างที่ต้องการเฉกเช่นทุกวันนี้ ดูเหมือนว่าในด้านหนึ่ง เราก็ได้ใช้ชีวิตกันอย่างสะดวกสบายมากขึ้น ด้วยมีเทคโนโลยีมากมายคอยอำนวยความสะดวกครอบคลุมทุกไลฟ์สไตล์ อย่างการใช้ชีวิตประจำวันทั่วไป หลายคนมีบ้านอัจฉริยะที่แทบจะไม่ต้องลุกไปทำอะไรเอง แค่ออกคำสั่งด้วยเสียง กดคำสั่งผ่านสมาร์ตโฟน หรือโบกมือไปมาหน้าอุปกรณ์อะไรสักอย่าง

ทุกสิ่งในบ้านก็พร้อมใช้งาน ทว่าเหรียญนั้นมีสองด้าน เมื่อเราหันกลับมาพิจารณาในอีกด้าน เราจะเห็นว่าเทคโนโลยีก็เป็นภัยคุกคามมนุษย์เราไม่น้อยเหมือนกัน มีความน่ากลัวบางอย่างที่แฝงมากับทันสมัยและความชาญฉลาดของเทคโนโลยี ที่ถ้ารู้ไม่เท่าทัน เราจะกลายเป็นเหยื่อทันที

พูดง่าย ๆ ก็คือ “เทคโนโลยี” เปรียบเสมือนดาบสองคม หากผู้ใช้ใช้มันไปในทางที่ดี มันก็จะเกิดคุณอนันต์ แต่หากนำไปใช้ในทางที่ผิด ก็จะส่งผลให้เกิดโทษได้มหาศาลเช่นกัน แต่ประเด็นก็คือ โทษที่ว่ามันไม่ค่อยจะได้เกิดขึ้นกับ “มิจฉาชีพ” ผู้ที่นำเทคโนโลยีสุดชาญฉลาดทั้งหลายไปใช้ในทางที่ผิดสักเท่าไร แต่มักจะเกิดกับคนที่ตกเป็น “เหยื่อ” ของมิจฉาชีพต่างหาก ซึ่งกลุ่มคนที่เป็นเหยื่อนี้ มีจำนวนไม่น้อยที่เป็นเพียงตาสีตาสาธรรมดา คนที่ตามเทคโนโลยีสมัยใหม่ไม่ทัน เลยไม่รู้ว่าโลกของเรามีอะไรแบบนี้ด้วย กับอีกกลุ่มหนึ่งที่ตามกระแสโลกทัน แต่ตกเป็นเหยื่อเพราะหลงเชื่อในความเนียน ความน่าเชื่อถือ และคำกล่างอ้างหรือคำขู่สารพัดที่เหล่ามิจฉาชีพงัดขึ้นมาใช้เป็นมุกหากิน

“มิจฉาชีพ” ใช้เทคโนโลยีนำเราไปหลายก้าว

เราในทีนี้ จะหมายถึงคนธรรมดาทั่ว ๆ ไปในสังคม คนที่อาจไม่ได้มีความรู้เฉพาะทางในด้านเทคโนโลยีเป็นพิเศษ หลายคนเป็นชาวบ้านหาเช้ากินค่ำที่ไม่ได้มาคอยสนใจข่าวเทคโนโลยี หรือการค้นพบนวัตกรรมใหม่ ๆ ของโลก บ้างก็ความรู้น้อย บ้างก็เป็นชนชั้นแรงงานรายได้ต่ำ เทคโนโลยีล้ำ ๆ ทั้งหลายมักเป็นเรื่องไกลตัวสำหรับพวกเขาที่จะมาคอยสนใจ จึงไม่แปลกที่พวกเขาจะไม่รู้ว่าทุกวันนี้มันมีเทคโนโลยี Deepfake ที่สามารถปลอมแปลงใครสักคนให้กลายเป็นอีกคนได้อย่างแนบเนียนทั้งหน้าและเสียง หรืออาจจะปลอมเป็นบุคคลที่เกี่ยวข้องกับกฎหมาย หลอกว่าเราไปกระทำอะไรบางอย่างที่ผิดกฎหมาย อารามตกใจกลัว ก็มีแนวโน้มว่าเราจะหลงเชื่อและทำตามที่เขาบอกทุกอย่าง

หรือบางคน อาจจะติดตามข่าวสารอยู่เป็นประจำก็จริง และก็รู้ด้วยว่ามันมีเทคโนโลยี Deepfake ถูกใช้อยู่ในแวดวงแก๊งหลอกลวง แต่การเจอเข้ากับตัวแบบคาดไม่ถึงว่าจะเจอ การที่ไม่ทันได้ตั้งตัว บวกกับมีสถานการณ์แวดล้อมที่ชวนให้เชื่อ และความเนียนที่ยากจะแยก ทั้งภาพและเสียงที่ปลอมมาอาจจะทำเหมือนมากจนดูไม่ออกว่าตัวจริงหรือตัวปลอม ซึ่งมันก็ไม่ง่ายที่จะแยกออกสำหรับคนทั่วไป ทำให้ในช่วงเวลาที่โดนหลอกนั้น หลายคนสติหลุด คล้อยตามคำพูดโน้มน้าว และหลงเชื่อกลโกงที่ออกแบบมาอย่างแนบเนียนได้อย่างง่าย ๆ กว่าจะตั้งสติได้และนึกเอะใจขึ้นมาว่าอาจถูกหลอก ก็หลงทำธุรกรรมหลาย ๆ อย่างเสร็จสิ้นไปแล้ว ซึ่งมีน้อยรายมากที่จะระงับหรือยกเลิกธุรกรรมนั้นได้ทัน

เรื่องราวของมิจฉาชีพ ไม่ว่าจะ “แก๊งคอลเซ็นเตอร์” หรือ “ภัยฟิชชิ่ง” ยังคงระบาดหนักอย่างต่อเนื่อง ซึ่งเชื่อได้เลยว่าทุกคนน่าจะเคยได้เจอกับพวกมิจฉาชีพพวกนี้อย่างน้อยสักช่องทาง สักมุก สักครั้งในชีวิต เรียกได้ว่าน่าจะเคยได้รับสายหรือเห็นอีเมล/ข้อความแปลก ๆ กันถ้วนหน้า บอกได้เลยว่าเมื่อไรก็ตามที่คุณได้เคยเจอกับมิจฉาชีพครั้งแรกในชีวิต มันจะมีต่อไปอีกเรื่อย ๆ แบบที่หาครั้งสุดท้ายไม่เจอ เพราะไม่มีทีท่าเลยว่ามิจฉาชีพพวกนี้จะโดนกวาดล้างให้หมดไปในเร็ววันนี้ การสาวให้ถึงตัวการใหญ่เป็นเรื่องยาก และจับแก๊งนี้ไป แก๊งอื่นก็ยังมีอยู่ เพราะฉะนั้น ถ้าเราหวังพึ่งใครปกป้องเราไม่ได้ เราก็ต้องปกป้องตัวเองด้วยการเพิ่มความระมัดระวัง และพยายามรู้เท่าทันมุกหากินของมิจฉาชีพ

รู้จัก Deepfake กันสักนิด

Deepfake เป็นเทคโนโลยีการทำงานของปัญญาประดิษฐ์ด้วย Deep Learning มาใช้ในการเรียนรู้เชิงลึกของอัตลักษณ์ของบุคคลต้นแบบที่เฉพาะเจาะจง ไม่ว่าจะเป็น รูปของใบหน้า สีผิว รูปร่าง ลักษณะการเคลื่อนไหวเฉพาะตัว แม้กระทั่งเสียง จังหวะการพูด จากนั้นก็ประมวลผลตามคำสั่งที่ถูกป้อนเข้าไป ผลลัพธ์ที่ได้ออกมาคือแทบจะเหมือนกับต้นฉบับเป๊ะ ๆ แบบจับวาง แต่อะไรที่มันไม่ใช่ตัวจริงมันย่อมมีร่องรอยเหลือให้เห็นอยู่แล้ว อันที่จริงมันก็พอจะมีจุดสังเกตอยู่บ้าง แต่ก็แยกด้วยตาเปล่าค่อนข้างยาก ยิ่งกับคนที่ไม่รู้ ไม่คุ้นเคย ย่อมไม่แปลกที่จะแยกไม่ออก

หลักการทำงานของ Deepfake คือการสร้างภาพเสมือนจากการประมวลผลของระบบการจดจำใบหน้า (Facial Recognition) และปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ที่ทำให้เราสามารถทับซ้อนภาพใบหน้าของบุคคลหนึ่งกับอีกบุคคลหนึ่งได้อย่างแนบเนียน หรือทำได้แม้กระทั่งนำภาพของบุคคลอื่นมาสร้างเป็นตัวตนเสมือนขึ้นมาใหม่ มันจึงกลายเป็นเทคโนโลยีที่ทรงพลังมากในการบิดเบือนหรือสร้างเนื้อหาปลอม ทั้งภาพและเสียงแบบที่มีศักยภาพสูงมากในการหลอกลวง และอย่างที่บอกว่าสำหรับคนที่คลุกคลีอยู่กับเทคโนโลยีนี้อยู่แล้วอาจพอมองออก แต่กับคนที่ไม่รู้และไม่คุ้นชินแทบจะเป็นไปไม่ได้เลยที่จะดูออก มันจึงกลายเป็นเทคโนโลยีที่หลอกคนได้นับล้านคน

การนำภาพหรืออากัปกิริยาของบุคคลอื่นมาซ้อนทับแทนที่อีกบุคคลหนึ่ง จำเป็นที่จะต้องมีไฟล์รูปหน้าของบุคคลต้นฉบับที่ต้องการนำไปแทนที่ ไฟล์นี้ถูกเรียกว่า Source และไฟล์รูปหน้าของบุคคลที่เราต้องการให้หน้า Source ถูกนำไปแทนที่ ไฟล์นี้เรียกว่า Destination ยิ่งมีรูปของ Source มากเท่าไร ก็ยิ่งสามารถสร้าง Deepfake ได้แนบเนียนเท่านั้น อย่างการสร้าง Deepfake มากมายในโลกออนไลน์ ส่วนใหญ่จะเป็นคนดังแทบทั้งสิ้น เนื่องจากคนดังเป็นบุคคลสาธารณะ มีทั้งภาพนิ่งและวิดีโอตามอินเทอร์เน็ตเยอะแยะมาก สามารถเลือกมาให้ AI ได้เรียนรู้ได้เลย

Deepfake กับความน่ากลัวและการหลอกลวง

อย่างที่กล่าวถึงไปก่อนหน้านี้ ว่าเทคโนโลยี Deepfake เป็นเทคโนโลยีที่สามารถปลอมแปลงบุคคลหนึ่งให้กลายเป็นอีกคนหนึ่งได้ทั้งเสียงและใบหน้าจนแทบจะเหมือนเป๊ะ ๆ ซึ่งแน่นอนว่าคนธรรมดาทั่วไปที่ไม่ได้คุ้นชินกับวงการบันเทิง วงการเทคโนโลโลยี จะไม่มีทางดูออกว่าเลยว่าเป็นตัวจริงหรือตัวปลอม แม้หลายคนจะทราบดีว่าเทคโนโลยีนี้มีใช้ในวงจำกัดมานานแล้ว โดยเฉพาะในวงการบันเทิง การสร้างภาพยนตร์ โดยความเนียนและความว้าวก็จะค่อย ๆ วิวัฒนาการไปตามเทคโนโลยีที่มีในสมัยนั้น ๆ อย่างไรก็ตาม ทุกวันนี้ Deepfake ถูกนำมาใช้อย่างกว้างขวางมากขึ้น หนึ่งในนั้นคือวงการมิจฉาชีพ ที่นำมาใช้เป็นมุกเด็ดสำหรับหลอกลวง มันเนียนจนแยกด้วยตาเปล่าลำบาก

วิวัฒนาการความเนียนในปัจจุบัน เพราะเรามีเทคโนโลยีปัญญาประดิษฐ์ หรือ AI สุดชาญฉลาด เข้ามาช่วยในการเรียนรู้และจดจำลักษณะของบุคคลต้นแบบในทุกมิติ ชนิดที่ว่าเก็บทุกรายละเอียด ทั้งสีหน้า ท่าทาง น้ำเสียง จังหวะการพูด และอะไรอีกหลาย ๆ อย่าง จากนั้นก็นำข้อมูลนั้นมาสร้างตัวตนปลอมออกมาได้อย่างแนบเนียน โดยอาจจะเป็นการสร้างภาพเสมือนขึ้นมาหรืออาจตัดต่อเป็นวิดีโอที่เอาหน้าและเสียงของเราไปซ้อนทับบุคคลอื่น เมื่อผ่านกระบวนการทั้งหมดทั้งมวล จะได้คลิปวิดีโอตัวปลอม ที่ใช้ภาพใบหน้าและเสียงของเราปรากฏแก่คนอื่น ๆ ภาพของบุคคลที่ถูกแทนที่ด้วยเสียงเรา จะขยับปากพูดอะไรก็ได้ แต่เสียงที่ใคร ๆ ได้ยินจะเป็นเสียงของเรา

สิ่งที่ตามมาก็คือ คนที่ตกเป็นเหยื่อจะแยกไม่ออกเลยว่าภาพและเสียงที่ได้ยินคือตัวจริงหรือตัวปลอม ซึ่งในต่างประเทศมีการใช้ Deepfake สร้างความเสียหายแก่บุคคลดัง หรือกุข่าวปลอมจนวุ่นวายทั้งเมืองมาแล้ว แต่ในประเทศไทยขณะนี้ ยังไม่ปรากฏการใช้เทคโนโลยี Deepfake แบบแผลง ๆ หรือเล่นพิเรนทร์ชนิดที่สร้างความปั่นป่วนไปทั้งเมืองเท่ากับของต่างประเทศ แต่ก็พอจะมีข่าวให้เห็นบ้างแล้วในกรณีของมิจฉาชีพที่ใช้ Deepfake สร้างสถานการณ์ ปลอมเป็นตำรวจที่อยู่ในฉากสถานีตำรวจ บอกว่ามีเรื่องผิดกฎหมาย แล้ววิดีโอคอลกับเหยื่อให้เชื่อว่าเป็นตำรวจจริง เพื่อเพิ่มความน่าเชื่อถือในการหลอกลวงทรัพย์สินจากพี่น้องประชาชน ฉะนั้น อย่าเพิ่งหลงเชื่อเด็ดขาด

หรือในอีกกรณี จะเป็นการหลอกลวงที่มีเป้าหมายชัดเจน เพราะมีการใช้ภาพและเสียงของต้นแบบในการปลอมแปลงเป็นบุคคลที่เหยื่อรู้จัก เริ่มแรกจากการโทรหาแล้วใช้เสียงที่เหยื่อคุ้นเคย แสร้งทำเป็นว่ากำลังเจอเรื่องเดือดร้อนและต้องการความช่วยเหลือ ช่วยโอนเงินมาช่วยหน่อย หากเชื่อทันทีจากเสียงที่ได้ยินว่าเป็นคนรู้จักก็จบเกมได้เลย แต่ถ้ายังไม่เชื่อ ขอให้วิดีโอคอลว่าใช่ตัวจริงหรือเปล่า วิดีโอที่เหยื่อเห็นก็จะผ่านการปลอมแปลงด้วยการทับซ้อนใบหน้าเป็นคนที่เหยื่อรู้จัก แบบนี้ก็จะเพิ่มความน่าเชื่อถือมากยิ่งขึ้นไปอีกว่านี่เป็นคนรู้จักของเราแน่ ๆ หากเจอแบบนี้ ควรหาทางเช็กกับเจ้าตัวอีกครั้งก่อนกดโอนเงิน อย่าเพิ่งหลงเชื่อเด็ดขาด

นี่เป็นตัวอย่างคร่าว ๆ ของภัยร้ายยุค 4G 5G ที่มิจฉาชีพใช้เทคโนโลยีในทางที่ผิด บิดเบือน หลอกลวง และสร้างความเสียหายให้แก่เหยื่อ ในไทยเวลานี้อาจจะปรากฏเพียงประปราย แต่ในวันข้างหน้า เมื่อมุกเดิม ๆ เริ่มหากินไม่ได้ มิจฉาชีพก็จะเปลี่ยนมุกให้ดูน่าเชื่อถือกว่าเดิม หลอกคนได้ง่ายกว่าเดิมแบบปิดเกมภายในไม่กี่นาที หรือในแง่ของการสร้างความปั่นป่วนก็ทำได้ไม่ยาก ยิ่งในยุคที่การส่งต่อสารของผู้ใช้อินเทอร์เน็ตมีความรวดเร็วสูง บ่อยครั้งเราพร้อมที่จะเชื่อข่าวทุกข่าวที่ปรากฏให้เห็นโดยขาดการตรวจสอบและกลั่นกรองกันเยอะพอสมควร กว่าความจริงจะเผยว่าข้อมูลนั้น ๆ ไม่จริง ข่าวเท็จก็ถูกส่งไปอย่างกว้างขวางแล้ว ความจริงไล่ตามไม่เคยทัน กลายมีเพียงแค่คนส่วนน้อยที่จะรู้

แชร์เรื่องนี้
แชร์เรื่องนี้LineTwitterFacebook