Saturday, 27 July 2024

ประมุขแห่งรัฐ คนดังที่กำหนดเป้าหมายโดยวิดีโอ Deep Fake

13 Oct 2022
220

[ad_1]

ลาฮอร์: อิมราน ข่าน อดีตนายกรัฐมนตรีปากีสถานผู้ต่อสู้ดิ้นรน เกรงว่าศัตรูทางการเมืองของเขาอาจดูหมิ่นภาพลักษณ์ในที่สาธารณะของเขาผ่านวิดีโอ Deep Fake ในช่วงก่อนถึงการเดินขบวนในกรุงอิสลามาบัดซึ่งมีกำหนดส่งในเร็วๆ นี้ การวิจัยแสดงให้เห็นว่าการจับกุมของเขาควรเกิดขึ้น จริงอยู่ เขาจะไม่ใช่บุคคลที่มีชื่อเสียงสูงคนแรกที่ถูกใช้เทคโนโลยีในทางลบ

อดีตประธานาธิบดีสหรัฐฯ โดนัลด์ ทรัมป์ และบารัค โอบามา นั่งประธานาธิบดีโวโลดีมีร์ เซเลนสกี ยูเครน นักแสดงฮอลลีวูดชื่อดัง ทอม ครูซ และมาร์ก ซักเคอร์เบิร์ก ผู้ก่อตั้ง Facebook และอื่นๆ ล้วนตกเป็นเป้าหมายของเทคโนโลยีนี้

อย่างไรก็ตาม โชคดีที่ไม่มีผู้ปกครองคนใดหรือคนดังที่มีชื่อเสียงระดับโลกปรากฏในเนื้อหาทางเพศใด ๆ ที่โจ่งแจ้ง แม้ว่า Deep Fakes จะใช้เป็นเครื่องมือในการแก้แค้นสื่อลามกด้วยเช่นกัน

เมื่อวันที่ 20 กุมภาพันธ์ 2018 นักข่าว “Fox News” ได้สังเกตเห็นทางอากาศ: “Deep Fakes กำลังแพร่กระจายเหมือนไฟป่า โปรแกรมเมอร์ใช้วิดีโอและรูปภาพที่มีอยู่ของคนดัง บุคคลสาธารณะ หรือใครก็ตามที่พวกเขารู้จักเพื่อซ้อนภาพต้นฉบับลงในภาพยนตร์ลามก”

จากนั้นช่องข่าวได้อ้างคำพูดของผู้บริหารสตูดิโอฮอลลีวูดที่ได้รับการเสนอชื่อเข้าชิงรางวัลเอ็มมี อวอร์ดว่า “สิ่งนี้อันตรายมากสำหรับคนดังเพราะเทคโนโลยีดีมากจนผู้ชมเกือบทุกคนคิดว่าวิดีโอที่พวกเขากำลังดูอยู่นั้นเป็นเรื่องจริงและมีคุณสมบัติ อารมณ์ใดก็ตามที่พวกเขารู้สึกกับคนดังคนนั้น”

ดังนั้น ทั้งหมดนี้ไม่ใช่แค่เกี่ยวกับวิดีโอเท่านั้น เทคโนโลยีนี้สามารถสร้างภาพถ่ายที่น่าเชื่อถือแต่เป็นภาพสมมติขึ้นมาใหม่ทั้งหมด และไฟล์เสียงของบุคคลสาธารณะก็สามารถเป็นข่าวปลอมได้ด้วยเช่นกัน ตัวอย่างเช่น สื่ออังกฤษ “Guardian” ได้รายงานเมื่อสองปีที่แล้ว ว่าหัวหน้าของบริษัทย่อยในสหราชอาณาจักรของบริษัทพลังงานแห่งหนึ่งในเยอรมนีได้จ่ายเงินเกือบ 200,000 ปอนด์ไปยังบัญชีธนาคารของฮังการีหลังจากถูกหลอกลวงโดยผู้หลอกลวงซึ่งเลียนแบบเสียงของ CEO ชาวเยอรมัน บริษัทประกันของบริษัทเชื่อว่าเสียงนั้นเป็น Deep Fake แต่หลักฐานไม่ชัดเจน

มีรายงานว่ากลโกงที่คล้ายกันนี้ใช้ข้อความเสียงของ WhatsApp ที่บันทึกไว้ Deep Fakes ใช้ชื่อของพวกเขาจากข้อเท็จจริงที่ว่าพวกเขาใช้เทคโนโลยีการเรียนรู้เชิงลึกเพื่อสร้างวิดีโอปลอม เทคโนโลยีการเรียนรู้เชิงลึกเป็นการเรียนรู้ของเครื่องชนิดหนึ่งที่ใช้การจำลองโครงข่ายประสาทเทียมกับชุดข้อมูลขนาดใหญ่ ปัญญาประดิษฐ์เรียนรู้ได้อย่างมีประสิทธิภาพว่าใบหน้าหนึ่งๆ มีลักษณะอย่างไรในมุมต่างๆ เพื่อย้ายใบหน้าไปยังเป้าหมายราวกับว่ามันเป็นหน้ากาก

ในวิดีโอปลอมชิ้นหนึ่งของเขา มีคนเห็นและได้ยินอดีตประธานาธิบดีทรัมป์และได้ยินเยาะเย้ยเบลเยียมที่ยังคงอยู่ในข้อตกลงด้านสภาพอากาศของปารีส ด้วยผมของทรัมป์ที่ดูแปลกกว่าปกติและการเคลื่อนไหวของปากที่ดูหยาบคาย มันดูปลอมมาก และก็เป็นเช่นนั้น เสียงพากย์พร้อมคำบรรยายเป็นภาษาเฟลมิช พรรคการเมืองที่สำคัญแห่งหนึ่งของเบลเยียมได้โพสต์วิดีโอนี้บน Facebook เมื่อเดือนพฤษภาคม 2018

ในกรณีของนักแสดงชาวอเมริกัน ทอม ครูซ บัญชี TikTok อุทิศให้กับเขาทั้งหมด เสียงและกิริยาของนักแสดงถูกลอกแบบเฟรมต่อเฟรมด้วยวิธีที่น่าเชื่อถือที่สุด วิดีโอแสดงให้เห็นว่าทอม ครูซทำทุกอย่างตั้งแต่ตีกอล์ฟไปจนถึงสาธิตกลอุบาย แม้ในสถานการณ์ประจำวัน เช่น การล้างมือ วิดีโอเหล่านี้สร้างขึ้นด้วยความช่วยเหลือของผู้แอบอ้างที่เลียนแบบเสียงและท่าทางของนักแสดง

ไม่นานมานี้ นักวิทยาศาสตร์คอมพิวเตอร์ของมหาวิทยาลัยวอชิงตันใช้ปัญญาประดิษฐ์เพื่อสร้างแบบจำลองรูปร่างของปากประธานาธิบดีโอบามา และประสานการเคลื่อนไหวของริมฝีปากกับอินพุตเสียง

จากนั้นวิดีโอของ Mark Zuckerberg ผู้ก่อตั้ง Facebook ก็มาถึง ซึ่งเขาอวดว่าแพลตฟอร์มโซเชียลมีเดีย “เป็นเจ้าของ” ผู้ใช้ของตนอย่างไร

Instagram ไม่ได้ลบวิดีโอของ Zuckerberg แต่กล่าวว่า “เราจะปฏิบัติต่อเนื้อหานี้ในลักษณะเดียวกับที่เราปฏิบัติต่อข้อมูลที่ผิดทั้งหมดบน Instagram หากผู้ตรวจสอบข้อเท็จจริงบุคคลที่สามระบุว่าเป็นเท็จ เราจะกรองข้อมูลดังกล่าว” ในทำนองเดียวกัน สถานีโทรทัศน์ยูเครนที่ถูกแฮ็กซึ่งเพิ่งถูกโจมตีโดยรัสเซียได้ไม่ถึงเดือน ได้แสดงให้ประธานาธิบดี Zelensky ของประเทศออกคำสั่งให้กองทหารของประเทศยอมจำนนต่อรัสเซีย

การวิจัยเพิ่มเติมเผยให้เห็นถึงปริมาณของวิดีโอ Deep Fake ซึ่งเป็นสื่อประเภทหนึ่งที่สร้างขึ้นด้วย Generative Adversarial Network (GAN) ที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ได้ลงทะเบียนการเติบโตที่น่าทึ่งด้วยการโจมตีชื่อเสียงที่อยู่ในอันดับต้น ๆ

ตามรายงานของ “Sensity” บริษัทข่าวกรองด้านภัยคุกคามทางการมองเห็นในอัมสเตอร์ดัม ตรวจพบวิดีโอ Deep Fake ที่เป็นอันตรายกว่า 85,000 รายการซึ่งสร้างขึ้นโดยผู้สร้างผู้เชี่ยวชาญ จนถึงเดือนธันวาคม 2563 รายงานในเดือนกันยายน 2564 อ้างว่าจำนวนวิดีโอที่สร้างขึ้นโดยผู้เชี่ยวชาญมี เพิ่มขึ้นเป็นสองเท่าทุก ๆ หกเดือนนับตั้งแต่การสังเกตการณ์เริ่มขึ้นในเดือนธันวาคม 2018 โดยระบุว่า: “การวิจัยของเราเปิดเผยว่าวิดีโอ Deep Fake กำลังเติบโตอย่างรวดเร็วทางออนไลน์ โดยเพิ่มขึ้นเป็นสองเท่าในช่วงเจ็ดเดือนที่ผ่านมาเป็น 14,678 โดย 96% เกี่ยวข้องกับการโจมตีชื่อเสียงต่อบุคคลสาธารณะในรูปแบบของการปลอมแปลง วัสดุสำหรับผู้ใหญ่ เว็บไซต์สี่อันดับแรกที่พิจารณาในการวิเคราะห์ได้รับการเข้าชมมากกว่า 134 ล้านครั้ง ในขณะที่ประเทศต้นทางของเหยื่อส่วนใหญ่ ได้แก่ สหรัฐอเมริกา สหราชอาณาจักร เกาหลีใต้ แคนาดา และอินเดีย”

จำเป็นต้องสังเกตว่าในรายงานการวิจัยวันที่ 3 พฤษภาคม พ.ศ. 2565 นักวิทยาศาสตร์คอมพิวเตอร์ที่มหาวิทยาลัยแคลิฟอร์เนียริเวอร์ไซด์อ้างว่าพวกเขามีความสามารถในการตรวจจับการแสดงออกทางสีหน้าในวิดีโอ Deep Fake ที่มีความแม่นยำสูงกว่าวิธีการที่ทันสมัยที่สุดในปัจจุบัน .

รายงานระบุว่า: “การพัฒนาซอฟต์แวร์ตัดต่อวิดีโอทำให้ง่ายต่อการแลกเปลี่ยนใบหน้าของแต่ละคนและเปลี่ยนการแสดงออกบนใบหน้าดั้งเดิม เนื่องจากผู้นำและบุคคลที่ไร้ยางอายปรับใช้วิดีโอที่บิดเบือนเพื่อโน้มน้าวความคิดเห็นทางการเมืองหรือสังคม ความสามารถในการระบุวิดีโอเหล่านี้จึงถือเป็นสิ่งสำคัญในการปกป้องประชาธิปไตยเสรี มีวิธีการที่สามารถตรวจจับได้อย่างแม่นยำตามสมควรเมื่อเปลี่ยนใบหน้า แต่การระบุใบหน้าที่มีเพียงการแสดงออกเท่านั้นที่เปลี่ยนไปนั้นยากกว่าและจนถึงปัจจุบันยังไม่มีเทคนิคที่น่าเชื่อถือ”

ในฉบับวันที่ 13 มกราคม 2020 “The Guardian” ได้เขียนไว้ว่า “ใช้เวลาสองสามขั้นตอนในการสร้างวิดีโอสลับใบหน้า ขั้นแรก คุณเรียกใช้ภาพใบหน้าของคนสองคนหลายพันคนผ่านอัลกอริธึมปัญญาประดิษฐ์ (AI) ที่เรียกว่าตัวเข้ารหัส ตัวเข้ารหัสจะค้นหาและเรียนรู้ความคล้ายคลึงกันระหว่างใบหน้าทั้งสอง และลดขนาดใบหน้าลงเป็นคุณลักษณะทั่วไปที่ใช้ร่วมกัน โดยบีบอัดภาพในกระบวนการ อัลกอริทึม AI ตัวที่สองที่เรียกว่าตัวถอดรหัสได้รับการสอนให้กู้คืนใบหน้าจากภาพที่บีบอัด เนื่องจากใบหน้าต่างกัน คุณจึงฝึกตัวถอดรหัสหนึ่งตัวเพื่อกู้คืนใบหน้าของคนแรก และอีกตัวถอดรหัสเพื่อกู้คืนใบหน้าของบุคคลที่สอง ในการเปลี่ยนหน้า คุณเพียงแค่ป้อนภาพที่เข้ารหัสลงในตัวถอดรหัส “ผิด” ตัวอย่างเช่น ภาพที่บีบอัดของใบหน้าของบุคคล A จะถูกป้อนเข้าไปในตัวถอดรหัสที่ฝึกฝนโดยบุคคล B จากนั้นตัวถอดรหัสจะสร้างใบหน้าของบุคคล B ขึ้นใหม่ด้วยสีหน้าและทิศทางของใบหน้า A สำหรับวิดีโอที่น่าเชื่อถือ จะต้องทำเช่นนี้ในทุก กรอบ”

หนังสือพิมพ์มองว่า: “ในขณะที่เทคโนโลยีสามารถเข้าถึงได้มากขึ้น Deep Fakes อาจสร้างปัญหาให้กับศาล โดยเฉพาะอย่างยิ่งในการต่อสู้เพื่อการดูแลเด็กและศาลการจ้างงาน ซึ่งสามารถป้อนเหตุการณ์ปลอมๆ เพื่อเป็นหลักฐานได้ แต่ยังก่อให้เกิดความเสี่ยงด้านความปลอดภัยส่วนบุคคล: Deep Fakes สามารถเลียนแบบข้อมูลไบโอเมตริกซ์ และอาจหลอกลวงระบบที่ต้องอาศัยการจดจำใบหน้า เสียง เส้นเลือดหรือการเดิน โอกาสในการหลอกลวงนั้นชัดเจน โทรหาใครบางคนโดยไม่ได้ตั้งใจและพวกเขาไม่น่าจะโอนเงินไปยังบัญชีธนาคารที่ไม่รู้จัก แต่ถ้า “แม่” หรือ “น้องสาว” ของคุณตั้งค่าแฮงเอาท์วิดีโอบน WhatsApp และทำการร้องขอแบบเดียวกันล่ะ วิดีโอเหล่านี้สามารถทำให้หอศิลป์และพิพิธภัณฑ์มีชีวิตชีวาขึ้นได้ ในฟลอริดา พิพิธภัณฑ์Dalíมีจิตรกรแนวเซอร์เรียลลิสต์ซึ่งแนะนำงานศิลปะของเขาและถ่ายรูปเซลฟี่กับผู้เยี่ยมชม สำหรับวงการบันเทิง เทคโนโลยีสามารถนำมาใช้เพื่อปรับปรุงการพากย์ภาพยนตร์ภาษาต่างประเทศ และมีการโต้เถียงมากขึ้น นักแสดงที่ฟื้นคืนชีพ”

[ad_2]

Source link