เว็บตรงโปรแกรมคอมพิวเตอร์ใหม่สร้างวิดีโอปลอมที่เหมือนจริงอย่างน่าขนลุก

เว็บตรงโปรแกรมคอมพิวเตอร์ใหม่สร้างวิดีโอปลอมที่เหมือนจริงอย่างน่าขนลุก

โปรแกรมคอมพิวเตอร์ใหม่สามารถจัดการวิดีโอโดยเว็บตรงให้บุคคลบนหน้าจอสะท้อนการเคลื่อนไหวและการแสดงออกของใครบางคนในวิดีโออื่น โปรแกรมนี้ไม่เหมือนกับซอฟต์แวร์ที่ทำให้ละลายฟิล์มอื่นๆ โปรแกรมนี้สามารถแก้ไขได้มากกว่าการแสดงออกทางสีหน้า อัลกอริธึมที่จะนำเสนอในวันที่ 16 สิงหาคมในการประชุม SIGGRAPH ปี 2018 ที่แวนคูเวอร์ ยังปรับแต่งท่าทางของศีรษะและลำตัว การเคลื่อนไหวของดวงตา และรายละเอียดเบื้องหลังเพื่อสร้างของปลอมที่เหมือนจริงมากขึ้น

การปลอมแปลงวิดีโอเหล่านี้ “สมจริงอย่างน่าอัศจรรย์” 

Adam Finkelstein นักวิทยาศาสตร์คอมพิวเตอร์ที่มหาวิทยาลัยพรินซ์ตันซึ่งไม่เกี่ยวข้องกับงานนี้กล่าว ระบบนี้สามารถช่วยสร้างภาพยนตร์ที่มีเสียงพากย์โดยที่การขยับริมฝีปากของนักแสดงเข้ากับเสียงพากย์ หรือแม้แต่ภาพยนตร์ที่นักแสดงที่เสียชีวิตแล้วได้ฟื้นคืนชีพขึ้นมาใหม่ผ่านฟุตเทจเก่าๆ เขากล่าว แต่การให้อำนาจแก่ผู้ใช้อินเทอร์เน็ตในการสร้างวิดีโอปลอมที่เป็นบุคคลสาธารณะก็สามารถนำข่าวปลอมไปอีกระดับได้ ( SN: 8/4/18, p. 22 )

อัลกอริธึมเริ่มต้นด้วยการสแกนวิดีโอสองเฟรมต่อเฟรม ติดตาม “จุดสังเกต” ของใบหน้า 66 จุด เช่น จุดตามดวงตา จมูก และปาก เพื่อทำแผนที่ลักษณะของบุคคล การแสดงออก การเอียงศีรษะ และแนวสายตา ตัวอย่างเช่น วิดีโอเหล่านั้นอาจแสดงอดีตประธานาธิบดีบารัค โอบามา และประธานาธิบดีรัสเซีย วลาดิมีร์ ปูติน จากนั้น เพื่อทำให้ปูตินเลียนแบบพฤติกรรมของโอบามา โปรแกรมดังกล่าวจึงบิดเบือนภาพลักษณ์ของปูตินโดยใช้ท่าโพสท่า การแสดงออกทางสีหน้า และสายตาของโอบามาในแต่ละเฟรม โปรแกรมนี้ยังสามารถปรับแต่งเงา เปลี่ยนทรงผมของปูติน หรือปรับความสูงของไหล่ให้เข้ากับท่าโพสท่าใหม่ของเขาได้ ผลที่ได้คือวิดีโอของปูตินที่เลียนแบบท่าทางและการแสดงออกของโอบามาอย่างน่าขนลุก

Copycat

โปรแกรมคอมพิวเตอร์ใหม่วิเคราะห์ลักษณะที่ปรากฏของใครบางคนในวิดีโอหนึ่ง (“ข้อมูลเข้า”) และถ่ายทอดการแสดงออกทางสีหน้า ท่าทางศีรษะ และสายตาของบุคคลนั้นไปยังบุคคลในวิดีโออื่น (“ผลลัพธ์”) ที่สามารถสร้างฟุตเทจของบุคคลที่ 2 ที่ทำและพูดในสิ่งที่พวกเขาไม่เคยทำจริงๆ

H. KIM ET AL / ธุรกรรม ACM บนกราฟิก 2018

นักวิทยาศาสตร์คอมพิวเตอร์ Christian Theobalt แห่งสถาบัน Max Planck Institute for Informatics ในซาร์บรึคเคิน เยอรมนี และเพื่อนร่วมงานได้ทดสอบโปรแกรมของพวกเขากับอาสาสมัคร 135 คน ซึ่งดูวิดีโอจริงและวิดีโอปลอมความยาว 5 วินาที และรายงานว่าพวกเขาคิดว่าแต่ละคลิปเป็นของจริงหรือไม่ โดยเฉลี่ยแล้ว วิดีโอจำลองหลอกผู้ชม 50 เปอร์เซ็นต์ แต่ผู้คนอาจวิพากษ์วิจารณ์ภาพตัดต่อในระหว่างการศึกษามากกว่าที่พวกเขาควรจะเป็นหากพวกเขาพบคลิปเหล่านี้ทางออนไลน์โดยธรรมชาติ เพราะพวกเขาเตรียมไว้เพื่อคาดการณ์ของปลอม แม้ว่าผู้เข้าร่วมการศึกษาจะดูคลิปจริง โดยเฉลี่ย 20 เปอร์เซ็นต์ ก็ยังเชื่อว่าคลิปนั้นไม่ใช่ของจริง

ซอฟต์แวร์ใหม่ยังคงมีข้อจำกัดอยู่บ้าง: โปรแกรมสามารถเล่นวิดีโอที่ถ่ายด้วยกล้องนิ่งเท่านั้น ซึ่งจัดกรอบเพื่อแสดงศีรษะและไหล่ของใครบางคนต่อหน้าพื้นหลังที่ไม่เปลี่ยนแปลง และอัลกอริธึมไม่สามารถเปลี่ยนท่าโพสของบุคคลได้มากเกินไปจากวิดีโอต้นฉบับของพวกเขา นั่นคือไม่สามารถตัดต่อคลิปที่ปูตินพูดใส่กล้องโดยตรงเพื่อให้เขาหันหลังกลับได้ เพราะซอฟต์แวร์ไม่รู้ว่าด้านหลังศีรษะของปูตินเป็นอย่างไร

ยังคงเป็นเรื่องง่ายที่จะจินตนาการว่าหุ่นกระบอกดิจิทัลประเภทนี้จะถูกนำมาใช้เพื่อเผยแพร่ข้อมูลที่ผิดที่อาจเป็นอันตรายได้อย่างไร Kyle Olszewski นักวิทยาศาสตร์คอมพิวเตอร์กล่าวว่า “นักวิจัยที่กำลังพัฒนาสิ่งนี้กำลังก้าวล้ำหน้า ในแง่ที่ว่า [อัลกอริธึมนี้] อยู่ที่นั่นแล้ว และผู้คนก็ตระหนักมากขึ้นถึงประเภทของการปรับแต่งที่เป็นไปได้” ที่มหาวิทยาลัยเซาเทิร์นแคลิฟอร์เนียในลอสแองเจลิส ซึ่งอาจกระตุ้นให้ผู้คนปฏิบัติต่อวิดีโอทางอินเทอร์เน็ตด้วยความสงสัยมากขึ้น เขากล่าว

Olszewski กล่าวว่า “การเรียนรู้วิธีจัดการประเภทนี้เป็นขั้นตอนหนึ่งในการทำความเข้าใจวิธีตรวจจับสิ่งเหล่านี้ ตัวอย่างเช่น โปรแกรมคอมพิวเตอร์ในอนาคตสามารถศึกษาทั้งวิดีโอจริงและเท็จเพื่อเรียนรู้วิธีสังเกตความแตกต่างเว็บตรง / บาคาร่าเว็บตรง