ไม่ได้ตั้งใจเลือกคนนี้-แต่อัลกอริทึมบงการเราให้เลือกเขาเป็นนายกฯ

21 เม.ย. 2566 - 08:33

  • โลกเราเริ่มตระหนักถึงอันตรายจากการใช้โซเชียลมีเดียเพื่อบงการความคิดเห็นทางการเมือง ถึงขนาดที่กำหนดได้ว่าใครจะเป็นผู้ชนะการเลือกตั้ง

  • แต่จนถึงวันนี้ นอกจากเราจะแก้ปัญหานี้ไม่ได้เด็ดขาดแล้ว เทคโนโลยีที่ถูกนำไปใช้แทรกแซงผลการเลือกตั้งยังทรงพลังมากขึ้นเรื่อยๆ

https-__www.shutterstock.com_th_image-photo_close-shot-bric-country-flags-brazil-44385856-SPACEBAR-Thumbnail
ความผิดพลาดที่เกิดขึ้นในสนามเลือกตั้งทั่วโลก ณ เวลานี้ คือ การปล่อยในสังคมถูกชี้นำด้วยอัลกอริทึมของโซเชียลมีเดียมากเกินไป จนทำให้ผู้มีสิทธิออกเสียง “ถูกกล่อม” หรือ “ถูกบงการ” ให้เสพข้อมูลซ้ำๆ หรือเฉพาะที่ตัวเองชอบ จนทำให้เข้าไม่ถึงทางเลือกทางการเมืองอื่นๆ  
 
หรืออย่างที่เลวร้ายกว่านั้น คือ กลุ่มการเมืองบางกลุ่มอาจจะใช้อัลกอริทึมหรือเอไอเพื่อตีกรอบการรับรู้ของผู้มีสิทธิออกเสียงให้สนใจเฉพาะสิ่งที่ฝ่ายการเมืองนั้นต้องการ นี่คือสิ่งที่ผู้มีสิทธิออกเสียงในไทยจะต้องตระหนักเอาไว้ เพราะยิ่งใกล้การเลือกตั้งเข้ามากเท่าไร เรายิ่งใช้โซเชียลมีเดียมากขึ้นเพื่อหาข้อมูล ในขณะเดียวกัน โซเชียลมีเดียก็ถูกใช้เพื่อสร้างชุดข้อมูลที่ทำให้เราเลือกในสิ่งที่เราไม่ต้องเลือกโดยที่เราไม่รู้ตัว 

ปัญหาของตุรกีที่เลือกตั้งวันเดียวกับไทย 

มีนาคม 2023 หนังสือพิมพ์ Sabah ของตุรกีวิเคราะห์การขึ้นหน้าฟีดของ Twitter แล้วพบว่า อัลกอริทึมที่อัปเดตใหม่ของ Twitter ส่งเสริมโพสต์ของกลุ่มที่ตุรกีขึ้นทะเบีนนเป็นผู้ก่อการร้าย ก่อนการเลือกตั้งประธานาธิบดีและรัฐสภาที่จะมีขึ้นในวันที่ 14 พฤษภาคม 2023 (หรือวันเดียวกับการเลือกตั้งทั่วไปในไทย) 
 
การวิเคราะห์นี้ใช้เวลารวบรวมข้อมูลนานนับเดือน และสื่อตุรกีพบว่าอัลกอริทึมของ Twitter แบ่งไทม์ไลน์ออกเป็นส่วน For you (ที่ทางแพลตฟอร์มแนะนำให้) และ Following (ที่เรากำลังติดตามอยู่)  แต่แพลตฟอร์มนี้จงใจปกปิดเนื้อหาที่ไม่เกี่ยวกับการเมือง (apolitical) ซึ่งเป็นเรื่องที่เข้าใจได้ถ้าจะไม่ให้ผู้ใช้งานเข้าถึงเรื่องการเมืองทั้งหมด  
 
แต่ปรากฏว่าอัลกอริทึม Twitter ปกปิดเนื้อหาที่สร้างโดยผู้สนับสนุนพรรครัฐบาลของตุรกี (AK Party) ในขณะเดียวกันกับปล่อยให้เนื้อของกลุ่มที่ถูกขึ้นบัญชีเป็นขบวนการก่อการร้าย คือกลุ่ม PKK และ Gülenist (FETÖ) สามารถขึ้นไทม์ไลน์ของผู้ใช้คนอื่นๆ ได้  
 
กลุ่ม PKK คือขบวนการแบ่งแยกดินแดนชาวเคิร์ด (ปัจจุบันเน้นการเรียกร้องอำนาจปกครองตนเองของชาวเคิร์ดในตุรกี) ส่วน Gülenist คือขบวนการต่อต้านรัฐบาลตุรกี ที่เคยพยายามก่อรัฐประหารเมื่อปี 2016 แต่ล้มเหลว
https://images.ctfassets.net/i3o8p9lzd06f/jzeps92lIBp23Kl9zWIjS/e44fc6639a51b0b5dcf3fa4536b98e51/https-__www.shutterstock.com_th_image-photo_close-shot-bric-country-flags-brazil-44385856-SPACEBAR-Photo02
Photo: หน้าจอเดสก์ท็อปซึ่งแสดงข่าวและรายงานการวิจัยหลายฉบับเกี่ยวกับข่าวปลอมและข้อมูลเท็จที่เกี่ยวข้องกับการเลือกตั้งประธานาธิบดีบราซิล เมื่อเดือนตุลาคม 2022 ซึ่งจากการรายงานของ AFP ข่าวปลอมจำนวนมาก การสร้างแพลตฟอร์มโซเชียลมีเดียใหม่ และเนื้อหาที่ซับซ้อนมากขึ้น ทำให้การตรวจสอบข้อมูลก่อนการเลือกตั้งประธานาธิบดีทำได้ยากยิ่งขึ้น

การแทรกแซงของมหาอำนาจโซเชียล 

ความพยายามก่อรัฐประหารของกลุ่ม Gülenist เมื่อปี 2016 ทำให้ความสัมพันธ์ระหว่างรัฐบาลสหรัฐกับรัฐบาลตุรกีสั่นคลอนอย่างหนัก เพราะรัฐบาลตุรกีกล่าวหาว่า สหรัฐให้การสนับสนุนกลุ่ม Gülenist  
 
การค้นพบอัลกอรึทึมที่ผิดปกติของ Twitter ที่อาจส่งผลต่อการรับรู้ของผู้มีสิทธิออกเสียงชาวตุรกี (ซึ่งเลือกตั้งวันเดียวกับคนไทย) ผลของการแทรกแซงโดยอัลกอรึทึมแบบนี้อาจจะกระทบต่อผลประโยชน์ของชาติด้วย ไม่ใช่แค่ต่อพรรคการเมือง เพราะอัลกอรึทึมดูเหมือนจะเอื้อประโยชน์ต่อกลุ่มที่เกี่ยวข้องกับรัฐบาลสหรัฐ 
 
ลองดูที่การเปิดเผยของ อีลอน มัสก์ เจ้าของคนใหม่ของ Twitter เมื่อวันที่ 17 เมษายน เขาบอกกับ ทักเกอร์ คาร์ลสัน (Tucker Carlson) พิธีกรของ Fox News ว่า “ผมถึงกับทึ่งเมื่อรู้ว่าหน่วยงานของรัฐสามารถเข้าถึงทุกสิ่งที่เกิดขึ้นบน Twitter ได้เต็มที่ขนาดไหน” และบอกว่าเขา “ไม่รู้เรื่องนั้นเลย” ตอนที่ซื้อ Twitter มาเมื่อเดือนตุลาคมปีที่แล้ว  
 
เขารู้และเชื่อแบบนี้มานานแล้ว ย้อนกลับไปเมื่อเดือนพฤษภาคมปีที่แล้ว มันสก์ ยังเคยทวีตว่า “คุณกำลังถูกควบคุมโดยอัลกอริทึมในแบบที่คุณไม่รู้ตัว”  
https://images.ctfassets.net/i3o8p9lzd06f/23PVsDm5OagB6g3EdmD2VK/7eae77389b099e51d3173c8f8fb315eb/https-__www.shutterstock.com_th_image-photo_close-shot-bric-country-flags-brazil-44385856-SPACEBAR-Photo03
Photo: ภาพที่ออกแบบด้วยปัญญาประดิษฐ์ (AI) โดย ยูเลียน ฟาน ดีเกน (Julian van Dieken) ผู้สร้างคอนเทนต์แนวดิจิทัลในกรุงเบอร์ลิน ซึ่งได้แรงบันดาลใจจากภาพวาด “Girl with a Pearl Earring” ของ โยฮันเนิส เฟอร์เมร์ (Johannes Vermeer) ที่พิพิธภัณฑ์ Mauritshuis ในกรุงเฮก

ให้อัลกอริทึมนำทางเราไป 

เราคงจะสาธยายได้ไม่หมดในบทเดียว แต่ตัวอย่างของตุรกีกับสิ่งที่เกิดขึ้นกับ Twitter น่าจะสะท้อนสิ่งที่เกิดขึ้นในโลกโซเชียลฯ ได้ดี มันบอกกับเราว่าสิ่งที่เราเห็นในโลกโซเชียลฯ  ไม่ใช่ผลของการปล่อยให้อัลกอริทึมทำงานอย่างอิสระ แต่อาจเป็นการชี้นำอยู่ข้างหลังโดยกลุ่มอำนาจทางการเมืองและธุรกิจ เพื่อตีกรอบความคิดของเรา และชี้นำให้เราตัดสินใจทำในสิ่งที่เข้าทางพวกเขา 
 
แต่จากกรณีของตุรกีดูเหมือนว่าจะสหรัฐจะเป็นตัวบงการ แต่ปรากฏว่าการเมืองสหรัฐเองก็เสี่ยงที่จะถูกอัลกอริทึม “กระซิบให้เลือกผู้นำ” เหมือนกัน เพราะมีคำเตือนให้ระวังว่าการรับรู้ของประชาชนเกี่ยวกับข้อมูลการเลือกตั้งประธานาธิบดีสหรัฐในปี 2024 อาจถูกบงการด้วยอัลกอริทึม  
 
คำเตือนนี้มาจากผู้เชี่ยวชาญและสื่อหลักๆ ของประเทศ ในช่วงไตรมาสแรกของปี 2023 เช่น 
• แกรี่ มาร์คัส (Gary Marcus) ศาสตราจารย์มหาวิทยาลัยนิวยอร์กเตือน ChatGPT และ LLM อาจเป็นแหล่งผลิตข้อมูลผิดๆ เพื่อป้อนให้กลุ่ม IO ทางการเมือง หรือกลุ่ม Troll farm  ซึ่งเป็นกลุ่มที่รับงานมาปั่นข้อมูลเพื่อหวังผลทางการเมือง “ตอนนี้คุณไม่ใช่สร้างเรื่อง (ข่างปลอม) แค่เรื่องเดียยว คุณสามารถสร้าง 100,000 เรื่อง แม้กระทั่งล้านเรื่องใน 5 นาทีหรือ 1 ชั่วโมง” (ที่มาข่าว AI Business) 
    • ผู้เชี่ยวชาญกล่าวว่า กฎระเบียบและกฎหมาย รวมถึงการควบคุมขององค์กร ตามไม่ทันความซับซ้อนและความสามารถในการเข้าถึงของ AI และถูกเทคโนโลยีเหล่านี้แซงหน้าอย่างมาก และก่อให้เกิดความเสี่ยงอย่างมากในการเลือกตั้งปี 2024 (ที่มาข่าว Washington Post) 
• ผู้เชี่ยวชาญคนหนึ่งบอกกับ Newsweek โดยคาดว่า Deepfake จะถูก “ใช้งานค่อนข้างกว้าง” ระหว่างการหาเสียงเลือกตั้งประธานาธิบดีปี 2024 (ที่มาข่าว Newsweek) 
 
ในเวลานี้ Deepfake และ AI มีความเหมือนจริงมากขึ้นเรื่อยๆ และเข้าถึงง่ายแค่คลิกเดียว พอๆ กับการสร้าง ‘ภาพปลอม’ (ศาสตราจารย์คนหนึ่งที่ Wharton School สามารถสร้าง Deepfake ของตัวเอง ใน 8 นาทีด้วยต้นทุนเพียง 11 ดอลลาร์) และข้อมูลที่เหมือนจะถูกแต่ไม่ถูกโดยแอป AI  ต่างๆ เสี่ยงที่จะถูกใช้ปั่นหัวผู้มีสิทธิออกเสียงได้ง่ายๆ เพียงแต่ Fake news ง่ายที่จะตรวจสอบกว่าการถูกบงการแบบเนียนๆ โดยอัลกอริทึม 
 
https://images.ctfassets.net/i3o8p9lzd06f/5vRbQL4r53bX3ovMpikc7D/a2fb710243f183032eea484c186e9dc2/https-__www.shutterstock.com_th_image-photo_close-shot-bric-country-flags-brazil-44385856-SPACEBAR-Photo04
Photo: แพ็ค คย็อง-ฮูน (Baik Kyeong-hoon) ผู้อำนวยการทีม AI Yoon กำลังสร้างคลิปวิดีโอโดยใช้ AI Yoon ซึ่งเป็นภาพ Deepfakes ของ ยูน ซอก-ยอล ผู้สมัครชิงตำแหน่งประธานาธิบดีเกาหลีใต้ (ในขณะนั้น) เมื่อมองแวบแรกแทบจะแยกไม่ออกเลยว่านี่ภาพจริงหรือว่าเป็น Deepfakes แสดงให้เห็นว่าเทคโนโลยีวิดีโอ Deepfakes ก้าวหน้าขึ้นมามากน้อยเพียงใดในช่วงไม่กี่ปีที่ผ่านมา

ประเทศเล็กถูกแทรกแซงโดยไม่รู้ตัว? 

 แพลตฟอร์มที่ถูกจับตาอย่างมากในตอนนี้คือ Tiktok ไม่ใช่แค่สถานะทางการเมืองของแอปนี้เท่านั้น แต่ยังเป็นเพราะการทำงานของอัลกอริทึมที่น่าจะมีปัญหาต่อผู้มีสิทธิออกเสียงเลือกตั้ง 
 
ตัวอย่างเช่นในอินโดนีเซียเพื่อนบ้านของไทย นูร์เรียนติ ยัลลี (Nuurrianti Jalli) ผู้ช่วยศาสตราจารย์ที่มหาวิทยาลัย Northern State University เร่งให้นักวิจัยและองค์กรภาคประชาสังคมต้องเริ่มศึกษาผลกระทบที่อาจเกิดขึ้นจาก TikTok ต่ออินโดนีเซีย เพราะประเทศนี้จะจัดการเลือกตั้งทั่วไปและการเลือกตั้งประธานาธิบดีในเดือนกุมภาพันธ์ 2022 และอินโดนีเซียมีผู้ใช้ TikTok มากเป็นอันดับ 2 ของโลก นูร์เรียนติ เตือนว่า TikTok มีอัลกอรึทึมที่จะสร้าง “ห้องเสียงสะท้อน” (Echo chamber) (หรือสภาพที่ผู้ใช้ถูกป้อนคอนเทนต์ที่ตัวเองชอบเท่านั้น ทำให้เกิดความสุดโต่งทางการเมืองและตกเป็นเหยื่อข้อมูลเท็จได้ง่าย) 
 
นูร์เรียนติ ยังยกตัวอย่างเพื่อนบ้านของไทยอีกประเทศที่เคยเจอเรื่องนี้มาแล้ว “เรื่องนี้เห็นได้ชัดในระหว่างการเลือกตั้งมาเลเซียปี 2022 เมื่อเรื่องราวที่เป็นอันตรายแพร่สะพัดบนแพลตฟอร์มอย่างรวดเร็ว ในขณะที่การแทรกแซงของ TikTok พิสูจน์แล้วว่าไม่เพียงพอในการควบคุมการแพร่กระจาย” 
 
ในขณะที่ประเทศไทยมีผู้ใช้ TikTok มากเป็นอันดับที่ 8 ของโลกที่กว่า 40 ล้านคน (ตัวเลขเดือนมกราคม 2023) แต่ดูเหมือนว่าเราจะไม่ตระหนักเรื่องนี้กัน ทั้งๆ ที่การเลือกตั้งเหลือไม่ถึง 1 เดือนแล้ว 
 
และทั้งๆ อัลกอริทึมที่ไม่โปร่งใสจึงอาจเป็นทั้งภัยคุกคามความมั่นคง และภัยคุกคามต่อระบอบประชาธิปไตย  
https://images.ctfassets.net/i3o8p9lzd06f/1Z426OarztCZ1v0tineKv6/b6c67184c01335015e250be95087cf19/https-__www.shutterstock.com_th_image-photo_close-shot-bric-country-flags-brazil-44385856-SPACEBAR-Photo05
Photo: มาร์ก วอร์เนอร์ (Mark Warner) วุฒิสมาชิกและสมาชิกคณะกรรมาธิการคัดสรรว่าด้วยข่าวกรอง นำเสนอร่างกฎหมาย Restrict Act เพื่อตอบสนองต่อซอฟต์แวร์ที่สร้างขึ้นในประเทศที่เป็นปรปักษ์กับสหรัฐอเมริกา รวมถึง TikTok ของจีน กฎหมายใหม่จะอนุญาตให้กระทรวงพาณิชย์ดำเนินการกับความเสี่ยงในการสอดแนมจากต่างประเทศที่น่าสงสัยในปัญญาประดิษฐ์ ฟินเทค การคำนวณด้วยควอนตัม และอีคอมเมิร์ซ

อัลกอริทึมคือความลับอันล้ำค่า 

แต่อัลกอริทึมโปร่งใสได้ยาก เพราะมันคือความลับระดับพันล้านทางธุรกิจ (trade secret) ของแพลตฟอร์มต่างๆ  
 
แม้ว่าแพลตฟอร์มต่างๆ จะไม่อยากถูกกล่าวหาว่าเป็นทำงานร่วมกับรัฐบาลหรือเป็นตัวการทำให้ประชาธิปไตยถูกแทรกแซง แต่ก็ไม่สามารถเปิดเผยได้ว่าอัลกอริทึมของพวกเขาทำงานแบบไหน   
 
ด้วยความที่อัลกอริทึมคือความลับนี่เอง ผู้มีอำนาจทางการเมืองและอำนาจทางการเงินจึงสบโอกาสในการบีบให้แพลตฟอร์มต้องทำงานร่วมกับพวกเขา เพื่อกำหนดให้อัลกอริทึมเป็นประโยชน์ทางการเมืองต่อพวกเขา  
 
ดังนั้น เราจึงได้แต่เดาว่าอัลกอริทึมของแต่ละแห่งทำงานอย่างไร และสื่อและนักวิชาการต่างๆ ได้แต่ทำการทดลองแบบเฉพาะกิจกับแพลตฟอร์มต่างๆ เพื่อสำรวจดูว่าอัลกอริทึมของแต่ละที่เป็นอันตรายทางการเมืองหรือไม่  
 
เช่น สื่ออย่าง Motherboard และ VICE ทดลองกับ TikTok เมื่อปี 2019 พบว่าหลังจากทดลองกดไลค์และมีส่วนร่วมกับคลิปที่มีคอนเทนต์แนวอนุรักษ์นิยมไปสักสองสามวัน สิ่งที่ตามมาคือหน้าฟีดก็จะมีแต่คอนเทนต์ที่มีเนื้อหาการเมืองแบบอนุรักษ์นิยม (และอาจจะอนุมานได้ว่าคนที่ชอบคอนเทนต์แบบฝ่ายซ้ายก็จะได้ผลแบบเดียวกัน) 
 
แม้แต่อัลกอริทึมที่ดูเหมือนไม่เป็นพิษเป็นภัยอย่างระบบ recommendation (แนะนำคลิปวิดิโอ) โดย YouTube ก็ดูเหมือนจะเจ้ากี้เจ้าการกับการรับรู้ข้อมูลของผู้ใช้ จากการศึกษาของมหาวิทยาลัยแวนเดอร์บิลต์ (Vanderbilt University) เมื่อปี 2022 ซึ่ง การศึกษาที่ตีพิมพ์ในวารสาร Journal of Online Trust and Safety พบว่า YouTube มีแนวโน้มที่จะนำวิดีโอเกี่ยวกับทฤษฎีสมคบคิดเรื่องการโกงการเลือกตั้งประธานาธิบดีสหรัฐปี2020  ให้กับผู้ที่ไม่เชื่อผลการเลือกตั้งในครั้งนั้น   
 
นั่นหมายความว่า YouTube จะแนะนำคลิปที่เราชอบทั้งๆ ที่มันป็นข้อมูลที่ผิด เพียงเพราะอัลกอริทึมรู้ว่าเราชอบ (เรื่องเท็จ) ที่ว่านั่น 

โปรดตรวจสอบว่ายังเป็นตัวของตัวเองอยู่หรือเปล่า? 

นั่นหมายความว่า เราไม่ได้เป็นตัวของตัวเองอีกต่อไปหรือเปล่า? แต่เป็นแค่ ‘ร่างทรง’ (Medium) ที่ถูกสิงสู่และชี้นำด้วยวิญญาณที่ชื่ออัลกอรึทึม และวิญญาณดวงนี้ก็ถูกชี้นำด้วยผลประโยชน์ของบริษัทเทค และยังอาจเป็นไปได้ด้วยว่าบริษัทเทคบางแห่งอาจถูกบงการอีกต่อหนึ่งโดยอำนาจทางการเมือง  
 
คำเตือนเรื่องมนุษย์จะกลายเป็นแค่ Medium ของดาต้ามากมายมหาศาลโดยไม่ทันได้ไตร่ตรอง มีมาตั้งแต่ช่วงที่วงการนักคิดนักปรัชญาแนว Postmodernism เริ่มพยากรณ์อนาคตเมื่อหลายสิบปีก่อน แต่พวกเขามองไม่เห็นว่าการเป็น Medium ของมนุษย์จะถูกนำไปใช้ประโยชน์ทางการเมืองแบบนี้ 
 
สมมติว่าใครสักคนต้องการให้เราเลือกคนๆ นี้เป็นผู้นำประเทศก็สามารถทำได้ไม่ยาก ตัวอย่างก็เช่นสิ่งที่เกิดขึ้นกับ Twitter กับการเมืองตุรกี รวมถึงความกลัว TikTok ของรัฐบาลสหรัฐที่เชื่อว่ามันเป็นอุปกรณ์ของรัฐบาลจีนเพื่อบงการความเห็นของคนอเมริกัน 
 
การเสพข้อมูลแบบโซเชียลมีเดียที่อาศัยคำค้นและคำหลัก (Keywords) ไม่กี่คำจึงอาจให้ผลที่ไม่เป็นกลาง เพราะคำไม่กี่คำจะต้อนเราให้หลงอยู่ใน “ห้องเสียงสะท้อน” (Echo chamber) ที่ซึ่งเราจะถูกล้อมไปด้วยข้อมูลที่แค่เราอยากรู้และถูกอัลกอริทึมป้อนให้ เพราะมันรู้ว่าเราอยากจะรู้แค่เรื่องพวกนั้น  
 
แต่เราจะไม่มีโอกาสเข้าถึงข้อมูลด้านอื่น หรือความจริงอีกด้าน เข้าไม่ถึงพรรคการเมืองที่เราไม่ชอบหน้า แต่อาจมีนโยบายที่เหมาะกับเรา และไม่มีโอกาสรับฟังคำอธิบายคนกลุ่มตรงข้ามกับเรา เพราะ Algorithm, Deepfakes และ AI Chatbot ได้ล้อมเราไว้หมดแล้ว! 

เรื่องเด่นประจำสัปดาห์