ความผิดพลาดที่เกิดขึ้นในสนามเลือกตั้งทั่วโลก ณ เวลานี้ คือ การปล่อยในสังคมถูกชี้นำด้วยอัลกอริทึมของโซเชียลมีเดียมากเกินไป จนทำให้ผู้มีสิทธิออกเสียง “ถูกกล่อม” หรือ “ถูกบงการ” ให้เสพข้อมูลซ้ำๆ หรือเฉพาะที่ตัวเองชอบ จนทำให้เข้าไม่ถึงทางเลือกทางการเมืองอื่นๆ
หรืออย่างที่เลวร้ายกว่านั้น คือ กลุ่มการเมืองบางกลุ่มอาจจะใช้อัลกอริทึมหรือเอไอเพื่อตีกรอบการรับรู้ของผู้มีสิทธิออกเสียงให้สนใจเฉพาะสิ่งที่ฝ่ายการเมืองนั้นต้องการ นี่คือสิ่งที่ผู้มีสิทธิออกเสียงในไทยจะต้องตระหนักเอาไว้ เพราะยิ่งใกล้การเลือกตั้งเข้ามากเท่าไร เรายิ่งใช้โซเชียลมีเดียมากขึ้นเพื่อหาข้อมูล ในขณะเดียวกัน โซเชียลมีเดียก็ถูกใช้เพื่อสร้างชุดข้อมูลที่ทำให้เราเลือกในสิ่งที่เราไม่ต้องเลือกโดยที่เราไม่รู้ตัว
การวิเคราะห์นี้ใช้เวลารวบรวมข้อมูลนานนับเดือน และสื่อตุรกีพบว่าอัลกอริทึมของ Twitter แบ่งไทม์ไลน์ออกเป็นส่วน For you (ที่ทางแพลตฟอร์มแนะนำให้) และ Following (ที่เรากำลังติดตามอยู่) แต่แพลตฟอร์มนี้จงใจปกปิดเนื้อหาที่ไม่เกี่ยวกับการเมือง (apolitical) ซึ่งเป็นเรื่องที่เข้าใจได้ถ้าจะไม่ให้ผู้ใช้งานเข้าถึงเรื่องการเมืองทั้งหมด
แต่ปรากฏว่าอัลกอริทึม Twitter ปกปิดเนื้อหาที่สร้างโดยผู้สนับสนุนพรรครัฐบาลของตุรกี (AK Party) ในขณะเดียวกันกับปล่อยให้เนื้อของกลุ่มที่ถูกขึ้นบัญชีเป็นขบวนการก่อการร้าย คือกลุ่ม PKK และ Gülenist (FETÖ) สามารถขึ้นไทม์ไลน์ของผู้ใช้คนอื่นๆ ได้
กลุ่ม PKK คือขบวนการแบ่งแยกดินแดนชาวเคิร์ด (ปัจจุบันเน้นการเรียกร้องอำนาจปกครองตนเองของชาวเคิร์ดในตุรกี) ส่วน Gülenist คือขบวนการต่อต้านรัฐบาลตุรกี ที่เคยพยายามก่อรัฐประหารเมื่อปี 2016 แต่ล้มเหลว
หรืออย่างที่เลวร้ายกว่านั้น คือ กลุ่มการเมืองบางกลุ่มอาจจะใช้อัลกอริทึมหรือเอไอเพื่อตีกรอบการรับรู้ของผู้มีสิทธิออกเสียงให้สนใจเฉพาะสิ่งที่ฝ่ายการเมืองนั้นต้องการ นี่คือสิ่งที่ผู้มีสิทธิออกเสียงในไทยจะต้องตระหนักเอาไว้ เพราะยิ่งใกล้การเลือกตั้งเข้ามากเท่าไร เรายิ่งใช้โซเชียลมีเดียมากขึ้นเพื่อหาข้อมูล ในขณะเดียวกัน โซเชียลมีเดียก็ถูกใช้เพื่อสร้างชุดข้อมูลที่ทำให้เราเลือกในสิ่งที่เราไม่ต้องเลือกโดยที่เราไม่รู้ตัว
ปัญหาของตุรกีที่เลือกตั้งวันเดียวกับไทย
มีนาคม 2023 หนังสือพิมพ์ Sabah ของตุรกีวิเคราะห์การขึ้นหน้าฟีดของ Twitter แล้วพบว่า อัลกอริทึมที่อัปเดตใหม่ของ Twitter ส่งเสริมโพสต์ของกลุ่มที่ตุรกีขึ้นทะเบีนนเป็นผู้ก่อการร้าย ก่อนการเลือกตั้งประธานาธิบดีและรัฐสภาที่จะมีขึ้นในวันที่ 14 พฤษภาคม 2023 (หรือวันเดียวกับการเลือกตั้งทั่วไปในไทย)การวิเคราะห์นี้ใช้เวลารวบรวมข้อมูลนานนับเดือน และสื่อตุรกีพบว่าอัลกอริทึมของ Twitter แบ่งไทม์ไลน์ออกเป็นส่วน For you (ที่ทางแพลตฟอร์มแนะนำให้) และ Following (ที่เรากำลังติดตามอยู่) แต่แพลตฟอร์มนี้จงใจปกปิดเนื้อหาที่ไม่เกี่ยวกับการเมือง (apolitical) ซึ่งเป็นเรื่องที่เข้าใจได้ถ้าจะไม่ให้ผู้ใช้งานเข้าถึงเรื่องการเมืองทั้งหมด
แต่ปรากฏว่าอัลกอริทึม Twitter ปกปิดเนื้อหาที่สร้างโดยผู้สนับสนุนพรรครัฐบาลของตุรกี (AK Party) ในขณะเดียวกันกับปล่อยให้เนื้อของกลุ่มที่ถูกขึ้นบัญชีเป็นขบวนการก่อการร้าย คือกลุ่ม PKK และ Gülenist (FETÖ) สามารถขึ้นไทม์ไลน์ของผู้ใช้คนอื่นๆ ได้
กลุ่ม PKK คือขบวนการแบ่งแยกดินแดนชาวเคิร์ด (ปัจจุบันเน้นการเรียกร้องอำนาจปกครองตนเองของชาวเคิร์ดในตุรกี) ส่วน Gülenist คือขบวนการต่อต้านรัฐบาลตุรกี ที่เคยพยายามก่อรัฐประหารเมื่อปี 2016 แต่ล้มเหลว
การแทรกแซงของมหาอำนาจโซเชียล
ความพยายามก่อรัฐประหารของกลุ่ม Gülenist เมื่อปี 2016 ทำให้ความสัมพันธ์ระหว่างรัฐบาลสหรัฐกับรัฐบาลตุรกีสั่นคลอนอย่างหนัก เพราะรัฐบาลตุรกีกล่าวหาว่า สหรัฐให้การสนับสนุนกลุ่ม Gülenistการค้นพบอัลกอรึทึมที่ผิดปกติของ Twitter ที่อาจส่งผลต่อการรับรู้ของผู้มีสิทธิออกเสียงชาวตุรกี (ซึ่งเลือกตั้งวันเดียวกับคนไทย) ผลของการแทรกแซงโดยอัลกอรึทึมแบบนี้อาจจะกระทบต่อผลประโยชน์ของชาติด้วย ไม่ใช่แค่ต่อพรรคการเมือง เพราะอัลกอรึทึมดูเหมือนจะเอื้อประโยชน์ต่อกลุ่มที่เกี่ยวข้องกับรัฐบาลสหรัฐ
ลองดูที่การเปิดเผยของ อีลอน มัสก์ เจ้าของคนใหม่ของ Twitter เมื่อวันที่ 17 เมษายน เขาบอกกับ ทักเกอร์ คาร์ลสัน (Tucker Carlson) พิธีกรของ Fox News ว่า “ผมถึงกับทึ่งเมื่อรู้ว่าหน่วยงานของรัฐสามารถเข้าถึงทุกสิ่งที่เกิดขึ้นบน Twitter ได้เต็มที่ขนาดไหน” และบอกว่าเขา “ไม่รู้เรื่องนั้นเลย” ตอนที่ซื้อ Twitter มาเมื่อเดือนตุลาคมปีที่แล้ว
เขารู้และเชื่อแบบนี้มานานแล้ว ย้อนกลับไปเมื่อเดือนพฤษภาคมปีที่แล้ว มันสก์ ยังเคยทวีตว่า “คุณกำลังถูกควบคุมโดยอัลกอริทึมในแบบที่คุณไม่รู้ตัว”
ให้อัลกอริทึมนำทางเราไป
เราคงจะสาธยายได้ไม่หมดในบทเดียว แต่ตัวอย่างของตุรกีกับสิ่งที่เกิดขึ้นกับ Twitter น่าจะสะท้อนสิ่งที่เกิดขึ้นในโลกโซเชียลฯ ได้ดี มันบอกกับเราว่าสิ่งที่เราเห็นในโลกโซเชียลฯ ไม่ใช่ผลของการปล่อยให้อัลกอริทึมทำงานอย่างอิสระ แต่อาจเป็นการชี้นำอยู่ข้างหลังโดยกลุ่มอำนาจทางการเมืองและธุรกิจ เพื่อตีกรอบความคิดของเรา และชี้นำให้เราตัดสินใจทำในสิ่งที่เข้าทางพวกเขาแต่จากกรณีของตุรกีดูเหมือนว่าจะสหรัฐจะเป็นตัวบงการ แต่ปรากฏว่าการเมืองสหรัฐเองก็เสี่ยงที่จะถูกอัลกอริทึม “กระซิบให้เลือกผู้นำ” เหมือนกัน เพราะมีคำเตือนให้ระวังว่าการรับรู้ของประชาชนเกี่ยวกับข้อมูลการเลือกตั้งประธานาธิบดีสหรัฐในปี 2024 อาจถูกบงการด้วยอัลกอริทึม
คำเตือนนี้มาจากผู้เชี่ยวชาญและสื่อหลักๆ ของประเทศ ในช่วงไตรมาสแรกของปี 2023 เช่น
• แกรี่ มาร์คัส (Gary Marcus) ศาสตราจารย์มหาวิทยาลัยนิวยอร์กเตือน ChatGPT และ LLM อาจเป็นแหล่งผลิตข้อมูลผิดๆ เพื่อป้อนให้กลุ่ม IO ทางการเมือง หรือกลุ่ม Troll farm ซึ่งเป็นกลุ่มที่รับงานมาปั่นข้อมูลเพื่อหวังผลทางการเมือง “ตอนนี้คุณไม่ใช่สร้างเรื่อง (ข่างปลอม) แค่เรื่องเดียยว คุณสามารถสร้าง 100,000 เรื่อง แม้กระทั่งล้านเรื่องใน 5 นาทีหรือ 1 ชั่วโมง” (ที่มาข่าว AI Business)
• ผู้เชี่ยวชาญกล่าวว่า กฎระเบียบและกฎหมาย รวมถึงการควบคุมขององค์กร ตามไม่ทันความซับซ้อนและความสามารถในการเข้าถึงของ AI และถูกเทคโนโลยีเหล่านี้แซงหน้าอย่างมาก และก่อให้เกิดความเสี่ยงอย่างมากในการเลือกตั้งปี 2024 (ที่มาข่าว Washington Post)
• ผู้เชี่ยวชาญคนหนึ่งบอกกับ Newsweek โดยคาดว่า Deepfake จะถูก “ใช้งานค่อนข้างกว้าง” ระหว่างการหาเสียงเลือกตั้งประธานาธิบดีปี 2024 (ที่มาข่าว Newsweek)
ในเวลานี้ Deepfake และ AI มีความเหมือนจริงมากขึ้นเรื่อยๆ และเข้าถึงง่ายแค่คลิกเดียว พอๆ กับการสร้าง ‘ภาพปลอม’ (ศาสตราจารย์คนหนึ่งที่ Wharton School สามารถสร้าง Deepfake ของตัวเอง ใน 8 นาทีด้วยต้นทุนเพียง 11 ดอลลาร์) และข้อมูลที่เหมือนจะถูกแต่ไม่ถูกโดยแอป AI ต่างๆ เสี่ยงที่จะถูกใช้ปั่นหัวผู้มีสิทธิออกเสียงได้ง่ายๆ เพียงแต่ Fake news ง่ายที่จะตรวจสอบกว่าการถูกบงการแบบเนียนๆ โดยอัลกอริทึม
ประเทศเล็กถูกแทรกแซงโดยไม่รู้ตัว?
แพลตฟอร์มที่ถูกจับตาอย่างมากในตอนนี้คือ Tiktok ไม่ใช่แค่สถานะทางการเมืองของแอปนี้เท่านั้น แต่ยังเป็นเพราะการทำงานของอัลกอริทึมที่น่าจะมีปัญหาต่อผู้มีสิทธิออกเสียงเลือกตั้งตัวอย่างเช่นในอินโดนีเซียเพื่อนบ้านของไทย นูร์เรียนติ ยัลลี (Nuurrianti Jalli) ผู้ช่วยศาสตราจารย์ที่มหาวิทยาลัย Northern State University เร่งให้นักวิจัยและองค์กรภาคประชาสังคมต้องเริ่มศึกษาผลกระทบที่อาจเกิดขึ้นจาก TikTok ต่ออินโดนีเซีย เพราะประเทศนี้จะจัดการเลือกตั้งทั่วไปและการเลือกตั้งประธานาธิบดีในเดือนกุมภาพันธ์ 2022 และอินโดนีเซียมีผู้ใช้ TikTok มากเป็นอันดับ 2 ของโลก นูร์เรียนติ เตือนว่า TikTok มีอัลกอรึทึมที่จะสร้าง “ห้องเสียงสะท้อน” (Echo chamber) (หรือสภาพที่ผู้ใช้ถูกป้อนคอนเทนต์ที่ตัวเองชอบเท่านั้น ทำให้เกิดความสุดโต่งทางการเมืองและตกเป็นเหยื่อข้อมูลเท็จได้ง่าย)
นูร์เรียนติ ยังยกตัวอย่างเพื่อนบ้านของไทยอีกประเทศที่เคยเจอเรื่องนี้มาแล้ว “เรื่องนี้เห็นได้ชัดในระหว่างการเลือกตั้งมาเลเซียปี 2022 เมื่อเรื่องราวที่เป็นอันตรายแพร่สะพัดบนแพลตฟอร์มอย่างรวดเร็ว ในขณะที่การแทรกแซงของ TikTok พิสูจน์แล้วว่าไม่เพียงพอในการควบคุมการแพร่กระจาย”
ในขณะที่ประเทศไทยมีผู้ใช้ TikTok มากเป็นอันดับที่ 8 ของโลกที่กว่า 40 ล้านคน (ตัวเลขเดือนมกราคม 2023) แต่ดูเหมือนว่าเราจะไม่ตระหนักเรื่องนี้กัน ทั้งๆ ที่การเลือกตั้งเหลือไม่ถึง 1 เดือนแล้ว
และทั้งๆ อัลกอริทึมที่ไม่โปร่งใสจึงอาจเป็นทั้งภัยคุกคามความมั่นคง และภัยคุกคามต่อระบอบประชาธิปไตย
อัลกอริทึมคือความลับอันล้ำค่า
แต่อัลกอริทึมโปร่งใสได้ยาก เพราะมันคือความลับระดับพันล้านทางธุรกิจ (trade secret) ของแพลตฟอร์มต่างๆแม้ว่าแพลตฟอร์มต่างๆ จะไม่อยากถูกกล่าวหาว่าเป็นทำงานร่วมกับรัฐบาลหรือเป็นตัวการทำให้ประชาธิปไตยถูกแทรกแซง แต่ก็ไม่สามารถเปิดเผยได้ว่าอัลกอริทึมของพวกเขาทำงานแบบไหน
ด้วยความที่อัลกอริทึมคือความลับนี่เอง ผู้มีอำนาจทางการเมืองและอำนาจทางการเงินจึงสบโอกาสในการบีบให้แพลตฟอร์มต้องทำงานร่วมกับพวกเขา เพื่อกำหนดให้อัลกอริทึมเป็นประโยชน์ทางการเมืองต่อพวกเขา
ดังนั้น เราจึงได้แต่เดาว่าอัลกอริทึมของแต่ละแห่งทำงานอย่างไร และสื่อและนักวิชาการต่างๆ ได้แต่ทำการทดลองแบบเฉพาะกิจกับแพลตฟอร์มต่างๆ เพื่อสำรวจดูว่าอัลกอริทึมของแต่ละที่เป็นอันตรายทางการเมืองหรือไม่
เช่น สื่ออย่าง Motherboard และ VICE ทดลองกับ TikTok เมื่อปี 2019 พบว่าหลังจากทดลองกดไลค์และมีส่วนร่วมกับคลิปที่มีคอนเทนต์แนวอนุรักษ์นิยมไปสักสองสามวัน สิ่งที่ตามมาคือหน้าฟีดก็จะมีแต่คอนเทนต์ที่มีเนื้อหาการเมืองแบบอนุรักษ์นิยม (และอาจจะอนุมานได้ว่าคนที่ชอบคอนเทนต์แบบฝ่ายซ้ายก็จะได้ผลแบบเดียวกัน)
แม้แต่อัลกอริทึมที่ดูเหมือนไม่เป็นพิษเป็นภัยอย่างระบบ recommendation (แนะนำคลิปวิดิโอ) โดย YouTube ก็ดูเหมือนจะเจ้ากี้เจ้าการกับการรับรู้ข้อมูลของผู้ใช้ จากการศึกษาของมหาวิทยาลัยแวนเดอร์บิลต์ (Vanderbilt University) เมื่อปี 2022 ซึ่ง การศึกษาที่ตีพิมพ์ในวารสาร Journal of Online Trust and Safety พบว่า YouTube มีแนวโน้มที่จะนำวิดีโอเกี่ยวกับทฤษฎีสมคบคิดเรื่องการโกงการเลือกตั้งประธานาธิบดีสหรัฐปี2020 ให้กับผู้ที่ไม่เชื่อผลการเลือกตั้งในครั้งนั้น
นั่นหมายความว่า YouTube จะแนะนำคลิปที่เราชอบทั้งๆ ที่มันป็นข้อมูลที่ผิด เพียงเพราะอัลกอริทึมรู้ว่าเราชอบ (เรื่องเท็จ) ที่ว่านั่น
โปรดตรวจสอบว่ายังเป็นตัวของตัวเองอยู่หรือเปล่า?
นั่นหมายความว่า เราไม่ได้เป็นตัวของตัวเองอีกต่อไปหรือเปล่า? แต่เป็นแค่ ‘ร่างทรง’ (Medium) ที่ถูกสิงสู่และชี้นำด้วยวิญญาณที่ชื่ออัลกอรึทึม และวิญญาณดวงนี้ก็ถูกชี้นำด้วยผลประโยชน์ของบริษัทเทค และยังอาจเป็นไปได้ด้วยว่าบริษัทเทคบางแห่งอาจถูกบงการอีกต่อหนึ่งโดยอำนาจทางการเมืองคำเตือนเรื่องมนุษย์จะกลายเป็นแค่ Medium ของดาต้ามากมายมหาศาลโดยไม่ทันได้ไตร่ตรอง มีมาตั้งแต่ช่วงที่วงการนักคิดนักปรัชญาแนว Postmodernism เริ่มพยากรณ์อนาคตเมื่อหลายสิบปีก่อน แต่พวกเขามองไม่เห็นว่าการเป็น Medium ของมนุษย์จะถูกนำไปใช้ประโยชน์ทางการเมืองแบบนี้
สมมติว่าใครสักคนต้องการให้เราเลือกคนๆ นี้เป็นผู้นำประเทศก็สามารถทำได้ไม่ยาก ตัวอย่างก็เช่นสิ่งที่เกิดขึ้นกับ Twitter กับการเมืองตุรกี รวมถึงความกลัว TikTok ของรัฐบาลสหรัฐที่เชื่อว่ามันเป็นอุปกรณ์ของรัฐบาลจีนเพื่อบงการความเห็นของคนอเมริกัน
การเสพข้อมูลแบบโซเชียลมีเดียที่อาศัยคำค้นและคำหลัก (Keywords) ไม่กี่คำจึงอาจให้ผลที่ไม่เป็นกลาง เพราะคำไม่กี่คำจะต้อนเราให้หลงอยู่ใน “ห้องเสียงสะท้อน” (Echo chamber) ที่ซึ่งเราจะถูกล้อมไปด้วยข้อมูลที่แค่เราอยากรู้และถูกอัลกอริทึมป้อนให้ เพราะมันรู้ว่าเราอยากจะรู้แค่เรื่องพวกนั้น
แต่เราจะไม่มีโอกาสเข้าถึงข้อมูลด้านอื่น หรือความจริงอีกด้าน เข้าไม่ถึงพรรคการเมืองที่เราไม่ชอบหน้า แต่อาจมีนโยบายที่เหมาะกับเรา และไม่มีโอกาสรับฟังคำอธิบายคนกลุ่มตรงข้ามกับเรา เพราะ Algorithm, Deepfakes และ AI Chatbot ได้ล้อมเราไว้หมดแล้ว!