
ในยุคที่ปัญญาประดิษฐ์สามารถวิเคราะห์ข้อมูลนับล้านรายการได้ในเสี้ยววินาที หลายคนเชื่อว่า AI คือคำตอบของการต่อต้านการทุจริต ตรวจจับความผิดปกติ และทำให้ระบบโปร่งใสมากขึ้น แต่มีคำถามหนึ่งที่ไม่ค่อยมีใครหยิบขึ้นมาถาม — ใครเป็นคนบอก AI ว่าอะไรคือ "ความผิดปกติ" และอะไรคือ "เรื่องปกติ"?
AI เก่งจริง — แต่เก่งในกรอบที่คนกำหนด
AI โดยเฉพาะระบบ Machine Learning นั้นทำงานด้วยการเรียนรู้จาก "ข้อมูลในอดีต" และ "นิยามที่มนุษย์ป้อนให้" ถ้าเราบอกว่าธุรกรรมที่ผิดปกติคือการโอนเงินเกิน 1 ล้านบาทภายใน 5 นาที AI ก็จะจับรูปแบบนั้น
แต่ถ้าการทุจริตเกิดขึ้นในลักษณะ "ถูกกฎหมาย" — เช่น การจัดซื้อจัดจ้างที่มีกระบวนการครบถ้วน แต่เอื้อผลประโยชน์ให้พวกพ้อง หรืองบประมาณที่ถูกแบ่งย่อยให้ต่ำกว่าเกณฑ์ตรวจสอบ — AI ไม่มีทางจับได้เลย เพราะมันไม่ถูกนิยามว่า "ผิด" ตั้งแต่แรก
ปัญหาสามชั้นของ AI กับการตรวจจับการทุจริต
ถ้าจะเข้าใจว่าทำไม AI ถึงไม่ใช่ "ผู้พิพากษาที่เป็นกลาง" ต้องมองสามชั้นนี้แยกกัน
ชั้นที่ 1: การตรวจจับ (Detection) AI ทำได้ดีจริง — หาความผิดปกติในข้อมูล, จับรูปแบบซ้ำๆ, เชื่อมโยงเครือข่ายที่ซับซ้อน สิ่งที่คนใช้เวลาหลายเดือน AI ทำได้ภายในชั่วโมง
ชั้นที่ 2: การตีความ (Interpretation) เมื่อ AI พบ anomaly ใครเป็นคนตัดสินว่ามัน "น่าสงสัย" หรือ "อธิบายได้ตามปกติ"? ถ้า AI ถูก deploy โดยหน่วยงานรัฐ หรือบริษัทที่มีผลประโยชน์ทับซ้อน ชั้นนี้คือจุดที่อำนาจเข้ามาแทรกได้ง่ายที่สุด
ชั้นที่ 3: การลงมือ (Action) แม้ตรวจเจอและตีความถูกต้อง ยังต้องอาศัยกลไกมนุษย์และสถาบันในการบังคับใช้ผล ถ้าสถาบันเหล่านั้นอ่อนแอหรือถูก capture โดยผลประโยชน์ — ข้อมูลก็แค่กองอยู่เฉยๆ
เมื่อ AI กลายเป็นเครื่องมือของอำนาจ
ตัวอย่างที่เห็นได้ชัดในหลายประเทศคือการที่รัฐบาลนำ AI มาใช้ตรวจสอบพลเมือง ติดตามนักกิจกรรม หรือจับผิดฝ่ายตรงข้ามทางการเมือง ขณะที่ความผิดปกติในงบประมาณภาครัฐหรือสัญญาจัดซื้อกลับ "มองไม่เห็น"
นี่ไม่ใช่ความบกพร่องทางเทคนิค — มันคือการออกแบบโดยเจตนา AI ถูกตั้งค่าให้ "ตาบอด" ในทิศทางที่ผู้มีอำนาจต้องการ
กรณีศึกษา: ระบบ Credit Scoring กับความไม่เท่าเทียม
ระบบ AI สำหรับประเมินเครดิตทางการเงินในสหรัฐฯ ถูกพบว่าให้คะแนนต่ำกว่าความเป็นจริงกับกลุ่มคนผิวดำและชนกลุ่มน้อย ไม่ใช่เพราะ AI "เหยียดเชื้อชาติ" โดยตรง แต่เพราะมันเรียนรู้จากข้อมูลประวัติศาสตร์ที่สะท้อนความเหลื่อมล้ำที่มีอยู่แล้ว
ผลลัพธ์คือ ความไม่เป็นธรรมเดิมถูก "วิทยาศาสตร์ทำให้ดูเป็นกลาง" และยากต่อการโต้แย้งยิ่งขึ้น เพราะมันออกมาจากอัลกอริทึม ไม่ใช่คำตัดสินของมนุษย์
งานวิจัยก็ไม่ได้ต่างกัน
ปัญหานี้ไม่ได้อยู่แค่ใน AI เชิงพาณิชย์หรือภาครัฐ แม้แต่ในแวดวงวิชาการ งานวิจัยที่ได้รับทุนจากแหล่งที่มีผลประโยชน์ก็ถูกกำหนด "คำถามการวิจัย" มาตั้งแต่ต้น
ปัญหา Publication Bias
งานวิจัยที่ผลลัพธ์ "ไม่อึดอัด" ต่อผู้ให้ทุนได้รับการตีพิมพ์ได้ง่ายกว่า งานที่ชี้ปัญหาเชิงโครงสร้างอำนาจมักถูก revise จนอ่อนลง หรือติดอยู่ใน peer review นานผิดปกติ
เมื่อ AI ถูกใช้เพื่อ synthesize งานวิจัย มันก็จะ "ขยาย bias" เหล่านั้นให้ใหญ่ขึ้น เพราะมันเรียนรู้จาก corpus ที่ผ่าน filter เหล่านี้มาแล้ว งานที่ไม่ถูกตีพิมพ์ งานที่อยู่นอก database หลัก หรืองานในภาษาที่ไม่ใช่ภาษาอังกฤษ ล้วน "ไม่มีอยู่" สำหรับ AI
แล้วใครที่ยังใช้ประโยชน์จาก AI ได้จริง?
คำถามที่สำคัญกว่าคือ: ในระบบที่ AI ถูก capture โดยอำนาจ กลไกไหนที่ยังสามารถใช้ความสามารถของ AI ได้อย่างอิสระ?
คำตอบที่มีความหวังมากที่สุดคือ ภาคประชาสังคม สื่ออิสระ และนักวิจัยอิสระ ที่สามารถนำ AI มาใช้วิเคราะห์ข้อมูลสาธารณะโดยไม่ต้องผ่านตัวกรองของรัฐหรือทุน
โครงการอย่าง ICIJ (International Consortium of Investigative Journalists) ที่อยู่เบื้องหลัง Panama Papers ใช้ AI วิเคราะห์เอกสารกว่า 11.5 ล้านชิ้น — และทำได้เพราะเป็นอิสระจากโครงสร้างอำนาจที่ต้องการซ่อนข้อมูลเหล่านั้น
บทสรุป: เทคโนโลยีไม่มีความเป็นกลาง
AI ไม่ใช่ผู้พิพากษาจากนอกโลก มันถูกสร้างโดยมนุษย์ เรียนรู้จากข้อมูลที่มนุษย์เลือก และถูก deploy ด้วยเป้าหมายที่มนุษย์กำหนด
ดังนั้นคำถามที่แท้จริงไม่ใช่ "AI เก่งพอที่จะจับโกงได้ไหม?" แต่คือ "ใครเป็นคนถือกุญแจ AI ตัวนั้น และพวกเขาต้องการให้มันมองเห็นอะไร?"
ความโปร่งใสที่แท้จริงไม่ได้เกิดจากเทคโนโลยีเพียงอย่างเดียว แต่เกิดจากโครงสร้างอำนาจที่เปิดพื้นที่ให้เทคโนโลยีทำงานได้อย่างอิสระจากผลประโยชน์












