
ลองจินตนาการถึงนักสืบที่มีความสามารถเหนือมนุษย์ทุกคน — อ่านข้อมูลหลายล้านหน้าได้ในชั่วพริบตา จำทุกรายละเอียดได้แม่นยำ เชื่อมโยงรูปแบบที่ซับซ้อนได้โดยไม่เหนื่อย แต่แล้วนักสืบคนนั้นทำงานให้กับคนที่มีผลประโยชน์ทับซ้อน และถูกสั่งว่าจะมองเห็นอะไร — และจะ "ไม่เห็น" อะไร
นี่คือสถานการณ์จริงของ AI ในโลกปัจจุบัน
ความแม่นยำไม่ได้หมายความว่าเป็นกลาง
AI โดยเฉพาะระบบที่ใช้ Machine Learning และ Deep Learning นั้นแม่นยำในแบบที่มนุษย์ทำไม่ได้ ไม่ล้า ไม่มีอคติทางอารมณ์ ไม่ลืม และประมวลผลข้อมูลได้เร็วกว่าทีมนักวิเคราะห์หลายร้อยคน
แต่ความแม่นยำกับความเป็นกลางคือคนละเรื่องกัน
AI แม่นยำในการทำตามที่ถูกสอน — และสิ่งที่มันถูกสอนนั้นถูกกำหนดโดยมนุษย์ที่มีเป้าหมาย มีผลประโยชน์ และมีอำนาจในการออกแบบระบบ ดังนั้นคำถามที่สำคัญที่สุดไม่ใช่ "AI เก่งแค่ไหน?" แต่คือ "AI ถูกออกแบบมาเพื่อรับใช้ใคร?"
สามระดับของการ "รับใช้คนผิดคน"
ระดับที่ 1: การออกแบบระบบ (System Design)
ก่อนที่ AI จะเรียนรู้อะไรได้เลย ต้องมีคนตัดสินใจว่าจะวัด "อะไร" และไม่วัด "อะไร" ในระบบตรวจจับการทุจริต เราจะนิยาม fraud อย่างไร? จะรวมการล็อบบี้ทางกฎหมายด้วยไหม? จะรวมการใช้ช่องว่างทางกฎหมายในการหลีกเลี่ยงภาษีด้วยไหม?
คำตอบของคำถามเหล่านี้ถูกกำหนดโดยผู้ออกแบบระบบ ไม่ใช่โดย AI และผู้ออกแบบระบบมักคือรัฐ บริษัทใหญ่ หรือผู้มีทุน — ซึ่งล้วนมีสิ่งที่ "ไม่ต้องการให้ AI มองเห็น" อยู่เสมอ
ระดับที่ 2: ข้อมูลที่ใช้ฝึก (Training Data)
AI เรียนรู้จากข้อมูลในอดีต และข้อมูลในอดีตสะท้อนโครงสร้างอำนาจที่มีอยู่แล้ว ตัวอย่างที่ชัดเจนที่สุดคือระบบ Predictive Policing ในสหรัฐฯ ที่ใช้ AI ทำนายว่าพื้นที่ไหนจะมีอาชญากรรม
ปัญหาคือข้อมูลที่ใช้ฝึกระบบนั้นมาจากประวัติการจับกุมในอดีต ซึ่งมีอคติของตำรวจที่เน้นตรวจสอบชุมชนคนจนและชนกลุ่มน้อยมากกว่า ผลลัพธ์คือ AI "ทำนาย" ว่าพื้นที่เหล่านั้นจะมีอาชญากรรมสูง ตำรวจก็ส่งกำลังไปมากขึ้น จับคนได้มากขึ้น และข้อมูลก็ยืนยัน "ความถูกต้อง" ของ AI — วงจรที่ทำให้ความไม่เป็นธรรมดูเป็นวิทยาศาสตร์
ระดับที่ 3: การควบคุม Output (Output Control)
แม้ AI จะตรวจเจอความผิดปกติจริง ยังต้องมีคนตัดสินใจว่าจะทำอะไรกับผลลัพธ์นั้น ในระบบที่ผู้ควบคุม AI มีผลประโยชน์ทับซ้อน ผลลัพธ์ที่ "อึดอัด" มักถูกเก็บเงียบ ถูกตีความใหม่ หรือถูกฝังไว้ในรายงานที่ไม่มีใครอ่าน
กรณีศึกษาจากโลกจริง
COMPAS: เมื่อ AI ตัดสินชะตาคนในศาล
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) คือระบบ AI ที่ใช้ในศาลหลายรัฐของสหรัฐฯ เพื่อประเมินความเสี่ยงว่าผู้ต้องหาจะกระทำผิดซ้ำหรือไม่ และนำไปใช้ประกอบการตัดสินโทษ
การวิเคราะห์โดย ProPublica ในปี 2016 พบว่าระบบนี้มีแนวโน้มให้คะแนนความเสี่ยงสูงกว่าความเป็นจริงกับผู้ต้องหาผิวดำถึงสองเท่า และให้คะแนนต่ำกว่าความเป็นจริงกับผู้ต้องหาผิวขาว ผลคือคนที่ไม่ได้กระทำผิดซ้ำจริงถูกตัดสินโทษหนักขึ้น ขณะที่คนที่กระทำผิดซ้ำจริงได้รับโทษเบากว่า — เพราะสีผิว ไม่ใช่เพราะพฤติกรรม
Facial Recognition กับการจับผิดคน
ระบบจดจำใบหน้าที่ใช้โดยตำรวจในหลายเมืองทั่วโลก ถูกพบว่ามีอัตราความผิดพลาดสูงกว่าอย่างมีนัยสำคัญเมื่อระบุใบหน้าของคนผิวเข้ม ผู้หญิง และผู้สูงอายุ เมื่อเทียบกับชายผิวขาวอายุกลางคน เหตุผลคือข้อมูลฝึกมีรูปภาพของกลุ่มหลังมากกว่ากลุ่มอื่นอย่างไม่สมดุล
ในปี 2020 ชายผิวดำในมิชิแกนถูกจับกุมโดยอ้างอิงจากผล Facial Recognition ที่ผิดพลาด ก่อนที่จะได้รับการพิสูจน์ว่าบริสุทธิ์ในภายหลัง
แล้วจะแก้ได้อย่างไร?
ปัญหานี้ไม่มีทางออกทางเทคนิคล้วนๆ เพราะมันไม่ใช่ปัญหาทางเทคนิคล้วนๆ สิ่งที่จำเป็นต้องเกิดขึ้นพร้อมกันคือ
ความโปร่งใสของ Algorithm — ผู้ที่ถูก AI ตัดสินต้องมีสิทธิ์รู้ว่าระบบทำงานอย่างไร และสามารถโต้แย้งได้
การตรวจสอบโดยอิสระ — AI ที่ใช้ในภาครัฐต้องถูกตรวจสอบโดยหน่วยงานที่ไม่มีผลประโยชน์ทับซ้อน ไม่ใช่แค่ผู้พัฒนาหรือผู้ใช้งาน
ความหลากหลายในข้อมูล — ข้อมูลฝึกต้องสะท้อนความหลากหลายของสังคม ไม่ใช่แค่กลุ่มที่มีข้อมูลมากที่สุดอยู่แล้ว
กฎหมายและกลไกรับผิดชอบ — เมื่อ AI ตัดสินใจผิดพลาดและทำให้คนเสียหาย ต้องมีกลไกที่ชัดเจนว่าใครรับผิดชอบ
บทสรุป: ความแม่นยำในมือของใครบางคน
AI แม่นยำจริง — แต่ความแม่นยำนั้นรับใช้เป้าหมายของผู้ที่ถือกุญแจมัน ในโลกที่ AI เข้ามามีบทบาทในการตัดสินใจมากขึ้นทุกวัน ตั้งแต่การปล่อยกู้ การสมัครงาน ไปจนถึงกระบวนการยุติธรรม การตั้งคำถามว่า "AI นี้รับใช้ใคร?" จึงไม่ใช่การต่อต้านเทคโนโลยี
แต่คือการรักษาความเป็นมนุษย์ของสังคม












