
ทำไมคนส่วนใหญ่ในโลกยังไม่ไว้วางใจ AI — และมันหมายความว่าอะไร
ในยุคที่ปัญญาประดิษฐ์ถูกฝังเข้าไปในทุกมิติของชีวิตดิจิทัล ตั้งแต่แอปพลิเคชันจดบันทึกบนสมาร์ตโฟนไปจนถึงระบบแนะนำเส้นทางและเครื่องมือช่วยเขียนโค้ด ข้อมูลจากผลสำรวจชิ้นสำคัญชี้ให้เห็นภาพที่ขัดแย้งอย่างชัดเจน: คน 46% บอกว่าพวกเขา "ไม่พอใจ" ต่อ AI ขณะที่มีเพียง 26% เท่านั้นที่แสดงความเห็นด้วย ส่วนที่เหลืออีกกว่า 28% ยังอยู่ในจุดกึ่งกลางที่ไม่แน่ใจ
ตัวเลขเหล่านี้ไม่ใช่แค่ข้อมูลทางสถิติ แต่สะท้อนวิกฤตความเชื่อใจที่กำลังกลายเป็นปัญหาเชิงโครงสร้างให้กับอุตสาหกรรมเทคโนโลยีทั่วโลก — และเป็นคำถามที่ไม่มีคำตอบง่าย ๆ
ช่องว่างระหว่าง "ใช้ AI" กับ "เชื่อใจ AI"
ปรากฏการณ์ที่น่าสนใจคือ แม้ผู้คนจะ "ใช้" AI อยู่ทุกวัน แต่ไม่ได้หมายความว่าพวกเขา "ไว้ใจ" มัน ลองนึกถึงกรณีง่าย ๆ เช่น การที่เราใช้ Google Maps นำทางไปทุกวัน แต่ยังลังเลที่จะเชื่อตามคำแนะนำทันทีหากมันพาเราเข้าซอยที่ดูแปลก ๆ
นักวิจัยด้านจิตวิทยาเทคโนโลยีเรียกปรากฏการณ์นี้ว่า "Automation Complacency Gap" — ช่องว่างระหว่างการพึ่งพาระบบอัตโนมัติในชีวิตจริงกับระดับความเชื่อมั่นที่แท้จริงในใจ ผู้ใช้อาจรู้สึกว่าต้อง "ตรวจสอบ" ผลลัพธ์ของ AI อยู่เสมอ ซึ่งลดทอนประโยชน์ที่ควรจะได้รับ
ตัวอย่างจากโลกจริง: AI ในการแพทย์
ในโรงพยาบาลหลายแห่งของสหรัฐฯ มีการทดลองใช้ระบบ AI วินิจฉัยรูปถ่ายทางการแพทย์ แม้ตัวเลขความแม่นยำของระบบเหล่านี้มักสูงกว่าแพทย์มนุษย์ในบางงาน แต่แพทย์ส่วนใหญ่ยังยืนยันที่จะดูผลของตัวเองก่อนแล้วค่อยเทียบกับ AI ไม่ใช่ในทางกลับกัน สิ่งนี้ชี้ว่าความน่าเชื่อถือทางสถิติ ไม่ได้เท่ากับความไว้วางใจทางจิตใจ
ต้นตอของความไม่ไว้วางใจ: 4 ปัจจัยหลัก
1. ความทึบแสงของกล่องดำ (Black Box Problem)
ระบบ AI โดยเฉพาะ Large Language Models (LLMs) มักไม่สามารถอธิบายได้อย่างชัดเจนว่า "ทำไมถึงตอบแบบนี้" ผู้ใช้ทั่วไปจึงรู้สึกว่ากำลังพูดคุยกับบางสิ่งที่พวกเขาไม่เข้าใจ ความรู้สึกนี้สร้างระยะห่างทางจิตวิทยาโดยอัตโนมัติ
2. ประวัติความผิดพลาดที่ถูกจำ
กรณีที่ AI "หลอนประสาท" (hallucinate) หรือสร้างข้อมูลเท็จออกมาอย่างมั่นใจ เช่น กรณีที่ทนายความในสหรัฐฯ ใช้ ChatGPT ค้นหาคดีตัวอย่างแล้วพบว่าคดีเหล่านั้นไม่มีอยู่จริง กลายเป็นเรื่องราวที่ถูกแชร์ไปทั่วโลก ความผิดพลาดครั้งเดียวที่ดังมาก อาจทิ้งรอยไว้นานกว่าความสำเร็จนับพัน
3. ความกังวลด้านความเป็นส่วนตัว
ผู้ใช้หลายคนไม่แน่ใจว่าข้อมูลที่พิมพ์ลงใน AI chatbot จะถูกนำไปใช้อย่างไร จะถูกเก็บไว้หรือไม่ จะถูกใช้ฝึกโมเดลอีกครั้งหรือเปล่า ความไม่ชัดเจนนี้ทำให้ผู้ใช้ระมัดระวังในการเปิดเผยข้อมูลส่วนตัว
4. ช่องว่างด้านข้อมูลและการศึกษา
คนส่วนใหญ่เรียนรู้เกี่ยวกับ AI ผ่านข่าวและโซเชียลมีเดีย ซึ่งมักนำเสนอสองขั้วสุดโต่ง: AI จะมาแทนที่ทุกอาชีพ หรือ AI คือเทคโนโลยีมหัศจรรย์ที่แก้ปัญหาได้ทุกอย่าง ทั้งสองภาพนี้ล้วนบิดเบือนความเข้าใจ และนำไปสู่ความกลัวหรือความผิดหวังที่ไม่สมเหตุสมผล
บริษัทเทคฯ กำลังทำอะไรอยู่ — และพอหรือยัง?
ผู้นำอุตสาหกรรม AI ต่างตระหนักถึงปัญหานี้และเริ่มตอบสนองในหลายรูปแบบ
การลงทุนด้าน Explainable AI (XAI)
บริษัทต่าง ๆ เช่น Google, IBM และ Anthropic กำลังพัฒนาระบบที่สามารถอธิบาย "ขั้นตอนความคิด" ของตัวเองได้มากขึ้น เป้าหมายคือเปลี่ยน AI จาก "กล่องดำ" ให้กลายเป็น "กล่องโปร่งใส" ที่ผู้ใช้สามารถตรวจสอบและเข้าใจได้
นโยบาย AI Governance และ Safety
หลายบริษัทเริ่มเผยแพร่ "Model Cards" หรือรายงานที่อธิบายข้อจำกัดและความเสี่ยงของ AI แต่ละตัว รวมถึงการตั้งทีม Trust & Safety เพื่อตรวจสอบผลลัพธ์ที่เป็นอันตราย กฎหมาย EU AI Act ที่บังคับใช้ในยุโรปเป็นตัวอย่างของการผลักดันระดับกฎหมายให้บริษัทต้องโปร่งใสมากขึ้น
การให้ความรู้แก่ผู้ใช้
แคมเปญด้าน AI Literacy เริ่มขยายตัว โดยมีทั้งโครงการจากภาครัฐ สถาบันการศึกษา และบริษัทเทคโนโลยีเอง เพื่อช่วยให้ผู้คนเข้าใจว่า AI ทำงานอย่างไร มีขีดจำกัดอะไร และใช้งานได้อย่างชาญฉลาดแค่ไหน
อย่างไรก็ตาม คำถามที่ยังค้างคาคือ: มาตรการเหล่านี้ไปถึงผู้ใช้ทั่วไปจริง ๆ หรือไม่? หรือเป็นเพียงการประชาสัมพันธ์ที่ดูดีบนกระดาษ?
ความไว้วางใจไม่ใช่ "Feature" แต่คือรากฐาน
บทเรียนสำคัญที่อุตสาหกรรม AI กำลังเผชิญคือ เทคโนโลยีที่ดีที่สุดในโลกไร้ความหมาย หากผู้คนไม่กล้าพึ่งพามัน ความไว้วางใจไม่ใช่คุณสมบัติที่เพิ่มทีหลังได้ แต่เป็นโครงสร้างพื้นฐานที่ต้องสร้างตั้งแต่แรก
สำหรับผู้ใช้ทั่วไป ความเข้าใจที่ดีเกี่ยวกับ AI — ทั้งสิ่งที่มันทำได้และทำไม่ได้ — คือโล่ป้องกันที่ดีที่สุดต่อทั้งความกลัวที่เกินจริงและความคาดหวังที่เกินจริง ในขณะที่บริษัทเทคโนโลยีมีหน้าที่พิสูจน์ด้วยการกระทำ ไม่ใช่แค่คำพูด ว่าพวกเขาจริงจังกับความรับผิดชอบนี้
ตัวเลข 46% ที่ไม่พอใจ AI อาจดูน่ากังวล แต่ก็เป็นสัญญาณเตือนที่มีคุณค่า — มันบอกว่ายังมีงานต้องทำอีกมาก และทิศทางนั้นชัดเจน: ความโปร่งใส, ความรับผิดชอบ, และการศึกษา คือสามเสาหลักที่จะพาโลก AI ไปถึงจุดที่เชื่อใจได้จริง ๆ












