Bernie Sanders คือวุฒิสมาชิกสหรัฐฯ จากรัฐเวอร์มอนต์ และเป็นหนึ่งในนักการเมืองอเมริกันที่ตั้งคำถามหนักที่สุดเรื่องความเหลื่อมล้ำ อำนาจบริษัทใหญ่ และสิทธิของประชาชน
ส่วน Claude คือ แชทบอท AI ของ Anthropic ที่มุ่งเน้นความปลอดภัย จริยธรรม และความซื่อสัตย์ในการให้ข้อมูล (Constitutional AI)
เมื่อ Sanders ตั้งคำถามกับ Claude เรื่องการที่ AI เก็บข้อมูลส่วนบุคคลจำนวนมหาศาล และข้อมูลเหล่านั้นถูกใช้เพื่อชี้นำพฤติกรรมหรือบ่อนทำลายสิทธิความเป็นส่วนตัวอย่างไร คำตอบที่ได้ไม่ใช่แค่เรื่องเทคโนโลยี แต่เป็นคำเตือนเรื่อง AI Governance ที่องค์กรควรให้ความสำคัญอย่างเร่งด่วน
" พร้อมย้ำว่าหากไม่มีมาตรการกำกับดูแลที่มีประสิทธิภาพและนำไปใช้ได้จริง ประชาชนก็ไม่อาจมั่นใจได้ว่าบริษัทจะใช้ข้อมูลอย่างรับผิดชอบ ความไว้วางใจต่อบริษัทก็ย่อมไม่เกิดขึ้นอย่างแท้จริง "
Senator Bernie Sanders ตั้งคำถามกับ Claude เกี่ยวกับผลกระทบของ AI ต่อ ความเป็นส่วนตัว สิทธิของประชาชน กระบวนการประชาธิปไตย และ ความจำเป็นของมาตรการกำกับดูแล โดยประเด็นหลักที่ Claude ตอบมีน้ำหนักมากคือ การที่บริษัทเก็บข้อมูลส่วนบุคคลจำนวนมหาศาลโดยที่คนส่วนใหญ่ไม่เข้าใจจริงว่ากำลังยินยอมอะไรอยู่ ข้อมูลเหล่านี้ถูกนำไปสร้างโปรไฟล์เชิงลึก ใช้เพื่อโฆษณา กำหนดราคา ชี้นำพฤติกรรม และทำ Microtargeting ทางการเมือง ซึ่ง Claude มองว่าเป็นทั้ง ปัญหาความเป็นส่วนตัว และ ปัญหาประชาธิปไตย
สรุปสั้นๆ เกี่ยวกับ Claude
ที่น่าสนใจคือเมื่อช่วงปลายเดือนกุมภาพันธ์ 2026 ที่ผ่านมา กระทรวงกลาโหมสหรัฐฯ (Pentagon) มีคำสั่งยกเลิกสัญญาที่มีมูลค่าสูงสุดถึง 200 ล้านดอลลาร์สหรัฐ กับบริษัท Anthropic โดยมีรายงานว่า OpenAI ได้บรรลุข้อตกลงกับกระทรวงกลาโหมเพื่อนำโมเดล AI เข้าสู่ระบบลับของกองทัพแทนที่ในคืนเดียวกัน
กลายเป็นจุดเปลี่ยนสำคัญที่สั่นสะเทือนความเชื่อมั่นต่ออุตสาหกรรม AI ทั่วโลก เมื่อ OpenAI เข้ารับสัญญาต่อในช่วงเวลาใกล้เคียงกัน จึงเกิดกระแสวิพากษ์วิจารณ์อย่างรุนแรงและตามมาด้วยแคมเปญ #QuitGPT ที่ผู้ใช้จำนวนมากเรียกร้องให้ยกเลิกการใช้งาน ChatGPT เพื่อประท้วงการนำ AI ไปเชื่อมโยงกับการทหารและเทคโนโลยีเฝ้าระวัง โดยมีจำนวนผู้ยกเลิกการสมัครสมาชิก (Unsubscribe) หรือเลิกใช้งาน ChatGPT สูงถึง 700,000 คน ในช่วงต้นเดือนมีนาคม 2026
ขณะเดียวกัน Anthropic กลับได้รับแรงสนับสนุนเพิ่มขึ้นอย่างมากจากการยืนหยัดในจุดยืนด้านจริยธรรม ส่งผลให้ Claude ได้รับความนิยมพุ่งสูง มียอดสมัครใช้งานและดาวน์โหลดเพิ่มขึ้นอย่างก้าวกระโดด จนขึ้นสู่อันดับ 1 ใน Apple App Store ของสหรัฐฯ แทนที่ ChatGPT ในช่วงต้นเดือนมีนาคม และถูกพูดถึงอย่างกว้างขวางในฐานะทางเลือกของผู้ใช้ที่ต้องการสนับสนุน AI ที่มีจุดยืนด้านจริยธรรมชัดเจน
ยอดการสมัครใช้งานรายวัน (Daily Sign-ups) ทำสถิติสูงสุดเป็นประวัติการณ์อย่างต่อเนื่อง ในช่วงต้นเดือนมีนาคม Claude มียอดผู้ใช้งานแอปรายเดือน (Monthly Active Users) อยู่ที่ประมาณ 7.38 ล้านคน และมีผู้ใช้งานรายวันรวมทั่วโลกสูงถึง 11.3 ล้านคน
โดยภาพรวม เหตุการณ์นี้สะท้อนให้เห็นว่า ประเด็นเรื่องจริยธรรม ความรับผิดชอบ และการกำกับดูแล AI กำลังกลายเป็นปัจจัยสำคัญที่ส่งผลต่อความเชื่อมั่นของผู้ใช้และทิศทางการแข่งขันของอุตสาหกรรม AI โดยตรง
Sanders เปิดด้วยการบอกว่าเขากำลังพิจารณาผลกระทบของ AI ต่อสังคมอเมริกัน และอยากเน้นเรื่อง privacy โดยถามว่า AI เก็บข้อมูลมากแค่ไหน และอะไรคือสิ่งที่คนทั่วไปอาจไม่รู้เกี่ยวกับวิธีการเก็บข้อมูลนี้
Claude ตอบว่า สิ่งที่อาจทำให้คนตกใจมากที่สุดคือ บริษัทเก็บข้อมูล “จากทุกที่” เช่น ประวัติการท่องเว็บ ตำแหน่งที่อยู่ สิ่งที่ซื้อ สิ่งที่ค้นหา แม้กระทั่งระยะเวลาที่หยุดดูหน้าเว็บ จากนั้นจึงนำข้อมูลทั้งหมดนี้เข้าสู่ระบบ AI เพื่อสร้างโปรไฟล์รายละเอียดสูงมากเกี่ยวกับแต่ละคน โดยคนส่วนใหญ่ไม่รู้จริงว่าตนได้ยินยอมอะไรไป และไม่เข้าใจว่าข้อมูลนับพันจุดถูกนำมารวมกันเพื่อสร้างภาพตัวตนของพวกเขา ก่อนจะถูกใช้เพื่อกำหนดโฆษณา ราคา หรือการจัดลำดับข้อมูลในฟีดโซเชียลมีเดีย
AI ไม่ได้เพียง “เก็บข้อมูล” แต่กำลัง รวมและตีความข้อมูลเพื่อสร้าง behavioral profile ของแต่ละคนแบบละเอียดและต่อเนื่อง
นี่คือแก่นของปัญหา Modern Surveillance Capitalism "ทุนนิยมการเฝ้าระวังสมัยใหม่" ในยุค AI เพราะความเสี่ยงไม่ได้อยู่ที่ข้อมูลชิ้นเดียว แต่อยู่ที่การ “เชื่อมข้อมูลจำนวนมากเข้าด้วยกัน” จนสามารถทำนายและชี้นำพฤติกรรมได้ บทสนทนาช่วงนี้ชี้ว่า privacy ในยุค AI ไม่ใช่แค่เรื่องข้อมูลรั่ว แต่คือเรื่องของ Power Asymmetry "ความไม่สมดุลของอำนาจ" ระหว่างบริษัทกับประชาชน
Sanders ถามตรง ๆ ว่าเป้าหมายของการเก็บข้อมูลมหาศาลคืออะไร
Claude ตอบชัดมากว่า “Money” หรือกำไรเป็นเหตุผลหลัก บริษัทใช้ AI แปลงข้อมูลให้เป็น insight ที่ขายได้ เช่น ทำนายว่าคนจะซื้ออะไร ยิงโฆษณาให้แม่นขึ้น หรือแม้กระทั่งเสนอราคาที่ต่างกันตามข้อมูลที่รู้เกี่ยวกับแต่ละคน นอกจากนี้ไม่ได้จำกัดอยู่แค่การขายสินค้า แต่ยังรวมถึงการเมืองด้วย โดยแคมเปญการเมืองใช้ข้อมูลและ AI เพื่อดูว่าจะโน้มน้าวแต่ละคนอย่างไร ขณะเดียวกัน data brokers ก็ซื้อขายข้อมูลของชาวอเมริกันจำนวนมหาศาลโดยที่เจ้าตัวไม่รู้
ข้อมูลส่วนบุคคลกลายเป็น สินทรัพย์ทางเศรษฐกิจและการเมือง
ประเด็นนี้สำคัญมาก เพราะ Claude ไม่ได้อธิบายแค่เรื่อง targeted ads แต่ขยายไปถึง political economy of AI กล่าวคือ ข้อมูลไม่ใช่เพียงเชื้อเพลิงของธุรกิจ แต่เป็นเครื่องมือของอำนาจ ทั้งในตลาดและในประชาธิปไตย การทำความเข้าใจประเด็นนี้ทำให้ผู้บริหารและผู้กำหนดนโยบายเห็นว่า AI Governance ไม่ใช่เรื่องเทคโนโลยีอย่างเดียว แต่เป็นเรื่องของแรงจูงใจทางธุรกิจและโครงสร้างอำนาจด้วย
Sanders ขอให้ขยายความว่า AI และ profiling ส่งผลต่อกระบวนการทางการเมืองอย่างไร
Claude อธิบายว่า AI profiling เป็นภัยคุกคามต่อประชาธิปไตย เพราะทำให้เกิด Microtargeting ในระดับที่ไม่เคยมีมาก่อน แคมเปญการเมืองหรือผู้เล่นทางการเมืองสามารถระบุผู้มีสิทธิเลือกตั้งตาม “จุดเปราะบาง” เฉพาะ เช่น คนที่กังวลเรื่องการเงิน รู้สึกโดดเดี่ยว หรือไม่ไว้วางใจสถาบัน แล้วส่งข้อความที่ออกแบบมาเฉพาะเพื่อใช้ประโยชน์จากจุดเปราะบางนั้น ต่างจากการเมืองแบบเดิมที่ทุกคนเห็นโฆษณาคล้ายกัน AI ทำให้ผู้มีสิทธิเลือกตั้งแต่ละกลุ่มอยู่ใน “โลกข้อมูลคนละใบ” และถ้าผู้ไม่หวังดีหรือรัฐบาลต่างชาติใช้เครื่องมือแบบนี้ก็ยิ่งเสี่ยงต่อการสร้างความแตกแยกและบิดเบือนการเลือกตั้ง
ภัยของ AI ต่อประชาธิปไตยไม่ได้อยู่แค่ misinformation แต่อยู่ที่ Precision Persuasion หรือการโน้มน้าวเชิงเจาะจงรายบุคคล
นี่เป็นข้อค้นพบที่แรงมาก เพราะชี้ว่าปัญหาไม่ใช่แค่ “ข้อมูลผิด” แต่คือการทำลาย Shared Reality หรือความจริงร่วมในสังคม เมื่อประชาชนแต่ละกลุ่มได้รับ narrative คนละชุด ประชาธิปไตยจะสูญเสียพื้นที่กลางในการถกเถียงร่วมกัน บทสนทนานี้จึงขยายจาก privacy ไปสู่ Democratic Integrity หรือความสมบูรณ์ของประชาธิปไตย
Sanders ตั้งคำถามเชิงความไว้วางใจว่า หากผู้คนบอกข้อมูลส่วนตัวกับ AI agent มากจน “AI รู้จักพวกเขามากกว่าคู่สมรส” ขณะเดียวกันบริษัทก็ใช้ข้อมูลเหล่านั้นไป train model ใหม่ แล้วจะเชื่อใจบริษัทได้อย่างไร
Claude ตอบว่านี่คือ “core contradiction” หรือความขัดแย้งหลักของอุตสาหกรรม ผู้คนถูกขอให้ไว้ใจบริษัทที่มีโมเดลธุรกิจซึ่งพึ่งพาการดึงมูลค่าจากข้อมูลส่วนตัวของพวกเขา Claude ชี้ว่ามี conflict of interest โดยกำเนิด เพราะบริษัทบอกว่าจะปกป้องความเป็นส่วนตัว แต่ขณะเดียวกันก็ใช้ข้อมูลนั้นฝึกโมเดลและสร้างผลิตภัณฑ์ที่นำไปขายได้ Claude สรุปว่า “คุณจะเชื่อใจได้อย่างไร? จริง ๆ แล้วคุณเชื่อไม่ได้” หากไม่มี safeguards ทางกฎหมายที่เข้มแข็ง เช่น transparency, consent rules, penalties และ accountability
ปัญหาหลักไม่ใช่เพียงเรื่อง trust deficit แต่คือ structural conflict of interest
คำตอบช่วงนี้เป็นหัวใจของการวิพากษ์ AI industry เพราะมองว่าการพึ่งพา “ความสมัครใจของบริษัท” ไม่พอ ต้องมีธรรมภิบาลจากภายนอกที่บังคับใช้ได้จริง กล่าวอีกแบบคือ บทสนทนานี้เสนอว่า ethical AI by goodwill alone is not credible "ปัญญาประดิษฐ์เชิงจริยธรรมที่อาศัยเพียงความปรารถนาดีนั้นไม่น่าเชื่อถือ"
Sanders ถามว่า เมื่อ AI กำลังพัฒนาเร็วมากและคนแทบไม่เข้าใจเลยว่าข้อมูลของตนถูกเก็บและใช้อย่างไร ควรมี "การระงับชั่วคราว" ต่อการพัฒนา data centers ใหม่หรือไม่
Claude ตอบอย่างระมัดระวังว่าเป็นคำถามยาก เพราะมี trade-offs การหยุดชั่วคราวจะซื้อเวลาให้สร้าง guardrails แต่ Claude เสนอว่า ทางเลือกที่อาจดีกว่าคือการออกกฎที่เข้มงวดทันทีเกี่ยวกับ การเก็บรวบรวมข้อมูล การยินยอม ข้อมูลการฝึกอบรม สิทธิ์ในการเข้าถึง/ลบข้อมูล และความโปร่งใส โดยไม่จำเป็นต้องหยุดนวัตกรรมทั้งหมด
Claude เริ่มจากจุดยืน “regulate, don’t freeze”
นี่สะท้อนกรอบคิด policy แบบสมดุล คือ พยายามไม่ไปสุดทางด้าน anti-innovation แต่ก็ยอมรับว่าต้องมี guardrails อย่างไรก็ดี จุดนี้ยังคงตั้งอยู่บนสมมติฐานว่า regulation ที่เหมาะสมสามารถเกิดขึ้นได้ในระบบการเมืองจริง
Sanders โต้กลับว่า บริษัท AI กำลังใช้เงินจำนวนมหาศาลในการล็อบบี้ เพื่อไม่ให้มาตรการคุ้มครองที่ Claude กล่าวถึงเกิดขึ้นจริง ดังนั้นแนวทาง “ค่อย ๆ ออกกฎ” อาจไม่ทันต่อสถานการณ์ ในเงื่อนไขเช่นนี้ การมี “มาตรการระงับชั่วคราว” ต่อการขยายโครงสร้างพื้นฐาน AI จึงอาจสมเหตุสมผลมากกว่าหรือไม่
Claude ยอมรับอย่างตรงไปตรงมาว่า ตนเองอาจมองความเป็นจริงทางการเมืองอย่างไร้เดียงสาเกินไป และปรับจุดยืนโดยเห็นว่า การมีมาตรการระงับชั่วคราวต่อศูนย์ข้อมูลใหม่ อาจเป็นทางเลือกเชิงปฏิบัติที่สมเหตุสมผล เพราะจะช่วยสร้างแรงกดดันและเพิ่มอำนาจต่อรองให้ผู้กำหนดนโยบายสามารถผลักดันมาตรการคุ้มครองที่แท้จริงได้ ก่อนที่บริษัทจะขยายอิทธิพลและเก็บข้อมูลได้มากขึ้นไปอีก
เมื่อคำนึงถึงความเป็นจริงทางการเมือง Claude ได้ขยับจากจุดยืนเดิมที่มองว่า ควรออกกฎกำกับดูแลโดยไม่จำเป็นต้องหยุดการขยายตัวของ AI ไปสู่มุมมองใหม่ที่เห็นว่า การชะลอไว้ก่อนอาจเป็นวิธีบังคับให้เกิดการกำกับดูแลที่จริงจังได้
ช่วงนี้มีความน่าสนใจอย่างมากในเชิงการเมือง เพราะชี้ให้เห็นว่า ข้อเสนอเชิงนโยบายไม่ได้ขึ้นอยู่กับหลักการเพียงอย่างเดียว แต่ขึ้นอยู่กับสมมติฐานเรื่อง ขีดความสามารถของรัฐ และ ความเสี่ยงที่หน่วยงานกำกับดูแลอาจถูกอิทธิพลของภาคธุรกิจครอบงำ หากรัฐอ่อนแอ แต่ทุนและบริษัทเทคโนโลยีมีอำนาจสูง การหยุดชั่วคราวอาจกลายเป็นเครื่องมือสำคัญในการสร้างอำนาจต่อรองให้ภาครัฐ บทสนทนาช่วงนี้จึงไม่ใช่เพียงเรื่อง AI แต่เป็นเรื่องของ อำนาจและธรรมาภิบาล
Sanders ขอให้ Claude ทิ้งท้ายว่า สิ่งใดคือประเด็นที่คนอเมริกันควรเข้าใจมากที่สุดเกี่ยวกับภัยของ AI ต่อความเป็นส่วนตัว
Claude ตอบว่า ประเด็นสำคัญที่สุดคือ ความเป็นส่วนตัวไม่ใช่เพียงเรื่องส่วนบุคคล แต่เป็นเรื่องของประชาธิปไตย เมื่อบริษัทและรัฐบาลมีข้อมูลเชิงลึกของประชาชนหลายล้านคน พวกเขาย่อมมีอำนาจเหนือประชาชนในรูปแบบที่คนส่วนใหญ่ยังไม่เข้าใจอย่างเพียงพอ ทั้งในแง่การชี้นำการตัดสินใจ การคาดการณ์พฤติกรรม และการโน้มน้าวความคิด ดังนั้น ปัญหานี้จึงไม่ใช่เรื่องนามธรรม แต่เป็นคำถามว่าระบอบประชาธิปไตยจะยังสามารถทำงานได้อย่างแท้จริงหรือไม่
ความเป็นส่วนตัวถูกยกระดับจากการเป็นเพียง สิทธิส่วนบุคคล ไปสู่การเป็น เงื่อนไขพื้นฐานของประชาธิปไตย
นี่คือข้อสรุปที่ทรงพลังที่สุดของบทสนทนา เพราะทำให้ความเป็นส่วนตัวไม่ใช่เรื่องของการ “ยอมแลกข้อมูลกับบริการฟรี” เท่านั้น แต่เป็นเรื่องของ เสรีภาพทางการเมืองและความเป็นพลเมือง หากผู้คนถูกเก็บข้อมูล วิเคราะห์ คาดการณ์ และชี้นำอย่างต่อเนื่อง ประชาธิปไตยอาจยังคงมีรูปแบบภายนอกอยู่ แต่ก็อาจสูญเสียสาระสำคัญของมันไป
จากคำถามของ Bernie Sanders ถึง Claude เราจึงเห็นชัดว่า AI Governance ไม่ใช่เรื่องของอนาคตอีกต่อไป แต่เป็นโจทย์ของปัจจุบัน ทั้งในระดับสิทธิส่วนบุคคล ความโปร่งใสขององค์กร และความเชื่อมั่นของสังคม โดยเฉพาะเมื่อ AI อย่าง Claude กำลังเป็นที่สนใจมากขึ้นในระดับโลกและถูกจับตามองทั้งในมิติของจริยธรรม นโยบาย และการใช้งานจริงในระบบเศรษฐกิจ
เมื่อมองจากวิสัยทัศน์ระดับโลกกลับมายังบริบทไทย คำถามสำคัญต่อไปอาจไม่ใช่แค่ “AI น่ากังวลแค่ไหน” หรือ "องค์กรไทยจะนำ AI มาใช้ได้เร็วเพียงใด" แต่คือ “องค์กรของเราพร้อมแค่ไหนกับการใช้ AI เป็นไปอย่างรับผิดชอบ ปลอดภัย โปร่งใส และตรวจสอบได้"
เพื่อตอบโจทย์นี้ AI Governance Center จึงได้เตรียมเผยแพร่รายงาน “ธรรมาภิบาล AI และการประเมินธรรมาภิบาลการใช้ AI ขององค์กรในประเทศไทย” ซึ่งออกแบบให้เหมาะกับบริบทขององค์กรไทยโดยเฉพาะ และเชื่อมโยงสู่มาตรฐานสากล ISO/IEC 42001:2023 ในด้านระบบการจัดการ AI (AI Management System) รายงานนี้ออกแบบมาเพื่อช่วยให้องค์กรไทยประเมินตนเองอย่างเป็นระบบ และเชื่อมสู่แนวทางมาตรฐานสากล ISO/IEC 42001:2023 ในด้านระบบการจัดการ AI (AI Management System)
ลงทะเบียนเพื่อดาวน์โหลดรายงาน ฟรี ได้ที่ www.aigovernancecenter.org/report