SCGP Newsroom

21

AI Regulation ชวนส่องกฎหมาย AI ทั่วโลก

Loading Data...

หลัง EU AI Act หรือ “กฎหมายว่าด้วยปัญญาประดิษฐ์ของสหภาพยุโรป” บังคับใช้มาปีกว่า (1 สิงหาคม 2567) นานาชาติต่างทยอยออกกฎและข้อบังคับด้านการกำกับดูแล AI ในแบบฉบับของตนเองออกมาเพื่อสร้างสมดุลระหว่างการคุ้มครองสิทธิประชาชนกับการส่งเสริมนวัตกรรมและการแข่งขันที่เป็นธรรม แต่ท่ามกลางการก้าวกระโดดของเทคโนโลยี กฎที่สร้างเพื่อล้อมรั้ว AI จะเท่าทันแค่ไหน มาดูไปพร้อมกัน

AI Regulation ในต่างแดน

แม้ผลลัพธ์ที่คาดหวังของทุกประเทศจะมุ่งไปในทิศทางเดียวกัน แต่รายละเอียดและความยืดหยุ่นของการบังคับใช้ ถูกออกแบบให้มีลักษณะต่างกันตามวิสัยทัศน์ของประเทศนั้น ๆ

 

ทวีปยุโรป

สหภาพยุโรปวางการควบคุม AI เชิงรุก ด้วยการออกกฎหมาย พระราชบัญญัติ (EU AI Act) จัดระดับความเสี่ยงของระบบ AI ออกเป็น 4 ระดับ ได้แก่ 1. ความเสี่ยงน้อยที่สุด ใช้งานได้อิสระโดยไม่ต้องมีการกำกับดูแล 2. ความเสี่ยงจำกัด ต้องแจ้งให้ผู้ใช้งานทราบ เช่น แชตบอตที่ไม่เก็บข้อมูลส่วนตัวผู้ให้บริการ ควรแจ้งว่าผู้ใช้ว่ากำลังพูดคุยกับ AI เพื่อป้องกันการสับสน 3. ความเสี่ยงสูง อาจส่งผลต่อด้านสุขภาพ ความปลอดภัย หรือสิทธิขั้นพื้นฐาน ต้องขออนุญาตก่อนดำเนินกิจกรรม 4. ความเสี่ยงแบบยอมรับไม่ได้ มองว่าเป็นการคุกคาม ต้องยุติการดำเนินกิจกรรม เช่น ใช้ AI ระบุตัวตนประชาชนระยะไกลแบบเรียลไทม์ เพื่อบังคับใช้กฎหมายในพื้นที่สาธารณะ ถือเป็นการละเมิดสิทธิความเป็นส่วนตัว เป็นต้น โดยกฎนี้มีอำนาจบังคับใช้ครอบคลุมทั้ง 27 ประเทศสมาชิก แต่ประเทศนอกกลุ่มสมาชิกอาจใช้แนวทางที่ต่างกัน เช่น สหราชอาณาจักร เน้นการส่งเสริมด้านนวัตกรรม จึงวางกรอบการควบคุมให้หน่วยงานแต่ละภาคส่วนเป็นผู้กำหนด ทำให้มีความยืดหยุ่นกว่า และปัจจุบันอยู่ระหว่างต่อยอดการวางแผนร่างกฎหมายในอนาคต

 

สหรัฐอเมริกา

ไม่มีกฎหมายกลาง แต่ละรัฐออกกฎด้วยตัวเอง เช่น Colorado AI Act กฎหมาย AI ที่มีผลบังคับใช้ในปี 2569 มีสาระสำคัญเน้นการจัดการกับอคติและเลือกปฏิบัติจาก AI ทั้งฟากผู้พัฒนาและผู้ใช้ระบบ ทั้งนี้ เบื้องหลัง

การขับเคลื่อนมาจากประเด็นที่ถกเถียงในสังคม เช่น อัลกอริทึม COMPAS ที่ใช้ในการประเมินความเสี่ยงของผู้กระทำความผิดทางอาญา ถูกวิจารณ์ว่าเลือกปฏิบัติต่อคนผิวสี เพราะมีแนวโน้มจัดให้จำเลยผิวสีเป็นผู้มีความเสี่ยงสูงต่อการกระทำความผิดซ้ำเกินจริงเมื่อเทียบกับจำเลยผิวขาว หรือกรณีการฟ้องร้องบริษัท Workday บริษัทด้านการเงินด้านทรัพยากรบุคคลว่า เครื่องมือสรรหาบุคลากร AI ที่พวกเขาพัฒนาเลือกปฏิบัติต่อผู้สมัครที่มีอายุ 40 ปีขึ้นไป  

 

ทวีปเอเชีย

ปัจจุบันประเทศจีนวางมาตรการคุมเข้มเพื่อป้องกันการบิดเบือนด้านเนื้อหา ออกกฎหมายควบคุมติดป้ายกำกับคอนเทนต์สร้างโดย AI บนโซเชียลมีเดีย ขณะที่ประเทศสิงคโปร์เน้นการคุมที่ยืดหยุ่นผ่านการปรับปรุงกฎหมายเดิม เช่น การวางกรอบ Model AI Governance Framework และการออกแบบระบบ AI Verify เพื่อเป็นข้อแนะนำด้านจริยธรรมและความโปร่งใสในการใช้งาน

 

การพัฒนากฎหมาย AI ในประเทศไทย

ปัจจุบันมาตรการควบคุม AI ของประเทศไทยใช้ Soft Law หรือแนวทางปฏิบัติ (Guideline) และอยู่ระหว่างการดำเนินการจัดทำ “(ร่าง) หลักการของกฎหมายว่าด้วยปัญญาประดิษฐ์” ฉบับแรก โดยสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ภายใต้กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DE) เป็นผู้ดำเนินการ ซึ่งผสานการใช้ AI Sandbox ตั้งแต่ขั้นแนวคิด มุ่งสร้างพื้นที่ทดลองที่ทุกคนสามารถร่วมออกแบบ และวางรากฐานของระบบนิเวศ AI ที่มีธรรมาภิบาลได้

 

การพัฒนากฎหมาย AI มีความละเอียดอ่อนเพราะต้องคำนึงถึงบริบทของแต่ละประเทศ เช่น EU AI Act ออกกฎเข้มงวดสูงเพราะเน้นการคุ้มครองสิทธิพลเมือง ขณะที่หลายประเทศเลือกออกแบบให้ยืดหยุ่นกว่าเพื่อไม่ให้เป็นอุปสรรคต่อการพัฒนานวัตกรรม ดังนั้น การหมั่นอัปเดตกฎหมาย AI จึงไม่ใช่เรื่องไกลตัว เพราะไม่ว่าคุณจะอยู่ในฟากผู้ใช้หรือนักลงทุน ข้อมูลเหล่านี้ล้วนช่วยให้เราใช้งาน AI ได้อย่างปลอดภัย มองเห็นโอกาสใหม่ ๆ และสร้างการเติบโตอย่างยั่งยืนในอนาคต

เนื้อหาที่เกี่ยวข้อง

Loading Data...