หน้าหลัก / บทความ / legal
legal 2026.03.24 อ่าน 12 นาที

อ่านร่างกฎหมาย AI ไทยในระดับมาตรา | AI ต้องห้าม AI ความเสี่ยงสูง และภาระหน้าที่ผู้ให้บริการ [ซีรีส์กฎหมายดิจิทัล ตอนที่ 3]

ร่างกฎหมาย AI ของไทยใช้โครงสร้างการจัดประเภทตามความเสี่ยงคล้ายกับ EU AI Act บทความนี้วิเคราะห์ประเภทของ AI ต้องห้ามและ AI ความเสี่ยงสูง แยกแยะภาระหน้าที่ระหว่างผู้ให้บริการและผู้ใช้งาน และเปรียบเทียบกับ EU AI Act

คำกล่าวที่ว่า “ประเทศไทยไม่มีกฎหมาย AI” นั้นถูกต้องเพียงบางส่วน ณ เดือนมีนาคม 2569 ยังไม่มีกฎหมาย AI ฉบับสมบูรณ์ อย่างไรก็ตาม “หลักการร่างกฎหมาย AI (Draft Principles of the AI Law)” ได้รับการสรุปแล้วในเดือนมิถุนายน 2568 และ ETDA กำลังดำเนินการร่างข้อความตามกฎหมาย โครงสร้างตามความเสี่ยงมีความคล้ายคลึงกับ EU AI Act อย่างมาก บทความนี้จะแผนที่กรอบของร่างกฎหมาย AI ในระดับโครงสร้างทางกฎหมาย

← ตอนที่ 2: การบังคับใช้ PDPA และความเชื่อมโยงกับ AI


ประวัติการออกกฎหมาย — จากสองร่างสู่กรอบเดียว

2566–2568: ร่างกฎหมายสองฉบับที่พัฒนาคู่ขนาน

ร่างของ ONDE (สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ): พระราชกฤษฎีกาที่มุ่งเน้นความโปร่งใส ความปลอดภัย และความยุติธรรมในการใช้งาน AI เชิงพาณิชย์ รวมถึงระบบการอนุมัติล่วงหน้าสำหรับ AI ความเสี่ยงสูง

ร่างของ ETDA (สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์): กฎหมายสนับสนุนนวัตกรรมที่เน้น AI Sandbox การแบ่งปันข้อมูล และระบบการจัดประเภทตามความเสี่ยงที่ยืดหยุ่น อิงตาม EU AI Act

มิถุนายน 2568: “หลักการร่างกฎหมาย AI” ฉบับรวม

หลังการรับฟังความคิดเห็นสาธารณะ ร่างทั้งสองได้รวมกันในเดือนมิถุนายน 2568 เป็น “หลักการร่างกฎหมาย AI” ETDA ยังคงนำกระบวนการร่างข้อความตามกฎหมายต่อไป ยังไม่มีกำหนดเวลาที่ชัดเจนสำหรับการประกาศใช้


โครงสร้างการจัดประเภทความเสี่ยง — เปรียบเทียบกับ EU AI Act

ระดับความเสี่ยงร่างกฎหมาย AI ไทยEU AI Act
ต้องห้ามการให้คะแนนทางสังคม การบิดเบือน การเก็บข้อมูลชีวภาพแบบไม่เลือกหน้าAnnex I
ความเสี่ยงสูงการจ้างงาน สินเชื่อ การวินิจฉัยทางการแพทย์ การสนับสนุนคดีความAnnex III
ความเสี่ยงจำกัดแชทบอต ดีปเฟค (หน้าที่ความโปร่งใสเท่านั้น)AI ความเสี่ยงจำกัด
ความเสี่ยงน้อยที่สุดตัวกรองสแปม เกม AI (ไม่มีกฎระเบียบ)AI ความเสี่ยงน้อยที่สุด

จุดเด่นของไทย: การกำหนดรายการความเสี่ยงโดยหน่วยงาน

ต่างจาก EU AI Act ที่ระบุรายการ AI ความเสี่ยงสูงใน Annex III ของตัวกฎหมายเอง ร่างกฎหมาย AI ของไทย มอบอำนาจให้หน่วยงานกำกับดูแล (ETDA และหน่วยงานกำกับดูแลเฉพาะภาคส่วน) กำหนดรายการเฉพาะหลังการประกาศใช้ผ่านประกาศราชกิจจานุเบกษา


AI ต้องห้าม

ตัวอย่างของ AI ที่จัดอยู่ในหมวด “ต้องห้าม”:

ระบบให้คะแนนทางสังคม: AI ที่ประเมินพฤติกรรมทางสังคมของบุคคลอย่างครอบคลุมเพื่อจำกัดการเข้าถึงสิทธิ โอกาส หรือบริการ

AI บิดเบือนจิตใจ: AI ที่ใช้เทคนิคแอบแฝงหรือหลอกลวงเพื่อบั่นทอนการตัดสินใจอย่างอิสระของบุคคล

การเก็บข้อมูลชีวภาพแบบไม่เลือกหน้า: ระบบการเฝ้าระวังด้วยการจดจำใบหน้าในพื้นที่สาธารณะแบบไม่จำเพาะเจาะจง

การเอาเปรียบกลุ่มเปราะบาง: AI ที่ใช้ประโยชน์จากความเปราะบางของเด็ก ผู้สูงอายุ หรือกลุ่มเสี่ยงอื่นๆ


AI ความเสี่ยงสูง — ภาระหน้าที่หลัก

ภาระหน้าที่หลักสำหรับ AI ความเสี่ยงสูง

ภาระหน้าที่เนื้อหา
การลงทะเบียนการลงทะเบียนล่วงหน้ากับ AI Governance Center (AIGC)
การประเมินความสอดคล้องการประเมินความเสี่ยงและการตรวจสอบโดยบุคคลที่สามก่อนการใช้งาน
การจัดการความเสี่ยงการติดตามความเสี่ยงอย่างต่อเนื่องและมาตรการแก้ไข
เอกสารทางเทคนิคบันทึกข้อมูลการฝึก อัลกอริทึม และผลการประเมินความแม่นยำ
การกำกับดูแลโดยมนุษย์ขั้นตอนการติดตามและแทรกแซงโดยมนุษย์ในการตัดสินใจอัตโนมัติ
การรายงานเหตุการณ์การรายงานเหตุการณ์สำคัญต่อหน่วยงานที่มีอำนาจบังคับ

ผู้ให้บริการ vs ผู้ใช้งาน — ความแตกต่างที่สำคัญ

ผู้ให้บริการ (Providers — นักพัฒนา/ผู้จัดหา AI)

  • ภาระหน้าที่หลัก: การประเมินความสอดคล้อง เอกสารทางเทคนิค การลงทะเบียน AIGC การรายงานเหตุการณ์

ผู้ใช้งาน (Deployers — ผู้ใช้งาน AI)

  • ภาระหน้าที่หลัก: การใช้งาน AI ความเสี่ยงสูงอย่างถูกต้อง การฝึกอบรมพนักงาน กรอบการติดตาม การตอบสนองต่อเหตุการณ์

บริษัทญี่ปุ่นส่วนใหญ่เป็น “ผู้ใช้งาน”

บริษัทญี่ปุ่นที่ใช้เครื่องมือ AI เชิงพาณิชย์ (ChatGPT API, Gemini, Copilot ฯลฯ) ในการดำเนินงานโดยทั่วไปจัดอยู่ในประเภทผู้ใช้งาน ภาระหน้าที่ของผู้ใช้งานเบากว่าผู้ให้บริการ แต่ผู้ใช้งานที่ใช้ AI ความเสี่ยงสูงต้องระวัง:

  • AI ในการสรรหาบุคลากร การประเมินผล หรือการตัดสินใจด้านสินเชื่อ → ต้องปฏิบัติตามเงื่อนไขการใช้งาน AI ความเสี่ยงสูง
  • การตัดสินใจอัตโนมัติ → ภาระหน้าที่ตาม PDPA มาตรา 39–40 บังคับใช้พร้อมกัน

AI Governance Center (AIGC)

บทบาทหลักของ AIGC:

  • รับและตรวจสอบการลงทะเบียน AI ความเสี่ยงสูง
  • จัดการและอนุมัติใบสมัคร AI Sandbox
  • พัฒนาแนวปฏิบัติตีความสำหรับกฎหมาย AI
  • ประสานอำนาจกับหน่วยงานกำกับดูแลเฉพาะภาคส่วน (BOT, ก.ล.ต., อย. ฯลฯ)

การบังคับใช้นอกอาณาเขตและข้อกำหนดตัวแทนในประเทศ

ร่างกฎหมาย AI คาดว่าจะมีผลบังคับใช้นอกอาณาเขต โดยครอบคลุมผู้ให้บริการ AI จากต่างประเทศที่ให้บริการแก่ผู้ใช้ในประเทศไทย ซึ่งอาจต้องแต่งตั้งตัวแทนในประเทศไทย คล้ายกับข้อกำหนดตัวแทนของ EU AI Act


บทความที่เกี่ยวข้อง


ตอนถัดไป

ตอนที่ 4 (25 มีนาคม 2569): กฎระเบียบแพลตฟอร์มอีคอมเมิร์ซของไทย — ฐานทางกฎหมายในพระราชบัญญัติการแข่งขันทางการค้า ลักษณะและขอบเขตของแนวปฏิบัติ TCCT หกหมวดพฤติกรรมที่ถูกควบคุม และโครงสร้างของร่างพระราชบัญญัติเศรษฐกิจแพลตฟอร์ม

อ่านตอนที่ 4 →


บทความนี้มีวัตถุประสงค์เพื่อให้ข้อมูลทั่วไปเกี่ยวกับระบบกฎหมายของประเทศไทย และไม่ถือเป็นคำแนะนำทางกฎหมายภายใต้กฎหมายไทย สำหรับกรณีเฉพาะ กรุณาปรึกษาผู้เชี่ยวชาญที่มีใบอนุญาตทนายความไทย สำนักงานของเราทำงานร่วมกับทนายความไทยของ JTJB International Lawyers

← บทความ
— Get in touch —

เกี่ยวกับเนื้อหาบทความ
โปรดปรึกษาเรา

สำหรับคำปรึกษาเฉพาะเจาะจงที่เกี่ยวข้องกับหัวข้อในบทความ กรุณาติดต่อเราผ่านแบบฟอร์ม เราจะตอบกลับภายใน 3 วันทำการ ข้อมูลทุกประการจะถูกเก็บรักษาเป็นความลับ

แบบฟอร์มติดต่อ
Responseภายใน 3 วันทำการ
Hoursจ–ศ 9:00–18:00 (เวลากรุงเทพฯ)
Languagesญี่ปุ่น · อังกฤษ · ไทย
Privacyเก็บรักษาเป็นความลับอย่างเคร่งครัด