Kickstarting All In Organizations: Creating Responsible AI Policies and Best Practices for Compliance

: Kickstarting All In Organizations: Creating Responsible AI Policies and Best Practices for Compliance

Kickstarting All In Organizations: Creating Responsible AI Policies and Best Practices for Compliance

SCBX Unlocking AI EP 10: Responsible AI in Action: From Regulation to Real-World Impact

ปิดท้ายงาน SCBX Unlocking AI EP.10 Responsible AI in Action: From Regulation to Real-World Impact ด้วยการเสวนาเรื่อง Kickstarting All In Organizations: Creating Responsible AI Policies and Best Practices for Compliance

งานนี้มีวิทยากรผู้คร่ำหวอดในแวดวง AI ของไทยมาร่วมแสดงความคิดเห็นอย่างรอบด้านถึงการวางนโยบายด้าน AI การผลักดันให้เกิดการใช้ AI ด้วยความรับผิดชอบ และอื่นๆ อีกมากมาย ได้แก่

  • ดร.ศักดิ์ เสกขุนทด ที่ปรึกษาด้าน Digital Transformation จากสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (สพธอ.) หรือ ETDA
  • คุณกฤติยาณี บูรณตรีเวทย์ ทนายความและพาร์ทเนอร์จาก Baker McKenzie
  • คุณถิรนันท์ อรุณวัฒนกูล ประธานเจ้าหน้าที่ปฏิบัติการ บริษัท มันนิกซ์ (MONIX) จำกัด
  • คุณณัฐพล จงจรูญเกียรติ Vice President จากบริษัท พีทีที โกลบอล เคมิคอล จำกัด (มหาชน) หรือ GC
  • คุณวรวิสุทธิ์ ภิญโญยาง Co-Founder จาก ai และ Insiderly.ai ทำหน้าที่เป็นพิธีกร

เนื้อหาในวงเสวนานี้มีเรื่องน่าสนใจหลายประเด็น SCBX สรุปสาระสำคัญของเสวนาครั้งนี้มาให้ได้อ่านกันแล้ว ดังต่อไปนี้

ใช้งาน AI อย่างปลอดภัย อย่าลืมให้ความรู้แก่ User

  • คุณณัฐพล เล่าว่าหนึ่งในกรณีการใช้งาน AI อย่างไม่ปลอดภัยคือกรณีที่พนักงานของ Samsung นำข้อมูลภายในขององค์กรไปให้ GenAI เรียนรู้จนความลับรั่วไหลไปสู่สาธารณชน กรณีนี้ทำให้เกิดการเน้นย้ำถึงความสำคัญของ Cyber Security อย่างเต็มพิกัด และ GC นำกรณีนี้มาย้ำเตือนทุกคนในองค์กรว่า ยิ่งเป็นองค์กรใหญ่ ยิ่งต้องให้ความสำคัญกับเรื่องนี้มาก เพราะหากเกิดปัญหา ความเสียหายที่องค์กรใหญ่ต้องเผชิญย่อมเยอะกว่าองค์กรเล็กๆ หลายเท่า
  • คุณณัฐพล เสนอว่าหลายองค์กรพยายามหาวิธีป้องกันเชิงเทคนิค แต่อาจลืมไปว่า อีกสิ่งที่ต้องทำควบคู่กันไปคือการให้ความรู้แก่ผู้ใช้ เพื่อให้ใช้งานอย่างปลอดภัยควบคู่กันไปด้วย เพราะต่อให้เข้ารหัสป้องกันแทบตาย ถ้าคนในองค์กรใช้งานอย่างไม่เข้าใจหรือรู้เท่าทัน สุดท้ายก็จะเกิดปัญหาข้อมูลรั่วไหล หรือนำไปใช้อย่างไม่ระวังไม่รู้จบอยู่ดี

 

AI Governance Model ที่ดี ต้องคำนึงถึงแง่มุมด้านกฎหมายและธรรมาภิบาล

  • คุณกฤติยาณี กล่าวถึงแง่มุมด้านกฎหมายว่า ปัจจุบันมี Lawfirm หลายแห่งใช้ AI ช่วยทำงานอย่างแพร่หลาย แต่ก็มีกฎเคร่งครัดว่าต้องใช้งานอย่างมีธรรมาภิบาล และต้องทำสัญญากับผู้ให้บริการอย่างเคร่งครัดว่า ข้อมูล Input ที่ป้อนเข้าไปจะต้องไม่หลุดออกสู่ภายนอก แต่ถึงจะมีสัญญาดังกล่าวแล้ว นักกฎหมายเองก็ต้องระวังไม่ให้เอาข้อมูลลับใส่เข้าไปด้วย
  • “ต่อให้ไม่มีกฎหมายเรื่อง AI แต่ในฐานะนักกฎหมาย เราก็ไม่ควรทำให้ข้อมูลของลูกค้า ข้อมูลที่เป็นความลับของรั่วไหลออกไปค่ะ”
  • ทนายจาก Baker McKenzie ยังแนะนำอีกว่า องค์กรที่เป็น AI Governance Model ที่ดี จะต้ออธิบายให้พนักงานเข้าใจว่า การใช้งาน AI อย่างมีความรับผิดชอบสำคัญอย่างไรตั้งแต่แรก อย่าลืมว่าตอนเซ็นสัญญาเข้าร่วมงานกับองค์กร ทุกที่จะมีข้อบังคับว่าต้องเคารพกฎของบริษัท ไม่สร้างความเสียหายให้องค์กร และหากใช้งาน AI ด้วยความประมาทเลินเล่ออาจโดนบริษัทฟ้องร้องได้ ซึ่งเป็นสิ่งที่เคยเกิดขึ้นมาแล้ว
  • อย่างไรก็ตาม หลายคนอาจใช้ GenAI ช่วยสร้างสรรค์ผลงานขึ้นมา แล้วงานเหล่านั้นกลับมีความคลับคล้ายคลับคลากับงานของผู้อื่นโดยไม่ตั้งใจ ซึ่งแน่นอนว่าหากเอาไปใช้ผิดวิธี อาจโดนฟ้องร้องได้
  • คุณกฤติยาณีให้หลักการพิจารณาว่า องค์ประกอบส่วนไหนที่เหมือนกันได้ไม่มีปัญหา เช่น หากมีนิยายเรื่องหนึ่งมีพล็อตเรื่องคล้ายกับนิยายอีกเรื่อง แค่นั้นอาจยังไม่เข้าข่ายว่าลอกหรือละเมิดลิขสิทธิ์
  • แต่หากเจาะลงไปในรายละเอียดแล้วพบว่าลักษณะตัวละครเหมือนกัน สถานที่ดำเนินเรื่องเหมือนกัน ฉากเหตุการณ์ใกล้เคียงกัน ชนิดที่ใครเห็นก็จะนึกถึงอีกเรื่องหนึ่งทันที กรณีนี้มีความเสี่ยงสูงที่จะถูกเจ้าของผลงานตัวจริงฟ้องร้อง

แนวทางการไกด์ไลน์การใช้งาน AI กับภาครัฐและเอกชน

  • ดร.ศักดิ์ เล่าว่าหน่วยงานรัฐตื่นตัวเรื่องการเอา GenAI มาใช้ไม่แพ้เอกชน มีการเน้นย้ำคนในระดับหัวหน้าว่า หากมีการมอบหมายงานใดๆ แก่ลูกน้อง หัวหน้าต้องตรวจสอบเสมอว่าลูกน้องเอา AI มาช่วยงานด้านใดบ้างหรือไม่ บางองค์กรมีข้อบังคับเลยว่า ห้ามให้พนักงานข้าราชการใช้งาน AI ขององค์กรผ่านมือถือ และกำลังจะมีข้อปฏิบัตินี้ส่งตรงไปยังข้าราชการทุกคนอย่างพร้อมเพรียงกัน ซึ่งหากหน่วยงานเอกชนใดอยากนำไกด์ไลน์นั้นไปใช้งานก็ได้เช่นกัน
  • ดร.ศักดิ์ ย้ำว่า เราใช้ GenAI ช่วยงานได้ แต่เราควรต้องมีความซื่อสัตย์ ต้องรู้ว่าสิ่งใดนำไปใช้งานได้ไม่ผิดกฎหมาย ไม่ผิดหลักจริยธรรมจรรยาบรรณ สิ่งใดใช้แล้วมีความสุ่มเสี่ยงที่จะผิดกฎหมายและผิดจริยธรรม และคนเป็นหัวหน้าผู้มีหน้าที่ตรวจงานลูกน้องใต้บังคับบัญชา ก็ต้องรู้ประเด็นนี้และไม่ปล่อยผ่านง่ายๆ ด้วย
  • คุณถิรนันท์ เสริมว่า แม้จะมีไกด์ไลน์ให้ทุกคนยึดแล้ว แต่ทุกองค์กรก็ต้องนำไปปรับใช้ให้เข้ากับบริบทของแต่ละองค์กรด้วย ซึ่งแต่ละที่ย่อมมีบริบทที่ไม่เหมือนกันเลย ไม่ว่าจะองค์กรรัฐหรือเอกชนก็ตาม

 

การพัฒนาคนต้องควบคู่ไปกับการใช้เทคโนโลยี

  • คุณถิรนันท์ เน้นย้ำว่าแม้จะใช้เทคโนโลยีในการทำงาน แต่ก็ต้องให้ความสำคัญกับการพัฒนาคนเสมอ ต้องทำให้เขาพร้อมเรียนรู้และปรับตัว ที่สำคัญอย่ามั่นใจในการใช้เทคโนโลยีจนเกินไป เพราะหากใช้โดยเกิดอคติ จะทำให้เกิดปัญหาตามมา
  • และอย่าคิดว่าพอเกิดปัญหาแล้วพนักงานจะไม่มีความผิด องค์กรสามารถสั่งลงโทษพนักงานได้ด้วย ซึ่งก็ขึ้นอยู่กับความรุนแรงของความผิดนั้นๆ องค์กรต้องเด็ดขาดเพื่อไม่ทำให้เกิดการทำผิดซ้ำในอนาคต
  • คุณณัฐพล เสริมว่า ทุกองค์กรไม่ควรใช้มาตรการ One Size Fits All ในการให้ความรู้ด้าน AI กับทุกคน อย่าคิดว่าต้องให้ข้อมูลชุดเดียวกันแล้วทุกคนจะเข้าใจตรงกัน อย่าลืมว่า AI User ในองค์กรมีกี่ระดับ คนระดับไหนควรรู้เรื่องอะไรบ้าง ซึ่งแต่ละคนแต่ละตำแหน่งจะมีเรื่องที่ต้องรู้และข้อควรระวังไม่เหมือนกัน

ข้อควรระวังในการใช้งาน AI ที่ทุกคนต้องรู้

  • คุณกฤติยาณี แนะนำว่าก่อนใช้งาน AI สักตัว ควรอ่านข้อตกลงในการใช้งานให้ดีก่อน เพราะแต่ละตัวมีข้อกำหนดเบื้องหลังไม่เหมือนกัน บางตัวเมื่อเราใช้งานแล้ว ลิขสิทธิ์ในผลงานนั้นเป็นของเราทั้งหมด แต่บางตัวไม่ได้ให้สิทธิ์ว่าผลงานนั้นเป็นลิขสิทธิ์ของเราโดยแท้จริง ต้องอ่านสัญญาด้วยความระมัดระวัง ซึ่งจริงๆ แล้วไม่ใช่แค่เรื่องการใช้งาน AI แต่ยังรวมถึงการใช้งานแอปพลิเคชันทุกอย่างด้วย
  • ดร.ศักดิ์ เน้นย้ำว่า เราอาจไม่มีกฎหมายกำกับดูแลด้าน AI อย่างเป็นทางการ แต่อย่าลืมว่าเรายังมีกฎหมายอื่นๆ ด้วย ถึงกระนั้นก็อย่ากลัวกฎหมายเกินไปจนไม่กล้าใช้งาน หรือใช้งานอย่างสุดโต่ง ถาม ChatGPT อย่างเดียวจนไม่หาข้อมูลจากแหล่งอื่นเลย
  • จงใช้งานอย่างมี Critical Thinking และใช้มันให้เหมาะสมกับวิถีของตัวเองและองค์กรจะดีที่สุด

ผู้เขียน:

SCBX contributor
SCBX contributor

More Insights for you

Stay up to date with our latest content

Our interested news more

Up to date with our interested news