ข่าวธุรกิจ![]() PwC ประเทศไทย แนะผู้นำธุรกิจไทยเตรียมความพร้อมเชิงกลยุทธ์ในการนำปัญญาประดิษฐ์ (artificial intelligence: AI) มาใช้ โดยเน้นที่การปกป้องข้อมูลและความปลอดภัยทางไซเบอร์ หลังเทคโนโลยีนี้เข้ามาเปลี่ยนแปลงรูปแบบการดำเนินธุรกิจอย่างต่อเนื่องนาย ริชี อานันท์ หุ้นส่วนสายงานที่ปรึกษา บริษัท PwC ประเทศไทย กล่าวว่า ผลกระทบของ AI ต่อความปลอดภัยทางไซเบอร์ และการกำกับดูแลข้อมูลว่า AI กำลังพลิกโฉมภาคธุรกิจต่าง ๆ ของไทยอย่างมีนัยสำคัญ เช่น ช่วยให้องค์กรสามารถเปลี่ยนแปลงกระบวนการทำงานซ้ำ ๆ ให้เป็นอัตโนมัติได้ ในขณะที่บางบริษัทนำ AI มาปรับปรุงประสิทธิภาพ และหลายแห่งก็กำลังทดสอบโมเดลขนาดใหญ่และผู้ช่วย AI อัจฉริยะ (agentic AI) อย่างไรก็ดี ถึงแม้ว่าการนำ AI มาใช้งานจะยังคงอยู่ในช่วงเริ่มต้น สิ่งสำคัญคือผู้บริหารจำเป็นที่จะต้องเฝ้าระวังความเสี่ยงที่อาจเกิดขึ้น โดยเฉพาะอย่างยิ่งความเสี่ยงที่เกิดจากเทคโนโลยีปัญญาประดิษฐ์แบบรู้สร้าง (generative AI: GenAI)
สำหรับ agentic AI ที่หลายบริษัทกำลังทดสอบการใช้งาน ความเสี่ยงเหล่านี้ยังขยายไปสู่ช่องโหว่ภายในเอเจนต์ การเข้ายึดบัญชีผู้ใช้งาน ระบบยืนยันตัวตนที่อ่อนแอ การขาดการกำกับดูแล ปัญหาห่วงโซ่อุปทาน การจัดการข้อมูล และที่สำคัญกว่านั้น คือการโจมตีทางไซเบอร์ ทั้งนี้ บทความของ PwC ประเทศสหรัฐอเมริกา เรื่อง ‘Building trust in AI from the ground up: How you can secure the data behind it’ ระบุว่า การปกป้องข้อมูลและความไว้วางใจกลายเป็นสิ่งสำคัญที่สุดสำหรับผู้นำธุรกิจ โดย 48% ของผู้ถูกสำรวจจัดให้ประเด็นเหล่านี้เป็นลำดับความสำคัญสูงสุดในการลงทุนด้านไซเบอร์ แซงหน้าการปรับปรุงเทคโนโลยีให้ทันสมัยที่ 43% นอกจากนี้ โมเดล AI อาจให้ข้อมูลเชิงลึกที่คลาดเคลื่อน สร้างความเสี่ยงด้านการปฏิบัติตามกฎหมาย และยังทำให้ข้อมูลที่ละเอียดอ่อนเสียหายได้หากข้อมูลไม่ถูกต้องและปล่อยให้เกิดช่องโหว่ด้านความปลอดภัย โดยบทความของ PwC ชี้ว่า ธุรกิจควรจัดการกับความเสี่ยงด้านข้อมูลที่สำคัญก่อนที่จะปลดล็อกศักยภาพของ AI อย่างเต็มที่ ซึ่งความเสี่ยงเหล่านี้ ได้แก่ 1. คุณภาพข้อมูล (data quality): โมเดล AI ที่ได้รับการฝึกอบรมจากข้อมูลที่ไม่มีโครงสร้าง ซ้ำซ้อน หรือล้าสมัย อาจสร้างผลลัพธ์ที่ไม่น่าเชื่อถือ และนำไปสู่การตัดสินใจที่ผิดพลาด 2. การปกป้องข้อมูล (data protection): การเข้าถึงข้อมูลสำคัญโดยไม่ได้รับการควบคุม เมื่อใช้ร่วมกับเครื่องมือ AI อาจเพิ่มความเสี่ยงต่อการเข้าถึงข้อมูลโดยไม่ได้รับอนุญาต และการละเมิดข้อมูล 3. การปฏิบัติตามข้อมูล (data compliance): หากไม่มีการจำแนกประเภทและการกำกับดูแลข้อมูลที่เหมาะสม ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI อาจประมวลผลข้อมูลสำคัญในลักษณะที่ละเมิดกฎระเบียบด้านความเป็นส่วนตัวได้ 4. การเปิดเผยข้อมูล (data exposure): เครื่องมือ AI ที่ขาดการควบคุมการเข้าถึงอย่างเหมาะสมอาจเพิ่มความเสี่ยงต่อภัยคุกคามจากภายใน การแบ่งปันข้อมูลโดยไม่ได้รับอนุญาต และการรั่วไหลของข้อมูล ทั้งนี้ การจัดการความเสี่ยงด้านข้อมูล ไม่ได้หมายถึงเพียงการลดช่องโหว่ด้านความปลอดภัยเท่านั้น แต่ยังครอบคลุมถึงการสร้างความไว้วางใจ ปรับปรุงการตัดสินใจ และทำให้การใช้งาน AI เป็นไปตามกฎระเบียบ ซึ่งการนำมาตรการกำกับดูแลและความปลอดภัยที่แข็งแกร่งมาใช้ จะช่วยให้ธุรกิจต่าง ๆ สามารถใช้ศักยภาพของ AI ได้อย่างเต็มที่ พร้อมทั้งลดความเสี่ยงล แนะใช้แนวทางการกำกับดูแลข้อมู ท่ามกลางการเปลี่ยนแปลงด้านกฎระเบียบภาคธุรกิจไทยจำเป็นต้องปรับกลยุทธ์ด้านการกำกับดูแลข้อมูล เพื่อตอบสนองต่อปริมาณข้อมูลที่เพิ่มขึ้นและกฎระเบียบที่เปลี่ยนแปลงไป ในปัจจุบันองค์กรหลายแห่งกำลังขยายกรอบการทำงานเพื่อจัดการบทบาทของ AI ในการดำเนินงาน อย่างไรก็ตาม การยึดติดกับแนวทางเดิมที่ล้าสมัยอาจนำไปสู่ปัญหาด้านความปลอดภัยที่กว้างขึ้น เช่น วิธีการเข้ารหัสที่อ่อนแอ และแนวปฏิบัติการควบคุมการเข้าถึงที่ไม่สอดคล้องกัน เป็นต้น
โดยภาคธุรกิจควรดำเนินการเพื่อสร้างการกำกับดูแล AI ที่แข็งแกร่ง ดังนี้– พัฒนานโยบายที่ชัดเจนสำหรับการพัฒนาและปรับใช้โมเดล AI – รับรองความโปร่งใสโดยการบันทึกกระบวนการตัดสินใจเกี่ยวกับ AI – ดำเนินการตรวจสอบเป็นประจำเพื่อประเมินการปฏิบัติตามกฎระเบียบความเป็นส่วนตัว
โดย สำนักข่าวอินโฟเควสท์ (12 มิ.ย. 68) Tags: AI, PwC, ความปลอดภัยทางไซเบอร์, ปัญญาประดิษฐ์, ริชี อานันท์ |