เป็นยุคที่เทคโนโลยีก้าวหน้าอย่างรวดเร็ว AI (ปัญญาประดิษฐ์) กำลังกลายเป็นทั้ง เครื่องมือป้องกัน และ อาวุธของผู้ไม่หวังดี ในสงครามไซเบอร์ ซึ่งในอนาคตภัยคุกคามไซเบอร์จาก AI จะมีบทบาทอย่างมาก เราได้เห็นภัยคุกคามไซเบอร์จาก AI ถูกนำมาใช้เพื่อเสริมสร้างระบบความปลอดภัย แต่ขณะเดียวกัน อาชญากรไซเบอร์ก็กำลังใช้ AI พัฒนาเทคนิคโจมตีที่ซับซ้อนและอันตรายยิ่งขึ้น
ตลอดปีที่ผ่านมา ภัยคุกคามทางไซเบอร์ได้พัฒนาอย่างต่อเนื่อง และในปี 2025 ยังไม่มีแนวโน้มนี้ว่าจะลดลง การต่อสู้ระหว่าง AI ในด้านการป้องกันและ AI ที่ถูกใช้เป็นเครื่องมือโจมตี กำลังเป็นปัจจัยสำคัญที่กำหนดอนาคตของโลกดิจิทัล
ถึงแม้ AI จะช่วยเพิ่มประสิทธิภาพในการตรวจจับและป้องกันภัยคุกคามทางดิจิทัล แต่ในทางกลับกัน กลุ่มอาชญากรไซเบอร์ก็นำมันมาใช้เพื่อพัฒนาเทคนิคสำหรับการโจมตีและตรวจจับได้ยากขึ้น เช่น การปลอมแปลงตัวตนด้วย Deepfake การโจมตีผ่านอีเมล (BEC) การขโมยข้อมูลส่วนบุคคล และการบิดเบือนข้อมูล (Disinformation)
เมื่อ AI พัฒนาไปอย่างรวดเร็ว สงครามไซเบอร์ก็ยิ่งทวีความรุนแรงมากขึ้น องค์กรและผู้ใช้งานจึงต้องติดตามแนวโน้มภัยคุกคามอย่างใกล้ชิด ปรับกลยุทธ์ด้านความปลอดภัย และเสริมมาตรการป้องกัน เพื่อเตรียมพร้อมรับมือกับความท้าทายในยุคดิจิทัลที่เปลี่ยนแปลงอยู่ตลอดเวลา

สิ่งที่คาดว่าจะเกิดขึ้นในปี 2025
- การปลอมแปลงตัวตนเพื่อลักลอบเข้าระบบ: (Authentication Bypass): เทคโนโลยีที่สร้างภาพและวิดีโอเสมือนจริง (Deepfake) ถูกใช้เป็นเครื่องมือในการแอบอ้างเป็นลูกค้าตัวจริง โดยส่งภาพถ่ายหรือวิดีโอปลอมเพื่อผ่านขั้นตอนยืนยันตัวตน ทำให้สามารถสร้างบัญชีใหม่หรือเข้าถึงบัญชีของผู้อื่นได้
- การโจมตีแบบ Business Email Compromise (BEC): ใช้ AI สร้างอีเมลปลอมที่เหมือนของจริง พร้อมทั้งใช้เสียงหรือวิดีโอปลอมแอบอ้างเป็นผู้บริหาร หลอกให้พนักงานภายในองค์กรทำธุรกรรมทางการเงิน สั่งให้พนักงานโอนเงินไปยังบัญชีมิจฉาชีพ
- การสวมรอยตัวตนเพื่อฉ้อโกง (Impersonation Scams): มิจฉาชีพใช้ AI ขโมยข้อมูลส่วนตัวจากโซเชียลมีเดีย เพื่อสวมรอยเป็นผู้อื่นและสร้างสถานการณ์หลอกเอาเงิน เช่น แอบอ้างว่าถูกจับตัวไป
- การแอบอ้างเป็นคนดัง (Influencer Scams): ผู้ไม่หวังดีสามารถใช้ AI สร้างบัญชีโซเชียลมีเดียปลอมโดยใช้ภาพและวิดีโอปลอมของคนดังหรือผู้มีอิทธิพล เพื่อหลอกล่อให้แฟนคลับส่งเงินหรือข้อมูลส่วนตัวมาให้ เช่น การหลอกให้ลงทุนหรือการขายสินค้าปลอม
- การสร้างข่าวปลอม (Disinformation): AI กลายเป็นเครื่องมือสำคัญสำหรับรัฐที่เป็นคู่ขัดแย้งกันหรือกลุ่มผู้ไม่หวังดี ในการสร้างข่าวปลอมที่ดูน่าเชื่อถือ แล้วใช้บัญชีปลอมกระจายข้อมูลเท็จไปยังผู้ใช้จำนวนมาก
- การถอดรหัสผ่านอย่างรวดเร็ว (Password Cracking): ผู้ไม่หวังดีสามารถใช้เทคโนโลยี AI ทำลายระบบรักษาความปลอดภัยโดยถอดรหัสผ่านได้ภายในไม่กี่วินาที ทำให้เข้าถึงข้อมูลสำคัญหรือระบบเครือข่ายขององค์กรได้ง่ายขึ้น
ความกังวลด้านความเป็นส่วนตัวในยุค AI
AI ไม่ได้เป็นเครื่องมือที่ปลอดภัยเสมอไปแต่ยังสามารถเพิ่มความเสี่ยงของการรั่วไหลของข้อมูลได้อีกด้วย เพราะการฝึกฝน AI ต้องใช้ข้อมูลจำนวนมากไม่ว่าจะเป็น ข้อความ รูปภาพ หรือวิดีโอโดยเฉพาะข้อมูลที่ละเอียดอ่อน เช่น ลายนิ้วมือ ประวัติการรักษา หรือข้อมูลทางการเงิน และที่น่ากังวลยิ่งกว่านั้นคือ บริษัทบางแห่งอาจเปลี่ยนแปลง เงื่อนไขการใช้งาน (T&Cs) เพื่อนำข้อมูลของลูกค้าในการฝึกสอน AI ซึ่งหากข้อมูลเหล่านี้ถูกแฮ็กหรือเผยแพร่โดยไม่ได้ตั้งใจ จะสร้างความเสียหายอย่างมากต่อผู้ใช้งาน
ทั้งนี้ ผลสำรวจในสหราชอาณาจักรพบว่า 1 ใน 5 บริษัทเคยทำข้อมูลสำคัญรั่วไหล เพราะพนักงานใช้งาน AI โดยไม่ระมัดระวังหรือไม่ตั้งใจ
บทบาทของ AI ในการป้องกันภัยไซเบอร์
ในขณะที่ความรุนแรงจากภัยคุกคามไซเบอร์เพิ่มขึ้น แต่ AI ก็ยังมีบทบาทสำคัญสำหรับทีมรักษาความปลอดภัย ด้วยความสามารถที่ช่วยเพิ่มประสิทธิภาพและความแม่นยำในหลายด้าน เช่น:
- การสรุปรายงานภัยคุกคาม: สรุปข้อมูลซับซ้อนให้กระชับ ช่วยให้เจ้าหน้าที่ตัดสินใจได้เร็วเมื่อเกิดเหตุฉุกเฉิน
- การสร้างข้อมูลจำลอง (Synthetic Data): ใช้ฝึกอบรมทีมรักษาความปลอดภัยให้มีความพร้อมรับมือกับภัยคุกคามรูปแบบต่างๆ
- การเพิ่มประสิทธิภาพทีม SecOps: ช่วยวิเคราะห์และจัดลำดับความสำคัญของการแจ้งเตือนและทำงานอัตโนมัติในขั้นตอนการตรวจสอบและแก้ปัญหา
- การสแกนข้อมูลจำนวนมาก: ช่วยตรวจจับพฤติกรรมที่ผิดปกติหรือมีความเสี่ยงได้อย่างรวดเร็ว
- การพัฒนาทักษะของทีม IT: ด้วยฟังก์ชัน "copilot" ในผลิตภัณฑ์ต่างๆเพื่อช่วยลดข้อผิดพลาดในการตั้งค่าระบบ
อย่างไรก็ตาม AI ไม่สามารถแก้ปัญหาได้ทุกอย่าง เนื่องจากยังมีข้อจำกัดในการใช้งาน การตัดสินใจที่สำคัญจึงยังต้องอาศัยความเชี่ยวชาญของมนุษย์ควบคู่กัน เพื่อป้องกันปัญหาต่างๆ เช่น การวิเคราะห์ข้อมูลผิดพลาด (hallucinations) การเสื่อมคุณภาพของโมเดล (model degradation) และผลกระทบเชิงลบอื่นๆ ที่อาจเกิดขึ้น
กฎหมายและการบังคับใช้ในยุค AI
ในปี 2025 AI จะกลายเป็นเครื่องมือที่ทรงพลังยิ่งขึ้น ไม่เพียงแค่ในด้านเทคโนโลยี แต่ยังส่งผลกระทบในวงกว้างต่อการกำหนดนโยบาย กฎหมาย และการบังคับใช้ ซึ่งการเปลี่ยนแปลงเหล่านี้เต็มไปด้วยทั้ง โอกาสและความท้าทายที่ทุกฝ่ายต้องเตรียมพร้อมรับมือ
สหรัฐฯ: เมื่อการลดข้อบังคับอาจเปิดช่องให้ภัยคุกคามเพิ่มขึ้น
ในสหรัฐอเมริกา แนวโน้มการลดข้อบังคับในภาคเทคโนโลยีและโซเชียลมีเดียอาจสร้าง ความเสี่ยงใหม่ในโลกไซเบอร์ โดยการลดการควบคุมนี้อาจเปิดโอกาสให้มิจฉาชีพใช้ AI สร้างภัยคุกคามได้ง่ายขึ้น เช่น การสร้างเนื้อหาปลอม การหลอกลวง และการโจมตีผ่านแพลตฟอร์มออนไลน์
เมื่อข้อกำหนดลดลง ผู้โจมตีอาจสามารถใช้ AI สร้างภัยคุกคามที่ซับซ้อนและตรวจจับได้ยากยิ่งขึ้น ซึ่งจะส่งผลกระทบโดยตรงต่อผู้ใช้งานอินเทอร์เน็ต รวมถึงองค์กรธุรกิจที่ต้องเผชิญกับการโจมตีในรูปแบบใหม่
ยุโรป: ความไม่แน่นอนที่ยังต้องจัดการ
ในยุโรป แม้ว่าจะมีความพยายามผลักดันกฎหมายเกี่ยวกับ AI เช่น EU AI Act แต่ยังคงมีความไม่ชัดเจนในทางปฏิบัติ เช่น:
- การกำหนด ความรับผิดชอบ เมื่อระบบ AI ทำงานผิดพลาด
- การพัฒนาแนวทางปฏิบัติที่ครอบคลุมเพื่อลดความเสี่ยง
ความไม่แน่นอนเหล่านี้ทำให้ทีมที่ดูแลการปฏิบัติตามกฎระเบียบ (Compliance Teams) ต้องเผชิญกับความยุ่งยาก อีกทั้งยังมีผลกระทบจากการล็อบบี้ของบริษัทเทคโนโลยีที่อาจเปลี่ยนแปลงแนวทางการบังคับใช้กฎหมายในอนาคต
ดังนั้น AI จะเข้ามาเปลี่ยนแปลงวิถีชีวิตและการทำงานในปี 2025 อย่างที่ไม่เคยมีมาก่อน ทั้งในด้านดีและด้านร้าย การสร้างสมดุลระหว่างการใช้ AI เพื่อเพิ่มประสิทธิภาพและการป้องกันความเสี่ยงที่อาจเกิดขึ้นเป็นสิ่งสำคัญที่ทุกภาคส่วนต้องร่วมมือกัน ไม่ว่าจะเป็นรัฐบาล องค์กรเอกชนหรือผู้ใช้งานทั่วไป เพื่อนำศักยภาพของ AI มาใช้ให้เกิดประโยชน์สูงสุดในปี 2025
เสริมความปลอดภัยด้วยผลิตภัณฑ์จาก ESET
เพื่อป้องกันภัยคุกคามทางไซเบอร์ในปัจจุบัน การเลือกใช้ซอฟต์แวร์แอนตี้ไวรัสที่มีประสิทธิภาพเป็นสิ่งสำคัญ ESET ขอนำเสนอผลิตภัณฑ์ที่หลากหลายเพื่อตอบสนองความต้องการของผู้ใช้แต่ละคน สามารถเยี่ยมชมและเลือกชมผลิตภัณฑ์แอนตี้ไวรัสจาก ESET ได้ที่ https://www.eset.com/th/ หรือ ติดต่อทีม Sale