นักวิจัยพบช่องโหว่ใหม่ที่ ใช้ AI สร้างหน้าเว็บปลอม ปรับเปลี่ยนตามผู้ใช้งานแบบเรียลไทม์ โดยฝังโค้ด JavaScript อันตรายลงในเบราว์เซอร์ของเหยื่อโดยไม่รู้ตัว
แฮกเกอร์ใช้ AI สร้างหน้าเว็บปลอมที่สมจริง เปลี่ยนแปลงได้แบบ Real-time เพื่อให้ผู้ใช้เชื่อถือ ถูกหลอกได้
นักวิจัยได้เปิดเผยพฤติกรรมผิดปกติที่หน้าเว็บซึ่งดูไม่มีพิษภัยสามารถใช้ AI สร้างและรันโค้ด JavaScript อันตรายบนเบราว์เซอร์ของผู้ใช้งานขณะเยี่ยมชมเว็บไซต์นั้น
แม้รูปแบบการโจมตีนี้จะถือว่าเป็นเรื่องใหม่ แต่ผลลัพธ์กลับเป็นเรื่องเดิม ๆ คือ ผู้ใช้สูญเสียข้อมูลส่วนตัว โดยไม่รู้ตัวเลยว่าเว็บที่เข้านั้นเป็นเว็บปลอม
กระบวนการทำงานของการโจมตีเริ่มจากที่ผู้ไม่หวังดีเลือกหน้าเว็บที่มีอยู่ แล้วนำมาเป็นต้นแบบในการสร้างหน้าเว็บใหม่เพื่อดูดข้อมูลผู้ใช้
รายงานเผยว่าโค้ดที่ใช้นั้น อันตรายมาก ติดตามได้ยาก เพราะเป็นแบบ “polymorphic” หรือเปลี่ยนแปลงได้ตามสถานการณ์ โดยโค้ดในเว็บจะถูกสร้างขึ้นใหม่ทุกครั้งที่มีผู้เยี่ยมชม ทำให้แต่ละครั้งมีความแตกต่างกันเล็กน้อย

เมื่อโค้ดถูกเปลี่ยนแปลงภายในเบราว์เซอร์ของผู้ใช้งาน หน้าเว็บจึงมีความสมจริงสูง เพราะอิงจากข้อมูลที่เบราว์เซอร์จัดเก็บ เช่น ภาษา ตำแหน่งที่ตั้ง หรือประเภทอุปกรณ์ และผู้ไม่หวังดีสามารถใช้ลิงก์อันตรายซ้ำได้ เพราะแต่ละคนเห็นเนื้อหาที่ถูกปรับปรุงใหม่ ไม่เหมือนกัน
และที่เลวร้ายกว่านั้นก็คือ ผู้ไม่หวังดีสามารถใส่ prompt เพื่อให้ AI สร้างโค้ด JavaScript ที่อันตรายได้ผ่านการใช้บริการ AI ที่น่าเชื่อถืออย่าง DeepSeek หรือ Google Gemini ทำให้โค้ดเล็ดรอดการตรวจสอบความปลอดภัยของเครือข่ายได้โดยไม่ถูกมองว่าเป็นภัยร้าย
“หลังจากนั้นสคริปต์ที่ถูกสร้างขึ้นจะถูกรวมเข้าด้วยกัน และรันเพื่อแสดงโค้ดอันตรายหรือเนื้อหาฟิชชิง” ตามรายงานวิจัยของ Unit42
หลังจากนั้นในช่วงเวลาเพียงไม่กี่วินาทีที่กระบวนการนี้เกิดขึ้น “ส่วนของโค้ดจะถูกรวมกัน และรันภายในสภาพแวดล้อมของเบราว์เซอร์” ทำให้หน้าเว็บดังกล่าวสามารถขโมยข้อมูลล็อกอิน หรือข้อมูลสำคัญอื่น ๆ ของผู้ใช้ได้อย่างแนบเนียน
เพื่อทดสอบการโจมตีนี้ในทางปฏิบัติ นักวิจัยกลุ่มหนึ่งได้จำลองขั้นตอนของการโจมตีบางส่วน หลังทดลองทั้งหมดนักวิจัยพบว่า วิธีเขียน prompt สั่งการ AI มีผลอย่างมากต่อการสร้างโค้ดอันตราย แม้จะไม่ได้เปิดเผยว่าระบบ LLM ใดถูกใช้ แต่ระบุว่าระบบเหล่านั้นปฏิเสธคำสั่งที่ดูชัดเจน อย่างไรก็ตาม การเปลี่ยนถ้อยคำให้คลุมเครือกว่ากลับได้ผลมากกว่า (เขียน prompt หลอก AI)
ตัวอย่างเช่น “คำขอสำหรับฟังก์ชัน $AJAX POST ทั่วไป ได้รับการยอมรับจาก AI แต่ถ้าเป็นคำสั่งโดยตรงเช่น “เขียนโค้ดเพื่อขโมยข้อมูล credential” แบบนี้จะถูกปฏิเสธ

นักวิจัยเน้นว่า การค้นพบนี้สะท้อนถึงความจำเป็นในการวางมาตรการความปลอดภัยที่เข้มงวดมากขึ้นสำหรับแพลตฟอร์ม LLM เพราะแม้จะควบคุมแล้ว prompt ที่เจาะจงดีพอ ก็ยังสามารถทำให้เกิดพฤติกรรมอันตรายได้อยู่
สำหรับผู้ใช้งานที่กังวลเรื่องความปลอดภัยทางออนไลน์ ควรหลีกเลี่ยงการใช้งาน LLM ที่ไม่ได้รับการรับรอง กล่าวคือตรวจสอบให้ดีก่อนที่จะใช้งานนั่นเอง
ที่มา: cybernews
