Google ได้พัฒนา Framework ใหม่ที่เรียกว่า Project Naptime ซึ่งระบุว่าช่วยให้ Large language model (LLM) ดำเนินการวิจัยช่องโหว่โดยมีเป้าหมายเพื่อปรับปรุงแนวทางการตรวจพบแบบอัตโนมัติ
“สถาปัตยกรรม Naptime มีศูนย์กลางอยู่ที่ปฏิสัมพันธ์ระหว่าง AI agent และ Target codebase” นักวิจัยของ Google Project Zero Sergei Glazunov และ Mark Brand กล่าว “Agent ได้รับชุดเครื่องมือพิเศษที่ออกแบบมาเพื่อเลียนแบบขั้นตอนการทำงานของนักวิจัยด้านความปลอดภัยโดยมนุษย์” ความคิดริเริ่มนี้ได้รับการตั้งชื่อตามความจริงที่ว่ามันช่วยให้มนุษย์ที่ “งีบหลับเป็นประจำ” ในขณะเดียวกันก็ช่วยเหลือในการวิจัยช่องโหว่และการวิเคราะห์ตัวแปรอัตโนมัติ
แนวทางนี้เป็นแกนหลักของแนวทางนี้ โดยมุ่งใช้ประโยชน์จากความก้าวหน้าในด้านความเข้าใจโค้ดและความสามารถในการให้เหตุผลทั่วไปของ LLM ซึ่งช่วยให้พวกเขาสามารถจำลองพฤติกรรมของมนุษย์เมื่อต้องระบุและแสดงให้เห็นถึงช่องโหว่ด้านความปลอดภัย ซึ่งประกอบไปด้วยส่วนประกอบหลายอย่าง เช่น เครื่องมือ Code Browser ที่ช่วยให้ AI agent สามารถนำทางผ่าน Target codebase เครื่องมือ Python เพื่อรันสคริปต์ Python ในสภาพแวดล้อมแบบแซนด์บ็อกซ์ที่คลึมเครือ เครื่องมือ Debugger เพื่อสังเกตพฤติกรรมของโปรแกรมที่มีอินพุตต่างกัน และ Reporter เครื่องมือในการติดตามความคืบหน้าของงาน
Google กล่าวว่า Naptime เป็นระบบ Model-Agnostic และ Backend-Agnostic สร้างสภาพแวดล้อมการวิจัยช่องโหว่ได้ในตัวเอง สภาพแวดล้อมนี้ไม่ได้จำกัดอยู่เพียงการใช้งานโดยตัว AI เท่านั้น นักวิจัยที่เป็นมนุษย์ยังสามารถใช้ประโยชน์จากมันได้ เช่น เพื่อสร้างวิธีสำหรับการปรับแต่งโมเดลอย่างละเอียดให้ประสบความสำเร็จ
ผลทดสอบเมื่อใช้ Gemini 1.5 Pro, GPT-4 Turbo, Gemini 1.5 Flash, GPT-3.5 Turbo ทำงานภายใต้เฟรมเวิร์ค Naptime
Source: thehackernews.com