12
มิ.ย.

Google เปิดตัว Secure AI Framework แนวทางการสร้าง AI อย่างปลอดภัย

FAsirichai 0 comment

Google ได้เปิดตัว Secure AI Framework (SAIF) ใหม่ ช่วยแนะนำการพัฒนาระบบ AI สำหรับใช้งานในองค์กรอย่างมีความปลอดภัยและป้องกันการโจมตีที่อาจเกิดขึ้นในขั้นตอนการพัฒนา AI ได้ เช่น การป้องกันการขโมยโค้ด Neural Network, การทำ Data poisoning กับ Training Dataset โดย SAIF ประกอบด้วย Best Practice 6 ส่วนหลักที่เกี่ยวข้องกับการขั้นตอนการพัฒนา AI เช่น การสร้าง Security Foundation ที่แข็งแรงสำหรับ AI Ecosystem เพื่อปกป้อง System และ Application จากการโจมตีจาก SQL Injection รวมถึงการทำ Input Sanitization และ Limiting เพื่อป้องกันการโจมตีประเภท Prompt Injection, การเพิ่มระบบ Detection and Response เพื่อป้องกันภัยคุกคาม โดยแนะนำให้มีการตรวจสอบ Input และ Output ของระบบ AI ด้วยการใช้ Threat Intelligence, และการเพิ่มระบบ Automate Defense เพื่อป้องกันภัยคุกคามที่อาจมีการใช้งาน AI เพื่อยกระดับการโจมตี

Google ได้แนะนำให้ทีม Cybersecurity ขององค์กรเข้ามามีส่วนร่วมในโครงการ AI ด้วย โดยอาจมีการตรวจสอบการใช้งาน AI ของพนักงานในองค์กร เพื่อประเมินความเสี่ยง และอาจแนะนำเครื่องมือต่างๆในการใช้งานระบบ AI เพื่อสร้างเป็นมาตรฐานกลางขององค์กร

ผู้ที่สนใจสามารถอ่านรายละเอียดเพิ่มเติมได้ที่: https://blog.google/technology/safety-security/introducing-googles-secure-ai-framework/

Share
0 comment

โพสต์