Zero Trust לפיתוח בסיוע AI: עקרונות אבטחה לעידן האג'נטי
Zero trust הוא מודל אבטחה הבנוי על הנחה פשוטה: אל תסמוך על שום דבר כברירת מחדל, אמת הכל במפורש, והגבל את היקף הנזק של כל פריצה. הוא צמח כתגובה לכישלון אבטחה מבוססת-היקף — המודל שבו כל מה שבתוך רשת החברה מהימן וכל מה שמחוצה לה אינו. אותו מודל נכשל מפני שפריצות מתרחשות מבפנים, פרטי גישה נפגעים, והיקף עצמו הפך לנקבובי.
סוכני AI לכתיבת קוד יוצרים גרסה של אותה בעיה בשכבת הפיתוח. אבטחת פיתוח מסורתית מניחה שקוד נכתב על ידי בני אדם מאומתים ומורשים. סוכני AI מכניסים שחקן חדש למודל זה — אחד שיכול לקרוא לרוחב, לכתוב קוד, להריץ פקודות, לבצע commits ולבצע בקשות רשת.
שלושת עקרונות Zero Trust הליבה המיושמים לפיתוח AI
אמת במפורש
יושם על קוד שנוצר על ידי AI, המשמעות היא לטפל בכל שינוי שנוצר על ידי AI עם אותה קפדנות אימות ללא קשר לאיזה כלי יצר אותו. אימות לקוד שנוצר על ידי AI אומר:
- סריקת אבטחה אוטומטית על כל שינוי — SAST, SCA וזיהוי סודות צריכים לפעול על כל pull request.
- סקירה אנושית עם דגש מפורש על אבטחה על הרשאות, אימות קלט והוספות תלויות.
- אימות פונקציונלי באמצעות בדיקות המכסות לא רק את הנתיב המוצלח אלא גם מקרי קצה רלוונטיים לאבטחה.
השתמש בגישה עם הרשאות מינימליות
גישה למערכת קבצים. סוכן המממש רכיב UI צריך גישת קריאה לספריית הרכיבים וגישת כתיבה לספריית הרכיב. לא צריכה להיות לו גישה לקונפיגורציית תשתיות, קבצי סביבה או ספריות שאינן רלוונטיות למשימה.
גישה לטרמינל. אם הסוכן צריך להריץ בדיקות, תנו לו גישה להרצת בדיקות. לא צריכה להיות לו גישה לפקודות פריסה, הקצאת תשתיות, או פעולות שמשנות מצב מחוץ לסביבת הפיתוח.
גישה לפרטי גישה. סוכני AI לא צריכים לקבל גישה לפרטי גישה לייצור, מפתחות API לשירותים חיים, או כל פרטי גישה שיש להם השלכות מחוץ לסביבת הפיתוח.
הניחו פריצה
"הנחת פריצה" ב-zero trust אומרת עיצוב תנוחת האבטחה שלכם על הנחה שבשלב כלשהו סוכן AI יתנהג בצורה בלתי צפויה — בין אם בגלל באג, התקפת הזרקת prompt, מודל שנפגע, או מקרי קצה בביצוע הוראות של הכלי.
בידוד. הריצו סוכני AI בסביבות מבודדות שבהן התנהגות בלתי צפויה מוגבלת.
רישום ביקורת. רשמו כל פעולה שסוכן AI מבצע: קבצים שנקראו, פקודות שהורצו, בקשות רשת שנעשו, שינויי קוד שנוצרו.
יכולת rollback. ודאו שכל שינוי שנעשה על ידי סוכן AI יכול להתהפך במהירות.
מודל אמון סוכן AI
מודל שלושת שכבות מעשי:
פעולות אוטומטיות (אין צורך באישור אנושי לכל פעולה):
- קריאת קבצים בתחום ההקשר המאושר
- יצירת הצעות קוד
- הרצת בדיקות בסביבת הפיתוח
- יצירת pull requests טיוטה לסקירה אנושית
פעולות מפוקחות (נדרש אישור אנושי לפני ביצוע):
- ביצוע commit לקוד לכל branch
- התקנת תלויות חדשות
- שינוי קבצי קונפיגורציה
- ביצוע בקשות רשת לשירותים חיצוניים
פעולות אסורות (לא מותרות ללא קשר להוראה):
- גישה למערכות ייצור או פרטי גישה לייצור
- דחיפה ל-branches מוגנים ללא סקירה אנושית
- שינוי קונפיגורציית תשתיות
איך טוב נראה
סביבת פיתוח AI עם zero trust נראית כך:
סוכני AI מוגדרים עם הרשאות צרות וספציפיות למשימה. כל שינוי שנוצר על ידי AI עובר סריקה אוטומטית לפני סקירה אנושית. פעולות הסוכן נרשמות. הצוות פועל על הנחה שכל סוכן AI עלול להתנהג בצורה בלתי צפויה ועיצב את התהליך כך שהתנהגות בלתי צפויה תתפס לפני שתגיע לייצור.
ב-PinkLime, אנחנו מיישמים עקרונות zero trust בתהליך הפיתוח בסיוע AI שלנו. אם אתם בונים עם כלי AI ורוצים לעשות זאת עם אבטחה מובנית, דברו עם הצוות שלנו או גלו את שירותי הפיתוח שלנו.
קריאה נוספת: