בכל ארגון דיגיטלי, הצללים כבר לא שוליים - they מנהלים את השיח. Shadow IT ו־Shadow AI צמחו מתוך צורך אמיתי: עובדים מחפשים פתרונות מהירים, אפליקציות זמינות וסוכני AI שמקצרים תהליכים. זה נשמע כמו חלום פרודוקטיביות, אבל בפועל מדובר גם בסיכון: זליגת מידע, הרשאות פרוצות ופעולות אוטונומיות שלא תמיד בשליטה. המסר ברור: אי־אפשר להילחם בתופעה, צריך למסגר אותה. המסקנה? לא חסימה אלא ממשל פרגמטי - נראות מלאה, מסלול מהיר לפיילוטים, קטלוג מאושר, ובקרות זהות ומידע.
ההמלצה: בנו היום את הארכיטקטורה שתאפשר לארגון ליהנות מהיתרון של חדשנות ו־AI, בלי לשלם את המחיר של כאוס.
Shadow IT כבר מזמן אינו “קיצון חריג” אלא ברומטר ארגוני: כשהעבודה היברידית היא ברירת מחדל ו‑SaaS נמצא במרחק רישום קצר, עובדים ויחידות עסקיות נעים בין צורך בקצב לבין נהלי IT רשמיים. בפועל, ארגונים מעריכים שיש לעובדים 30-40 אפליקציות ענן, בעוד הנתון האמיתי חוצה לעיתים את רף אלף האפליקציות - וגם ~80% מהעובדים משתמשים בכלי ענן לא‑מאושרים לפחות פעם אחת. המציאות הזו חוסכת זמן ומניעה חדשנות - אך מייצרת “אזורי דמדומים” של אבטחת מידע, תאימות, ניהול זהויות וידע [1].
אל ה‑Shadow IT מצטרף כעת Shadow AI - והשילוב ביניהם משנה את חוקי המשחק: לצד שימושים נקודתיים בצ’אטבוטים, נכנסים לסביבה הארגונית סוכני AI שמסוגלים לפעול אוטונומית (לקרוא נתונים, לבצע פעולות, ולהשתמש ב‑API/כלים) - מנוע פרודוקטיביות אדיר, אך גם משטח תקיפה חדש (“Excessive Agency”, Prompt Injection, Poisoning), ולכן דורש ממשל ייעודי [2] [3] [4]. כדי לשמור על מהירות וגם אחריות, נדרש מודל משולב: נראות (Discovery), מסלול מהיר בשליטה (Fast‑Track) לאימוץ מבוקר, קטלוג מאושר ואטרקטיבי, ביטחון זהויות ו‑DLP, ומדיניות פרגמטית - כשאת ממשל ה‑AI מיישרים ל‑NIST AI RMF ופרופיל ה‑GenAI.
מה זה Shadow IT - ולמה הוא גדל?
Shadow IT = שימוש בשירותים/אפליקציות/מכשירים בארגון ללא אישור או פיקוח IT - תופעה שמזנקת בעידן SaaS, BYOD (Bring Your Own Device) ועבודה היברידית. הנגישות (“ללא התקנה”, “תשלום בכרטיס אשראי”) + קצבי עבודה מהירים יוצרים אימוץ עצמאי; לעיתים זה לא מרד - זו מחויבות לביצוע [5] [6].
היקף התופעה, למה ומה הסיכון - מה המספרים מספרים?
ארגונים מגלים פער קבוע בין ההערכה למציאות; “זחילת SaaS” (SaaS Sprawl) ו‑שימוש לא‑מאושר נפוצים מאד, ובלא נראות לוגים או SSO אחוד קשה למדוד סיכון אמיתי. מגמת 2024-2025: הכפלה של מספר האפליקציות לעובד מאז 2019, והתרחבות הסיכונים בגלל כלים גנרטיביים חדשים [1] [7] [9].
נהגים ארגוניים ותרבותיים
- נגישות טכנולוגית: SaaS/ענן בלחיצה; פתרון מיידי לצורך נקודתי [6].
- קצב עסקי: לוחות זמנים לוחצים מול מחזורי אישור איטיים [5].
- תרבות היברידית: זליגת “הרגלי אפליקציות ביתיות” לעבודה והיטשטשות גבולות פרט/ארגון [6].
מה הסיכון? טקסונומיה תמציתית
- מידע ותאימות: זליגת מידע, אזורי אחסון לא תואמים, היעדר לוגים / בקרה (Audit) - סיכון ענפי ל‑Compliance (הַתאָמָה) [1].
- זהויות והרשאות: Identity Sprawl, עקרון Least‑Privilege לא מיושם, וסגירת גישה לא עקבית [5].
- תפעול ותמיכה: “חורים שחורים” בנראות - קושי בתחזוקה/כיבוי/רישוי [7].
- AI‑Specific: Prompt Injection, Poisoning, Excessive Agency (סוכן שמבצע יותר ממה שהתכוונו), ואיומים לאורך מחזור חיי מודל [4] [9] [10] [11].
לא רק איום - הזדמנות לחדשנות מונעת‑שטח
Shadow IT משקף איתות לצורך אמיתי: פערי חוויית משתמש או פונקציונליות בכלי הליבה. כשמתווים מסלול ממושטר - פיילוט זריז, “אישור מותנה” בגבולות זמן/נתונים, וקטלוג מאושר - ממירים אנרכיה ל‑למידה ארגונית ושיפור ביצועים [1].
Shadow AI וכניסת סוכני-AI לעולם העבודה
מה חדש? לא רק צ’אט; נכנסים Agents שמבינים הקשר, משתמשים בכלים/מחברים (Tools/Connectors), מבצעים פעולות (קריאה/כתיבה), ונשענים על הרשאות הארגון.
ב‑Microsoft 365: Copilot + Agents ניתנים להרחבה ולהפעלה ב‑Word/PowerPoint/Teams, עם Copilot Control System לממשל, רישום ובקרה; ולצידם ממשל ייעודי ל‑Copilot Agents דרך Power Platform/Copilot Studio (מדיניות נתונים, שיתוף והרשאות)[10] [11] [12].
ב‑Slack: יכולות Slack AI בנויים כך שנתוני הלקוח אינם יוצאים מתחום האמון של Slack, ולא משמשים לאימון מודלים חיצוניים; הגישה תמיד בהתאם להרשאות המשתמש (RAG, גבולות הרשאות) [13].
ב‑Google Workspace (Gemini): בקרים ארגוניים לשילוב GenAI: Trust Rules, DLP/IRM, CSE - והגנות מובְנות כנגד Prompt‑Injection, עם מסגרות תאימות (HIPAA, FedRAMP High) [4] [12] [13] [14] [15] [16].
למה זה חשוב? סוכנים מכניסים אוטונומיה מבוקרת לעבודה היומיומית—אך כל יכולת פעולה היא גם וקטור סיכון: זליגה דרך חיבורי צד‑שלישי/Plug‑ins, אימות והרשאות לא מוקשחים, ו‑Prompt Injection עקיף ממסמכים/דפים [4] [5]. לכן נדרש ממשל סוכנים שמחבר בין CASB/SSPM, IAM, DLP ומסגרת AI בדוקה (NIST/CSA) [16] [2] [3].
מסגרת ממשל מומלצת (Governance‑by‑Design, AI‑Aligned)
- נראות תחילה (Shadow IT & AI): להפעיל גילוי ענן (Cloud Discovery) ולבנות Baseline: אפליקציות בשימוש, בעלויות עסקיות, סיווג נתונים, ו‑Risk Score.
- מסלול מהיר בפיקוח (Fast‑Track): טופס קצר, SLA לאישור, “אישור מותנה” (זמנים/סוגי נתונים/קבוצת ניסוי), ו‑Exit מובנה.
- קטלוג אפליקציות & סוכנים מאושר: חוויית משתמש “Good‑Enough” עם SSO, הרשאות מינימליות, וחיבורים מאובטחים.
- זהויות והרשאות (IAM): SSO+MFA, JML אוטומטי, ביקורת הרשאות לסוכנים/חיבורים (OAuth, Graph, Slack/Workspace scopes).
- בקרות מידע (DLP/IRM/CSE): הגדרות שיתוף, הצפנה, לוגים/אודיט, ומדיניות חוץ‑ארגוני (Share/Export).
- מיפוי סיכוני‑AI ו‑Red‑Team: יישום NIST AI‑RMF + פרופיל GenAI; אימוץ OWASP LLM Top‑10; מיפוי איומי ATLAS לאורך ה‑Lifecycle.
- מדדים ושקיפות: לוח מחוונים לאימוץ/שימוש/סיכון; פרסום תוצאות פיילוטים והחלטות אימוץ/דחייה.
צ’ק־ליסטים למנהלים
צ'ק ליסט קצר לבחינת כלי חדש
- חיבור SSO? ✅
- הצפנה במנוחה/מעבר? ✅
- Data Residency / מחיקות לפי בקשה? ✅
- RBAC/ABAC ו-Logging? ✅
- DPA חתום ויכולת opt-out מאימון מודלים? ✅
- קונקטורים נתמכים והפרדת סביבות? ✅
- מדד ערך עסקי ברור (KPI)? ✅
אנטי-דפוסים (Smells)
- “פיילוט נצחי” בלי Owner עסקי.
- אינטגרציות פרטיות ללא רישום.
- ריבוי גרסאות אמת (דשבורדים מתנגשים).
- חוסר שקיפות עלויות (כרטיסי אשראי “קטנים”).
Playbook ישים ל‑90 הימים הראשונים
- ימים 1–30 - גילוי ומדידה: הפעלת Cloud Discovery/SSPM; מיפוי 10 האפליקציות הלא‑מאושרות הנפוצות; איתור סוכני‑AI “פראיים” (Bots/Plugins) והצמדת “בעלים עסקי”.
- ימים 31–60 - ניסוי מבוקר: שני פיילוטים כואבים (פתרון מאושר מול חלופי), KPI (זמן‑לביצוע, שביעות רצון, עלות/רישוי), ו‑Risk Review מול OWASP LLM Top‑10.
- ימים 61–90 - מוסדיות והטמעה: קטלוג, SSO/MFA, JML, DLP/IRM, פרסום דפי “מה חדש/איך לבקש פיילוט”, והקמת Copilot/Agent Governance Page.
רשימת המלצות לפעולה
- הדליקו אור - ואז סננו: נראות לפני חסימות; נתוני שימוש אמיתיים מונעים ויכוחים וממקדים את הבקרה
- “מסלול מהיר” במקום “לא”: SLA קצר + אישור מותנה = פחות עקיפות, יותר שליטה
- הפתרון המאושר חייב להיות מפתה: UX טוב, SSO, הרשאות מינ’—חוויית משתמש היא בקרת אבטחה מעולה
- ממשל סוכנים = מדיניות + טלמטריה: CCS, מדיניות נתונים, יומני שימוש, יציאות חירום
- אבטחת AI = סט כלים משולב: IAM, DLP/IRM, CASB/SSPM, + NIST/OWASP/ATLAS
- בקרו חיבורים וצד‑שלישי: נתחו OAuth/Plugins, הגבילו Scopes, חסמו Anonymous Publish לסוכנים
- RAG בגבולות ברורים: נתונים לא יוצאים מגבולות אמון; עבדו לפי הרשאות משתמש בזמן ריצה
- נהלו סיכוני “Shadow AI” כנתון עסקי: מלאי‑AI ארגוני, בקרות גישה, בקרה רציפה ודיווח
- בדקו עלויות/השפעה: צמצום כפילויות רישוי, מדידת זמן‑לאישור והפחתת אפליקציות “פראיות” רבעונית
- חינוך ומתן “מה כן”: דוגמאות מאושרות, ספר מתכונים פנימי (Prompts/Agents), ושקיפות תוצאות
סיכום: לא לבטל - לאמץ בתבונה
הצל לא נעלם בצעקה - הוא מתכנס לאור. אימוץ גישה פרגמטית המשלבת נראות, מסלול‑מהיר נשלט, קטלוג מאושר ומפתה, אוטונומיית‑AI תחת ממשל, וזהויות/מידע מוקשחים - ממיר אימפרוביזציה טכנולוגית ל-יתרון ארגוני מדיד. הייחוד של 2025: סוכני‑AI כבר כא - הם כותבים, מסכמים, וגם פועלים. המשמעות: לתכנן מידרג הרשאות לסוכנים, להגביל פעולות מסוכנות, לשלב DLP/IRM ו‑SSO/MFA כבר בשלב הפיילוט, וליישר לשיטות עבודה מומלצות (NIST AI‑RMF + פרופיל GenAI, OWASP‑LLM Top‑10, MITRE ATLAS).
מבט קדימה: “Shadow AI” מעלה גם עלות פריצה ממוצעת וחשיפות שרשרת‑אספקה (Plugins/APIs). ארגונים ללא ממשל AI מדווחים על פערי אימות, הרשאות ושימוש לא מבוקר - עם השפעות ברורות על עלויות התאוששות ושיקום. מי שיבנה ארכיטקטורת ממשל‑סוכנים (CCS/Policies/Telemetry), יטמיע בקרים פרופורציונליים לסיווג המידע, ויקדם תרבות “כן, אבל מאורגן” - ימנף את ה‑GenAI וה‑Agents כמכפיל כוח בלי להפקיר סיכון ותאימות.
בקישור תמצאו סקירה מורחבת ומקיפה, הכוללת גורמים ודוגמאות לכשלים ובחינת ההשלכות, השוואה בינלאומית, בחינת תפקידי ה-CIO, CISO, ההנהלה הבכירה והדירקטוריון וכן דרכי התמודדות ארגוניות עם Shadow IT: אכיפה, הכשרה, BYOD וניטור והצעת אסטרטגיה ניהולית להתמודדות עם Shadow IT בארגון.
אינדקס מקורות
- [1] Microsoft Learn — Discover and manage Shadow IT (Defender for Cloud Apps).
https://learn.microsoft.com/en-us/defender-cloud-apps/tutorial-shadow-it [learn.microsoft.com] - [2] NIST — AI Risk Management Framework (AI RMF 1.0).
https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf [nvlpubs.nist.gov] - [3] NIST — Generative AI Profile (AI‑600‑1), 2024.
https://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-intelligence [nist.gov] - [4] OWASP — Top‑10 for LLM Applications (2025), כולל LLM06: Excessive Agency.
https://owasp.org/www-project-top-10-for-large-language-model-applications/assets/PDF/OWASP-Top-10-for-LLMs-v2025.pdf [owasp.org] - [5] Cisco — What is Shadow IT?
https://www.cisco.com/site/us/en/learn/topics/security/what-is-shadow-it.html [cisco.com] - [6] IBM — What is Shadow IT?
https://www.ibm.com/think/topics/shadow-it [ibm.com] - [7] Auvik — 50 Essential Shadow IT Statistics for 2024.
https://www.auvik.com/franklyit/blog/shadow-it-stats/ [auvik.com] - [8] Business of Tech — Gartner warns: SaaS per employee doubled since 2019 (Shadow IT rise).
https://businessof.tech/2024/10/23/gartner-warns-of-rising-shadow-it-as-saas-use-per-employee-doubles-since-20/ [businessof.tech] - [9] OWASP — Machine Learning Security Top‑10 (Draft).
https://owasp.org/www-project-machine-learning-security-top-10/ [owasp.org] - [10] Microsoft Community Hub — Extending Copilot: agents for end users/admins/developers (Ignite 2024).
https://techcommunity.microsoft.com/blog/microsoft365copilotblog/extending-copilot-new-features-for-end-users-admins-developers-and-isvs/4298979 [techcommun…rosoft.com] - [11] Microsoft Power Platform Blog — IT Governance Controls for your Copilot agents (2024).
https://www.microsoft.com/en-us/power-platform/blog/power-apps/it-governance-controls-for-your-copilot-agents/ [microsoft.com] - [12] Microsoft Community Hub — Introducing Copilot Control System (2025).
https://techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-copilot-control-system/4397248 [techcommun…rosoft.com] - [13] Slack Help Center — Security for AI features in Slack.
https://slack.com/help/articles/28310650165907 [slack.com] - [14] Google Workspace Blog — Enterprise security controls for Gemini in Workspace (2025).
https://workspace.google.com/blog/ai-and-machine-learning/enterprise-security-controls-google-workspace-gemini [workspace.google.com] - [15] MITRE ATLAS — Adversarial Threat Landscape for AI Systems.
https://atlas.mitre.org/ [atlas.mitre.org] - [16] Cloud Security Alliance (CSA) — AI Model Risk Management Framework / Shadow‑AI Prevention.
https://cloudsecurityalliance.org/press-releases/2024/07/24/cloud-security-alliance-issues-ai-model-risk-management-framework ;
https://cloudsecurityalliance.org/blog/2024/10/24/shadow-ai-prevention-safeguarding-your-organization-s-ai-landscape [cloudsecur…liance.org], [cloudsecur…liance.org] - [17] IBM Think — Hidden risk of shadow data & shadow AI leads to higher breach costs (Cost of a Data Breach 2024).
https://www.ibm.com/think/insights/hidden-risk-shadow-data-ai-higher-costs [ibm.com] - [18] Cybersecurity Dive — ‘Shadow AI’ increases cost of data breaches, IBM report finds (2025).
https://www.cybersecuritydive.com/news/artificial-intelligence-security-shadow-ai-ibm-report/754009/ [cybersecur…tydive.com]



