הפער בין עטיפת ChatGPT ל-AI ארגוני
כל שבוע מישהו מציע לנו "אינטגרציית AI מהירה" — לחבר GPT לנתונים הפנימיים שלהם, להדביק ממשק צ׳אט ולשחרר למשתמשים. נשמע מהיר וזול. כמעט אף פעם לא עובד בפרודקשן.
בילינו שנים בבניית מערכות לגופים ממשלתיים, בתי חולים ומוסדות פיננסיים בישראל. הארגונים האלה לא יכולים להרשות ל-AI לזייף נתוני מטופלים, להמציא תקדימים משפטיים או להדליף מידע חסוי ל-API חיצוני. הם צריכים משהו שנבנה אחרת מהיסוד.
למה עטיפות API נכשלות בסביבות מפוקחות
כשעוטפים מודל בסיס כמו GPT-4 או Claude, מסתמכים על מערכת חיצונית שתעבד את נתוני הארגון. לארגונים רבים זה יוצר בעיות מיידיות:
ריבונות נתונים. רשומות רפואיות, תיקי בית משפט ומסמכים ממשלתיים לרוב לא יכולים לעזוב את התשתית שלכם. לשלוח אותם ל-API חיצוני — אפילו מוצפן — עלול להפר את HIPAA, GDPR או תקנות פרטיות ישראליות.
פלט בלתי צפוי. מודלים מייצרים תגובות שונות לאותה הנחיה. בצ׳אטבוט שירות לקוחות, זה בסדר. במערכת שמייעצת לרופאים על אינטראקציות בין תרופות, זה מסוכן. צריך תהליכי עבודה דטרמיניסטיים סביב מודלים סטטיסטיים.
אין השלמת משימות. מודל צ׳אט עונה על שאלות. הוא לא נכנס ל-CRM שלכם, שולף את התיק הרלוונטי, מנסח תגובה, מנתב אותה לאישור ומעדכן סטטוס. עבודה ארגונית דורשת מערכות שמשלימות משימות, לא רק מדברות עליהן.
מה פירוש "לבנות AI כמו שצריך"
ב-Globalbit אנחנו בונים את מה שהתעשייה קוראת מערכות Agentic AI. במילים פשוטות: AI שמבצע פעולות בתוך התשתית העסקית הקיימת שלכם, בהתאם לכללי האבטחה והרגולציה.
פירוק משימות
בקשה כמו "להכין את דוח הציות הרבעוני" מתפרקת לשלבים קונקרטיים: למשוך נתונים ממערכת הכספים, לבדוק מול דרישות רגולטוריות, לייצר פרקים, לסמן חריגים לבדיקה אנושית. לכל שלב יש קלט מוגדר, פלט צפוי ומנגנון טיפול בכישלון.
סוכנים מתמחים
במקום מודל אחד שעושה הכל, אנחנו בונים סוכנים ממוקדים. סוכן שליפת נתונים מתקשר עם בסיסי נתונים. סוכן ייצור מסמכים יוצר פלט מובנה. סוכן ציות מאמת מול כללים רגולטוריים. כל אחד פועל בעצמאות ומתקשר דרך ממשקים מובנים.
אינטגרציות מאובטחות
סוכנים מתחברים למערכות ארגוניות קיימות — ERP, CRM, ניהול מסמכים, מעקב תיקים — דרך ממשקי API שמאכפים מודלים של הרשאות. סוכן יכול לקרוא רק מה שהמשתמש המבקש מורשה לראות.
נקודות בקרה אנושיות
עבור החלטות בסיכון גבוה, אנחנו בונים שלבי בדיקה מפורשים. ה-AI מכין את העבודה, בן אדם מאשר או משנה. זו לא מגבלה — זו החלטת עיצוב שבונה אמון ארגוני במערכת.
שני מסלולים שחברות עוברות
מסלול א׳: מתחילים עם עטיפה, נתקעים. חברה מחברת GPT לבסיס הידע שלה, מעבירה הדמו פנימית, ההתרגשות עולה. אז אבטחת מידע בודקת ומסמנת סיכוני חשיפת נתונים. המחלקה המשפטית מוצאת פערי ציות. ההנדסה מגלה שאי אפשר לחבר את המערכת בצורה אמינה למערכות פנימיות. הפרויקט נתקע.
אנחנו מקבלים את הפניות האלה באופן קבוע. לפעמים אנחנו מצליחים להציל את העבודה. לפעמים מתחילים מאפס.
מסלול ב׳: עיצוב לפרודקשן מהיום הראשון. איסוף דרישות, ניתוח תחומי, ארכיטקטורת אבטחה, ואז הטמעה. לוקח יותר זמן מראש (3-6 חודשים לעומת 3-6 שבועות), אבל המערכת באמת יוצאת לאוויר ונשארת פעילה.
השוואת עלויות מטעה
מנוי ChatGPT Enterprise עולה כמה אלפי דולר בחודש. מערכת Agentic AI מותאמת עולה שש ספרות לבנייה. הפרש המחיר נראה עצום עד שמחשבים:
- מערכת המנוי לא יכולה להשלים משימות בתשתית שלכם
- תוציאו יותר על דרכים עוקפות מאשר על בנייה נכונה
- המערכת המותאמת מפחיתה עומס על תהליכי עבודה חוזרים
- כשלונות ציות עולים יותר מפיתוח
אחד מלקוחותינו ממגזר המשפט העריך ש-Psika.ai חוסכת למשרד כ-2,000 שעות חיוב בשנה בזמני מחקר. במחירון שלהם, זה החזר של שבע ספרות על השקעה של שש ספרות.
שאלות נפוצות
אפשר להתחיל עם עטיפה ולעבור למערכת מותאמת מאוחר יותר? אפשר, אבל יש מעט עבודה שניתנת למיחזור. הנדסת ההנחיות עוברת, אבל הארכיטקטורה, האינטגרציות ותשתית האבטחה צריכות בנייה מאפס. בדרך כלל זול יותר להתחיל עם ארכיטקטורה נכונה.
האם אנחנו צריכים אנשי ML משלנו? בזמן הפיתוח, לא — זה התפקיד שלנו. לתפעול שוטף, צריך מישהו שמבין את ארכיטקטורת המערכת, אבל הוא לא חייב מומחיות ML עמוקה. אנחנו מתכננים מערכות שצוות ההנדסה הקיים שלכם יכול לתחזק.
איך מטפלים בעדכוני מודלים? המסגרת שלנו אגנוסטית למודל. כשמודל טוב יותר נהיה זמין (או שהמחיר של הנוכחי משתנה), מחליפים את המודל בלי לבנות מחדש את ארכיטקטורת הסוכנים או האינטגרציות.
הארגון שלכם בוחן AI מעבר לצ׳אטבוטים — מערכות שבאמת עושות עבודה בתשתית שלכם? בואו נדבר על איך זה נראה עבורכם.

