Bloomberg חוסמת אנשי אבטחה – “פעילות חשודה”
אנשי מקצוע בתחום מצלמות האבטחה מדווחים על חסימה מגישה לאתר Bloomberg, כאשר הם מקבלים הודעה המצביעה על “פעילות חשודה” הקשורה לרשת שלהם. ההתראה מציינת בעיות אפשריות בהגדרות JavaScript או עוגיות וכוללת מספר זיהוי לתמיכה.
החסימה האוטומטית הזו מעוררת דאגה בתעשיית המעקב, כפי שדיווחה Bloomberg, שכן צוותים רבים מסתמכים על הפלטפורמה לקבלת עדכונים על התפתחויות טכנולוגיות, רגולציות ומגמות שוק. משתמשים רבים פועלים דרך חומות אש תאגידיות או משתמשים בכלים לניטור הזנות חדשות בזמן אמת – גורמים שעלולים להפעיל חסימות אוטומטיות כאלה.
כדי לשחזר את הגישה, צוותים טכניים בוחנים הגדרות דפדפן וקונפיגורציות רשת. חברות המשלבות נתוני Bloomberg בתכנון האסטרטגי שלהן גם בוחנות כיצד למנוע הפרעות עתידיות. עבור אנשי מקצוע בתחום מצלמות האבטחה, גישה ללא הפרעה למידע עדכני נותרת קריטית.
המקור המלא – Bloomberg
עוד מבזקי חדשות
Google Gemini יגש לנתוני Gmail ותמונות אישיות למודיעין מותאם
Google השיקה תכונה חדשה ל-AI העוזר Gemini שמאפשרת לו לגשת ישירות לנתוני Gmail, היסטוריית חיפוש ב-Google, תמונות ב-Photos ופעילות ב-YouTube של המשתמש. התכונה, שמכונה “Personal Intelligence”, נועדה להפוך את Gemini למודע יותר להקשר על ידי שימוש בתכנים האישיים של המשתמש כדי לספק הצעות ותשובות מותאמות.
השינוי הזה יכול להשפיע על משתמשי מצלמות אבטחה ומערכות בית חכם, שבהן עוזרים מבוססי AI כבר ממלאים תפקיד גדל והולך. על ידי התחברות לזרמי נתונים אישיים, כלי AI כמו Gemini עשויים להציע אינטגרציות שימושיות יותר – כמו חשיפת צילומים או התראות רלוונטיות – אך גם מעלים דאגות פרטיות חדשות.
משתמשים המטפלים בנתונים חזותיים רגישים, כמו הזנות אבטחה ביתיות, צריכים לשים לב היטב לאיזה מידע עוזרי AI יכולים לגשת. כפי שדיווחה Bloomberg.com, ככל שמערכות AI הופכות מחוברות יותר לאקוסיסטמים אישיים, שקיפות סביב שימוש בנתונים ושליטת המשתמש הופכים חשובים יותר.
המקור המלא – Google Gemini Can Proactively Analyze Users’ Gmail, Photos, Searches
McKinsey מוסיפה צ’אטבוט AI לתהליכי גיוס בוגרים
חברת הייעוץ McKinsey & Company החלה לשלב רכיב בינה מלאכותית בתהליך גיוס בוגרים, כאשר מועמדים נדרשים לעבוד עם צ’אטבוט פנימי בשם Lilli במהלך ראיונות סופיים. הכלי נבחן כעת במקומות נבחרים בארה”ב כדי להעריך כיצד מועמדים יכולים לשתף פעולה עם בינה מלאכותית בתרחישים עסקיים מעשיים.
המועמדים נדרשים להשלים משימות בסגנון ייעוץ באמצעות הנחיית הבינה המלאכותית, פרשנות התוצאות וגיבוש תגובות מובנות. המטרה היא להעריך חשיבה, שיפוט ויכולת תקשורת ולא ידע טכני במערכות AI. התהליך מתייחס לצ’אטבוט כאל חבר צוות זוטר ובוחן כיצד המועמדים יכולים להנחות ולבנות על הקלט שלו.
השלב החדש משלים את הערכות המסורתיות של McKinsey המתמקדות בפתרון בעיות, חשיבה מובנית והנהגה. החלטת החברה משקפת מגמה רחבה יותר בשיטות גיוס בתעשיות שונות שבהן שימוש בבינה מלאכותית הופך לחלק אינטגרלי מזרימות העבודה היומיות.
McKinsey הרחיבה את השימוש בבינה מלאכותית פנימית, כולל השתתפות ב-Copilot Studio של Microsoft לסוכנים אוטונומיים. כפי שדיווחה the Guardian, החברה כעת מפעילה כוח עבודה דיגיטלי של 20,000 סוכני AI לצד 40,000 העובדים האנושיים שלה.
ככל שכלי בינה מלאכותית הופכים נפוצים יותר בעבודה מול לקוחות, חברות כמו McKinsey נותנות עדיפות למועמדים שמראים יכולת להשתמש בטכנולוגיות אלו ביעילות.
המקור המלא – McKinsey asks graduates to use AI chatbot in recruitment process
ממשלת בריטניה חוקרת את Grok בחשד לתמונות מניפולטיביות
ממשלת בריטניה בוחנת כלי בינה מלאכותית שיכולים ליצור תמונות מעורבות המדמות עירום, תוך התמקדות בצ’אטבוט Grok של אילון מאסק. הרשויות מודאגות מכך שהכלי עשוי לשמש להפקת תמונות ללא הסכמה, פוטנציאלית של נשים וקטינים.
גורמים רשמיים שוקלים חוקים חדשים שיגדירו יצירת תמונות אינטימיות ללא הסכמה, כולל אלו שנוצרו בבינה מלאכותית, כפשע. החוקים הנוכחיים אינם מכסים במלואם תוכן שנוצר בבינה מלאכותית, אך ראש הממשלה סר קיר סטארמר הצהיר שכישלון בעמידה בתקנים קיימים עלול להוביל לפעולה.
המחלוקת נובעת מדיווחים שGrok אפשר למשתמשים לשנות תמונות של אנשים לבושים, כפי שדיווחה The Times ולגרום להם להיראות חצי ערומים. מאסק מכחיש את הטענות, וטוען שGrok אינו מייצר חומר בלתי חוקי אלא אם כן מתבקש לכך ושאין ראיות לכך שהוא מייצר תוכן הכולל קטינים.
Ofcom, הרגולטור הבריטי לתקשורת, השיקה חקירה במסגרת חוק הבטיחות המקוונת. החוק מעניק לOfcom סמכות להטיל קנסות, להגביל או לחסום פלטפורמות שאינן עומדות בדרישות הבטיחות.
כלי בינה מלאכותית אחרים, כמו ChatGPT, הראו התנהגות דומה, מה שמעלה שאלות כיצד פלטפורמות צריכות לטפל בייצור תמונות הרסני פוטנציאלי. מומחים משפטיים מזהירים שלמרות שפלטים מסוימים עשויים לא להפר חוקים נוכחיים, שילובי הנחיות ספציפיים עלולים לכך.
המקרה מוסיף לחץ על מפתחי בינה מלאכותית לבנות אמצעי הגנה המונעים שימוש לרעה, במיוחד בנוגע לתוכן אינטימי או ללא הסכמה.
מחלקות המשפט הארגוניות חוסכות עלויות עם בינה מלאכותית
מחלקות משפט ארגוניות מאמצות יותר ויותר כלי בינה מלאכותית כדי לנהל עלויות ולהאיץ משימות שגרתיות, מה שמשנה את האופן בו נוהלת עבודה משפטית פנימה. פלטפורמות AI עוזרות כיום בניסוח מסמכים, במעקב אחר עדכונים רגולטוריים ובבדיקת חוזים – תחומים שבעבר דרשו או עבודה ידנית או תשומות יקרות ממשרדי עורכי דין חיצוניים.
חברות כמו Gusto ו-Inflection AI כבר משתמשות בכלים אלה כדי לצמצם עבודה משפטית חוזרת. כלים שפותחו על ידי סטארט-אפים כמו GC AI ו-Harvey מאפשרים לצוותים משפטיים פנימיים להפחית את התלות שלהם ביועץ חיצוני, שהיה באופן מסורתי אחת ההוצאות הגדולות ביותר שלהם.
השינוי הזה משפיע גם על תעשיית הטכנולוגיה המשפטית. ספקים שבעבר התמקדו אך ורק במשרדי עורכי דין בונים כעת מוצרים למחלקות משפט ארגוניות. הפלטפורמות הללו תומכות במשימות כמו ניהול חוזים וציות, ועוזרות לצוותים לנהל יותר עבודה פנימית.
המגמה משפיעה גם על האופן בו חברות מעריכות את השותפים המשפטיים שלהם. רבות מעדיפות כיום משרדים חיצוניים שמשתמשים בבינה מלאכותית בעצמם, במטרה למיון טוב יותר עם היעילות של הצוותים הפנימיים.
כפי שדיווחה Business Insider, המגמה הזו מגיעה בזמן שתקציבי המשפט מתיישרים. סקר עדכני של Thomson Reuters מראה שרק 35% מהחברות הגדולות צופות להגדיל את ההוצאה המשפטית השנה, ירידה מ-40% בעבר. עם פחות משאבים, מחלקות משפט פונות לבינה מלאכותית כדי לטפל בעומסי עבודה גדלים מבלי להרחיב כוח אדם או לבצע מיקור חוץ.
המקור המלא – In-house lawyers embrace AI and smaller legal bills
Nvidia משקיעה 1.5 מיליארד דולר בישראל – מהפכה ב-AI
השקעה של 1.5 מיליארד דולר של Nvidia לבניית מתקן מחשוב בקנה מידה גדול בישראל מסמנת מעבר משמעותי באסטרטגיית הבינה המלאכותית של המדינה. כך לפי ctech, מדובר בהשקעת התשתית הגדולה ביותר שהוכרזה אי פעם בישראל על ידי חברת טכנולוגיה זרה, במטרה להגביר את יכולות המחשוב הביצועי הגבוה – תחום שבו המדינה חיכתה מאחורי שחקנים גלובליים.
ישראל כבר מוכרת בזכות המחקר ב-AI והכישרון בתחום אבטחת המידע. עם זאת, היא התקשתה להגדיל את התשתית כדי לתמוך בדרישות המחשוב של מודלי AI מתקדמים. מודלים אלה מסתמכים במידה רבה על עיבוד נתונים עצום ומשאבי אנרגיה שדורשים מתקנים יעודיים ברמה גבוהה. השקעת Nvidia עשויה לסייע לסגור את הפער הזה.
המתקן החדש צפוי לחזק את היכולות המקומיות בהכשרה ופריסה של מערכות AI. זה עשוי להפחית את התלות בתשתית מעבר לים, שלעתים קרובות אילצה חברות ישראליות להעביר פעילות לחו”ל או להירכש מוקדם. עם יותר משאבים בבית, חברות עשויות להיות מסוגלות לצמוח באופן עצמאי ולתרום למערכת AI לאומית חזקה יותר.
למרות המומנטום, אתגרים נותרו. ישראל מתמודדת עם מחסור באנשי מקצוע ב-AI ברמת התואר השני ועדיין רואה סטארט-אפים רבים יוצאים מוקדם במקום להתרחב. פיתוח התשתית גם פיגר, מה שהכשיל את היכולת להתחרות עם מדינות כמו ארה”ב, סין ודרום קוריאה, שמתקדמות במהירות בהכנות ל-AI.
מדינות אחרות משקיעות רבות בתשתית AI, אבל ישראל מביאה חוזקות במומחיות טכנית ואמינות בסביבות בעלות חשיבות גבוהה. פרויקט Nvidia יכול לשמש כזרז לשיתוף פעולה עמוק יותר בין התעשייה, הממשלה והאקדמיה, ולעזור לשמר כישרונות וקניין רוחני במדינה.
אמנם הפרויקט לבדו לא יבטיח לישראל מקום בין עילית ה-AI הגלובלית, אבל הוא מסמן מעבר מחדשנות ממוקדת מחקר לבניית מערכות יסוד שתומכות בצמיחה לטווח ארוך.
Nvidia משיקה מחשב-על AI עוצמתי לעסקים
Nvidia עומדת להשיק את ה-DGX Station, מחשב-על חזק לבינה מלאכותית המיועד לעסקים וצוותי מחקר המטפלים בעומסי עבודה חישוביים כבדים. המערכת תוכננה כפתרון מקומי המיועד לארגונים הזקוקים לעיבוד מאובטח ומקומי של מידע רגיש – במיוחד בתחומים כמו פיננסים ובריאות.
המערכת החדשה מבוססת על ה-DGX Spark, יחידת שולחן עבודה שהושקה לפני שלושה חודשים למפתחים בודדים. בעוד שה-Spark הציע 256 GB זיכרון, ה-DGX Station משלש את הנפח עם 775 GB זיכרון קוהרנטי, מה שמאפשר הרצה של מודלי AI מורכבים עתירי משאבים.
בניגוד לקודמתה הקטנה יותר, ה-DGX Station מיועדת לשימוש משותף בסביבות משרדיות. היא מכוונת לצוותים העובדים על פרויקטים רחבי היקף שאינם יכולים להסתמך רק על תשתיות ענן בשל דאגות פרטיות או דרישות זמן תגובה.
Nvidia עדיין לא חשפה את המחיר, אך צפוי שיהיה גבוה משמעותית ממחיר ה-Spark של 4,000 דולר. לפי דיווח של Inc, הזמנות מוקדמות ייפתחו תוך חודשיים, ללא תאריך שחרור מאושר נכון לעכשיו. עסקים מעוניינים יכולים להירשם לעדכונים ישירות דרך אתר Nvidia.
המקור המלא – Nvidia Is Launching a Monster AI Supercomputer for Businesses. Here’s What You Need to Know
צה”ל חושף תוכנית חמש שנים: מעבר מקיף לבינה מלאכותית ורובוטיקה
צה”ל הציג אסטרטגיה חדשה לחמש שנים הממקדת באופן חריף בטכנולוגיות בינה מלאכותית, מערכות אוטונומיות והגנה מבוססת חלל. התוכנית, שנושאת את השם “חושן” ופועלת בשנים 2026-2030, מסמנת שינוי משמעותי בסדרי העדיפויות המבצעיים של הצבא.
התוכנית כוללת פריסה רחבה יותר של פלטפורמות אוטונומיות ביבשה, באוויר ובים. המערכות יפעלו לצד כוח אדם, ויעצימו מהירות ודיוק בתרחישי לחימה. בינה מלאכותית תתמוך בקבלת החלטות בזמן אמת ובפונקציות פיקוד, בגיבוי שיפורים בתשתית הנתונים הצבאית.
בתחום ההגנה הטכנולוגית, לפי דיווח של The Jerusalem Post | JPost.com, צה”ל בוחן מערכת הגנת גבול אלקטרונית חדשה, שהושפעה מהמבצעים האחרונים נגד חזבאללה. המערכת עשויה להוסיף שכבת הגנה נוספת לניטור היקפי וזיהוי איומים.
האסטרטגיה כוללת גם השקעה הולכת וגוברת ביכולות חלל, בתגובה לדאגות מפעילות הלווינים האחרונה של איראן ושיתוף הפעולה הגובר שלה עם רוסיה. צה”ל מתכנן לפתח כלים שיאפשרו לו לפעול ביעילות בסביבות מבוססות חלל במידת הצורך.
מבחינה טכנולוגית רחבה יותר, צה”ל מרחיב יוזמות הגנה אווירית, כולל מערכת הלייזר “קרן ברזל”. הערכות נוספות מתבצעות לגבי עתיד צי ה-F-15 והמשך שילוב מטוסי ה-F-35.
מימון התוכנית יגיע בחלקו מתקציב הגנה לאומי של 350 מיליארד שקל, שמטרתו לתמוך בעצמאות רבה יותר בפיתוח נשק וטכנולוגיה צבאית במהלך העשור הבא. למרות שהתוכנית עדיין בשלב תכנון מוקדם עם 12 צוותים הקובעים יעדים, היישום עלול להיתקל בהפרעות עקב שינויים בסיוע אמריקאי, תמורות פוליטיות פנימיות או עימותים אזוריים חדשים.
בתי כולים נאבקים לפקח על AI רפואי: מי ירסן?
כלי בינה מלאכותית ממשיכים להתרחב במערכות הבריאות, אך בתי החולים בארה”ב מתקשים לעמוד בדרישות הפיקוח והרגולציה. בעוד שה-AI מבטיח לייעל אבחון ולשפר תוצאות חולים, הצמיחה המהירה שלו חרגה מהמסגרות הקיימות והותירה בתי חולים ללא הנחיות ברורות ועם עלויות גבוהות לציות.
כיום אין רשות מרכזית שמנהלת את השימוש ב-AI בבריאות. הפיקוח נופל בעיקר על בתי חולים בודדים, שרבים מהם חסרי התשתית או המימון להעריך כראוי את המערכות האלה. מתקנים קטנים וכפריים בפרט עלולים להישאר מחוץ למשחק – עם הערכות המצביעות על כך שאימות מלא של כלי AI יחיד עולה מעל 300,000 דולר.
המלצות אחרונות מה-Joint Commission וה-Coalition for Health AI נועדו להביא עקביות לאופן שבו בתי חולים משתמשים ב-AI ומנטרים אותו. אלה כוללות חשיפה של שימוש בכלי AI בטיפול חולים, קבלת הסכמה כשצריך, ומעקב ביצועים באוכלוסיות שונות לזיהוי שגיאות או הטיות. עם זאת, האחריות עדיין נשארת על בתי החולים.
העדר אסטרטגיה לאומית יצר חששות ממערכת מפוצלת, שבה רק ארגונים עשירי משאבים יכולים לאמץ AI בבטחה. כפי שדיווחה Harvard Gazette, מומחים העלו רעיון של מעבדות הבטחה בגיבוי פדרלי שיוכלו לבדוק כלי AI באופן עצמאי, אך תוכנית כזו טרם אושרה.
ככל שה-AI הופך מוטבע יותר בתחומים כמו הדמיה, אבחון ואפילו תמיכה בבריאות הנפש, הצורך בפיקוח ניתן להרחבה ובמחיר סביר הופך קריטי. בתי חולים מתמודדים עם לחץ הולך וגובר לאמץ AI תוך הבטחת בטיחות חולים ושמירה על אמון הציבור – הכול ללא מפת דרכים ברורה.
המקור המלא – AI is speeding into healthcare. Who should regulate it? — Harvard Gazette
עסקת Apple-Google בבינה מלאכותית: Gemini בליבת המערכת
החלטתה של Apple לשלב את Gemini של Google במכשיריה מסמנת שינוי משמעותי בגישתה לבינה מלאכותית. ההסכם, שאמור להימשך מספר שנים, יביא את Gemini אל Siri ויישומי Apple מרכזיים אחרים, כאשר הפריסה צפויה להתחיל בסוף 2024.
העסקה מציבה את Gemini של Google במרכז אסטרטגיית הבינה המלאכותית של Apple, ומאפשרת למודל לפעול על כ-1.5 מיליארד מכשירים פעילים. צעד זה מדגיש את כוונתה של Apple להדביק את הפער בפיתוח בינה מלאכותית, תחום בו היא נשארה מאחור יחסית למתחרים שדחפו יכולות גנרטיביות באגרסיביות רבה יותר.
לתעשיית מצלמות האבטחה עשויות להיות השלכות משמעותיות. מערכת HomeKit של Apple עלולה לעבור שדרוגים טכניים, במיוחד בזיהוי אובייקטים, ניתוח התנהגות וזיהוי איומים. כאשר כלי החשיבה של Gemini יהפכו חלק מהחומרה והתוכנה של Apple, כפי שדיווחה CNBC מכשירי אבטחה עתידיים המסתמכים על HomeKit עשויים להציע תגובות חכמות יותר ומהירות יותר ואינטגרציה הדוקה יותר עם רכיבי בית חכם אחרים.
למרות ש-Apple היסטורית התמקדה בבניית מערכות משלה, השותפות הזו מראה נכונות גוברת לשתף פעולה כדי להאיץ את ההתקדמות בבינה מלאכותית. עבור יצרני מצלמות ומפתחים הבונים מוצרים תואמי HomeKit, השינוי הזה עשוי לפתוח את הדלת לאנליטיקה מתקדמת יותר ותכונות אוטומציה חדשות. זה גם מחזק את התפקיד של מודלי בינה מלאכותית בסיסיים כתשתית חיונית בפתרונות אבטחה של הדור הבא.
ההיערכות של Apple ו-Google בבינה מלאכותית עשויה להשפיע על האופן שבו חברות טכנולוגיה אחרות ימקמו את הפלטפורמות שלהן, במיוחד כאשר הביקוש עולה למערכות אבטחה אינטליגנטיות ומסתגלות יותר.
המקור המלא – The Apple-Google AI deal is a massive win for investors in both tech giants
בינה מלאכותית 2026: מפנה לשוק המעקב והביטחון
בינה מלאכותית צפויה להגיע לשלב קריטי של פריסה עד 2026, עם השפעות מרחיקות לכת על ביטחון לאומי, תשתיות ומערכות מעקב. בעוד ממשלות והמגזר הפרטי מגדילים את השימוש בכלים אוטונומיים מתקדמים, אנשי מקצוע בתחום מצלמות האבטחה יצטרכו להסתגל במהירות לסביבת איומים מתפתחת ולדרישות רגולטוריות חדשות.
עד 2026, מערכות בינה מלאכותית המסוגלות לבצע פעולות מורכבות ורב-שלביות ללא קלט אנושי צפויות להפוך לזמינות מסחרית. המעבר הזה עשוי לשפר את היכולות של רשתות מעקב, לשפר זיהוי איומים אוטומטי ותגובה. במקביל, הוא מכניס אתגרים חדשים סביב אחריותיות המערכת והביטחון, במיוחד בסביבות הנשענות על נתונים בזמן אמת וניטור רציף.
התחרות הגיאו-פוליטית הגוברת גם מעצבת את נוף הבינה המלאכותית. כפי שדיווחה Council on Foreign Relations, היריבות בין ארה״ב וסין צפויה להעמיק, עם סין המרחיבה את השימוש שלה בבינה מלאכותית בתחומי הסייבר והצבא. החלטה אמריקנית עדכנית להקל על פיקוח הייצוא של שבבי בינה מלאכותית מתקדמים עלולה לאפשר זמנית לחברות סיניות לשפר את יכולות המחשוב שלהן. המהלך הזה עשוי להשפיע על האופן שבו טכנולוגיות בינה מלאכותית משולבות בחומרת מעקב הנמכרת ברחבי העולם.
שינויים רגולטוריים מתחילים להתבהר. חוק הבינה המלאכותית של האיחוד האירופי, הכולל עונשים חמורים על אי-ציות, ייכנס לתוקף באוגוסט 2026. בארה״ב, מספר מדינות—איליינויס, קולורדו וקליפורניה—יאכפו כללים חדשים שמטרתם להגביר את השקיפות בשימוש בבינה מלאכותית. אלה כוללים דרישות לתיוג תוכן שנוצר על ידי בינה מלאכותית וחשיפת קבלת החלטות אוטומטית. עם זאת, ללא מסגרת פדרלית, האכיפה עלולה להשתנות מאוד בין תחומי שיפוט.
מערכות מצלמות אבטחה ורשתות תשתית מתמודדות עם סיכונים גדלים ממה שחלקם מכנים “בינה מלאכותית צללים”. אלה הם כלים ואלגוריתמים אוטונומיים הפועלים מחוץ לפיקוח מסורתי, לעתים קרובות משתמשים בזהויות סינתטיות או בקוד לא מאומת. כיוון שיותר ארגונים פורסים תוכנה שנוצרה על ידי בינה מלאכותית במערכות מעקב, רבים חסרים את היכולת לאשר את המקור או את השלמות של הקוד הזה. הדבר יוצר פתחים להתקפות סייבר וגישה לא מורשית.
כמענה, מאמצי התעשייה צפויים להתמקד בשלושה תחומים:
– שיפור יכולת התצפית של המערכת
– אימות זהויות מכונה
– דרישת ביקורות ביטחון עבור קוד שנוצר על ידי בינה מלאכותית
הצעדים האלה יהיו חיוניים כדי למנוע שימוש לרעה ולהבטיח שמערכות בינה מלאכותית בסביבות מעקב יישארו מאובטחות.
עבור אנשי מקצוע שעובדים בטכנולוגיית ביטחון, 2026 תהיה ככל הנראה שנה מכרעת. השילוב של בינה מלאכותית מתקדמת בתשתית מעקב מציע הן כלים חדשים והן איומים חדשים. להישאר בחזית ידרוש לא רק אימוץ טכנולוגיות חדשות, אלא גם הנחת אמצעי הגנה לשימוש אחראי בהן.
המקור המלא – How 2026 Could Decide the Future of Artificial Intelligence