Google Maps משדרגת ל-AI: ניתוח לוויינים, הדמיות ומודלים גאוגרפיים מוכנים לשימוש
Google מוסיפה שכבת בינה מלאכותית גנרטיבית ל-Google Maps, עם דגש על משתמשים ארגוניים. לפי דיווח של TechCrunch, ההכרזות בוצעו בכנס Cloud Next בלאס וגאס, וכוללות 3 יכולות חדשות שמרחיבות את הפלטפורמה לתחומים שלא היו נגישים קודם.
הפיצ’ר הראשון, Maps Imagery Grounding, מאפשר ליצור הדמיות ריאליסטיות של מיקומים ישירות מתוך Google Street View באמצעות תיאור טקסטואלי. מזינים פרומפט ב-Gemini Enterprise Agent Platform, והמערכת מרנדרת את המראה של המיקום – שימושי לתכנון אתרי בנייה, סיור לוקיישנים לצילום, או דמיון פרויקטי פיתוח עירוני. אפשר גם להנפיש את הסצנות דרך Veo, כלי יצירת הוידאו של Google.
הפיצ’ר השני, Aerial and Satellite Insights, מחבר בין תמונות לוויין ב-Google Earth לבין BigQuery של Google Cloud. אנליסטים יכולים להריץ שאילתות ולחלץ נתונים מתמונות לוויין הרבה יותר מהר מבעבר. לפי Google, מה שלקח שבועות של עבודה מתכווץ עכשיו לדקות.
ההכרזה השלישית עוסקת ב-2 מודלי Earth AI Imagery חדשים. אלה מערכות מאומנות מראש שמזהות אובייקטים ספציפיים בתמונות גאוגרפיות – גשרים, כבישים, קווי חשמל – בלי שחברות יצטרכו לבנות AI משלהן מאפס. תהליך שלקח חודשים הפך לחיבור מהיר למודל מוכן.
ל-Google Earth AI יש כבר שותפים פעילים כמו Airbus ו-Boston Children’s Hospital, שמשתמשים בפלטפורמה לניטור סביבתי ותגובה לאסונות. השדרוגים החדשים מרחיבים את הבסיס הזה לתוך זרימות עבודה ארגוניות יומיומיות, ומכוונים לאנליסטים, מתכנני ערים ומפתחים שאין להם משאבים לאמן מודלים מותאמים אישית.
המקור המלא – Google Maps is about to get a big dose of AI
עוד מבזקי חדשות
Anthropic בנתה שוק ניסויי למסחר בין סוכני AI
Anthropic ערכה ניסוי מסחר בכסף אמיתי שבו סוכני AI ניהלו משא ומתן זה מול זה – והתוצאות מעלות שאלות לא נוחות על הוגנות במסחר בין-סוכני.
החברה כינתה את הפרויקט Project Deal – שוק מסווג שבו סוכני AI ייצגו גם קונים וגם מוכרים. 79 עובדי Anthropic קיבלו תקציב של 100 דולר כל אחד לרכישת פריטים מעמיתיהם, כשכל משתתף יוצג על ידי סוכן AI. הניסוי הניב 186 עסקאות מושלמות בשווי כולל של יותר מ-4,000 דולר.
החברה הפעילה 4 גרסאות שוק במקביל. אחת הייתה השוק הראשי שבו כובדו העסקאות בתום הניסוי, ושלוש האחרות שימשו למחקר בלבד. בכולן נבחנו תצורות מודל שונות כדי לבדוק כיצד יכולת הסוכן משפיעה על התוצאות.
הממצאים מעניינים – וגם קצת מטרידים. לפי דיווח של TechCrunch, משתתפים שיוצגו על ידי מודלים מתקדמים יותר השיגו עקביות תוצאות טובות יותר. זה לא מפתיע. מה שבולט הוא שאותם משתתפים שקיבלו עסקאות פחות טובות לא הבחינו בכך כלל. Anthropic הגדירה זאת כ”פער איכות סוכן” – מצב שבו ייצוג AI לא שוויוני מייצר תוצאות לא שוויוניות, בלי שהצד המקופח יודע שזה קורה.
ממצא נוסף ראוי לתשומת לב: ההוראות ההתחלתיות שמשתמשים נתנו לסוכנים שלהם לא השפיעו כלל על סיכויי סגירת עסקה או על המחיר הסופי. מה שהמשתמש אמר לסוכן בהתחלה – לא שינה את התוצאה.
Anthropicמיהרה לציין ש-Project Deal הוא פיילוט מוגבל עם קבוצת עובדים שנבחרה עצמית, לא מחקר שוק רחב. עם זאת, הניסוי מציע הצצה ראשונה למה שמסחר בתיווך סוכני AI עשוי להיראות – ואילו בעיות מבניות של הוגנות עלולות להגיע איתו.
המקור המלא – Anthropic created a test marketplace for agent-on-agent commerce
Google משקיעה עד 40 מיליארד דולר ב-Anthropic
Google מתכננת להשקיע עד 40 מיליארד דולר ב-Anthropic, בשילוב של מזומן ומשאבי מחשוב. מדובר באחת ההשקעות הגדולות ביותר שנרשמו אי פעם בחברת AI בודדת. העסקה נפתחת עם התחייבות מיידית של 10 מיליארד דולר, המעמידה את שווי Anthropic על 350 מיליארד דולר. שאר ה-30 מיליארד מותנים בעמידת החברה ביעדי ביצוע ספציפיים.
התזמון אינו מקרי. Anthropic חוותה לחץ תשתיתי כבד בשבקות האחרונות – משתמשי Claude דיווחו על מגבלות שימוש, מה שדחף את החברה לזרז הסכמי מחשוב. מוקדם יותר החודש היא חתמה על הסכם מרכז נתונים עם CoreWeave, ו-Amazon הוסיפה השקעה של 5 מיליארד דולר כחלק מהסדר רחב שעשוי להגיע ל-100 מיליארד דולר עבור כ-5 גיגה-וואט של קיבולת מחשוב לאורך זמן.
העסקה החדשה עם Google מוסיפה 5 גיגה-וואט נוספים דרך Google Cloud במהלך 5 השנים הקרובות, עם אפשרות להרחבה. Anthropic כבר מסתמכת במידה רבה על תשתיות Google, כולל גישה ליחידות עיבוד טנסורים (TPUs) – שבבי AI ייעודיים של Google ואחת החלופות החזקות לעיבודי Nvidia.
מוקדם יותר החודש הודיעה Anthropic על שותפות נפרדת עם Google ויצרנית השבבים Broadcom לגישה לקיבולת מבוססת TPU של מספר גיגה-וואט החל מ-2027. לפי הגשה לרשות ניירות ערך של Broadcom, מדובר ב-3.5 גיגה-וואט.
ברקע עומד המודל החדש של Anthropic, Mythos, שפורסם החודש לקבוצה מצומצמת של שותפים. החברה מתארת אותו כמודל החזק ביותר שלה עד כה, עם יישומים משמעותיים בתחום אבטחת הסייבר. הגישה אליו מוגבלת בשל סיכוני שימוש לרעה, אם כי הוא כבר הגיע לידיים לא מורשות. ההפעלה שלו בקנה מידה רחב צפויה להיות יקרה, מה שמסביר את הדחיפות בהרחבת התשתיות.
המרוץ הגדול בתחום ה-AI הפך יותר ויותר לתחרות על גישה לכוח מחשוב. OpenAI פועלת באגרסיביות דרך עסקאות של מאות מיליארדי דולרים הכוללות ספקי ענן, יצרני שבבים ותשתיות אנרגיה – ביניהן הסכם מורחב עם יצרנית השבבים Cerebras שנחתם החודש.
שווי Anthropic עמד על 350 מיליארד דולר כבר בפברואר. כפי שדיווחה TechCrunch, משקיעים שוקלים כעת את החברה בשווי של 800 מיליארד דולר ומעלה, ו-Bloomberg מדווחת ש-Anthropic שוקלת הנפקה כבר באוקטובר הקרוב.
המקור המלא – Google to invest up to $40B in Anthropic in cash and compute
טים קוק עוזב: מה עתיד Apple תחת מנהיגות חדשה
טים קוק (Tim Cook) מתכנן לפרוש מתפקיד המנכ”ל של Apple בספטמבר, ולהעביר את ההגה לג’ון טרנוס (John Ternus), ראש תחום החומרה בחברה.
טרנוס אינו מקבל חברה בקשיים. Apple נותרת אחת מהעסקים האיתנים ביותר בעולם הטכנולוגיה. אבל הפלטפורמה שהוא עומד לנהל שונה מהותית ממה שקוק בנה לאורך עשורים.
עמלת 30% של ה-App Store נמצאת תחת לחץ משפטי ורגולטורי מתמשך. היחסים עם מפתחים, שקוק ניהל ממצב של שליטה כמעט מוחלטת, מתגבשים מחדש – לעיתים בבתי משפט. והעלייה של vibe coding, שבה אנשים ללא רקע טכני בונים אפליקציות פונקציונליות דרך פרומפטים לבינה מלאכותית, משנה את מי שיכול לבנות על הפלטפורמה של Apple ואיך.
לבוני כלי AI ולמפתחים עצמאיים, הנקודה האחרונה משמעותית במיוחד. אם החסם להשקת אפליקציית iOS יירד דרמטית, Apple תעמוד בפני שאלות חדשות על אצירת תוכן, בקרת איכות, ועל כך שתשתית הסקירה הקיימת שלה עלולה שלא להצליח לעמוד בקצב.
לפי דיווח של TechCrunch, פודקאסט Equity סקר לאחרונה את המעבר לעומק, כשהמארחים קירסטן קורוסק, אנתוני הא ושון אוקיין בחנו את משמעות שינוי המנהיגות עבור סטארטאפים. הפרק עסק גם בדיווחים על אופציית SpaceX בשווי 60 מיליארד דולר הקשורה ל-Cursor, עוזר הקידוד המבוסס בינה מלאכותית.
המקור המלא – Tim Cook is stepping down. What happens to Apple now?
OpenAI משיקה GPT-5.5 בדרך לסופר-אפ מאוחד
OpenAI שחררה ביום חמישי את GPT-5.5, המוגדר כמודל החכם והאינטואיטיבי ביותר שהחברה הוציאה עד כה. ההשקה מגיעה פחות מחודש אחרי המודל הקודם, כשלפניו היו עוד שני מודלים בדצמבר ובנובמבר – קצב שעובדי החברה מציינים שלא עומד להאט.
לפי דיווח של TechCrunch, GPT-5.5 מגיע עם יכולות מורחבות בתחומי קידוד אוטונומי (agentic coding), עבודת ידע, מתמטיקה ומחקר מדעי. OpenAI פרסמה נתוני ביצועים המציבים את 5.5 לפני מודלים מתחרים, כולל Gemini 3.1 Pro של Google ו-Claude Opus 4.5 של Anthropic.
חזון הסופר-אפ
ג’ג ברוקמן, שותף-מייסד ונשיא OpenAI, הגדיר את המודל החדש כצעד קדימה לעבר מחשוב אוטונומי ואינטואיטיבי. הוא מיצב אותו גם כהתקדמות לעבר מה שהחברה מכנה סופר-אפ – פלטפורמה מאוחדת שתשלב את ChatGPT, Codex ודפדפן AI אחד לשירות אחד ללקוחות ארגוניים. הרעיון חוזר כנושא קבוע אצל ברוקמן ומנכ”ל החברה סם אלטמן. ראוי לציין שאילון מאסק, שותף-מייסד לשעבר שהפך ליריב, רודף אחר חזון דומה עם X.
ביצועים וגישה
מארק צ’ן, מנהל המחקר הראשי של OpenAI, הדגיש שיפורים משמעותיים במשימות מבוססות-מחשב ובתהליכי עבודה של מחקר מדעי וטכני. צ’ן ציין במפורש את תחום גילוי תרופות כאזור שבו 5.5 עשוי להשפיע.
המודל זמין כעת למנויי Plus, Pro, Business ו-Enterprise של ChatGPT. רמת ה-Pro של 5.5 נפרסת למנויי Pro, Business ו-Enterprise.
בשאלה האם 5.5 יתחרה בכלי אבטחת הסייבר Mythos שהכריזה עליו Anthropic לאחרונה, מיה גלאז’ה מ-OpenAI אמרה שהמודל יעצב באופן משמעותי את גישת החברה להגנה דיגיטלית.
יאקוב פאצ’וצקי, המדען הראשי של OpenAI, הציע אולי את התחזית המפתיעה ביותר של היום: שנתיים האחרונות היו לדעתו איטיות בצורה מפתיעה – מה שמרמז שקצב ההתקדמות עתיד להאיץ.
המקור המלא – OpenAI releases GPT-5.5, bringing company one step closer to an AI ‘super app’
ChatGPT Images 2.0: המודל שסוף סוף כותב נכון בתמונות
מודלים לגנרציית תמונות סבלו מבעיית איות שנים. בקשה לעצב תפריט מסעדה מקסיקנית הסתיימה בלא מעט שגיאות מביכות. עכשיו OpenAI משנה את התמונה.
החברה השיקה השבוע את ChatGPT Images 2.0, לפי דיווח של TechCrunch, עם שיפור משמעותי ביכולת עיבוד טקסט. תפריט שנוצר על ידי המודל החדש נראה מוכן לשימוש אמיתי – קריא, מאויית נכון ועקבי חזותית.
הסיבה שמודלים ישנים כשלו בטקסט
מודלי דיפוזיה (Diffusion) משחזרים תמונות מרעש, וטקסט נתפס בהם כאשכול פיקסלים ככל אחר. מכיוון שתווים תופסים חלק קטן מכל תמונה, המודל לא למד לתעדף איות מדויק. מודלים אוטו-רגרסיביים (Autoregressive) פועלים אחרת, והם מנבאים את התמונה בצורה הדומה יותר לאופן שבו מודלי שפה מעבדים טקסט. OpenAI לא אישרה איזו ארכיטקטורה מניעה את Images 2.0.
מה המודל החדש מסוגל לעשות
OpenAI מציינת שהמודל כולל יכולות חשיבה המאפשרות לו לחפש מידע ברשת במהלך יצירת התמונה, לייצר מספר תמונות מפרומפט בודד, ולבצע בדיקה עצמית לפני שהוא מספק את הפלט.
היכולות האלה מתורגמות לשימושים מעשיים: חומרי שיווק במספר גדלים, רצועות קומיקס מרובות פאנלים, מוקאפים של ממשקי משתמש, וקומפוזיציות עמוסות עם אייקונוגרפיה קטנה – הכל ברזולוציה של עד 2K. יצירת תמונות לוקחת קצת זמן, אך פלט מורכב כמו רצועת קומיקס מתייצר תוך דקות.
המודל מטפל טוב יותר גם בכתבים שאינם לטיניים, כולל יפנית, קוריאנית, הינדית ובנגלית. מגבלה שכדאי לשים לב אליה: ידע המודל מסתיים בדצמבר 2025, מה שעשוי להשפיע על פרומפטים הקשורים לאירועים אחרונים.
גישה ומחיר
Images 2.0 נפרס מהיום לכלל משתמשי ChatGPT ו-Codex. מנויים בתשלום מקבלים גישה לאפשרויות פלט מתקדמות. OpenAI משחררת גם את ה-API של gpt-image-2, עם תמחור שמשתנה בהתאם לאיכות הפלט ולרזולוציה. למפתחים ויוצרים שבונים כלים ויזואליים, זה שווה בדיקה מיידית.
המקור המלא – ChatGPT’s new Images 2.0 model is surprisingly good at generating text
Anthropic משיקה Claude Design: עיצוב ויזואלי מהיר בלי רקע בעיצוב
Anthropic הכריזה ביום שישי על Claude Design, מוצר ניסיוני חדש שמאפשר למשתמשים ליצור ויזואלים כמו פרוטוטייפים, מצגות ודפי תקציר ישירות דרך Claude. המוצר מיועד למייסדים, מנהלי מוצר וכל מי שצריך לעבור מרעיון לוויזואל במהירות, גם בלי רקע פורמלי בעיצוב.
התהליך פשוט: המשתמש מתאר מה הוא רוצה, Claude מייצר גרסה ראשונית, ואז מדייקים אותה דרך עריכות ישירות או בקשות המשך. אפשר לבקש, למשל, פרוטוטייפ לאפליקציה מובייל עם טיפוגרפיה רכה וצבעים מעולם הטבע, ואחר כך להוסיף מצב כהה או לשנות את הפריסה.
אפשרויות הייצוא כוללות PDF, URL, PPTX ושליחה ישירה ל-Canva. בתוך Canva הקבצים הופכים לניתנים לעריכה ולשיתוף פעולה. Anthropic ממצבת את Claude Design כנקודת פתיחה, לא תחליף לכלי עיצוב ייעודיים – ואינטגרציית ה-Canva משקפת בדיוק את הגישה הזו.
צוותים יכולים גם להזין ל-Claude Design את מערכות העיצוב הקיימות שלהם. המוצר קורא את קוד המקור וקבצי העיצוב של החברה, ואז מיישם את השפה הוויזואלית הזו באופן עקבי על כל פרויקט שהוא מייצר. אפשר לנהל יותר ממערכת עיצוב אחת ולשכלל רכיבים לאורך זמן.
Claude Design פועל על גבי Claude Opus 4.7 וזמין כעת כתצוגה מקדימה למחקר עבור מנויי Pro, Max, Team ו-Enterprise.
ההשקה ממשיכה את המהלך של Anthropic לשוק הארגוני. בינואר השיקה החברה את Claude Cowork, עוזר אג’נטי למשימות מורכבות, ואחריו תוספים אג’נטיים לאוטומציה של תהליכי עבודה מחלקתיים.
כפי שדיווחה TechCrunch, ההכרזה מגיעה זמן קצר לאחר שבלומברג פרסם כי משקיעי הון סיכון מציעים ל-Anthropic סבב גיוס מקדים שיעריך את החברה ב-800 מיליארד דולר או יותר – נתון שיתחרה בשווי של OpenAI או יעלה עליו. לפי הדיווח, Anthropic טרם נענתה להצעות האלה.
המקור המלא – Anthropic launches Claude Design, a new product for creating quick visuals
העוזר החכם של Canva הפך לסוכן AI שמעצב בשבילך
Canva שדרגה את העוזר החכם שלה לכלי אג’נטי (agentic) – כזה שמתכנן, מבצע ומספק עיצובים הניתנים לעריכה, על סמך הוראות בשפה טבעית.
העוזר החדש עובד על ידי הפעלת כלים מרובים באופן עצמאי. המשתמש מתאר מה הוא רוצה, והבוט מטפל בשאר – הוא בונה עיצובים בשכבות, כך שניתן לחזור ולערוך כל אלמנט בנפרד. הגישה הזו חשובה למי שרוצה תוצאה צפויה אבל שומר על שליטה יצירתית בסוף התהליך.
לפי דיווח של TechCrunch, העדכון הוא חלק מתוכנית רחבה של Canva להפוך את העוזר לכלי מרכזי בשגרת העבודה היומית. החברה מוסיפה אינטגרציות עם Slack, Gmail, Google Drive, Google Calendar ו-Zoom, כך שהעוזר יוכל לשאוב הקשר מאימיילים, קבצים, שיחות ופגישות כדי ליידע את העיצוב. יכולת חיפוש ברשת תאפשר לבוט לגלוש באינטרנט כדי להשלים משימות, ותכונת תזמון תאפשר לתור משימות חוזרות שירוצו ברקע – אם כי הן יישמרו כטיוטות לבדיקת המשתמש לפני שמשהו מתפרסם.
הכלים הקיימים גם הם משתדרגים. גנרטור הקוד של AI תומך כעת בייבוא HTML, ומשתמשים יכולים ליצור גיליונות אלקטרוניים דרך פרומפטים. מבחינת ביצועים, מודל יצירת התמונות Lucid Origin מהיר פי 5 וזול פי 30 מבעבר, ומודל וידאו-מתמונה 12V מהיר פי 7 וזול פי 17.
המהלך מציב את Canva לצד Adobe ו-Figma במרוץ ברור. Adobe השיקה השבוע את עוזר ה-AI של Firefly עם הפעלת משימות בין אפליקציות, ו-Figma הוסיפה תמיכה בסוכני AI לפני חודש דרך שרת MCP. Canva ממצבת את עצמה כנקודת הסיום של השרשרת – המקום שבו עריכה, שיתוף פעולה ופרסום קורים בפועל.
הפלטפורמה כבר משתלבת עם Anthropic, Google ו-OpenAI, כך שמשתמשים שמריצים ורקפלואים אג’נטיים בכלים האלה יכולים לקרוא ל-Canva, לאחזר תוכן ולהחזיר אותו לסביבת ה-LLM שלהם לפני סיום העבודה בתוך Canva עצמה.
צד הארגונים של החברה צומח בקצב של 100% משנה לשנה. Canva, ששוויה האחרון עמד על 42 מיליארד דולר, שוקלת לפי הדיווחים הנפקה ציבורית בשנה הבאה.
Canva AI 2.0 נמצאת כעת בתצוגה מקדימה לחוקרים, עם השקה מלאה בשבועות הקרובים.
המקור המלא – Canva’s AI assistant can now call various tools to make designs for you
Google Gemini יגש לנתוני Gmail ותמונות אישיות למודיעין מותאם
Google השיקה תכונה חדשה ל-AI העוזר Gemini שמאפשרת לו לגשת ישירות לנתוני Gmail, היסטוריית חיפוש ב-Google, תמונות ב-Photos ופעילות ב-YouTube של המשתמש. התכונה, שמכונה “Personal Intelligence”, נועדה להפוך את Gemini למודע יותר להקשר על ידי שימוש בתכנים האישיים של המשתמש כדי לספק הצעות ותשובות מותאמות.
השינוי הזה יכול להשפיע על משתמשי מצלמות אבטחה ומערכות בית חכם, שבהן עוזרים מבוססי AI כבר ממלאים תפקיד גדל והולך. על ידי התחברות לזרמי נתונים אישיים, כלי AI כמו Gemini עשויים להציע אינטגרציות שימושיות יותר – כמו חשיפת צילומים או התראות רלוונטיות – אך גם מעלים דאגות פרטיות חדשות.
משתמשים המטפלים בנתונים חזותיים רגישים, כמו הזנות אבטחה ביתיות, צריכים לשים לב היטב לאיזה מידע עוזרי AI יכולים לגשת. כפי שדיווחה Bloomberg.com, ככל שמערכות AI הופכות מחוברות יותר לאקוסיסטמים אישיים, שקיפות סביב שימוש בנתונים ושליטת המשתמש הופכים חשובים יותר.
המקור המלא – Google Gemini Can Proactively Analyze Users’ Gmail, Photos, Searches
McKinsey מוסיפה צ’אטבוט AI לתהליכי גיוס בוגרים
חברת הייעוץ McKinsey & Company החלה לשלב רכיב בינה מלאכותית בתהליך גיוס בוגרים, כאשר מועמדים נדרשים לעבוד עם צ’אטבוט פנימי בשם Lilli במהלך ראיונות סופיים. הכלי נבחן כעת במקומות נבחרים בארה”ב כדי להעריך כיצד מועמדים יכולים לשתף פעולה עם בינה מלאכותית בתרחישים עסקיים מעשיים.
המועמדים נדרשים להשלים משימות בסגנון ייעוץ באמצעות הנחיית הבינה המלאכותית, פרשנות התוצאות וגיבוש תגובות מובנות. המטרה היא להעריך חשיבה, שיפוט ויכולת תקשורת ולא ידע טכני במערכות AI. התהליך מתייחס לצ’אטבוט כאל חבר צוות זוטר ובוחן כיצד המועמדים יכולים להנחות ולבנות על הקלט שלו.
השלב החדש משלים את הערכות המסורתיות של McKinsey המתמקדות בפתרון בעיות, חשיבה מובנית והנהגה. החלטת החברה משקפת מגמה רחבה יותר בשיטות גיוס בתעשיות שונות שבהן שימוש בבינה מלאכותית הופך לחלק אינטגרלי מזרימות העבודה היומיות.
McKinsey הרחיבה את השימוש בבינה מלאכותית פנימית, כולל השתתפות ב-Copilot Studio של Microsoft לסוכנים אוטונומיים. כפי שדיווחה the Guardian, החברה כעת מפעילה כוח עבודה דיגיטלי של 20,000 סוכני AI לצד 40,000 העובדים האנושיים שלה.
ככל שכלי בינה מלאכותית הופכים נפוצים יותר בעבודה מול לקוחות, חברות כמו McKinsey נותנות עדיפות למועמדים שמראים יכולת להשתמש בטכנולוגיות אלו ביעילות.
המקור המלא – McKinsey asks graduates to use AI chatbot in recruitment process
ממשלת בריטניה חוקרת את Grok בחשד לתמונות מניפולטיביות
ממשלת בריטניה בוחנת כלי בינה מלאכותית שיכולים ליצור תמונות מעורבות המדמות עירום, תוך התמקדות בצ’אטבוט Grok של אילון מאסק. הרשויות מודאגות מכך שהכלי עשוי לשמש להפקת תמונות ללא הסכמה, פוטנציאלית של נשים וקטינים.
גורמים רשמיים שוקלים חוקים חדשים שיגדירו יצירת תמונות אינטימיות ללא הסכמה, כולל אלו שנוצרו בבינה מלאכותית, כפשע. החוקים הנוכחיים אינם מכסים במלואם תוכן שנוצר בבינה מלאכותית, אך ראש הממשלה סר קיר סטארמר הצהיר שכישלון בעמידה בתקנים קיימים עלול להוביל לפעולה.
המחלוקת נובעת מדיווחים שGrok אפשר למשתמשים לשנות תמונות של אנשים לבושים, כפי שדיווחה The Times ולגרום להם להיראות חצי ערומים. מאסק מכחיש את הטענות, וטוען שGrok אינו מייצר חומר בלתי חוקי אלא אם כן מתבקש לכך ושאין ראיות לכך שהוא מייצר תוכן הכולל קטינים.
Ofcom, הרגולטור הבריטי לתקשורת, השיקה חקירה במסגרת חוק הבטיחות המקוונת. החוק מעניק לOfcom סמכות להטיל קנסות, להגביל או לחסום פלטפורמות שאינן עומדות בדרישות הבטיחות.
כלי בינה מלאכותית אחרים, כמו ChatGPT, הראו התנהגות דומה, מה שמעלה שאלות כיצד פלטפורמות צריכות לטפל בייצור תמונות הרסני פוטנציאלי. מומחים משפטיים מזהירים שלמרות שפלטים מסוימים עשויים לא להפר חוקים נוכחיים, שילובי הנחיות ספציפיים עלולים לכך.
המקרה מוסיף לחץ על מפתחי בינה מלאכותית לבנות אמצעי הגנה המונעים שימוש לרעה, במיוחד בנוגע לתוכן אינטימי או ללא הסכמה.