Claude החדש של Anthropic נחשף – בינה מלאכותית בשירות הביטחון הלאומי

Anthropic השיקה את Claude Gov, גרסה של מודלי ה-AI שלה שנבנתה במיוחד עבור סוכנויות צבאיות ומודיעיניות בארה״ב. ההשקה ממקמת את Anthropic בתחרות ישירה מול ChatGPT Gov של OpenAI, שכבר צבר פופולריות במגזרים ממשלתיים שונים.

Claude Gov מותאם לטיפול במידע מסווג ולסיוע בעבודות ביטחוניות כמו ניתוח איומים ובחינת מודיעין. בניגוד לגרסאות הציבוריות של Claude, המודל הזה יכול לעבד חומרים רגישים מבלי להפעיל מגבלות תוכן רגילות. הוא גם מותאם לפענוח מסמכים ממוקדי ביטחון ותומך בשפות רבות הרלוונטיות לפעולות ביטחוניות בינלאומיות.

רק גופים ממשלתיים בעלי אישור ביטחוני מתאים יכולים לגשת ל-Claude Gov. למרות ש-Anthropic אישרה שימוש פעיל במעגלי ביטחון לאומי, היא לא חשפה מתי המערכת תיכנס לשימוש רשמי או באילו סוכנויות.

המהלך מתרחש בזמן שבו השימוש הפדרלי ב-AI נתון לביקורת גוברת בשל סיכונים כמו הטיה, שימוש לרעה ופגיעות בזכויות אזרח. Claude Gov פועל לפי מדיניות שימוש מעודכנת שמונעת מעורבות בהפצת מידע שגוי, פעילות סייבר התקפית או פיתוח נשק – אם כי ייתכנו חריגים בהתאם לחוזים ממשלתיים.

השקת Claude Gov היא חלק מהמיקוד הגובר של Anthropic בשוק הציבורי. החברה משתתפת בתוכנית FedStart של Palantir, שמסייעת לספקי תוכנה לעמוד בתקני תאימות פדרליים. המהלך משקף מגמה רחבה יותר, שבה גם חברות AI נוספות כמו Scale AI משיגות חוזים ביטחוניים.

Anthropic לא פרסמה נתוני ביצועים או דוגמאות מפורטות לשימוש ב-Claude Gov בשלב זה.

חברים יקרים!
אהבתם מה שקראתם?
אז תהיו חברים…
קבלו ישירות אליכם למייל:
חדשות, טיפים ומדריכים, מבצעים וכלי בינה מלאכותית.
השאירו שם ומייל וגם אתם לא תצטרכו לדאוג שתפספסו משהו בעולם ה-AI!
שדה זה מיועד למטרות אימות ויש להשאיר אותו ללא שינוי.
פרטיות(חובה)
This field is hidden when viewing the form
This field is hidden when viewing the form
Send this to a friend