OpenAI מחמירה את אמצעי האבטחה נגד ריגול תעשייתי

OpenAI הציגה סדרה של בקרות אבטחה מחמירות בעקבות חששות גוברים מריגול תעשייתי, במיוחד לאחר שמתחרה סיני השיק מודל בינה מלאכותית מתחרה. החברה חושדת שהטכנולוגיה הקניינית שלה עשויה להיות משוכפלת באמצעות זיקוק מודלים.

בתגובה, OpenAI הגבילה את הגישה הפנימית לפרויקטים קריטיים. רק צוות מורשה יכול לעסוק בפיתוחים ספציפיים. TechCrunch מדווח כי מידע רגיש נמצא כעת במערכות לא מקוונות, ומערכות ביומטריות כמו סורקי טביעות אצבע מותקנות במיקומי משרדים מרכזיים.

החברה גם יישמה מדיניות אינטרנט מחמירה של “סירוב כברירת מחדל”. כל חיבור לרשתות חיצוניות דורש כעת אישור מוקדם. האבטחה הפיזית במרכזי הנתונים שלה הוחזקה, וצוות האבטחה הסייברנטית גדל בגודלו.

שינויים אלה מתיישרים עם מגמה רחבה יותר בתעשייה. חברות בינה מלאכותית נוקטות יותר ויותר בצעדים להגנה על קניין רוחני מפני איומים חיצוניים ודליפות פנימיות. עבור אלה בתחום מצלמות האבטחה, המהלך מדגיש את הביקוש הגובר למערכות בקרת גישה ומעקב מתקדמות בסביבות טכנולוגיות עתירות סיכון.

חברים יקרים!
אהבתם מה שקראתם?
אז תהיו חברים…
קבלו ישירות אליכם למייל:
חדשות, טיפים ומדריכים, מבצעים וכלי בינה מלאכותית.
השאירו שם ומייל וגם אתם לא תצטרכו לדאוג שתפספסו משהו בעולם ה-AI!
שדה זה מיועד למטרות אימות ויש להשאיר אותו ללא שינוי.
פרטיות(חובה)
This field is hidden when viewing the form
This field is hidden when viewing the form
Send this to a friend