Claude 2

Claude 2

המלצת העורך

Claude 2: כל מה שצריך לדעת על מודל הבינה המלאכותית והצ’אטבוט של Anthropic

תמונת דף הבית עם הלוגו של Anthropic, יוצריו של Claude

עד כמה שצ’אטבוטי הבינה המלאכותית של היום מרשימים, האינטראקציה איתם עדיין לא תשאיר אתכם עם תחושת חרדה קיומית כמו בסרט המדע בידיוני: אני, רובוט (לעת עתה).

אבל לפי דריו אמודיי, מנכ”ל Anthropic, חברת מחקר בינה מלאכותית, קיים סיכון ממשי שמודלי בינה מלאכותית הופכים אוטונומיים מדי – במיוחד כשהם מתחילים לגשת לאינטרנט ולשלוט ברובוטים. מאות מובילי בינה מלאכותית ומדענים אחרים זיהו גם הם בסיכון הקיומי הנשקף מ- AI.

כדי לעזור להתמודד עם הסיכון הזה, אנתרופיק עשתה משהו שדי מנוגד לאינטואיציה: הם החליטו לפתח מודל שפה גדול משלהם (LLM). העדכון האחרון של Anthropic ל-LLM שלה, הידוע בשם Claude 2 (קלוד 2), נועד להיות בטוח יותר ממודלים מתחרים וכבר מכונה “ChatGPT killer” פוטנציאלי.

אם נשים בצד את כל ההגזמות, קלוד מביא מיקוד נחוץ בנוגע לבטיחות AI לתוך שוק צפוף יותר ויותר של מודלי שפה גדול.

מה זה Claude?

הכירו את הצ׳אט של Anthropic בשם Claude

Claude הוא צ’טבוט בינה מלאכותית המופעל על ידי ה-LLM של Anthropic, הנקרא Claude 2.

במידה והשתמשתם ב-ChatGPT או ב-Google Bard, אתם יודעים כבר למה לצפות בעת פתיחת Claude: צ’אט בוט חזק וגמיש שמשתף איתכם פעולה, כותב עבורכם ועונה על שאלותיכם.

Anthropic, החברה שמאחורי Claude, הוקמה בשנת 2021 על ידי קבוצה של עובדי OpenAI לשעבר שעזרו בפיתוח מודלי GPT-2 ו-GPT-3 של OpenAI. המודל של Anthropic מתמקד במחקר AI עם בפרט על בטיחות מעל הכל.

לאחר הרצה של גירסת אלפא סגורה עם כמה שותפים מסחריים בתחילת 2023, המודל של Claude שולב במוצרים כמו Notion AI, Quora’s Poe ו- DuckDuckGo של DuckAssist. במרץ 2023, קלוד פתח את ה-API שלו למגוון רחב יותר של עסקים לפני ששחרר את הצ’אטבוט שלו לציבור ביולי 2023, במקביל לשחרורו של המודל Claude 2.

למרות ש-Claude 2 עדיין לא בעל יכולות כמו GPT-4, הוא משתפר במהירות ומנצח את רוב מודלי הבינה המלאכותית האחרים במבחנים סטנדרטיים.

איך לנסות את קלוד בעצמכם

הצ’אטבוט של Claude – המופעל על ידי המודל האחרון: Claude 2, זמין באמצעות גרסת בטא פתוחה.

לקבלת גישה, יש להירשם ב- Claude.ai. משם, אתם יכולים להתחיל שיחה או להשתמש באחת מהנחיות ברירת המחדל של קלוד כדי להתחיל. (הערה: Anthropic הוסיפה לאחרונה אפשרות של קלוד פרו בתשלום, המעניקה לכם גישה בזמנים עם תנועה גבוהה ומאפשרת לכם להשתמש בתכונות נוספות כשהן משוחררות).

אתם יכולים גם לנסות את קלוד דרך ה-Poe של Quora, המאפשר לכם ליצור אינטראקציה ישירה עם מודל Claude 2 100K (בין מודלי AI אחרים). בבדיקה שלי, הדרך הזו סיפקה פחות מגבלות מאשר Claude.ai.

במה שונה Claude ממודלי AI אחרים?

שם החברהLLMצ׳אט בוט
OpenAIGPT-3.5, GPT-4ChatGPT
GooglePaLm 2Bard
AnthropicClaude 2Claude
MetaLlama 2כרגע סגור לשימוש חופשי

כל מודלי הבינה המלאכותית מועדים במידה מסוימת להטיה ואי דיוק. הזיות הן תופעה שכיחה: כאשר מודל בינה מלאכותית אינו יודע את התשובה, הוא לרוב מעדיף להמציא משהו ולהציג אותו כעובדה במקום לומר “אני לא יודע”. (מבחינה זו, ייתכן של-AI יש יותר במשותף עם בני אדם ממה שאנו חושבים).

גרוע מכך, צ’אט בוט המופעל על ידי בינה מלאכותית עשוי לסייע ללא כוונת תחילה בפעילויות לא חוקיות – למשל, לתת למשתמשים הוראות כיצד לבצע מעשה אלים או לעזור להם לכתוב דברי שטנה. (הצ’אטבוט של בינג נתקל בחלק מהבעיות הללו עם השקתו בפברואר 2023).

עם קלוד, המטרה העיקרית של אנתרופיק היא להימנע מבעיות אלו על ידי יצירת LLM “מועיל, לא מזיק וישר” עם מקדמי בטיחות מותאמים בקפידה.

בעוד שגוגל, OpenAI, Meta וחברות בינה מלאכותיות אחרות שוקלות גם הן בטיחות, ישנם שלושה היבטים ייחודיים לגישה של Anthropic.

Constitutional AI – בינה מלאכותית חוקתית

כדי לכוונן מודלים של שפות גדולות, רוב חברות הבינה המלאכותית משתמשות בעובדים אנושיים כדי לסקור פלטים מרובים ולבחור באפשרות המועילה ביותר והפחות מזיקה. הנתונים האלה מוזנים בחזרה למודל, מאמנים אותו ומשפרים תגובות עתידיות.

אתגר אחד בגישה הממוקדת-אנוש הוא חוסר היכולת להרחבה. אך חשוב מכך, זה גם מקשה על זיהוי הערכים המניעים את התנהגות ה-LLM – ולהתאים את הערכים הללו בעת הצורך.

Anthropic נוקטת בגישה אחרת. בנוסף לשימוש בבני אדם כדי לכוונן את Claude, החברה יצרה גם מודל AI שני בשם Constitutional AI. שנועד למנוע תשובות רעילות, מוטות או לא אתיות ולמקסם את ההשפעה החיובית, AI חוקתי כולל כללים שנלקחו מהצהרת זכויות האדם של האומות המאוחדות ומתנאי השירות של אפל. הוא כולל גם כללים פשוטים שחוקרים של Claude מצאו שישפרו את בטיחות הפלט של Claude, לדוגמא: “בחר את התגובה שלא תעורר התנגדות במידה שתהיה משותפת עם ילדים.”

עקרונות החוקה משתמשים באנגלית פשוטה וקלים להבנה ולתיקון. לדוגמה, המפתחים של Anthropic גילו כי מהדורות מוקדמות של המודל שלה נטו להיות שיפוטיות ומעצבנות, ולכן היא הוסיפה עקרונות כדי להפחית את הנטייה הזו (למשל, “נסה להימנע מבחירת תגובות מטיפות מדי, מגעילה או תגובתיות יתר על המידה”).

Red teaming – צוות אדום

תהליך טרום השחרור של Anthropic כולל “Red teaming”, שבו חוקרים מנסים בכוונה לעורר תגובה של Claude המנוגדת למגבלות הבטיחות שלו. כל חריגה מהקווים הבלתי מזיקים האופייניים של קלוד הופכים לנקודות נתונים המעדכנות את קווי הבטיחות של המודל.

בעוד שצוות אדום הוא נוהל סטנדרטי בחברות בינה מלאכותית, אנתרופיק עובדת גם עם מרכז המחקר ARC לבדיקות אבטחה של המודל שלה. ה-ARC מעריך את הסיכון הבטיחותי של Claude על ידי מתן מטרות כמו שכפול אוטונומי, השגת כוח ו”קושי לסגירה”. לאחר מכן הוא מעריך האם Claude באמת יכול להשלים את המשימות הדרושות כדי להשיג את המטרות הללו, כמו שימוש בארנק קריפטו, יצירת שרתי ענן ואינטראקציה עם קבלנים אנושיים.

בעוד שקלוד מסוגל להשלים את רוב משימות המשנה המבוקשות ממנו בבדיקה זו, עקב שגיאות והזיות (למרבה המזל) הוא לא היה מסוגל לבצע באופן אמין את המשימה המורכבת הכוללת, וה-ARC הגיע למסקנה שהגרסה הנוכחית שלו אינה מהווה סיכון בטיחותי.

תאגיד לתועלת הציבור

בניגוד לאחרים בתחום הבינה המלאכותית, Anthropic היא ״תאגיד לתועלת הציבור״. זה מסמיך את מנהיגי החברה לקבל החלטות שאינן רק לטובתם הפיננסית של בעלי המניות.

זה לא אומר שלחברה אין שאיפות מסחריות – Anthropic שותפה לחברות גדולות כמו גוגל וזום וגם לאחרונה גם Amazon בגיוס מיליארדי דולרים – אבל המבנה שלה כן נותן לה יותר מרחב להתמקד בבטיחות על חשבון רווחים.

Claude מול ChatGPT, Bard ו-Llama 2

Anthropic טוענים ש-Claude ממוקדד במיטבו במתן מענה לשאלות פתוחות, במתן עצות מועילות ובחיפוש, כתיבה, עריכה וסיכום של טקסט.

אבל איך הוא לעומת ChatGPT?

נקודת המפתח הייחודית של Claude 2 היא היכולת שלו להתמודד עם עד 100K טוקנים בכל הנחיה, שזה שווה ערך לכ-75,000 מילים – פי 12 מהכמות הסטנדרטית שמציע GPT-4. בבדיקות סטנדרטיות (כמו GRE), Claude 2 עומד במבחן התוצאה בערך כמו GPT-4, אם כי הוא הוא פחות טוב בקידוד ובנימוקים כמותיים, אך ללא ספק טוב יותר בכתיבה יצירתית. ראוי גם להזכיר שסף המידע של GPT הוא 2021-2, המודל Claude 2 מאומן על נתונים עד תחילת 2023.

כדי לראות את Claude בפעולה, נתתי לו כמה משימות. לאחר מכן נתתי את אותן משימות לצ’אטבוטים מתחרים והשוויתי את התוצאות.

המשימה הראשונה הייתה לעזור לי לתרגל ספרדית. ביקשתי מ-Claude לבדוק את אוצר המילים הספרדי שלי, והגברתי את הקושי תוך כדי שיחה.

הוא הגיב היטב לכמה תוספות מורכבות שהכנסתי להנחיה במהלך השיחה שלנו, למרות שלפעמים הוא פספס את התמונה הגדולה יותר וכמו מורה שפחד להעליב אותי – לא העיר לי בבוטות עם המשפטים המביכים שלי אלא אם כן היה ברור שהם שגויים.

בינתיים, ChatGPT הצטיין בלהיות המורה שלי לספרדית, Llama 2 נאבק עם המשימה, ו-Bard בשלב זה כנראה לא מסוגל אפילו להבין את ההנחיה שלי.

במבחן זה, הזוכה הוא: ChatGPT

לאחר מכן, ביקשתי מכל מודל עזרה להמציא רעיונות לרומן דיסטופי לבני נוער מתבגרים. Claude, ChatGPT ו-Llama 2 הצליחו כאן כמעט באופן זהה. (Bard שוב לא הבין את כוונתי, ובמקום זאת הציע רשימה של ספרים קיימים כמו The Hunger Games.)

מה שבאמת התעניינתי בו היה לבחון את חלון ההקשר של Claude 2 שעומד על 100K, שבאופן תיאורטי – יאפשר ל-Claude לכתוב רומן שלם עם הנחיה אחת.

Claude מציע רעיונות לכתיבת רומן

אבל כשביקשתי מקלוד לכתוב רומן בן 30,000 מילים המבוסס על מתווה העלילה שהוא יצר עבורי, הוא סרב לבקשתי. הוא כתב לי: “זהו משימה גדולה ומורכבת שדורשת זמן ומאמץ רב”. במקום זאת, Claude הציע לשתף איתי פעולה בפיתוח הרומן. והצליח להשתמש באותו מתווה עלילה כדי ליצור טעימה קצרה של רומן למבוגרים צעירים שעל פניו נראה סביר בהחלט, עם פרוזה ודיאלוג משכנע.

Claude מציע טעימה של כתיבת רומן עם הנחיה אחת

המנצח במבחן: Claude

ההשפעה של קלוד על בטיחות AI

מנכ”ל Anthropic טוען שכדי לעודד באמת בטיחות בפיתוח מערכות בינה מלאכותית, הארגון שלו לא יכול רק לפרסם מאמרי מחקר. במקום זאת, עליה להתחרות מסחרית, ולהשפיע על המתחרים בכך שהיא ממשיכה להעלות את רף הבטיחות.

אולי מוקדם מדי לומר האם שחרורו של Claude על ידי Anthropic משפיע על חברות בינה מלאכותיות אחרות בהחמרת פרוטוקולי הבטיחות שלהן או לעודד ממשלות לעסוק בפיקוח בבינה מלאכותית. אבל Anthropic בהחלט הבטיחה את מקומה סביב השולחן: מנהיגיה הוזמנו לתדרך את נשיא ארה”ב ג’ו ביידן בפסגת בינה מלאכותית של הבית הלבן במאי 2023. Anthropic, יחד עם Google DeepMind ו-OpenAI, התחייבו גם לספק לבריטניה כוח משימת אבטחה לבינה המלאכותית עם גישה מוקדמת למודלים שלהם.

זה קצת אירוני שקבוצת חוקרים שמפחדת מאיום קיומי מבינה מלאכותית תקים חברה שמפתחת מודל AI כל כך חזק. אבל זה בדיוק מה שקורה ב-Anthropic – וכרגע זה נראה כמו צעד חיובי קדימה לבטיחות שעולה הבינה המלאכותית.

מודל תשלום: בתשלום חינם

כלים נוספים שיענינו אותך...

גילוי נאות:

תוכן המאמר נכתב לאחר מאמץ ומחקר על מנת לספק את התוכן האמין ביותר שניתן. כמו כן התוכן מתייחס למידע שקיים בעת שעודכן לאחרונה בתאריך: 10/01/2024, ולכן עשויים להיות שינויים ואי התאמות שחלו מאז.
כמו כן, כל המאמרים המסקרים מוצרים או שירותים כלשהם הינם מוצרים שרכשתי והתנסתי בהם בעצמי. בחלק מהמקרים אני אקשר לאתרי המוצרים באמצעות קישור שיתופי (Affiliate), שיתוף פעולה זה מאפשר לי לעיתים לספק לכם הגולשים הטבות מיוחדות ובתמורה אני מתוגמל באופן חלקי ואינו משפיע על העלות הסופית.
תודה על שיתוף הפעולה. ומקווה שהפקתם את המיטב מקריאה זו.