קלוד Claude ai
Claude (קלוד): כל מה שצריך לדעת על מודל הבינה המלאכותית והצ’אטבוט של Anthropic
עד כמה שצ’אטבוטי הבינה המלאכותית של היום מרשימים, האינטראקציה איתם עדיין לא תשאיר אתכם עם תחושת חרדה קיומית כמו בסרט המדע בידיוני: אני, רובוט (לעת עתה).
אבל לפי דריו אמודיי, מנכ”ל Anthropic, חברת מחקר בינה מלאכותית, קיים סיכון ממשי שמודלי בינה מלאכותית הופכים אוטונומיים מדי – במיוחד כשהם מתחילים לגשת לאינטרנט ולשלוט ברובוטים. מאות מובילי בינה מלאכותית ומדענים אחרים זיהו גם הם בסיכון הקיומי הנשקף מ- AI.
כדי לעזור להתמודד עם הסיכון הזה, אנתרופיק עשתה משהו שדי מנוגד לאינטואיציה: הם החליטו לפתח מודל שפה גדול משלהם (LLM). העדכון האחרון של Anthropic ל-LLM שלה, הידוע בשם Claude (קלוד), נועד להיות בטוח יותר ממודלים מתחרים וכבר מכונה “ChatGPT killer” פוטנציאלי.
אם נשים בצד את כל ההגזמות, קלוד מביא מיקוד נחוץ בנוגע לבטיחות AI לתוך שוק צפוף יותר ויותר של מודלי שפה גדול.
קלוד 4.0 סוף סוף כאן
Anthropic סוף סוף שיחררה את המודלים המיוחלים של קלוד 4. השחרור הזה כולל שני מודלים חדשים: זה מאוד מרגש כי…
6 כלי כתיבה מבוססי AI ש”מוערכים מדי”… והכלי הטוב ביותר לדעתי
האם ניסיתם להשתמש בכלים לכתיבה מבוססי בינה מלאכותית (AI) ואז הפסקתם כי הטקסטים נשמעים כל כך גנריים ורעים? הכתיבה נשמעת…
Claude קיבל שדרוג מהפכני לכתיבה בסגנון אישי, אתם חייבים לנסות
חברת Claude שחררה עדכון חדש, ומהניסיון שלי מדובר באחד העדכונים המעשיים והשימושיים ביותר בקרב אפליקציות הצ’אטבוטים, ותוכלו להשתמש בו כבר…
Claude AI Artifacts – אפשר לשתף ולפרסם באינטרנט
בעוד ש-OpenAI ממשיכה לדשדש בשיחרור תכונות חדשות, Anthropic מוציאה דברים חדשים ומגניבים במשך כבר כמה שבועות. השדרוג האחרון מ-Anthropic הוא…
Anthropic מציגה את Claude 3.5 Sonnet – מודל השפה החזק ביותר עד כה
כאשר OpenAI הוציאה את מודל ה-GPT-4o והציעה אותו בחינם לגמרי עבור כולם, חלק גדול ממשתמשי קלוד ו-ג’מיני, כולל אני, עברנו…
מה זה Claude?
Claude הוא צ’טבוט בינה מלאכותית המופעל על ידי ה-LLM של Anthropic, הנקרא Claude.
במידה והשתמשתם ב-ChatGPT או ב-Google Bard, אתם יודעים כבר למה לצפות בעת פתיחת Claude: צ’אט בוט חזק וגמיש שמשתף איתכם פעולה, כותב עבורכם ועונה על שאלותיכם.
Anthropic, החברה שמאחורי Claude, הוקמה בשנת 2021 על ידי קבוצה של עובדי OpenAI לשעבר שעזרו בפיתוח מודלי GPT-2 ו-GPT-3 של OpenAI. המודל של Anthropic מתמקד במחקר AI עם בפרט על בטיחות מעל הכל.
לאחר הרצה של גירסת אלפא סגורה עם כמה שותפים מסחריים בתחילת 2023, המודל של Claude שולב במוצרים כמו Notion AI, Quora’s Poe ו- DuckDuckGo של DuckAssist. במרץ 2023, קלוד פתח את ה-API שלו למגוון רחב יותר של עסקים לפני ששחרר את הצ’אטבוט שלו לציבור ביולי 2023, במקביל לשחרורו של המודל Claude.
למרות ש-Claude עדיין לא בעל יכולות כמו GPT-4, הוא משתפר במהירות ומנצח את רוב מודלי הבינה המלאכותית האחרים במבחנים סטנדרטיים.
איך לנסות את קלוד בעצמכם
הצ’אטבוט של Claude – המופעל על ידי המודל האחרון: Claude, זמין באמצעות גרסת בטא פתוחה.
לקבלת גישה, יש להירשם ב- Claude.ai. משם, אתם יכולים להתחיל שיחה או להשתמש באחת מהנחיות ברירת המחדל של קלוד כדי להתחיל. (הערה: Anthropic הוסיפה לאחרונה אפשרות של קלוד פרו בתשלום, המעניקה לכם גישה בזמנים עם תנועה גבוהה ומאפשרת לכם להשתמש בתכונות נוספות כשהן משוחררות).
אתם יכולים גם לנסות את קלוד דרך ה-Poe של Quora, המאפשר לכם ליצור אינטראקציה ישירה עם מודל Claude 100K (בין מודלי AI אחרים). בבדיקה שלי, הדרך הזו סיפקה פחות מגבלות מאשר Claude.ai.
במה שונה Claude ממודלי AI אחרים?
| שם החברה | LLM | צ׳אט בוט |
|---|---|---|
| OpenAI | ChatGPT | |
| Bard | ||
| Anthropic | Claude | |
| Meta | כרגע סגור לשימוש חופשי |
כל מודלי הבינה המלאכותית מועדים במידה מסוימת להטיה ואי דיוק. הזיות הן תופעה שכיחה: כאשר מודל בינה מלאכותית אינו יודע את התשובה, הוא לרוב מעדיף להמציא משהו ולהציג אותו כעובדה במקום לומר “אני לא יודע”. (מבחינה זו, ייתכן של-AI יש יותר במשותף עם בני אדם ממה שאנו חושבים).
גרוע מכך, צ’אט בוט המופעל על ידי בינה מלאכותית עשוי לסייע ללא כוונת תחילה בפעילויות לא חוקיות – למשל, לתת למשתמשים הוראות כיצד לבצע מעשה אלים או לעזור להם לכתוב דברי שטנה. (הצ’אטבוט של בינג נתקל בחלק מהבעיות הללו עם השקתו בפברואר 2023).
עם קלוד, המטרה העיקרית של אנתרופיק היא להימנע מבעיות אלו על ידי יצירת LLM “מועיל, לא מזיק וישר” עם מקדמי בטיחות מותאמים בקפידה.
בעוד שגוגל, OpenAI, Meta וחברות בינה מלאכותיות אחרות שוקלות גם הן בטיחות, ישנם שלושה היבטים ייחודיים לגישה של Anthropic.
Constitutional AI – בינה מלאכותית חוקתית
כדי לכוונן מודלים של שפות גדולות, רוב חברות הבינה המלאכותית משתמשות בעובדים אנושיים כדי לסקור פלטים מרובים ולבחור באפשרות המועילה ביותר והפחות מזיקה. הנתונים האלה מוזנים בחזרה למודל, מאמנים אותו ומשפרים תגובות עתידיות.
אתגר אחד בגישה הממוקדת-אנוש הוא חוסר היכולת להרחבה. אך חשוב מכך, זה גם מקשה על זיהוי הערכים המניעים את התנהגות ה-LLM – ולהתאים את הערכים הללו בעת הצורך.
Anthropic נוקטת בגישה אחרת. בנוסף לשימוש בבני אדם כדי לכוונן את Claude, החברה יצרה גם מודל AI שני בשם Constitutional AI. שנועד למנוע תשובות רעילות, מוטות או לא אתיות ולמקסם את ההשפעה החיובית, AI חוקתי כולל כללים שנלקחו מהצהרת זכויות האדם של האומות המאוחדות ומתנאי השירות של אפל. הוא כולל גם כללים פשוטים שחוקרים של Claude מצאו שישפרו את בטיחות הפלט של Claude, לדוגמא: “בחר את התגובה שלא תעורר התנגדות במידה שתהיה משותפת עם ילדים.”
עקרונות החוקה משתמשים באנגלית פשוטה וקלים להבנה ולתיקון. לדוגמה, המפתחים של Anthropic גילו כי מהדורות מוקדמות של המודל שלה נטו להיות שיפוטיות ומעצבנות, ולכן היא הוסיפה עקרונות כדי להפחית את הנטייה הזו (למשל, “נסה להימנע מבחירת תגובות מטיפות מדי, מגעילה או תגובתיות יתר על המידה”).
Red teaming – צוות אדום
תהליך טרום השחרור של Anthropic כולל “Red teaming”, שבו חוקרים מנסים בכוונה לעורר תגובה של Claude המנוגדת למגבלות הבטיחות שלו. כל חריגה מהקווים הבלתי מזיקים האופייניים של קלוד הופכים לנקודות נתונים המעדכנות את קווי הבטיחות של המודל.
בעוד שצוות אדום הוא נוהל סטנדרטי בחברות בינה מלאכותית, אנתרופיק עובדת גם עם מרכז המחקר ARC לבדיקות אבטחה של המודל שלה. ה-ARC מעריך את הסיכון הבטיחותי של Claude על ידי מתן מטרות כמו שכפול אוטונומי, השגת כוח ו”קושי לסגירה”. לאחר מכן הוא מעריך האם Claude באמת יכול להשלים את המשימות הדרושות כדי להשיג את המטרות הללו, כמו שימוש בארנק קריפטו, יצירת שרתי ענן ואינטראקציה עם קבלנים אנושיים.
בעוד שקלוד מסוגל להשלים את רוב משימות המשנה המבוקשות ממנו בבדיקה זו, עקב שגיאות והזיות (למרבה המזל) הוא לא היה מסוגל לבצע באופן אמין את המשימה המורכבת הכוללת, וה-ARC הגיע למסקנה שהגרסה הנוכחית שלו אינה מהווה סיכון בטיחותי.
תאגיד לתועלת הציבור
בניגוד לאחרים בתחום הבינה המלאכותית, Anthropic היא ״תאגיד לתועלת הציבור״. זה מסמיך את מנהיגי החברה לקבל החלטות שאינן רק לטובתם הפיננסית של בעלי המניות.
זה לא אומר שלחברה אין שאיפות מסחריות – Anthropic שותפה לחברות גדולות כמו גוגל וזום וגם לאחרונה גם Amazon בגיוס מיליארדי דולרים – אבל המבנה שלה כן נותן לה יותר מרחב להתמקד בבטיחות על חשבון רווחים.
Claude מול ChatGPT, Bard ו-Llama 2
Anthropic טוענים ש-Claude ממוקדד במיטבו במתן מענה לשאלות פתוחות, במתן עצות מועילות ובחיפוש, כתיבה, עריכה וסיכום של טקסט.
אבל איך הוא לעומת ChatGPT?
נקודת המפתח הייחודית של Claude היא היכולת שלו להתמודד עם עד 100K טוקנים בכל הנחיה, שזה שווה ערך לכ-75,000 מילים – פי 12 מהכמות הסטנדרטית שמציע GPT-4. בבדיקות סטנדרטיות (כמו GRE), Claude עומד במבחן התוצאה בערך כמו GPT-4, אם כי הוא הוא פחות טוב בקידוד ובנימוקים כמותיים, אך ללא ספק טוב יותר בכתיבה יצירתית. ראוי גם להזכיר שסף המידע של GPT הוא 2021-2, המודל Claude מאומן על נתונים עד תחילת 2023.
כדי לראות את Claude בפעולה, נתתי לו כמה משימות. לאחר מכן נתתי את אותן משימות לצ’אטבוטים מתחרים והשוויתי את התוצאות.
המשימה הראשונה הייתה לעזור לי לתרגל ספרדית. ביקשתי מ-Claude לבדוק את אוצר המילים הספרדי שלי, והגברתי את הקושי תוך כדי שיחה.
הוא הגיב היטב לכמה תוספות מורכבות שהכנסתי להנחיה במהלך השיחה שלנו, למרות שלפעמים הוא פספס את התמונה הגדולה יותר וכמו מורה שפחד להעליב אותי – לא העיר לי בבוטות עם המשפטים המביכים שלי אלא אם כן היה ברור שהם שגויים.
בינתיים, ChatGPT הצטיין בלהיות המורה שלי לספרדית, Llama 2 נאבק עם המשימה, ו-Bard בשלב זה כנראה לא מסוגל אפילו להבין את ההנחיה שלי.
במבחן זה, הזוכה הוא: ChatGPT
לאחר מכן, ביקשתי מכל מודל עזרה להמציא רעיונות לרומן דיסטופי לבני נוער מתבגרים. Claude, ChatGPT ו-Llama 2 הצליחו כאן כמעט באופן זהה. (Bard שוב לא הבין את כוונתי, ובמקום זאת הציע רשימה של ספרים קיימים כמו The Hunger Games.)
מה שבאמת התעניינתי בו היה לבחון את חלון ההקשר של Claude שעומד על 100K, שבאופן תיאורטי – יאפשר ל-Claude לכתוב רומן שלם עם הנחיה אחת.
אבל כשביקשתי מקלוד לכתוב רומן בן 30,000 מילים המבוסס על מתווה העלילה שהוא יצר עבורי, הוא סרב לבקשתי. הוא כתב לי: “זהו משימה גדולה ומורכבת שדורשת זמן ומאמץ רב”. במקום זאת, Claude הציע לשתף איתי פעולה בפיתוח הרומן. והצליח להשתמש באותו מתווה עלילה כדי ליצור טעימה קצרה של רומן למבוגרים צעירים שעל פניו נראה סביר בהחלט, עם פרוזה ודיאלוג משכנע.
המנצח במבחן: Claude
ההשפעה של קלוד על בטיחות AI
מנכ”ל Anthropic טוען שכדי לעודד באמת בטיחות בפיתוח מערכות בינה מלאכותית, הארגון שלו לא יכול רק לפרסם מאמרי מחקר. במקום זאת, עליו להתחרות מסחרית, ולהשפיע על המתחרים בכך שהוא ממשיך להעלות את רף הבטיחות.
אולי מוקדם מדי לומר האם שחרורו של Claude על ידי Anthropic משפיע על חברות בינה מלאכותיות אחרות בהחמרת פרוטוקולי הבטיחות שלהן או לעודד ממשלות לעסוק בפיקוח בבינה מלאכותית. אבל Anthropic בהחלט הבטיחה את מקומה סביב השולחן: מנהיגיה הוזמנו לתדרך את נשיא ארה”ב ג’ו ביידן בפסגת בינה מלאכותית של הבית הלבן במאי 2023. Anthropic, יחד עם Google DeepMind ו-OpenAI, התחייבו גם לספק לבריטניה כוח משימת אבטחה לבינה המלאכותית עם גישה מוקדמת למודלים שלהם.
זה קצת אירוני שקבוצת חוקרים שמפחדת מאיום קיומי מבינה מלאכותית תקים חברה שמפתחת מודל AI כל כך חזק. אבל זה בדיוק מה שקורה ב-Anthropic – וכרגע זה נראה כמו צעד חיובי קדימה לבטיחות שעולה הבינה המלאכותית.
