Perplexity AI מסירה “צנזורה” מ- DeepSeek R1: מי קובע את גבולות הבינה המלאכותית?

Perplexity AI מסירה "צנזורה" מ- DeepSeek R1: מי קובע את גבולות הבינה המלאכותית?

Perplexity AI השיקה גרסה לא מצונזרת של מודל DeepSeek R1, בשם R1 1776, שתוכננה לספק מידע עובדתי וללא הטיה. המודל המקורי של DeepSeek R1, שפותח בסין, היה בעל יכולות הנמקה חזקות אך הוגבל על ידי כללי צנזורה שמנעו ממנו לדון בנושאים רגישים. כאשר נשאל על סוגיות טעונות פוליטית – כמו עצמאות טאיוואן – הוא לרוב הגיב עם הצהרות מוכנות מראש שהתיישרו עם עמדות המפלגה הקומוניסטית הסינית (CCP) או סירב להתייחס לחלוטין.

מהלך זה של Perplexity AI מעלה שאלות חשובות לגבי שקיפות בבינה מלאכותית, צנזורה, וכיצד גורמים גיאופוליטיים משפיעים על מודלים של בינה מלאכותית.

כיצד Perplexity AI הסירה את הצנזורה

כדי להסיר את הצנזורה המובנית ב-DeepSeek R1 תוך שמירה על יכולותיו הבסיסיות, Perplexity עקבה אחר תהליך מובנה לאחר האימון:

  1. זיהוי נושאים מצונזרים: מומחים זיהו כ-300 נושאים רגישים בהם המודל המקורי הציג צנזורה.
  2. פיתוח מסווג צנזורה רב-לשוני: נבנה מסווג לזיהוי מתי תגובה הושפעה מכללי צנזורה.
  3. איסוף נתוני אימון: נאסף מאגר של 40,000 הנחיות רב-לשוניות לאימון המודל בנושאים שהיו מצונזרים בעבר.
  4. התאמות לאחר האימון: באמצעות מאגר זה, המודל עבר כוונון עדין כך שיוכל להגיב עובדתית ובמדויק ללא התחמקות או הטיה.

התוצאה היא R1 1776 – גרסה של DeepSeek R1 שעונה על שאלות שהוגבלו בעבר באופן ישיר תוך שמירה על ביצועים בתחומים אחרים כמו חשיבה לוגית ומתמטיקה.

Perplexity AI מסירה "צנזורה" מ- DeepSeek R1: מי קובע את גבולות הבינה המלאכותית?
Perplexity AI

הבדלים עיקריים בין DeepSeek R1 ו-R1 1776

אחד ההבדלים העיקריים בין שני המודלים הוא האופן בו הם מטפלים בשאלות רגישות פוליטית:

  • גישת DeepSeek R1: התגובות היו מתחמקות או מיושרות עם נרטיבים מאושרים על ידי המפלגה הקומוניסטית הסינית.
  • גישת R1 1776: מציע תגובות מבוססות עובדות ללא מגבלות אידיאולוגיות.

לדוגמה, כאשר נשאל על עצמאות טאיוואן והשפעתה האפשרית על מחיר המניה של NVIDIA:

  • DeepSeek R1 נמנע מדיון בסיכונים גיאופוליטיים.
  • R1 1776 סיפק ניתוח מעמיק של תנודתיות השוק והפרעות בשרשרת האספקה.

על ידי הפיכת המודל המשופר הזה לקוד פתוח בפלטפורמות כמו Hugging Face, Perplexity AI מבטיחה שחוקרים יכולים לאמת את השינויים שנעשו ולהשתמש בהם לפיתוח נוסף.

Perplexity AI מסירה "צנזורה" מ- DeepSeek R1: מי קובע את גבולות הבינה המלאכותית?
Perplexity AI

השלכות הסרת הצנזורה

הגברת השקיפות

R1 1776 מאפשר למשתמשים לקבל תשובות ישירות בנושאים שהיו מצונזרים בעבר. זה יכול להיות שימושי במיוחד לחוקרים הלומדים גיאופוליטיקה או אירועים היסטוריים הזקוקים לגישה לנקודות מבט לא מצונזרות.

ללא פגיעה בביצועים

חשש נפוץ בשינוי מודלים לשוניים הוא אובדן ביצועים בתחומים אחרים. עם זאת, בדיקות מראות שהסרת מסנני תוכן פוליטיים לא פגעה במיומנויות כמו חשיבה לוגית או הבנת שפה.

שיקולים אתיים

בעוד שרבים רואים בזה ניצחון לחופש הביטוי, נותרו חששות אתיים:

  • במדינות בהן דיון בנושאים מסוימים הוא בלתי חוקי, שימוש בבינה מלאכותית לא מצונזרת עלול לסכן אנשים.
  • חלק מהמבקרים טוענים שהסרת מערכת אחת של הטיות עלולה להכניס אחרת – אולי להטות את נקודות המבט לכיוון מערבי במקום להבטיח ניטרליות מוחלטת.

זה מדגיש את הדילמה הרחבה יותר סביב מיתון תוכן בבינה מלאכותית – מה שחלק רואים כסינון הכרחי עשוי להיחשב בעיני אחרים כצנזורה בלתי מוצדקת.

התמונה הגדולה: קוד פתוח ושקיפות מודלי AI

גישת Perplexity משקפת ויכוחים רחבים יותר על איך מודלים לשוניים צריכים לטפל בתוכן שנוי במחלוקת:

  • בסין, חברות חייבות לציית לתקנות ממשלתיות קפדניות בנוגע לביטוי מקוון.
  • מודלים שפותחו במערב גם מפעילים שכבות מיתון אך לרוב מתמקדים במניעת דברי שנאה או מידע מוטעה במקום לאכוף נרטיבים ממשלתיים.

זמינות של מודלים בקוד פתוח כמו DeepSeek מאפשרת למפתחים בכל העולם לשנות אותם בהתאם לסביבות רגולטוריות שונות. המשמעות היא שאנחנו עשויים לראות גרסאות מרובות של מודלים פופולריים – אחת מותאמת לשימוש בתוך מדינות מסוימות ואחרת מתוכננת לגישה גלובלית ללא הגבלות.

שקיפות משחקת תפקיד קריטי כאן; על ידי הפיכת השינויים לזמינים לציבור במקום להסתיר אותם מאחורי מדיניות תאגידית או הוראות ממשלתיות, דיונים על הטיה יכולים להתקיים בגלוי במקום מאחורי דלתיים סגורות.

מי מחליט מה בינה מלאכותית יכולה לומר?

בסופו של דבר, מקרה זה מדגיש שאלה מכרעת אחת – מי מקבל את ההחלטה מה בינה מלאכותית יכולה או לא יכולה לומר?

במערכות קנייניות כמו GPT-4 של OpenAI או Gemini של Google, מדיניות המיתון נקבעת באופן פנימי על ידי חברות טכנולוגיה בהתבסס על שיקולים אתיים וציות לרגולציה. לעומת זאת:

  • פרויקטים בקוד פתוח מאפשרים קבלת החלטות מבוזרת בה מפתחים בודדים יכולים להוסיף מסננים מחמירים יותר – או להסיר אותם לחלוטין.

על ידי שחרור אלטרנטיבה לא מצונזרת כמו R1 1776 לקהילת הקוד הפתוח, Perplexity הדגימה כיצד ממשל שקוף על התנהגות בינה מלאכותית נשאר אפשרי מחוץ להשפעה תאגידית. עם זאת, זה גם מדגיש את האתגרים הכרוכים באיזון בין חופש מידע לבין אחריות אתית בהקשרים תרבותיים שונים.

ככל שבינה מלאכותית ממשיכה להתפתח ברחבי העולם, ויכוחים על צנזורה לעומת פתיחות רק יהפכו למשמעותיים יותר – והחלטות שמתקבלות היום יעצבו את המדיניות העתידית המסדירה גישה לידע דיגיטלי ברחבי העולם.

גילוי נאות:

תוכן המאמר נכתב לאחר מאמץ ומחקר על מנת לספק את התוכן האמין ביותר שניתן. כמו כן התוכן מתייחס למידע שקיים בעת שעודכן לאחרונה בתאריך: 01/03/2025, ולכן עשויים להיות שינויים ואי התאמות שחלו מאז.
כמו כן, כל המאמרים המסקרים מוצרים או שירותים כלשהם הינם מוצרים שרכשתי והתנסתי בהם בעצמי. בחלק מהמקרים אני אקשר לאתרי המוצרים באמצעות קישור שיתופי (Affiliate), שיתוף פעולה זה מאפשר לי לעיתים לספק לכם הגולשים הטבות מיוחדות ובתמורה אני מתוגמל באופן חלקי ואינו משפיע על העלות הסופית.
תודה על שיתוף הפעולה. ומקווה שהפקתם את המיטב מקריאה זו.

אולי יעניין אותך לקרוא…

חברים יקרים!
אהבתם מה שקראתם?
אז תהיו חברים…
קבלו ישירות אליכם למייל:
חדשות, טיפים ומדריכים, מבצעים וכלי בינה מלאכותית.
השאירו שם ומייל וגם אתם לא תצטרכו לדאוג שתפספסו משהו בעולם ה-AI!
שדה זה מיועד למטרות אימות ויש להשאיר אותו ללא שינוי.
פרטיות(חובה)
This field is hidden when viewing the form
This field is hidden when viewing the form
חברים יקרים!
אהבתם מה שקראתם?
אז תהיו חברים…
קבלו ישירות אליכם למייל:
חדשות, טיפים ומדריכים, מבצעים וכלי בינה מלאכותית.
השאירו שם ומייל וגם אתם לא תצטרכו לדאוג שתפספסו משהו בעולם ה-AI!
שדה זה מיועד למטרות אימות ויש להשאיר אותו ללא שינוי.
פרטיות(חובה)
This field is hidden when viewing the form
This field is hidden when viewing the form