בית דעות כיצד האזהרות החדשות המזויפות של openai עוררו חדשות מזויפות בפועל

כיצד האזהרות החדשות המזויפות של openai עוררו חדשות מזויפות בפועל

תוכן עניינים:

וִידֵאוֹ: ЧЕМУ МОЖНО НАУЧИТЬСЯ У OPEN AI? (אוֹקְטוֹבֶּר 2024)

וִידֵאוֹ: ЧЕМУ МОЖНО НАУЧИТЬСЯ У OPEN AI? (אוֹקְטוֹבֶּר 2024)
Anonim

מעבדת המחקר AI ללא מטרות רווח OpenAI גרמה לגל של פאניקה לאפוקליפסה של AI בחודש שעבר, כאשר הציגה AI חדיש ליצירת טקסטים בשם GPT-2. אך בעוד שהיא חגגה את הישגיה של GPT-2, OpenAI הצהירה שהיא לא תשחרר את מודל ה- AI שלה לציבור, מחשש שבידיים הלא נכונות, GPT-2 יכול לשמש למטרות זדוניות כמו יצירת מאמרים חדשותיים מטעים, התחזות לאחרים ברשת, ואוטומציה של ייצור תוכן מזויף במדיה החברתית.

כצפוי, ההכרזה של OpenAI יצרה מבול של סיפורי חדשות סנסציוניים, אך אמנם ניתן לנשק כל טכנולוגיה מתקדמת, אך AI עדיין יש רחוק לעלות לפני שהיא תשתלט על יצירת טקסטים. אפילו אז, נדרש יותר מאשר AI להפקת טקסט כדי ליצור משבר חדשות מזויפות. לאור זאת, האזהרות של OpenAI הושפעו יתר על המידה.

AI ושפה אנושית

מחשבים נאבקים היסטורית להתמודד עם שפה אנושית. יש כל כך הרבה מורכבות וניואנסים בטקסט הכתוב, כי המרת כולם לכללי תוכנה קלאסיים היא כמעט בלתי אפשרית. אולם ההתקדמות האחרונה בתחום הלמידה העמוקה וברשתות עצביות סללו את הדרך לגישה שונה ליצירת תוכנה שיכולה להתמודד עם משימות הקשורות לשפה.

למידה מעמיקה הביאה שיפורים גדולים לתחומים כמו תרגום מכונה, סיכום טקסטים, תשובות לשאלות ויצירת שפות טבעיות. זה מאפשר למהנדסי תוכנה ליצור אלגוריתמים המפתחים את ההתנהגות שלהם על ידי ניתוח דוגמאות רבות. עבור משימות הקשורות לשפה, המהנדסים מאכילים רשתות עצביות דיגיטליות, כמו סיפורי חדשות, דפי ויקיפדיה ופוסטים במדיה חברתית. הרשתות העצביות משוות בזהירות את הנתונים ושימו לב כיצד מילים מסוימות עוקבות אחר אחרות ברצפים חוזרים. לאחר מכן הם הופכים דפוסים אלה למשוואות מתמטיות מורכבות העוזרות להם לפתור משימות הקשורות לשפה כמו חיזוי מילים חסרות ברצף טקסט. באופן כללי, ככל שתספקו נתוני אימונים איכותיים יותר למודל של למידה עמוקה, כך ישתפרו בביצוע המשימה שלו.

על פי OpenAI, GPT-2 הוכשר על 8 מיליון דפי אינטרנט ומיליארדי מילים, וזה הרבה יותר מדגמים דומים אחרים. זה גם משתמש במודלים AI מתקדמים כדי ליישם טוב יותר דפוסי טקסט. פלט מדגם מ- GPT-2 מראה כי המודל מצליח לשמור על קוהרנטיות ברצפי טקסט ארוכים יותר מקודמיו.

אך בעוד ש- GPT-2 הוא צעד קדימה בתחום ייצור השפה הטבעית, אין זו פריצת דרך טכנולוגית לעבר יצירת AI שיכולה להבין את המשמעות וההקשר של טקסט כתוב. GPT-2 עדיין משתמש באלגוריתמים כדי ליצור רצפי מילים הדומים סטטיסטית למיליארדי קטעי הטקסט שראתה בעבר - אין לו שום הבנה של מה שהיא מייצרת.

בניתוח מעמיק, Tiernan Ray של ZDNet מצביע על מספר מקרים בהם דגימות התפוקה של GPT-2 מסגירות את טבען המלאכותי באמצעות חפצים ידועים כמו שכפול של מונחים וחוסר היגיון ועקביות בעובדות. "כאשר GPT-2 ממשיך להתמודד עם כתיבה הדורשת פיתוח רב יותר של רעיונות והיגיון, הסדקים נפתחים לרווחה למדי", מציין ריי.

למידה סטטיסטית יכולה לעזור למחשבים לייצר טקסט הנכון מבחינה דקדוקית, אך נדרשת הבנה רעיונית עמוקה יותר כדי לשמור על עקביות לוגית ועובדתית. לרוע המזל, זה עדיין אתגר שלא ניתן להתגבר על התערובות הנוכחיות של AI. זו הסיבה ש- GPT-2 יכול לייצר פסקאות טקסט נחמדות, אך כנראה יהיה קשה ללחוץ עליו כדי ליצור מאמר אותנטי ארוך-צורה או להתחזות למישהו בצורה משכנעת ולאורך זמן רב.

מדוע פאניקה של חדשות מזויפות של AI מוגזמת

בעיה נוספת בהנמקה של OpenAI: היא מניחה כי AI יכול ליצור משבר חדשות מזויפות.

בשנת 2016, קבוצת בני נוער מקדוניים הפיצה סיפורי חדשות מזויפים על הבחירות לנשיאות ארה"ב למיליוני אנשים. באופן אירוני, אפילו לא היו להם כישורי אנגלית נאותים; הם מצאו את סיפוריהם באינטרנט ותפרים ביניהם תוכן שונה. הם הצליחו מכיוון שהם יצרו אתרים שנראו אותנטיים מספיק כדי לשכנע את המבקרים לסמוך עליהם כמקורות חדשותיים אמינים. כותרות סנסציוניות, משתמשי מדיה חברתית רשלנית ואלגוריתמים מגמתיים עשו את השאר.

ואז בשנת 2017, שחקנים זדוניים עוררו משבר דיפלומטי באזור המפרץ הפרסי על ידי פריצה לאתרי חדשות המנהלים בקטאר ובחשבונות המדיה החברתית הממשלתית ופרסום הערות מזויפות מטעם שייח 'תמים בן חמד אל תאני, האמיר של קטאר.

כפי שמראים סיפורים אלה, הצלחתם של מסעות פרסום מזויפים תלויה ביצירת אמון (ובגידה) ולא בייצור כמויות גדולות של טקסט אנגלי קוהרנטי.

האזהרות של OpenAI לגבי אוטומציה של הפקת תוכן מזויף לפרסום במדיה החברתית הן מוצדקות יותר, מכיוון שהגודל והנפח ממלאים תפקיד חשוב יותר ברשתות החברתיות ממה שהם מבצעים בכלי מדיה מסורתיים. ההנחה היא כי AI כמו GPT-2 יוכל להציף מדיה חברתית במיליוני פוסטים ייחודיים בנושא מסוים, וישפיע על אלגוריתמים מגמתיים ודיונים פומביים.

אך עדיין, האזהרות אינן מתקיימות במציאות. בשנים האחרונות חברות המדיה החברתית מפתחות כל העת יכולות לגילוי וחסימה של התנהגות אוטומטית. כך ששחקן זדוני חמוש בממשק AI המפיק טקסט יצטרך להתגבר על מספר אתגרים מעבר ליצירת תוכן ייחודי.

לדוגמה, הם יצטרכו אלפי חשבונות מדיה חברתית מזויפים שבהם יש לפרסם את התוכן שלהם שנוצר על ידי AI. אפילו קשה יותר, כדי לוודא שאין דרך לחבר את החשבונות המזויפים, הם יזדקקו למכשיר וכתובת IP ייחודיים לכל חשבון.

זה מחמיר: היה צורך ליצור את החשבונות בזמנים שונים, אולי יותר משנה או יותר, כדי לצמצם את הדמיון. בשנה שעברה, תחקיר בניו יורק טיימס הראה שתאריכי יצירת חשבונות בלבד יכולים לעזור לגלות חשבונות בוט. לאחר מכן, כדי להסתיר עוד יותר את אופים האוטומטי ממשתמשים אחרים ואלגוריתמי שיטור, החשבונות יצטרכו לעסוק בהתנהגות דמוית אנוש, כגון אינטראקציה עם משתמשים אחרים וקביעת טון ייחודי בפוסטים שלהם.

לא ניתן להתגבר על אף אחד מהאתגרים הללו, אך הם מראים כי תוכן הוא רק חלק אחד מהמאמץ הדרוש לביצוע בקמפיין חדשות מזויף של מדיה חברתית. ושוב, אמון ממלא תפקיד חשוב. לכמה משפיעים מהימנים ברשתות החברתיות שיעלו כמה פוסטים חדשותיים מזויפים תהיה השפעה רבה יותר משלל חשבונות לא ידועים המניבים כמויות גדולות של תוכן.

להגנת האזהרות של OpenAI

האזהרות המוגזמות של OpenAI עוררו מעגל של התקפות והבהלה תקשורתית, אשר באופן אירוני גבלו בחדשות מזויפות בעצמן, מה שהביא ביקורת מצד מומחי AI ידועים.

הם הזמינו אנשי תקשורת לקבל גישה מוקדמת לתוצאות, עם אמברגו של העיתונות, כך שהכל התפרסם באותו היום. שום חוקרים שאני מכיר לא זכו לראות את הדגם הגדול, אבל עיתונאים כן עשו זאת. כן, הם פוצצו את זה בכוונה.

- מאט גרדנר (@nlpmattg) 19 בפברואר 2019

אפשר להשתמש בכל אדם חדש כדי לייצר חדשות מזויפות, להפיץ תיאוריות קונספירציה ולהשפיע על אנשים.

האם עלינו להפסיק להכין תינוקות אז?

- Yann LeCun (@ylecun) 19 בפברואר 2019

רק רציתי לתת לכולם את הראש, המעבדה שלנו מצאה פריצת דרך מדהימה בהבנת השפה. אך אנו גם דואגים שזה עלול ליפול לידיים הלא נכונות. אז החלטנו לגרד את זה ורק במקום זאת לפרסם את הדברים הרגילים * של ACL. כבוד גדול לצוות לעבודה הנהדרת.

- (((? () (? () 'יואב)))) (@yoavgo) 15 בפברואר, 2019

זכרי ליפטון, חוקר AI והעורך של בערך נכונים, הצביע על ההיסטוריה של OpenAI של "השימוש בבלוג שלהם ומגדיל את תשומת הלב לעבודה חסרת בגרות לתפיסה הציבורית, ולעתים קרובות מציג את היבטי הבטיחות האנושיים בעבודה שעדיין אין להם אינטלקטואל רגליים לעמוד עליהן."

למרות ש- OpenAI ראויה לכל הביקורת והחום שקיבלה בעקבות התבטאויותיה המטעות, אך נכון גם לדאוג באמת מהשימושים הזדוניים האפשריים בטכנולוגיה שלה, גם אם החברה השתמשה בדרך לא אחראית כדי לחנך את הציבור בנושא.

  • שנת תעשי הסיווג האתית של תעשי תע"א. שנת הסקר האתית של תעשיה
  • יתרון לא הוגן: אל תצפו מ- AI לשחק כמו אדם יתרון לא הוגן: אל תצפו מ- AI לשחק כמו אדם
  • AI זה צופה טרולינג מקוון לפני שקורה AI זה מנבא טרולינג מקוון לפני שקורה

בשנים האחרונות ראינו כיצד ניתן לנשק טכנולוגיות AI המפורסמות בפומבי ללא מחשבה ושיקוף למטרות זדוניות. דוגמא אחת הייתה FakeApp, יישום AI שיכול להחליף פרצופים בסרטונים. זמן קצר לאחר שחרור FakeApp, הוא שימש ליצירת סרטוני פורנוגרפיה מזויפים שהציגו ידוענים ופוליטיקאים, מה שגרם לדאגה מהאיום של זיוף מונע AI.

ההחלטה של ​​OpenAI מראה כי עלינו להשהות ולחשוב על ההשלכות האפשריות של הטכנולוגיה המשחררת בפומבי. ואנחנו צריכים לקיים דיונים פעילים יותר על הסיכונים הטכנולוגיים של AI.

"ארגון אחד שמושהה פרויקט מסוים אינו באמת משנה שום דבר לטווח הארוך. אבל OpenAI זוכה לתשומת לב רבה לכל דבר שהם עושים… ולדעתי יש למחוא כפיים על כך שהם מפנים זרקור בנושא זה, " דיוויד באו, חוקרת במעבדת מדעי המחשב והבינה המלאכותית של MIT (CSAIL), אמרה לסלייט.

כיצד האזהרות החדשות המזויפות של openai עוררו חדשות מזויפות בפועל