תוכן עניינים:
- כיצד נוצרות תיקיות עמוק
ההשלכות של עמוקות- לא כל ה- Deepfakes גרועים
כיצד לאתר סרטי וידאו עמוקים- משגיח על Deepfakes
וִידֵאוֹ: zoom 2 ª parte 1 ºs Anos Função do 1.º Grau. (נוֹבֶמבֶּר 2024)
כשאנחנו נכנסים לעונה הבאה של מערכת הבחירות לנשיאות, תרצו להיזהר מהסכנות הפוטנציאליות שסרטוני וידיאו מזויפים מביאים באמצעות אינטליגנציה מלאכותית (AI) ולמידת מכונות (ML). באמצעות תוכנת AI, אנשים יכולים ליצור זיופים עמוקים (קיצור של "למידה עמוקה ומזויפים") שבהם משתמשים באלגוריתמים של ML לביצוע החלפת פנים כדי ליצור אשליה שמישהו אמר משהו שהוא לא אמר או שהוא מישהו שהם ' לא כל. קטעי וידאו עמוקים מופיעים בזירות שונות, מבידור לפוליטיקה ועד עולם התאגידים. לא רק שסרטוני וידאו עמוקים יכולים להשפיע באופן לא הוגן על בחירות באמצעות הודעות כוזבות, אלא שהם יכולים להביא למבוכה אישית או לגרום להודעות מותג מטעות אם, נניח, הם מראים למנכ"ל שמכריז על השקת מוצר או רכישה שלמעשה לא קרה.
Deepfakes הם חלק מקטגוריית AI הנקראת "רשתות אדפרסיביות Generative" או GANs, בהן שתי רשתות עצביות מתחרות ביצירת תמונות או קטעי וידאו שנראים אמיתיים. מכשירי ה- GAN מורכבים מגנרטור, שיוצר מערך נתונים חדש כמו סרטון מזויף, ומפלה, המשתמש באלגוריתם ML כדי לסנתז ולהשוות נתונים מהסרטון האמיתי. הגנרטור מנסה כל הזמן לסנתז את הסרטון המזויף עם הישן עד שהמבחין לא יכול לדעת שהנתונים חדשים.
כפי שציין סטיב גרובמן, סמנכ"ל בכיר של מקאפי ומנהל טכנולוגיה ראשי (CTO) בכנס RSA, שנערך בחודש מרץ בסן פרנסיסקו, בחודש מרץ 2018, קיימות צילומי מזויף מאז המצאת הצילום. לדבריו, שינוי תמונות היה משימה פשוטה שתוכל לבצע ביישום כמו Adobe Photoshop. אך כעת סוגים אלה של יכולות עריכה מתקדמות עוברים גם הם לווידיאו, והם עושים זאת באמצעות כלי תוכנה בעלי יכולת גבוהה וגישה בקלות רבה.
כיצד נוצרות תיקיות עמוק
אף על פי שהבנת מושגי AI מועילה, זה לא הכרחי להיות מדען נתונים כדי לבנות סרטון מזויף. זה פשוט כרוך במעקב אחר הוראות מקוונות, לפי גרובמן. בוועידת RSA 2019 (ראו סרטון למעלה) הוא חשף סרטון שקוע בחומרה יחד עם ד"ר סלסט פריקיק, מדען הראשי של דאטה ומהנדס מנהל בכיר במקאפי. הקליפ העמוק הדגים את האיום שהטכנולוגיה הזו מציבה. גרובמן ופרליק הראו כיצד גורם ציבורי בסרטון שאומר שמשהו מסוכן עלול להטעות את הציבור לחשוב שההודעה אמיתית.
כדי ליצור את הווידיאו שלהם, גרובמן ופרליק הורידו תוכנה של שקיפות עמוק. לאחר מכן הם צילמו סרטון של גרובמן שהעיד בפני הסנאט האמריקני בשנת 2017 והעלו את פיו של פרליק על גרובמן.
"השתמשתי בתגובות ציבוריות זמינות בחופשיות על מנת ליצור ולהכשיר מודל ML; זה שאפשר לי לפתח סרטון עמוק עם דברי שיצאו מהפה", אמר פרליק לקהל ה- RSA מהבמה. פרלק המשיך ואמר כי ניתן להשתמש בסרטוני זיוף עמוקים לניצול חברתי ולמלחמת מידע.
כדי ליצור את הסרטון העמוק שלהם, גרובמן ופרליק השתמשו בכלי שמשתמש Reddit פיתח בשם FakeApp, המעסיק אלגוריתמים ותמונות ML בכדי להחליף פרצופים בסרטונים. במהלך מצגת ה- RSA שלהם, גרובמן הסביר את הצעדים הבאים. "חילקנו את הסרטונים לתמונות סטילס, חילצנו את הפרצופים וניקינו אותם על ידי מיון וניקינו אותם באינסטגרם."
תסריטים של פייתון אפשרו לצוות מקאפי לבנות תנועות פה כדי שדיבורו של פרליק יתאים לפיו של גרובמן. ואז הם היו צריכים לכתוב כמה סקריפטים מותאמים אישית. האתגר ביצירת שקיעה משכנעת הוא כאשר מאפיינים כמו מין, גיל וטונוס עור אינם תואמים, אמר גרובמן.
לאחר מכן הוא ופרליק השתמשו באלגוריתם AI אחרון כדי להתאים לתמונות של גרובמן שהעידו בפני הסנאט עם נאומו של פרליק. גרובמן הוסיף כי לקח 12 שעות לאמן את אלגוריתמי ה- ML הללו.
מקאפי תיאר את הצעדים שנקטה בכדי ליצור סרטון זיוף עמוק שהוצג בכנס RSA ב -2019. הוא השתמש בתוכנות עמוקות בשם FakeApp והדרכה של דגמי ML כדי לשנות את הווידיאו של גרובמן באמצעות נאום של פריק. (קרדיט תמונה: מקאפי).
ההשלכות של עמוקות
לסרטוני וידאו עמוקים של האקר יש פוטנציאל לגרום לבעיות רבות - כל דבר, החל מפקידי ממשל המפיצים מידע מוטעה כוזב וכלה בסלבריטאים שמתביישים מלהיות בסרטונים שהם ממש לא היו בהם, עד שחברות פוגעות במצבי שוק המניות של המתחרים. מחוקקים מודעים לבעיות אלה שלחו מחוקקים בספטמבר מכתב לדניאל קואטס, מנהל המודיעין הלאומי האמריקני, בבקשה לבדיקה של האיום שזימות העמוקים מהווים. המכתב הזהיר כי מדינות כמו רוסיה יכולות להשתמש בזיופים עמוקים במדיה החברתית כדי להפיץ מידע כוזב. בחודש דצמבר הציגו מחוקקים את חוק איסור הזיוף העמוק בזדון משנת 2018 לחוק הונאה בקשר ל"קלטות אורקוליות ", המתייחסות לזיופים עמוקים. נותר לראות אם הצעת החוק תעבור.
כאמור, ידוענים יכולים לסבול מבוכה מסרטונים בהם הוצגו פניהם על פני פניהם של כוכבי פורנו, כפי שקרה לגל גדות. או שתאר לעצמך מנכ"ל שמכריז כביכול על חדשות מוצרים ושוקע את מלאי החברה. אנשי אבטחה יכולים להשתמש ב- ML בכדי לאתר סוגים אלה של התקפות, אך אם הם לא מתגלים בזמן, הם יכולים להביא נזק מיותר למדינה או למותג.
ד"ר צ'ייס קנינגהם, אנליסט ראשי במחקר פורסטר אמר: "עם זיופים עמוקים, אם אתה יודע מה אתה עושה ואתה יודע למי לכוון, אתה באמת יכול להעלות סרטון משכנע שיגרום נזק רב למותג.. הוא הוסיף כי אם אתה מפיץ את ההודעות האלה בלינקדאין או בטוויטר או עושה שימוש בטופס בוט, "אתה יכול לרסק את המניה של חברה המבוססת על וידיאו מזויף מוחלט ללא הרבה מאמץ."
באמצעות סרטוני וידאו עמוקים ניתן לצרף צרכנים להאמין שמוצר יכול לעשות משהו שהוא לא יכול. קנינגהם ציין כי אם מנכ"ל יצרן רכב גדול אמר בסרטון מזויף כי החברה כבר לא תייצר רכבים המונעים על גז ואז תפיץ את ההודעה הזו בטוויטר או לינקדאין באותו סרטון, אז פעולה זו עלולה לפגוע במותג בקלות.
"מעניין מספיק מהמחקר שלי, אנשים מקבלים החלטות על סמך כותרות וסרטונים תוך 37 שניות, " אמר קנינגהם. "אז אתה יכול לדמיין אם אתה יכול לקבל סרטון שרץ יותר מ- 37 שניות, אתה יכול לגרום לאנשים לקבל החלטה על סמך אם עובדתית או לא. וזה מפחיד."
מכיוון שמדיה חברתית היא מקום פגיע בו סרטוני זיוף עמוקים יכולים להיות ויראליים, אתרי המדיה החברתית פועלים באופן פעיל למאבק באיום של זיופים עמוקים. פייסבוק, למשל, מפעילה צוותי הנדסה שיכולים לאתר תמונות, אודיו ווידאו שעברו מניפולציה. בנוסף לשימוש בתוכנה, פייסבוק (וחברות מדיה חברתית אחרות) שוכרות אנשים כדי לחפש ידנית עמוקות באופן ידני.
נציג פייסבוק הצהיר בהודעה כי "הרחבנו את המאמצים המתמשכים שלנו למאבק בתקשורת מניפולטיבית כך שתכלול התמודדות עם שקיפות עמוק." "אנו יודעים שהמשך הופעתן של כל צורות המדיה המניפולציה מציבה אתגרים אמיתיים לחברה. זו הסיבה שאנו משקיעים בפתרונות טכניים חדשים, לומדים ממחקר אקדמי ופועלים עם אחרים בתעשייה להבנת זיופים עמוקים וצורות אחרות של מדיה מניפולציה."
לא כל ה- Deepfakes גרועים
כפי שראינו בסרטון החקיקה העמוקה של מקאפי וסרטוני הקפדה העמוקה הקומית בטלוויזיה בשעות הלילה המאוחרות, כמה סרטוני וידאו עמוקים אינם בהכרח רעים. למעשה, בעוד שהפוליטיקה יכולה לחשוף את הסכנות האמיתיות של סרטוני זיוף עמוקים, תעשיית הבידור לעתים קרובות פשוט מציגה את הצד הקל יותר של סרטי וידאו עמוקים.
לדוגמה, בפרק האחרון של התוכנית המאוחרת עם סטיבן קולבר, הוצג סרטון מצחיק עמוק ומצחיק בו הוצגו פניו של השחקן סטיב בושמי על גופה של השחקנית ג'ניפר לורנס. במקרה אחר, הקומיקאי ג'ורדן פילר החליף סרטון של הנשיא לשעבר ברק אובמה כשהוא מדבר בקולו שלו. קטעי וידיאו מזויפים עמוקים כמו אלה הופיעו גם הם ברשת, שבהם פניו של הנשיא טראמפ מונחים על פני קנצלרית גרמניה אנגלה מרקל בזמן שהאדם מדבר.
שוב, אם סרטי הווידיאו המוחשבים משמשים למטרה סאטירית או הומוריסטית או פשוט לבידור, אז פלטפורמות המדיה החברתית ואפילו בתי הפקת סרטים מתירים או משתמשים בהן. לדוגמא, פייסבוק מאפשרת סוג זה של תוכן בפלטפורמה שלה, ולוקאספילם השתמשה בסוג של בילוי דיגיטלי כדי להציג את קארי פישר הצעירה על גופה של השחקנית אינגווילד דעילה בסרט "Rogue One: A Star Wars".
גרובמן של מקאפי ציין כי חלק מהטכנולוגיה העומדת מאחורי זיופים עמוקים מנוצלת היטב עם כפילים פעלולים ביצירת תנועה כדי לשמור על שחקנים בטוחים. "הקשר הוא הכל. אם זה למטרות קומיות וברור שזה לא אמיתי, זה משהו שהוא שימוש לגיטימי בטכנולוגיה, " אמר גרובמן. "ההכרה בכך שניתן להשתמש בה לכל מיני מטרות שונות היא המפתח."
כיצד לאתר סרטי וידאו עמוקים
מק'אפי אינה חברת האבטחה היחידה שעושה ניסויים באיתור סרטונים מזויפים. בעיתון שנמסר ב- Black Hat 2018 שכותרתו, "AI Gone Rogue: Extermining Deep Zakes לפני שהם גורמים לאיום", כתבו שני מומחי אבטחה של סימנטק, מוביל תגובת האבטחה, Vijay Thaware ומהנדס פיתוח תוכנה נירנאן אג'ניהוטרי. סרטונים מזויפים המבוססים על Google FaceNet. Google FaceNet היא ארכיטקטורת רשת עצבית שפיתחו חוקרי גוגל כדי לסייע באימות והכרת פנים. משתמשים מכשירים מודל FaceNet על תמונה מסוימת ואז יכולים לאמת את זהותם במהלך הבדיקות שלאחר מכן.
כדי לנסות לעצור את התפשטות הסרטונים העמוקים, AI Foundation, ארגון ללא מטרות רווח המתמקד באינטראקציה אנושית ו- AI, מציע תוכנה בשם "Reality Defender" כדי לאתר תוכן מזויף. זה יכול לסרוק תמונות ווידאו כדי לראות אם הם השתנו באמצעות AI. אם יש להם, הם יקבלו "סימן מים AI ישר".
- המדריך העסקי ללימוד מכונות המדריך העסקי ללימוד מכונות
- PornHub, Twitter איסור 'Deepfake' AI-שונה פורנו PornHub, טוויטר באן 'Deepfake' פורנו AI-Modified
- Deepfake Tech אחרון שתירקוד כמו ברונו מארס. Deepfake Tech אחרונה שתרקוד כמו ברונו מארס
אסטרטגיה נוספת היא לזכור את מושג ה- Zero Trust, שפירושו "לעולם אל תסמוך, תמיד תאמת" - מוטו ביטחון סייבר שמשמעותו שאנשי IT צריכים לאשר שכל המשתמשים הם לגיטימיים לפני שהם נותנים הרשאות גישה. יש צורך בספקנות להישאר ספקנים לגבי תקפות תוכן הווידיאו. תרצה גם שתוכנות עם יכולות ניתוח דיגיטליות יאתרו תוכן מזויף.
משגיח על Deepfakes
בהמשך, נצטרך להיות זהירים יותר עם תוכן הווידיאו ולהיזכר בסכנות שהם יכולים להציע לחברה אם לא נעשה בהם שימוש לרעה. כפי שגרובמן ציין, "בטווח הקרוב אנשים צריכים להיות יותר סקפטיים לגבי מה שהם רואים ולהכיר בכך שניתן לייצר וידיאו ואודיו."
לכן, השגיח בספקנות על הסרטונים הפוליטיים שאתה צופה כשאנחנו נכנסים לעונת הבחירות הבאה, ואל תתן אמון בכל הסרטונים המציגים את מנהיגי התאגידים. מכיוון שמה שאתה שומע אולי לא מה שנאמר באמת, וסרטוני זיוף עמוקים מטעים יש פוטנציאל לפגוע באמת בחברה שלנו.