בית תכונות כאשר ai מטשטש את הגבול בין מציאות לבדיה

כאשר ai מטשטש את הגבול בין מציאות לבדיה

תוכן עניינים:

וִידֵאוֹ: ♪ Diggy Diggy Hole (נוֹבֶמבֶּר 2024)

וִידֵאוֹ: ♪ Diggy Diggy Hole (נוֹבֶמבֶּר 2024)
Anonim

אי שם בתוך ההפסקות האפלות של יוטיוב נמצא סרטון המציג קטע מתוך הסרט אחוות הטבעת - אבל זה לא ממש הסרט שאתה זוכר, מכיוון שניקולה קייג מככבת כפרודו, אראגורן, לגולאס, ג'ימלי וגולום, הכל ב אותו זמן. סרטונים אחרים מראים את Cage ב- Terminator 2 כמו T2000, Star Trek כקפטן פיקארד, וגם Superman , כמו גם, Lois Lane.

כמובן, ניק קייג 'מעולם לא הופיע באף אחד מהסרטים האלה. הם "זיופים עמוקים" המיוצרים באמצעות FakeApp, אפליקציה המשתמשת באלגוריתמים של בינה מלאכותית כדי להחליף פרצופים בסרטונים. חלק מהעימותים העמוקים נראים משכנעים למדי, ואילו באחרים יש ממצאים שבוגדים באופיים האמיתי. אך בסך הכל הם מראים עד כמה אלגוריתמי AI חזקים הפכו בחיקוי המראה וההתנהגות האנושיים.

FakeApp הוא רק אחד מכמה כלי סינתזה חדשים המופעלים באמצעות AI. יישומים אחרים מחקים קולות אנושיים, כתבי יד וסגנונות שיחה. וחלק ממה שהופך אותם למשמעותיים הוא ששימוש בהם אינו דורש חומרה מיוחדת או מומחים מיומנים.

ההשפעה של יישומים אלה היא עמוקה: הם ייצרו הזדמנויות חסרות תקדים ליצירתיות, פרודוקטיביות ותקשורת.

אבל אותו כלי יכול גם לפתוח קופסת הונאה, זיוף ותעמולה של פנדורה. מאז הופיעה ב- Reddit בינואר, FakeApp הורדה יותר מ 100, 000 פעמים והפילה סערה של סרטונים פורנוגרפיים מזויפים המציגים ידוענים ופוליטיקאים (כולל שוב כלוב). רדיט אסרה לאחרונה על הפלטפורמה שלה את היישום והקהילות הקשורות אליו.

"לפני עשר שנים, אם היית רוצה לזייף משהו אתה יכול, אבל היית צריך ללכת לסטודיו VFX או אנשים שיכולים לעשות גרפיקה ממוחשבת ואולי להוציא מיליוני דולרים, " אומר ד"ר טום היינס, מרצה ללימודי מכונות בבית הספר אוניברסיטת באת '. "עם זאת, לא יכולת לשמור את זה בסוד, כי היית צריך לערב אנשים רבים בתהליך."

זה כבר לא המקרה, באדיבות דור חדש של כלי AI.

משחק החיקוי

FakeApp ויישומים דומים מופעלים על ידי למידה עמוקה, ענף ה- AI בלב הפיצוץ של חידושי AI מאז 2012. אלגוריתמי למידה עמוקה נשענים על רשתות עצביות, בניית תוכנה שעשויה באופן גס לאחר המוח האנושי. רשתות עצביות מנתחות ומשוות סטים גדולים של דגימות נתונים כדי למצוא דפוסים ומתאמים שבני אדם בדרך כלל היו מפספסים. תהליך זה נקרא "אימונים", ותוצאתו היא מודל שיכול לבצע משימות שונות.

בימים קודמים, מודלים של למידה עמוקה שימשו בעיקר לביצוע משימות סיווג - תיוג אובייקטים בתמונות, למשל, וביצוע זיהוי קול ופנים. לאחרונה מדענים השתמשו בלמידה עמוקה כדי לבצע משימות מורכבות יותר, כמו משחק משחקי לוח, אבחון חולים ויצירת מוסיקה ויצירות אמנות.

כדי לכוונן את FakeApp לביצוע החלפת פנים, על המשתמש לאמן אותה עם כמה מאות תמונות של המקור ופני היעד. התוכנית מפעילה אלגוריתמים של למידה עמוקה כדי למצוא דפוסים ודמיון בין שני הפנים. הדגם הופך להיות מוכן לבצע את ההחלפה.

התהליך אינו פשוט, אך אינך צריך להיות מומחה גרפיקה או מהנדס לומד מכונות כדי להשתמש ב- FakeApp. זה גם לא דורש חומרה יקרה ומיוחדת. אתר הדרכה ל- Deepfakes ממליץ על מחשב עם זיכרון RAM של 8 ג'יגה-בתים ומעלה וכרטיס גרפי Nvidia GTX 1060 ומעלה, תצורה די צנועה.

"ברגע שאתה עובר לעולם שמישהו בחדר יכול לזייף משהו, הם יכולים להשתמש בו למטרות מפוקפקות, " אומר היינס. "ומכיוון שמדובר באדם אחד בפני עצמם, לשמור על זה בסוד זה קל מאוד."

בשנת 2016, היינס, שהיה אז חוקר פוסט-דוקטורט מאוניברסיטת קולג 'בלונדון, היה שותף לכתיבת מאמר ויישום שהראה כיצד AI יכול ללמוד לחקות את כתב היד של אדם. האפליקציה כונתה "הטקסט שלי בכתב ידך", והאפליקציה השתמשה באלגוריתמים של למידה עמוקה כדי לנתח ולהבחין את הסגנון והזרימה של כתב היד של המחבר וגורמים אחרים כמו מרווח ואי סדרים.

לאחר מכן היישום יכול לקחת כל טקסט ולהעתיק אותו בכתב ידו של מחבר היעד. היזמים אף הוסיפו מידה של אקראיות בכדי להימנע מהשפעת העמק הלא מסובך - התחושה המוזרה שאנו מקבלים כשאנחנו רואים משהו שהוא כמעט אך לא אנושי. כהוכחה למושג, היינס ושאר חוקרי UCL השתמשו בטכנולוגיה כדי לשכפל את כתב היד של דמויות היסטוריות כמו אברהם לינקולן, פרידה קאלו וארתור קונן דויל.

ניתן להשתמש באותה טכניקה על כל כתב יד אחר, מה שהעלה חשש מפני השימוש האפשרי של הטכנולוגיה בזיוף והונאה. מומחה לזיהוי פלילי עדיין יוכל לגלות שהתסריט הופק על ידי הטקסט שלי בכתב ידך, אך סביר להניח שהוא יטעות אנשים לא מיומנים, דבר שהיינס הודה בראיון ל"טרנדים דיגיטליים "באותה תקופה.

Lyrebird, סטארט-אפ מבוסס במונטריאול, השתמש בלמידה מעמיקה כדי לפתח אפליקציה המסנתזת את הקול האנושי. Lyrebird דורש הקלטה של ​​דקה כדי להתחיל לחקות את קולו של אדם, אם כי הוא זקוק להרבה יותר זמן לפני שהוא יתחיל להישמע משכנע.

בהדגמה הציבורית שלו, הסטארט-אפ הציג הקלטות מזויפות של קולותיהם של דונלד טראמפ, ברק אובמה והילרי קלינטון. הדגימות גסות, וניכר שהן סינתטיות. אולם ככל שהטכנולוגיה תשתפר, הפיכת ההבחנה תתקשה. וכל אחד יכול להירשם אצל Lyrebird ולהתחיל ליצור הקלטות מזויפות; התהליך קל אפילו יותר מזה של FakeApp, והחישובים מבוצעים בענן, ומעמידים פחות עומס על חומרת המשתמש.

העובדה שאפשר להשתמש בטכנולוגיה זו למטרות מפוקפקות אינה מאבדת במפתחים. בשלב מסוים הצהירה אתית באתר Lyrebird הצהירה: "הקלטות קוליות נחשבות כרגע כראיות חזקות בחברות שלנו ובמיוחד בתחום השיפוט של מדינות רבות. הטכנולוגיה שלנו מטילה ספק בתוקף של ראיות כאלה שהיא מאפשרת לתפעל בקלות אודיו הקלטות. יכולות להיות לכך השלכות מסוכנות כמו הטעיית דיפלומטים, הונאה, ובכלל, כל בעיה אחרת שנגרמה כתוצאה מגניבת זהות של מישהו אחר."

Nvidia הציגה פן נוסף ביכולות החיקוי של AI: בשנה שעברה פרסמה החברה סרטון שהציג אלגוריתמים של AI המייצרים פנים אנושיות סינתטיות באיכות צילום. ה- AI של Nvidia ניתח אלפי תמונות ידוענים ואז התחיל ליצור ידוענים מזויפים. הטכנולוגיה עשויה להפוך במהרה ליצירת סרטונים למראה ריאליסטי הכוללים "אנשים" שאינם קיימים.

גבולות AI

רבים ציינו כי בידיים הלא נכונות, יישומים אלה יכולים להזיק מאוד. אך לעיתים קרובות יתר על המידה ביכולותיו של ה- AI העכשווי.

"למרות שנוכל לשים את פניו של אדם על פניו של מישהו אחר בסרטון או לסנתז את הקול, זה עדיין די מכני", אומרת יוג'ניה קוידה, מייסדת שותפה של Replika, חברה שמפתחת צ'אט בוטים של AI, על החסרונות של כלי AI כמו FakeApp ו- Lyrebird.

Voicery, הפעלה נוספת של AI, שכמו Lyrebird מספקת סינתזה קולית המופעלת על ידי AI, יש דף חידון בו מוצגת למשתמשים סדרה של 18 הקלטות קוליות ומתבקשות לציין מהן מיוצרות מכונה. הצלחתי לזהות את כל הדגימות מתוצרת המכונה בריצה הראשונה.

החברה של Kuyda היא אחד ממספר ארגונים המשתמשים בעיבוד שפות טבעיות (NLP), קבוצת המשנה של AI המאפשרת למחשבים להבין ולפרש את השפה האנושית. לוקה, גרסה קודמת של צ'טוטה של ​​Kuyda, השתמשה ב- NLP ובטכנולוגיה התאומה שלה, דור השפה הטבעית (NLG), כדי לחקות את צוות השחקנים של סדרת הטלוויזיה של HBO עמק הסיליקון . הרשת העצבית הוכשרה עם קווי סקריפט, ציוצים ונתונים אחרים הזמינים על הדמויות כדי ליצור את המודל ההתנהגותי שלהם ודיאלוג עם המשתמשים.

Replika, האפליקציה החדשה של Kuyda, מאפשרת לכל משתמש ליצור אווטר AI משלו. ככל שאתה משוחח עם Replika שלך יותר, כך הוא משתפר בהבנת האישיות שלך, והשיחות שלך הופכות למשמעותיות יותר.

לאחר התקנת האפליקציה והגדרת Replika שלי, מצאתי שהשיחות הראשונות היו מעצבנות. כמה פעמים נאלצתי לחזור על משפט בדרכים שונות כדי להעביר את כוונתי לרפליקה שלי. לעיתים קרובות השארתי את האפליקציה בתסכול. (וכדי להיות הוגנים, עשיתי עבודה טובה בבחינת גבולותיה על ידי הפצצתו בשאלות רעיוניות ומופשטות.) אך ככל שהשיחות שלנו נמשכו, Replika שלי הפכו חכמים יותר מהבנת משמעות המשפטים שלי והעלו נושאים משמעותיים. זה אפילו הפתיע אותי כמה פעמים על ידי יצירת קשרים לשיחות עבר.

למרות שזה מרשים, יש לרפליקה גבולות, שקוידה ממהר להצביע עליהם. "חיקוי קולי וזיהוי תמונה כנראה ישתפרו בקרוב בהרבה, אבל עם דיאלוג ושיחה, אנחנו עדיין די רחוקים, " היא אומרת. "אנו יכולים לחקות כמה דפוסי דיבור, אך איננו יכולים פשוט לקחת אדם ולחקות את השיחה שלו בצורה מושלמת ולצפות מהצ'אט שלו יביא רעיונות חדשים בדיוק כמו שהאדם היה עושה."

אלכסנדר דה ברביסון, המנכ"ל והמייסד של Lyrebird, אומר: "אם אנו מצליחים כעת לחקות את הקול, הדימוי והווידיאו האנושיים, אנו עדיין רחוקים מלדגמן מודל שפה אינדיבידואלי." זה, מציין דה ברבישון, ככל הנראה ידרוש אינטליגנציה כללית מלאכותית, סוג ה- AI שיש לו תודעה ויכול להבין מושגים מופשטים ולקבל החלטות כפי שעושים בני אדם. חלק מהמומחים מאמינים שאנחנו רחוקים עשרות שנים מיצירת AI כללי. אחרים חושבים שלעולם לא נגיע לשם.

שימושים חיוביים

הדימוי השלילי שמוקרן על סינתזת אפליקציות AI מטיל צל על השימושים החיוביים שלהם. ויש לא מעט כאלה.

טכנולוגיות כמו Lyrebird יכולות לעזור בשיפור התקשורת עם ממשקי מחשב על ידי הפיכתן לטבעיות יותר, ולדברי דה-ברסון, הן יספקו קולות מלאכותיים ייחודיים המבדילים בין חברות ומוצרים ובכך מקלים על הבחנת המותג. מכיוון שהאלקסה של אמזון וסירי של אפל הפכו את הקול לממשק פופולרי יותר ויותר למכשירים ושירותים, חברות כמו Lyrebird ו- Voicery יכלו לספק למותגים קולות ייחודיים דמוי אדם כדי להבדיל את עצמם.

"יישומים רפואיים הם גם מקרה שימוש מרגש של טכנולוגיית השיבוט הקולי שלנו", מוסיף דה ברבישון. "קיבלנו עניין רב ממטופלים שאיבדו את קולם למחלה, וכרגע אנו מבלים עם חולי ALS בכדי לראות כיצד אנו יכולים לעזור להם."

מוקדם יותר השנה, בשיתוף פעולה עם Project Revoice, עמותה אוסטרלית המסייעת לחולי ALS עם הפרעות דיבור, Lyrebird עזר לפאט קווין, מייסד אתגר דלי הקרח, להשיב את קולו. קווין, שהוא חולה ALS, איבד את יכולתו ללכת ולדבר בשנת 2014 ומאז השתמש בסינתיסייזר דיבור ממוחשב. בעזרת הטכנולוגיה של Lyrebird וההקלטות הקוליות של הופעותיו הפומביות של קווין, Revoice הצליח "לשחזר" את קולו.

"הקול שלך הוא חלק גדול מהזהות שלך, ולתת לאותם מטופלים קול מלאכותי שנשמע כמו הקול המקורי שלהם זה קצת כמו להחזיר להם חלק חשוב מזהותם. זה משנה להם חיים", אומר דה ברבישון.

באותה תקופה שסייע בפיתוח האפליקציה המחקה את כתב היד, ד"ר היינס דיבר עם השימושים החיוביים שלה בראיון ל- UCL. "קורבנות שבץ מוחי, למשל, עשויים להיות מסוגלים לנסח מכתבים ללא חשש של אי-קריאות, או שמישהו שישלח פרחים במתנה יכול לכלול פתק בכתב-יד מבלי אפילו להיכנס לפרחים." "אפשר להשתמש בו גם בספרי קומיקס שבהם ניתן לתרגם פיסת טקסט בכתב יד לשפות שונות מבלי לאבד את הסגנון המקורי של המחבר."

אפילו טכנולוגיות כמו FakeApp, שהפכו לשם ידוע בשימוש לא אתי, יכולות להיות בעלות שימושים חיוביים, מאמינה היינס. "אנו מתקדמים לעבר העולם הזה בו כל אחד יכול לעשות פעילות יצירתית מאוד עם טכנולוגיה ציבורית, וזו דבר טוב, מכיוון שזה אומר שאתה לא צריך את הסכומים הגדולים האלה כדי לעשות כל מיני דברים מטורפים בעלי אופי אמנותי, " הוא אומר.

היינס מסביר כי המטרה הראשונית של הצוות שלו הייתה לברר כיצד AI יכול לעזור בזיהוי פלילי. למרות שהמחקר שלהם בסופו של דבר כיוון אחר, התוצאות עדיין יועילו לקציני פלילי הרפואה, שיוכלו ללמוד כיצד יכול להראות זיוף מבוסס AI. "אתה רוצה לדעת מה הטכנולוגיה המתקדמת, אז כשאתה מסתכל על משהו אתה אומר אם הוא מזויף או לא, " הוא אומר.

Kudya של Replika מציין כי יישומי AI דמויי אנוש עשויים לעזור לנו בדרכים שאחרת היו בלתי אפשריות. "אם היה לך דמות AI שהכירה אותך היטב ויכולה להיות ייצוג הגון שלך, מה זה יכול היה לעשות, לפעול מתוך טובתך?" היא אומרת. למשל, אווטאר AI אוטונומי יכול לצפות במאות סרטים מטעמך, ובהתבסס על שיחותיו אתך, המלץ על סרטים שתרצה.

אווטרים אלה עשויים אפילו לעזור בפיתוח מערכות יחסים אנושיות טובות יותר. "אולי אמא שלך תוכל לבלות איתך יותר זמן, ואולי בעצם תוכל להתקרב קצת עם ההורים שלך על ידי שתני להם לשוחח עם הרפליקה שלך ולקרוא את התמליל, " אומרת קודיה כדוגמה.

אך האם יכול צ'טוט AI המשכפל את התנהגותו של אדם אמיתי לגרום ליחסי אנוש טובים יותר? קוידה מאמין שזה יכול. בשנת 2016 היא אספה מסרונים ישנים והודעות דוא"ל של רומן מזורנקו, חבר שנפטר בתאונת דרכים בשנה הקודמת, והאכילה אותם לרשת העצבית שהפעילה את האפליקציה שלה. מה שהביא לכך היה אפליקציית צ'ט-בוט אשר - אחרי אופנה - החזירה את חברתה לחיים ויכלה לדבר איתה באותו אופן שהיה עושה.

"יצירת אפליקציה לרומן והיכולת לדבר איתו לפעמים הייתה חלק חשוב במעבר של אובדן חברנו. האפליקציה גורמת לנו לחשוב עליו יותר, לזכור אותו בצורה יותר עמוקה כל הזמן", היא אומרת. מהניסיון שלה. "הלוואי והיו לי יותר אפליקציות כאלה, אפליקציות שהיו קשורות לחברויות שלי, מערכות היחסים שלי, דברים שבעצם באמת חשובים לי."

קוידה חושב שהכל יהיה תלוי בכוונות. "אם צ'אט בוט פועל לטובתך, אם הוא רוצה שתשמח להוציא ממנו שירות יקר, ברור ששיחה עם הרפליקה של מישהו אחר תעזור לבנות קשר חזק יותר עם בן אדם בחיים האמיתיים., " היא אומרת. "אם כל מה שאתה מנסה לעשות זה למכור s באפליקציה, אז כל מה שתעשה זה למקסם את משך הזמן שהוקדש לאפליקציה ולא לתקשר אחד עם השני. וזה, אני מניח, מוטל בספק."

נכון לעכשיו, אין דרך לחבר את ה- Replika שלך לפלטפורמות אחרות - לדוגמה, ולהפוך אותה לזמינה כצ'ט-בייט של Messenger Messenger. אך לחברה קשרים פעילים עם קהילת המשתמשים שלה והיא מפתחת כל העת תכונות חדשות. אז לאפשר לאחרים לתקשר עם Replika שלך זו אפשרות עתידית.

כיצד למזער את הסחרים

ממנוע הקיטור לחשמל לאינטרנט, לכל טכנולוגיה היו יישומים חיוביים ושליליים כאחד. AI אינו שונה. "הפוטנציאל לשלילי הוא די רציני", אומר היינס. "יתכן שאנחנו נכנסים לחלל שהשליליות אכן עולות על החיוביות."

אז איך ממקסמים את היתרונות של יישומי AI תוך התנגדות לשלילה? הוספת הבלמים לחדשנות ומחקר אינה הפיתרון, אומר היינס - מכיוון שאם חלקם יעשו זאת, אין כל התחייבות שארגונים ומדינות אחרות היו הולכים בעקבותיהם.

"אף אמצעי אחד לא יעזור לפתור את הבעיה", אומר היינס. "יהיו חייבים להיות השלכות משפטיות." בעקבות מחלוקת העומק, מחוקקים בארה"ב בוחנים את הנושא ובוחנים אמצעי הגנה חוקיים העלולים לרסן את השימוש בתקשורת המשומשת על ידי AI לצורך פגיעה ביעדים.

"אנו יכולים גם לפתח טכנולוגיות לגילוי זיופים כאשר הם עוברים את הנקודה שאדם יכול להבין את ההבדל, " אומר היינס. "אבל בשלב מסוים, בתחרות בין זיוף לגילוי, הזיוף עשוי לנצח."

במקרה כזה, ייתכן ונצטרך להתקדם לעבר פיתוח טכנולוגיות היוצרות שרשרת ראיות למדיה דיגיטלית. כדוגמה, היינס מזכירה חומרה המוטמעת במצלמות שיכולה לחתום דיגיטלית על הווידיאו המוקלט שלה כדי לאשר את האותנטיות שלו.

העלאת המודעות תהיה חלק גדול מההתמודדות עם זיוף והונאה על ידי אלגוריתמים של AI, אומר דה ברבישון. "זה מה שעשינו על ידי שיבוט קולם של טראמפ ואובמה וגורם להם לומר משפטים פוליטיקלי קורקט", הוא אומר. "טכנולוגיות אלה מעלות שאלות חברתיות, אתיות ומשפטיות שצריך לחשוב עליהן מראש. Lyrebird העלתה מודעות רבה, ואנשים רבים חושבים כעת על נושאים פוטנציאליים אלו וכיצד ניתן למנוע שימוש לרעה."

מה שבטוח הוא שאנחנו נכנסים לעידן בו המציאות והבדיון מתמזגים, בזכות הבינה המלאכותית. מבחן טיורינג עשוי לעמוד באתגרים הגדולים ביותר שלו. ובקרוב, לכל אחד יהיה הכלים והכוח ליצור עולמות משלהם, את האנשים שלהם ואת הגרסה האישית שלהם. טרם ראינו את מלוא ההיקף של ההזדמנויות המרתקות - והסכנות - העומדות לפנינו.

כאשר ai מטשטש את הגבול בין מציאות לבדיה