בית דעות ללמוד מהטעויות של אלכסא

ללמוד מהטעויות של אלכסא

תוכן עניינים:

וִידֵאוֹ: ª (אוֹקְטוֹבֶּר 2024)

וִידֵאוֹ: ª (אוֹקְטוֹבֶּר 2024)
Anonim

מכשיר של Amazon Echo הקליט לאחרונה את השיחה הפרטית של משתמש ושלח אותה לאחד מאנשי הקשר שלהם ללא ידיעתם ​​והסכמתם. זה (שוב) מעלה חששות לגבי האבטחה והפרטיות של הרמקולים החכמים. עם זאת, כפי שהתברר מאוחר יותר, התנהגותה המוזרה של אלכסה לא הייתה חלק ממזימת הריגול הרועשת - אלא היא נגרמה כתוצאה משורה של כשלים מקושרים המיוחסים לאופן עבודתו של הרמקול החכם.

על פי חשבון שסופקה על ידי אמזון: "הד התעורר בגלל מילה בשיחת רקע שנשמעה כמו 'אלכסה'. לאחר מכן, השיחה שלאחר מכן נשמעה כבקשת 'שלח הודעה'. באיזה שלב, אלכסה אמרה בקול רם 'למי?' באיזו שלב שיחת הרקע התפרשה כשם ברשימת אנשי הקשר של הלקוח, ואז אלכסה שאלה בקול רם ', נכון?' לאחר מכן פירשה אלכסה את שיחת הרקע כ'נכונה '. לא פחות סביר כמו שרשרת האירועים הזו, אנו בוחנים אפשרויות לגרום למקרה הזה אפילו פחות סביר."

התרחיש הוא מקרה קצה, סוג האירוע שקורה לעיתים רחוקות מאוד. אך זהו גם מחקר מעניין בגבולות טכנולוגיית הבינה המלאכותית המפעילה את האקו ומכשירים אחרים "חכמים" אחרים.

יותר מדי הסתמכות בענן

להבנת פקודות קוליות, רמקולים חכמים כמו ה- Echo ו- Google Home מסתמכים על אלגוריתמים של למידה עמוקה, הדורשים כוח מחשוב נרחב. מכיוון שאין להם את משאבי המחשוב לבצע את המשימה באופן מקומי, עליהם לשלוח את הנתונים לשרתי הענן של היצרן, שם האלגוריתמים של AI הופכים את נתוני הדיבור לטקסט ומעבדים את הפקודות.

אבל רמקולים חכמים לא יכולים לשלוח את כל מה שהם שומעים לשרתי הענן שלהם, מכיוון שזה ידרוש מהיצרן לאחסן כמויות גדולות של נתונים בשרתים שלהם - שרובם יהיו חסרי תועלת. הקלטה ואחסון בטעות של שיחות פרטיות המתרחשות בבתים של המשתמשים היו גם מהווים אתגר פרטיות ועלול להטריד את היצרנים, במיוחד עם תקנות פרטיות חדשות שמגבלות קשות על האופן שבו חברות טק מאחסנות נתונים ומשתמשות בהן.

זו הסיבה שרמקולים חכמים מתוכננים להפעלה לאחר שהמשתמש יבטא מילת ערות כמו "אלקסה" או "היי גוגל". רק לאחר ששמעו את מילת העקיצה הם מתחילים לשלוח את כניסת השמע של המיקרופונים שלהם לענן לצורך ניתוח ועיבוד.

בעוד שתכונה זו משפרת את הפרטיות, היא מציגה אתגרים משלה, כפי שהדגיש התקרית של Alexa לאחרונה.

"אם מילה - או משהו שנשמע מאוד דומה לזה - נשלחת באמצע שיחה, לאלכסה לא יהיה שום קשר מההקשר הקודם", אומר ג'ושוע מרץ, מנכ"ל Conversocial. "בשלב זה, היא מקשיבה מאוד קשה לפקודות הקשורות לכישורים שהגדרת (כמו אפליקציית ההודעות שלהם). לרוב, הפרטיות משופרת מאוד על ידי הגבלת ההקשר שאליכסה נותנת תשומת לב אליו (כמו זה לא הקלטה או האזנה לאף אחת מהשיחות הרגילות שלך), אם כי זה אישר במקרה זה."

ההתקדמות במחשוב הקצה עשויה לעזור להקל על בעיה זו. כאשר AI ולמידה מעמיקה מוצאים את דרכם ליותר ויותר מכשירים ויישומים, יצרני חומרה מסוימים יצרו מעבדים המתמחים בביצוע משימות AI מבלי להסתמך יותר מדי על משאבי ענן. מעבדי Edge AI יכולים לעזור למכשירים כמו Echo להבין טוב יותר ולעבד שיחות מבלי לפגוע בפרטיות המשתמשים על ידי שליחת כל הנתונים לענן.

הקשר וכוונה

מלבד קבלת קטעי שמע שונים ומפוררים, ה- AI של אמזון נאבק בהבנת הדקויות של השיחה האנושית.

"אמנם חלו התקדמות אדירה בלמידה מעמיקה במהלך השנים האחרונות, מה שמאפשר לתוכנה להבין דיבור ותמונות טוב יותר מאי פעם, עדיין יש הרבה גבולות, " אומר מרץ. "בעוד שעוזרי קולות יכולים לזהות את המילים שאתה אומר, אין בהכרח כל הבנה אמיתית של המשמעות או הכוונה העומדת מאחוריה. העולם הוא מקום מורכב, אך כל מערכת AI אחת כיום מסוגלת להתמודד עם מאוד מקרי שימוש ספציפיים וצרים."

לדוגמא, אנו בני האדם יש דרכים רבות לקבוע אם משפט מופנה אלינו, כגון טון קול, או בעקבות רמזים חזותיים - נניח, הכיוון אליו הדובר מסתכל.

לעומת זאת, אלקסה מניחה שהיא מקבלת כל משפט המכיל את המילה "A". זו הסיבה שמשתמשים לעתים קרובות מפעילים זאת בטעות.

חלק מהבעיה היא שאנו מגזים ביכולות של יישומי AI נוכחיים, ולעתים קרובות אנו מייצגים אותם בשוויון עם המוח האנושי או מעל אותם ואנחנו נותנים בו אמון רב מדי. לכן אנו מופתעים כאשר הם נכשלים בצורה מרהיבה.

"חלק מהנושא כאן הוא שהמונח 'AI' שווק בצורה כה אגרסיבית, עד שהצרכנים שמו אמון במוצרים לא מוערכים במוצרים שהמונח הזה קשור אליהם", אומר פסקל קאופמן, מדעי המוח ומייסד סטארמינד. "הסיפור הזה ממחיש שלאלכסה יש יכולות רבות והבנה יחסית מוגבלת כיצד ומתי יש ליישם אותם כראוי."

אלגוריתמים של למידה עמוקה מועדים להיכשל כאשר הם מתמודדים עם הגדרות החורגות מהנתונים והתרחישים להם הם מאומנים. "אחת התכונות המגדירות של AI ברמה האנושית תהיה יכולת מספקת עצמית והבנה אמיתית של התוכן", אומר קאופמן. "זהו חלק מכריע בהאמרה אמיתית של ה- AI 'אינטליגנטי' וחיוני להתפתחותו. יצירת עוזרים דיגיטליים מודעים לעצמם, המביאים עימם הבנה מלאה של טבע האדם, יסמנו את טרנספורמציה מחידוש מהנה לממש כלי שימושי."

אבל יצירת AI ברמה האנושית, המכונה גם AI כללי, היא קלה יותר מאשר לעשות. במשך עשרות שנים רבות, אנו חושבים שזה ממש מעבר לפינה, רק להתבהל ככל שההתקדמות הטכנולוגית הראתה עד כמה המוח האנושי מסובך. מומחים רבים סבורים כי רדיפת AI הכללי אינה מועילה.

בינתיים, AI צר (כפי שמתואר טכנולוגיות בינה מלאכותית עדכניות) עדיין מציג הזדמנויות רבות וניתן לתקן אותן כדי למנוע טעויות חוזרות. כדי להיות ברור, למידה עמוקה ולמידה במכונה עדיין מתרחשות, וחברות כמו אמזון מעדכנות כל הזמן את אלגוריתמי ה- AI שלהן כדי לטפל במקרי קצה בכל פעם שהם מתרחשים.

מה שאנחנו צריכים לעשות

"זהו תחום צעיר ומתפתח. הבנת השפה הטבעית היא בעיקר בחיתוליו, כך שאפשר לעשות הרבה דברים כאן", אומר אריק מולר, סמנכ"ל הכספים של אטומי X.

מולר מאמין שניתן לכוונן אלגוריתמים AI של ניתוח קולי להבנה טובה יותר של אינטונציה וניפוח. "השימוש במילה 'אלקסה' במשפט רחב יותר נשמע אחרת מאשר כניעה או פקודה. אלכססה לא צריכה להתעורר כי אמרת את השם הזה בהמשך, " אומר מולר. עם מספיק אימונים, AI אמור להיות מסוגל להבחין אילו גוונים ספציפיים מכוונים לרמקול החכם.

חברות טכניות יכולות גם להכשיר את ה- AI שלהן בכדי להבחין כאשר הן מקבלות רעשי רקע לעומת דיבורים ישירות. "לפטפט ברקע יש 'חתימה' שמיעתית ייחודית שבני אדם טובים מאוד להרים אותם ולכוון אותם באופן סלקטיבי. אין שום סיבה שאנחנו לא יכולים לאמן דגמי AI שיעשו זאת", אומר מולר.

כאמצעי זהירות, על עוזרי AI לדרג את ההשפעה של ההחלטות שהם מקבלים ולערב החלטות אנושיות במקרים בהם הם רוצים לעשות משהו שרגיש פוטנציאלי. על היצרנים לאפות אמצעי הגנה נוספים בטכנולוגיות שלהם כדי למנוע העברת מידע רגיש ללא הסכמתו המפורשת והברורה של המשתמש.

שגיא אליאחי, מנכ"ל טונקון, אומר: "למרות שאמזון דיווחה כי אלכסה ניסתה לאשר את הפעולה שהיא פירשה, יש צורך לנהל כמה פעולות בזהירות ולהישמר בסטנדרט גבוה יותר של אישור על כוונת המשתמש. "לבני אדם יש את אותן סוגיות של זיהוי דיבור, מדי פעם מתייחסים לבקשות. בניגוד לאלכסה, עם זאת, יש סיכוי גבוה יותר לאדם לאשר באופן מוחלט כי הם מבינים בקשה לא ברורה, וחשוב מכך, לאמוד את הסבירות לבקשה בהשוואה לבקשות מהעבר."

בינתיים…

בעוד שחברות טק מממנים את יישום ה- AI שלהם להפחתת טעויות, המשתמשים יצטרכו לקבל את ההחלטה האולטימטיבית לגבי כמה הם רוצים להיחשף לטעויות הפוטנציאליות שהמכשירים שלהם המופעלים על AI עשויים לעשות.

"סיפורים אלה מראים התנגשות עם כמות הנתונים שאנשים מוכנים לחלוק כנגד ההבטחה לטכנולוגיות AI חדשות", אומר דאג רוז, מומחה למדעי המידע וכותב מספר ספרים בנושא תוכנת AI ותוכנה. "אתה עלול להקניט את סירי כי היא איטית. אבל הדרך הטובה ביותר עבורה להשיג אינטליגנציה גדולה יותר היא על ידי פלישה לשיחות הפרטיות שלנו. שאלת מפתח בעשור הבא בערך היא כמה נניח לסוכני AI האלה להציץ להתנהגות שלנו ?"

"איזו משפחה תניח עוזר אנושי בסלון ותני לאותו אדם להקשיב לכל סוג של שיחה כל הזמן?" אומר קאופמן, מדעני המוח מסטרמינד. "עלינו לפחות להחיל את אותם סטנדרטים על מכשירים המכונים 'AI' (אם לא גבוהים יותר) שאנחנו חלים גם על יצורים חכמים אנושיים בכל הקשור לפרטיות, סודיות או אמינות."

ללמוד מהטעויות של אלכסא