בית דעות מדוע ai חייבת לגלות שזה ai

מדוע ai חייבת לגלות שזה ai

תוכן עניינים:

וִידֵאוֹ: Pergunta Aí! - Prof.ª MARTA DANTAS & a psicóloga GABRIELLE DANTAS (אוֹקְטוֹבֶּר 2024)

וִידֵאוֹ: Pergunta Aí! - Prof.ª MARTA DANTAS & a psicóloga GABRIELLE DANTAS (אוֹקְטוֹבֶּר 2024)
Anonim

גוגל החזירה לאחרונה את דופלקס וחשפה במפורש למארחי המסעדות ולעובדי הסלון כי הם מדברים עם עוזר גוגל ומוקלטים.

גוגל השמיטה את הפרט הקטן אך החשוב הזה כאשר הציגה לראשונה את דופלקס בכנס המפתחים של הקלט / פלט שלה במאי. התרחשות פגיעה תקשורתית, והמבקרים חידשו את הפחדים הישנים מההשלכות של הסרת סוכני AI שיכולים להתחזות להתנהגותם של בני אדם בדרכים שלא ניתן להבחין בהן.

באמצעות ציוץ של דופלקס, גוגל מניחה חלק מהביקורת הזו. אך מדוע חשוב כל כך שחברות יהיו שקופות באשר לזהות סוכני ה- AI שלהם?

האם עוזרי AI יכולים לשרת מטרות רעות?

"יש ציפייה הולכת וגוברת שכשאתה מסר העברת עסק אתה יכול להיות באינטראקציה עם צ'ט בוט המופעל על ידי AI. אבל כשאתה שומע בפועל דובר אנושי, אתה בדרך כלל מצפה שהוא יהיה אדם אמיתי, " אומר ג'ושוע מרץ, מנכ"ל של Coversocial.

מרץ אומר שאנחנו בתחילת דרכם של אנשים שקיימים אינטראקציות משמעותיות עם AI על בסיס קבוע, וההתקדמות בתחום יצרה את החשש שהאקרים יכולים לנצל סוכני AI למטרות זדוניות.

"בתרחיש הטוב ביותר, בוטים של AI בעלי כוונות זדוניות עלולים לפגוע באנשים", אומר מרציו אבילז, סגן מפלגת רשתות ב- Cujo AI. אבל מרציו מוסיף כי יתכן שאנו עומדים בפני איומים חמורים יותר. לדוגמה, AI יכול ללמוד דפוסים לשוניים ספציפיים, מה שמקל על התאמת הטכנולוגיה למניפולציה של אנשים, התחזות לקורבנות והתקפות של רצון הבמה (דיוג קולי) ופעילויות דומות.

מומחים רבים מסכימים כי האיום הוא אמיתי. בטור ל- CIO פרסם סטיבן בריקמן את הדרכים השונות בהן ניתן לנצל טכנולוגיה כמו דופלקס: "לפחות עם בני אדם שמתקשרים לבני אדם, עדיין יש גורם מגביל - אדם יכול לבצע רק כל כך הרבה שיחות בשעה, ביום. יש לשלם לבני אדם, לקחת הפסקות וכדומה. אבל צ'ט בוט של AI יכול פשוטו כמשמעו לבצע מספר בלתי מוגבל של שיחות למספר בלתי מוגבל של אנשים במגוון דרכים בלתי מוגבלות!"

בשלב זה, רוב מה שאנחנו שומעים הם ספקולציות; אנו עדיין לא יודעים את היקף הרצינות של האיומים שיכולים להתעורר עם הופעתם של עוזרי קול. אולם ניתן לבצע שימוש לרעה ברבים מההתקפות הפוטנציאליות בהן עוזרים מבוססי קול אם החברה המספקת את הטכנולוגיה מתקשרת במפורש למשתמשים כאשר הם מתקשרים עם סוכן AI.

דאגות פרטיות

בעיה נוספת סביב השימוש בטכנולוגיות כמו דופלקס היא הסיכון האפשרי לפרטיות. מערכות המופעלות באמצעות AI זקוקות לנתוני משתמשים כדי לאמן ולשפר את האלגוריתמים שלהם, ודופלקס אינו יוצא מן הכלל. חשיבות רבה לאופן האחסון, האבטחה והשימוש של נתונים אלה.

מתקבלות תקנות חדשות המחייבות חברות לקבל הסכמה מפורשת של משתמשים כאשר הן רוצות לאסוף את המידע שלהן, אך בעיקר נועדו לכסות טכנולוגיות בהן משתמשים יוזמים אינטראקציות בכוונה. זה הגיוני עבור עוזרי AI כמו סירי ואלכסה, שמופעלים על ידי המשתמש. אך לא ברור כיצד הכללים החדשים יחולו על עוזרי AI שפונים למשתמשים מבלי שיופעלו.

במאמרו, ברקמן מדגיש את הצורך לקבוע אמצעי הגנה רגולטוריים, כמו חוקים המחייבים חברות להצהיר על נוכחות של סוכן AI - או חוק שכשאתה שואל צ'אט בוט אם זה צ'ט בוט, הוא נדרש לומר, "כן, אני צ'ט בוט. " אמצעים כאלה יתנו לבן שיחו האנושי את ההזדמנות להתנתק או לפחות להחליט אם הוא רוצה ליצור אינטראקציה עם מערכת AI שמתעדת את קולו.

אפילו בחוקים כאלה, חששות הפרטיות לא יעלמו. "הסיכון הגדול ביותר שאני צופה בגלגול הנוכחי של הטכנולוגיה הוא שהוא ייתן לגוגל נתונים נוספים על חייהם הפרטיים שלא היו להם. עד לרגע זה, הם רק ידעו על התקשורת המקוונת שלנו; הם כעת יקבלו תובנה אמיתית לגבי השיחות שלנו בעולם האמיתי ", אומר ויאן צ'ינר, מייסד ומנכ"ל שינאו.

שערוריות פרטיות אחרונות בהן מעורבות חברות טק גדולות, בהן השתמשו בנתוני משתמשים בדרכים מפוקפקות לטובת רווחיהן, יצרו תחושת חוסר אמון באשר להעניק להם חלונות נוספים לחיינו. "אנשים באופן כללי מרגישים שחברות עמק הסיליקון הגדולות רואות בהן מלאי במקום לקוחות ויש להן מידה רבה של חוסר אמון כמעט לכל דבר שהם עושים, לא משנה כמה פורץ דרך ומשנה חיים זה בסופו של דבר, " אומרת צ'ינר.

כשלים תפקודיים

למרות שיש לו קול וטון טבעי ושימוש בצלילים דמויי אדם כמו "ממ"ם" ו"אמממ, "דופלקס אינו שונה מטכנולוגיות AI עכשוויות אחרות וסובל מאותן מגבלות.

בין אם משתמשים בקול או טקסט כממשק, סוכני AI טובים לפתור בעיות ספציפיות. זו הסיבה שאנו מכנים אותם "AI צר" (להבדיל מ- "AI כללי" - סוג הבינה המלאכותית שיכולה לעסוק בפתרון בעיות כללי, כפי שעושה המוח האנושי). בעוד ש- AI צר יכול להיות טוב במיוחד לביצוע המשימות שהוא מתוכנן עבורו, הוא יכול להיכשל בצורה מרהיבה כשניתן לו תרחיש החורג מתחום הבעיות שלו.

"אם הצרכן חושב שהוא מדבר עם בן אנוש, סביר להניח שהוא ישאל משהו שנמצא מחוץ לתסריט הרגיל של ה- AI ואז יקבל תגובה מתסכלת כאשר הבוט לא יבין", אומר מארץ 'של Conversocial.

לעומת זאת, כאשר אדם יודע שהוא מדבר עם AI שהוכשר להזמין שולחנות במסעדה, הם ינסו להימנע משימוש בשפה שתבלבל את ה- AI ויגרום לו להתנהג בדרכים בלתי צפויות, במיוחד אם הוא מביא להם לקוח.

"אנשי צוות שמקבלים שיחות מדופלקס צריכים גם לקבל מבוא ישיר כי זה לא אדם אמיתי. זה יעזור לתקשורת בין הצוות ל- AI להיות שמרניים וברורים יותר", אומר אבילז.

מסיבה זו, עד אשר (ואם) אנו מפתחים AI שיכולים להתנהל באופן דומה לאינטליגנציה האנושית, האינטרס של החברות עצמן להיות שקוף ביחס לשימושם ב- AI.

בסופו של יום, חלק מהפחד של עוזרים קוליים כמו דופלקס נגרם מהעובדה שהם חדשים, ואנחנו עדיין מתרגלים להיתקל בהם בהגדרות חדשות ובמקרי שימוש. "לפחות חלק מהאנשים נראים מאוד לא נוחים עם הרעיון לדבר עם רובוט מבלי לדעת זאת, כך שעתה כנראה יש לחשוף אותו לצדדים בשיחה", אומר צ'ינר.

  • AI הוא (גם) כוח לתמיד AI הוא (גם) כוח לתמיד
  • כאשר AI מטשטש את הקו בין מציאות לבדיה כאשר AI מטשטש את הקו בין מציאות לבדיה
  • לבינה מלאכותית יש בעיית הטיה, וזה התקלה שלנו. לבינה מלאכותית יש בעיית הטיה, וזה התקלה שלנו

אך בטווח הרחוק, נתרגל לקיים אינטראקציה עם סוכני AI שהם חכמים ומסוגלים יותר לבצע משימות שנחשבו בעבר לנחלתם הבלעדית של מפעילי אנוש.

"לדור הבא לא יהיה אכפת אם ידברו עם AI או עם אדם כאשר הם יוצרים קשר עם עסק. הם רק ירצו לקבל את התשובה שלהם במהירות ובקלות, והם יגדלו לדבר עם אלכסה. להחזיק לדבר עם בן אדם יהיה הרבה יותר מתסכל מאשר סתם אינטראקציה עם בוט ", אומר מארץ 'של Conversocial.

מדוע ai חייבת לגלות שזה ai