בית תכונות 10 האלגוריתם המביך נכשל

10 האלגוריתם המביך נכשל

תוכן עניינים:

וִידֵאוֹ: Liga Revelação, 10.ª jornada: Portimonense 1 - 2 Vitória SC (נוֹבֶמבֶּר 2024)

וִידֵאוֹ: Liga Revelação, 10.ª jornada: Portimonense 1 - 2 Vitória SC (נוֹבֶמבֶּר 2024)
Anonim

טכנולוגיה אינה מיועדת רק לחנונים, היא לכולם, וזה הרבה אנשים. רק קומץ חברות השולטות ברוב החומרה והתוכנה - מאפל ואמזון לפייסבוק, מיקרוסופט וגוגל - הן יכולות לעשות כל כך הרבה כדי לשלוט על הארנק והריפוי העיניים שלך. מה תאגיד ענק עניים לעשות? סמוך על אלגוריתמים כדי לקבל כמה מההחלטות החשובות.

מילוני אוקספורד ליווינג מגדירים את האלגוריתם כ"תהליך או מערכת כללים שיש לעקוב אחריהם בחישובים או פעולות אחרות לפתרון בעיות, במיוחד על ידי מחשב. " דוגמה מושלמת היא עדכון החדשות בפייסבוק. אף אחד לא יודע איך זה עובד שחלק מהפוסטים שלך מופיעים בעדכוני החדשות של אנשים או לא, אבל פייסבוק כן. או מה דעתך על אמזון שתראה לך ספרים קשורים? חיפושים קשורים בגוגל? כל אלה הם סודות שמורים מקרוב שעושים עבודה רבה עבור החברה ויכולים להשפיע רבות על חייך.

אבל האלגוריתמים אינם מושלמים. הם נכשלים וחלקם נכשלים בצורה מרהיבה. הוסף את הזוהר של המדיה החברתית, ותקלות קטנות יכולות להפוך לסיוט יחסי ציבור מהיר ממש. לעיתים רחוקות זה זדוני; אלה נוטים להיות מה שהניו יורק טיימס מכנה "רגעים של פרנקנשטיין", שם היצור שמישהו יצר הופך למפלצת. אבל זה קורה, וכתבנו כמה מהדוגמאות האחרונות המצערות להלן. ספר לנו את המועדפים שלך בתגובות למטה.

    1 מודעות מפוקפקות באינסטגרם

    כפי שפורסם ב"גרדיאן " , פייסבוק אוהבת להריץ מודעות לשירות האינסטגרם שלה עם פוסטים של המשתמשים שלה. אולם האלגוריתם בחר ב"תמונה "שגויה לדחוף לחבריה של אוליביה סולון, עצמה כתבת ב"גרדיאן" , ובחרה צילום מסך בן שנה שצילמה בדוא"ל מאיים.

    2 מודעות גזעניות ממוקדות

    בשבוע שעבר דווח ב- ProPublica כי פייסבוק איפשרה למפרסמים למקד לקטגוריות פוגעות של אנשים, כמו "שונאי יהודים". האתר שילם 30 דולר עבור מודעה (למעלה) שמכוונת לקהל שיגיב בחיוב לדברים כמו "מדוע יהודים הורסים את העולם" ו"היטלר לא עשה שום דבר רע ". זה אושר תוך 15 דקות.

    צפחה מצאה קטגוריות פוגעות באותה מידה, והיא הפכה לעוד אחת בשורה הארוכה של הפריטים שפייסבוק נאלצה לא רק להתנצל, אלא להבטיח לתקן אותה עם פיקוח אנושי כלשהו. אתה יודע, כמו כאשר פרסמה מודעות בחירות בשווי 100, 000 $ לרוסיה.

    בפוסט בפייסבוק אמרה סמנכ"ל המשרד שריל סנדברג כי היא "נגעלת ומאכזבת את המילים האלה" והודיעה על שינויים בכלי המודעות שלה.

    BuzzFeed בדקה כיצד גוגל תתמודד עם דברים דומים, וגילתה שקל גם להגדיר מודעות ממוקדות שיראו גזענים וגדולים. ה- Daily Beast בדק את זה בטוויטר ומצא מיליוני מודעות המשתמשות במונחים כמו "נאצי", "wetback" והמילה N.

    3 שנה בפייסבוק

    אם אתה בפייסבוק, ללא ספק ראית את קטעי הווידאו שלו שנוצרו סוף השנה, עם הדגשים מ -12 החודשים האחרונים. או עבור חלקם, האורות הנמוכים. בשנת 2014, אבא אחד ראה תמונה של בתו המנוחה, ואילו אחר ראה תמונות של ביתו בלהבות. דוגמאות אחרות כוללות אנשים הרואים את חיות המחמד המאוחרות שלהם, כדים מלאים באפר של הורה, וחבריהם שנפטרו. עד 2015 הבטיחה פייסבוק לסנן זיכרונות עצובים.

  • 4 התרסקות טייס אוטומטי

    מרבית הסנאפים האלגוריתמיים רחוקים מלהיות קטלניים, אך עולם המכוניות בנהיגה עצמית יביא רמה חדשה לגמרי של סכנה. זה כבר קרה לפחות פעם אחת. בעל טסלה בכביש פלורידה השתמש במצב חצי אוטונומי (טייס אוטומטי) והתנגש בקרון טרקטור שניתק אותו. טסלה הוציאה במהירות שדרוגים, אך האם זו באמת אשמת מצב הטייס האוטומטי? המינהל הלאומי לבטיחות בתעבורה בכבישים המהירים אומר שאולי לא מכיוון שהמערכת מחייבת את הנהג להישאר ערניים לבעיות, כפי שתוכלו לראות בסרטון שלמעלה. כעת, טסלה מונעת מהטייס האוטומטי אפילו להיות מעורב אם הנהג אינו מגיב תחילה לרמזים חזותיים.

  • טאי ה- AI הגזעני של מיקרוסופט

    לפני מספר שנים בוטים בצ'אט היו אמורים לקחת את העולם בסערה, להחליף נציגי שירות לקוחות ולהפוך את העולם המקוון למקום פטפטני לקבל מידע. מיקרוסופט הגיבה במארס 2016 על ידי דחיקת AI בשם Tay שאנשים, ובמיוחד ילדים בני 18 עד 24, יכולים ליצור אינטראקציה בטוויטר. טיי בתורו יעשה ציוצים ציבוריים להמונים. אבל תוך פחות מ -24 שעות, למידה מההמומים הרעועים בפה, טיי הפך לגזען במלואו. מיקרוסופט משכה את טיי מייד; היא חזרה כ- AI חדש בשם Zo בדצמבר 2016, עם "בדיקות ואיזונים חזקים במקום כדי להגן עליה מפני ניצול."

    6 מזל טוב על התינוק שלך (שאינו קיים)!

    גילוי נאות: בזמן שאני כותב את זה אשתי בהריון. שנינו קיבלנו את המייל הזה מאמזון ואמר שמישהו רכש לנו משהו ממרשם התינוקות שלנו. עדיין לא פרסמנו את זה, אבל זה לא היה כל כך מזעזע. בינתיים, כמה מיליוני לקוחות אחרים של אמזון קיבלו גם הם את אותו הפתק, כולל כמה ללא רישום… או תינוק בדרך. זה יכול היה להיות חלק מתכנית דיוג, אבל זה לא היה. אמזון תפסה את השגיאה ושלחה דוא"ל להתנצלות למעקב. באותה עת, רבים התלוננו שזה לא הולם או לא רגיש. זה היה פחות אלגוריתם משרת הדואר האלקטרוני הנוצץ, אבל מראה לך שתמיד קל להעליב.

    7 אמזון 'ממליץ' על חומרי פצצה

    כולם קפצו על זה לאחר שפורסם על ידי חדשות ערוץ 4 בבריטניה, מפוקס ניוז לניו יורק טיימס . לכאורה, התברר שהפיצ'ר של אמזון "קונים יחד לעתים קרובות" יראה לאנשים את מה שהם צריכים לבנות פצצה, אם הם יתחילו עם אחד המרכיבים, שאתר זה לא יקרא (זה היה אשלגן חנקתי).

    מה שהאלגוריתם של אמזון עשה בפועל היה להראות לקונים את המרכיבים לייצור אבקה שחורה בכמויות קטנות, שהינה חוקית לחלוטין בבריטניה, ומשמשת לכל מיני דברים - כמו זיקוקים - כפי שצוין במהירות במחשבה יפה להפליא- פוסט בבלוג בחברת Idle Words. במקום זאת, כל הדיווחים הם על איך אמון בוחנת את זה, כי זה מה שיש להם לומר שהם עושים בעולם שמפחד מטרור והיגיון.

    8 מפות גוגל הופכות לגזענות

    בשנת 2015, גוגל נאלצה להתנצל כשמפות גוגל מחפשות אחר "n ***** king" ו- "n *** בית", הובילו לבית הלבן שעדיין נכבש על ידי ברק אובמה באותה תקופה. זה היה תוצאה של "Googlebomb", שבה מונח שמשמש שוב ושוב מנוע החיפוש מסומן כ"פופולרי "כך שהתוצאות עוברות לראש החיפוש. כך קיבלה המילה "סנטורום" את ההגדרה החדשה שלה.

    9 גוגל מתייגת בני אדם כגורילות

    אלבומי Google היא אפליקציה / שירות מדהים המאחסן את כל התמונות שלכם והרבה יותר. אחד הדברים האלה הוא לתייג אוטומטית אנשים ודברים בתמונות. הוא משתמש בזיהוי פנים עבור אנשים כדי לצמצם אותם עד לאדם הנכון. יש לי אפילו תיקיה של כל הכלבים שלי, ולא תייגתי אף אחד מהם. שכן זה עובד, הדבר היה נורא כאשר בשנת 2015 גוגל נאלצה להתנצל בפני מתכנת המחשבים ג'קי אלקינה כשהוא וחבר - שניהם שחורים - הוגדרו על ידי השירות כגורילות. "אנו נחרדים ומצטערים באמת שזה קרה", אמרה גוגל ל- PCMag.

    10 ביטחון רובוט פוגע בילד, הורג את עצמי

    Knightscope מייצר רובוטים ביטחוניים אוטונומיים הנקראים K5 לסיורים בבתי ספר ובקניונים ושכונות. החרוטים הדאלקים-אסקיים שגובהם מטר וחצי - שעל פי האשראי שלהם הם עדיין במבחני בטא - נוטים לגרום לחדשות לא לסכל פשע אלא לתקלות.

    לדוגמה, ביולי 2016, ה- K5 במרכז הקניות סטנפורד בפאלו אלטו דרס את רגליו של ילד בן 16 חודשים, ונייטסקופ נאלצה להתנצל רשמית. לאותו מיקום - אולי אותו דרואיד - היה חלפה בחניה עם שיכור, אבל לפחות זו לא הייתה אשמתו של K5. חבר השופטים עדיין בחוץ ביחידת K5 במתחם המים הג'ורג'טאון, משרדים / קניות בוושינגטון די.סי…. כי לכאורה, הוא מעד את המדרגות אל תוך מזרקת מים לאחר שבוע בלבד בתפקיד. זה לא נראה טוב לצבא של סקיינט.

10 האלגוריתם המביך נכשל