גישה מהירה:
עבור ישירות לתוכן (Alt 1)עבור ישירות לניווט משני (Alt 3)עבור ישירות לניווט ראשי (Alt 2)

בינה מלאכותית
אלגוריתמים הם כמו מתכונים

קוד מקור פועל כמעט כמו מתכון: האלגוריתמים מכתיבים את חיי היומיום שלנו. ): © Adobe
קוד מקור פועל כמעט כמו מתכון: האלגוריתמים מכתיבים את חיי היומיום שלנו. ): © Adobe | Foto (Detail): © Adobe

אך כדי שהמנה תהיה גם טעימה, יש לבחור בזהירות את המרכיבים: המומחה לאלגוריתמים סבסטיאן שלטר מספר על בינה מלאכותית, על האופן שבו היא מחליטה בשבילנו ועל ההשפעה שיש לכך על חיינו.

מאת יוהנס צלר

בינה מלאכותית ומחשבים שלומדים בכוחות עצמם – אלה דברים שעדיין נשמעים קצת כמו מדע בדיוני, אבל הם כבר מזמן נמצאים בחיי היומיום שלנו. אלגוריתמים קובעים לא רק את מה שנשמע או נראה בשירותי הסטרימינג. במקומות מסוימים הם אף קובעים מי יקבל אשראי או מעריכים את הסבירות לכך שעבריין מורשע יחזור לחיי הפשע. אך מהו בעצם אלגוריתם וכיצד משפיעה הבינה המלאכותית על חיינו? 

המתכון הבסיסי: האלגוריתם

"אלגוריתם הוא קודם כל רצף של צעדים. אפשר לדמיין את זה כמו מתכון: מצד אחד ישנם המרכיבים – אשר מקבילים לתוכנת המחשב. ואז המתכון מסביר צעד אחר צעד, מה חייב לקרות כדי שהכנת האוכל תבוצע בהצלחה", כך מסביר המומחה לאלגוריתמים סבסטיאן שֵׁלְטֶר, אשר חוקר ניהול נתונים ולמידת מכונה באוניברסיטת אמסטרדם.

התפיסה הזו ביחס לאלגוריתמים איננה חדשה, שכן כל תוכנת מחשב פועלת לפי העיקרון הזה. מה שבעצם מעסיק אותנו, כשאנו מדברים היום על ההשפעה ההולכת וגוברת של האלגוריתמים, היא למידת מכונה: "בתוכנת מחשב רגילה, האדם מכתיב את כל הצעדים שבאמצעותם יש לפתור בעיה מסוימת. אך יש בעיות מסוימות שקשה לנו לומר למחשב כיצד בדיוק לפתור אותן", אומר המומחה. לכן, בלמידת מכונה משתמשים בגישה אחרת.   

•	סבסטיאן שלטר סיים את לימודי הדוקטורט שלו באוניברסיטה הטכנית של ברלין, ולאחר מכן עבד כחוקר באוניברסיטת ניו-יורק ובחברת אמזון. כיום הוא משמש כמרצה זוטר באוניברסיטת אמסטרדם ועוסק בבעיות הנובעות מהממשק שבין ניהול נתונים ולמידת מכונה. סבסטיאן שלטר סיים את לימודי הדוקטורט שלו באוניברסיטה הטכנית של ברלין, ולאחר מכן עבד כחוקר באוניברסיטת ניו-יורק ובחברת אמזון. כיום הוא משמש כמרצה זוטר באוניברסיטת אמסטרדם ועוסק בבעיות הנובעות מהממשק שבין ניהול נתונים ולמידת מכונה. ): © Sebastian Schelter | צילום: © סבסטיאן שלטר

בישול למתקדמים: האלגוריתם הלומד

"דוגמה פשוטה לכך היא הפילטר של הודעות הסְפָּאם, אשר אמור לבצע הבחנה בין מיילים פרסומיים לבין הודעות אישיות. מבחינת האדם שכותב תוכנת מחשב כזו, זוהי בעיה לא פשוטה. אפשר לקבוע קריטריונים וכללים שונים, שלפיהם ניתן תיאורטית לזהות מיילים פרסומיים, כמו למשל שעת המשלוח או מילים מסוימות שמופיעות בגוף ההודעה. אבל בנקודה מסוימת מגיעים לקצה גבול היכולת האנושית", מסביר שלטר את הבעיה.

לפיכך, בלמידת מכונה כבר לא מתכנתים את המחשב בצורה מפורשת, אלא מציגים לו דוגמאות. את הדרך הטובה ביותר לפתרון המחשב מוצא בעצמו. במקום לתת את המתכון המלא, המתכנת מציג את רק את התוצאה המבוקשת שאליה התוכנה צריכה להגיע.

"במקרה הזה, התהליך יכול לכלול הצגת 1,000 מיילים שאותם כן רוצים לקבל, לצד סדרה שלמה של דוגמאות שליליות למיילים פרסומיים שמהם רוצים להימנע", שלטר מוסיף ומסביר את הדוגמה. "לאחר מכן, האלגוריתם מעריך בעזרת הדוגמאות הללו את ההסתברות לכך שהודעה חדשה היא פרסומת או לא. ההבדל הגדול הוא, שבתכנות הרגיל יש אדם שמגדיר במדויק את הצעדים, בעוד שהאלגוריתמים הלומדים יוצרים קריטריונים משלהם לבחירה בעזרת דוגמאות והסתברויות סטטיסטיות."   

כשהבינה המלאכותית מצליחה להערים על האדם

אלגוריתמים לומדים מסוגלים לא רק לפתור בעיות מסוימות מהר יותר מאנשים, אלא גם לעשות זאת טוב יותר. כאשר התוכנה "פלוריבוס" (Pluribus) שיחקה בשנת 2019 נגד שחקני פוקר מקצוענים, הבינה המלאכותית הוכיחה שהיא יכולה אפילו ללמוד לבלף טוב יותר מהאדם שמולה. עם היכולות שלה הולכת וגוברת גם השפעתה – בתחום שירותי בריאות הציבור, בעולם הפיננסי ובמערכת המשפט.

גם בגרמניה רוב האנשים עומדים יום יום מול ההחלטות שמקבלים אלגוריתמים חכמים. "מנקודת מבט מדעית, אלה תהליכים מתמטיים מופשטים שניתנים ליישום בתחומים רבים. למשל, כדי לקבוע מה הסבירות לכך שאדם כלשהו ישלם בחזרה הלוואה שלקח", מוסיף שלטר.

במדינות כמו ארצות הברית ואוסטרליה קיים החשד שהאלגוריתמים מקבלים החלטות שמפלות לרעה קבוצות אתניות מסוימות. "דבר זה נובע בחלקו מכך שהאפליה כבר מושרשת בדוגמאות שהאדם הציג לאלגוריתם. כאשר נותנים לאחר מכן לאלגוריתם לרוץ בצורה עיוורת, הוא משעתק את האפליה", מסביר המומחה את שורש הבעיה.

אלגוריתם עם טקט?  

מעל לכל, השאלה לגבי הגבולות הרצויים של האלגוריתמים והבינה המלאכותית איננה שאלה טכנית, אלא שאלה של אתיקה. או שאולי ניתן ללמד את האלגוריתם לפעול "בטקט"?

"לפי שעה, עדיין אין מענה לשאלה הזו. בעיניי, יש תחומים שבהם להחלטה שגויה של האלגוריתם אין השפעה רצינית – למשל, כאשר שירות הסטרימינג משמיע לי את השיר הלא נכון. בנוסף, יש תחומים אחרים שבהם האלגוריתם יכול להמליץ, אבל אז האדם הוא זה שצריך לקבל את ההחלטה הסופית. ויש עוד תחומים, שאותם צריך פשוט להשאיר לשיפוט האנושי", מביע שלטר את דעתו.

"בארצות הברית מופעלים אלגוריתמים שמעריכים את הסבירות לכך שאסיר מסוים יחזור לחיי פשע. ועדות השחרורים ובתי המשפט מקבלים את הנתונים הללו כאשר הם מחליטים האם להעניק שחרור מוקדם ממאסר". ובהקשר זה עולה השאלה: האם זה צודק?

"קשה למדוד את נושא הצדק בכלים מתמטיים, משום שהוא סובב קודם כל סביב שאלות פילוסופיות, פוליטיות ומשפטיות. לכל אחד יש דעה אחרת בנוגע לשאלה מה צודק ומה לא, ומבחינה מתמטית זה בלתי אפשרי לשקלל בו-זמנית את כל ההגדרות של צדק."

גם מחקרים שבוחנים את מידת ההוגנות של קבלת ההחלטה באמצעות אלגוריתמים מעריכים שעדיין יש מקום לשיפור בכל הנוגע לתחושת הטקט. לפי מחקרים אלה, בתחומים רבים חייבת להיות קודם כל תמימות דעים מבחינה אתית, פוליטית ומשפטית על האופן שבו שיש להחליט בצורה "נכונה" במקרים מסוימים, ורק לאחר מכן ניתן יהיה להפקיד את המשימה בידי האלגוריתם. "גם אז עדיין נשאלת השאלה הפילוסופית והפוליטית, האם זה בכלל משהו שרוצים לעשות", אומר שלטר.