גישה מהירה:

עבור ישירות לתוכן (Alt 1) עבור ישירות לניווט ראשי (Alt 2)

בינה מלאכותית ובחירות
המשימה: להציל את הדמוקרטיה

איזה מידע הוא אמיתי, ואיזה נוצר באופן מלאכותי? היכולת להבדיל בין השניים הופכת לקשה יותר ויותר, משום ש"פייק ניוז" ומידע מוטעה שמסתייעים בבינה מלאכותית ממשיכים להתפשט..
איזה מידע הוא אמיתי, ואיזה נוצר באופן מלאכותי? היכולת להבדיל בין השניים הופכת לקשה יותר ויותר, משום ש"פייק ניוז" ומידע מוטעה שמסתייעים בבינה מלאכותית ממשיכים להתפשט. | צילום (קטע): © Adobe

קולות מזויפים של פוליטיקאים, שיחות של רובוטים הנתמכים בבינה מלאכותית או מנחה טלוויזיה פיקטיבי: בינה מלאכותית מציעה שפע של אפשרויות חדשות להפצה של דיסאינפורמציה. בעידן של משברים גלובליים, מדובר באיום אמיתי על הדמוקרטיה.

מאת דן גילמור

תומכי הדמוקרטיה מתמודדים בשנת 2024 עם משימה כבירה: להציל אותה. בכל רחבי העולם  מתקיימות השנה בחירות. בה בעת, השיטה המכונה בארצות הברית "שלטון העם, בידי העם ולמען העם" נתונה לאיום הולך וגובר, בהיקף שעוד לא ידענו כמוהו. 

בשנת 2024, אזרחים בוחרים את ממשלותיהם בכ-40 מדינות. כאשר הקלפיות בארה"ב ייפתחו בסתיו, מרבית המדינות הללו כבר ישלימו את הליך הבחירה. בהתחשב בכך, עלינו להתמודד עם אחת מאבני הפינה של ההשתתפות הדמוקרטית, שהייתה נתונה בסכנה עוד לפני העידן הדיגיטלי: מידע שאנו יכולים לתת בו אמון. התפתחות חדשה שמתחוללת כעת היא הבינה המלאכותית היוצרת (generative artificial intelligence), אשר מכונה בדרך כלל "AI". מאחורי ראשי התיבות הללו מסתתרות אינספור משמעויות והזדמנויות, אך גם סכנות. הבינה המלאכותית היוצרת עמדה לראשונה במוקד תשומת הלב הציבורית לפני כשנה, עם השקתו של ChatGPT. האם מדובר בברכה או באיום, או אולי באף אחד מאלה? בקרוב נדע על כך יותר.

הסימנים הראשונים אינם מבשרים טובות, אם לומר זאת בעדינות. הנה כמה דוגמאות אקטואליות: העיתון "פייננשל טיימס" מדווח כי בבנגלדש, כלי תקשורת ומשפיענים המקורבים לשלטון הפיצו "דיסאינפורמציה שמקורה ב-AI, אשר נוצרה באמצעות כלים זולים שאותם מציעות חברות סטארט-אפ העוסקות בבינה מלאכותית." על פי דיווח של כתב העת Wired  , בבחירות שהתקיימו לאחרונה בסלובקיה הופצו הקלטות מזויפות, אשר הוצגו בתור קולו של אחד המועמדים, במטרה להחליש אותו. בארצות הברית, סוכנות הידיעות  Associated Press מדווחת כי המועמדים כבר מתחילים להשתמש במערכות "robo-calling" שנתמכות ב-AI, על מנת לעורר עניין לטובת מועמדים פוליטיים באמצעות שיחות טלפון אוטומטיות.

מקרים אלה אמנם מעוררים דאגה, אך ככל הנראה אינם קשורים זה לזה. עד כה, נראה שהם גם לא עומדים במרכזו של קמפיין מאורגן לערעור יציבותן של הדמוקרטיות הליברליות ברחבי העולם. עם זאת, יש להניח שאנשים אשר משתמשים באופן שיטתי בהונאה, כחלק מהארסנל של מאמצי השכנוע שלהם, בוחנים בלהיטות את האפשרויות הגלומות בכלים החדשים, ואין ספק כי ישתמשו בהם בקנה מידה נרחב אם יוכלו לעשות כן.

הבינה המלאכותית מסייעת לכוחות אנטי-דמוקרטיים

השגשוג הנוכחי של הבינה המלאכותית מתרחש בעיצומם של משברים גלובליים קיומיים אשר הולכים ומחריפים. מלחמות ושינוי אקלים מהווים כבר כיום את אחד הגורמים להגירה המונית ולזעזועים כלכליים. משברים אלה ואחרים תרמו לתחושת אי-וודאות נרחבת בקרב הציבור,  ושלא במקרה עודדו את עלייתם של פופוליסטים מהימין הקיצוני, שחלקם פשיסטים מובהקים ורבים מהם בזים לדמוקרטיה. 

ה-AI היא שחקן מרכזי באבולוציה הקשוחה והמהירה של עולם המידע שלנו. לצד כלים חזקים אחרים המשמשים לתקשורת, היא מסייעת למפיצי תעמולה זדוניים אשר עוזרים לכוחות אנטי-דמוקרטיים. למרות מאמציהם הכנים של אנשים אשר מנסים לסייע לציבור להפריד בין האמת והשקר, כוחות ההונאה צוברים כוח.

חשוב לזכור שהבינה המלאכותית היוצרת עדיין נמצאת בשלב התפתחות מוקדם. אך גם אם כלי התקשורת וקבוצות אינטרסים מגזימים בהשפעה המיידית והפוטנציאלית שלה, אין להקל בה ראש. לכל הפחות, מדובר בכלי מרתק ובעל עוצמה פוטנציאלית, אשר בסופו של דבר עשוי לחולל מהפכה.

ההשפעה המוקדמת והמשמעותית ביותר שלה על הפוליטיקה עשויה להיות באופן שבו היא משלימה טכנולוגיות דיגיטליות אחרות, אשר משפיעות כבר כיום על תהליך ההצבעה. אנו יודעים מזה זמן רב כיצד ניתן לפנות בצורה ממוקדת לקבוצות בוחרים קטנות. בקרוב, מצביעים יקבלו הודעות אישיות שנתפרו במיוחד למידותיהם, תוך שהדבר יתבצע בקנה מידה המוני. כבר היום, בוטים מציפים את פלטפורמות המדיה החברתית באמצעות חשבונות מזויפים אשר מפיצים שקרים. בדרך כלל, המפעילים העומדים מאחוריהם שואפים לצמצם את השתתפות המצביעים בבחירות, אך עד היום אלה היו כלים גסים למדי. בקרוב מאוד, השחקנים הזדוניים יציידו את הבוטים ביכולת שכנוע משופרת שתשוכלל בעזרת ה-AI, וישתמשו בהם בצורה הרבה יותר מדויקת.

למרות מאמציהם הכנים של אנשים אשר מנסים לסייע לציבור להפריד בין האמת והשקר, כוחות ההונאה צוברים כוח.

בערוצי הטלוויזיה הגדולים אמנם לא רואים מגישי חדשות פיקטיביים, אבל סרטונים שלהם – ובהם חיקויים של עיתונאים אמיתיים שנוצרו בעזרת AI – זוכים לתפוצה רחבה ברשתות החברתיות. כמה פלטפורמות מנסות לבלום את הגל הזה, אך בלתי אפשרי לבדוק את כל התכנים המועלים לרשתות הענק של המדיה החברתית.

עלינו להכיר בכך, שגם אם באורח קסם יהיה ניתן להרחיק מהציבור את כל המידע המוטעה שה-AI משכלל ומעצים, הדבר לא יפתור את הבעיה הגדולה יותר. עיתונאים אוהבים לתקוף את אתרי המדיה החברתית בשל התכנים הרדודים שלהם, אך ערוצי החדשות המובילים בארצות הברית ובמקומות אחרים מפיצים בעצמם מזה עשורים מידע מוטעה. קרוב לוודאי שהציבור האמריקאי סופג יותר מידע מוטעה מערוץ "פוקס ניוז" שבשליטת משפחת מרדוק, מאשר מכל הטרולים שנמצאים ברשת גם יחד. ברחבי העולם, תאגידים רבי עוצמה, אשר ברוב המקרים משתפים פעולה עם ממשלות, מנהלים קמפיינים של תעמולה כדבר בשגרה. אם איננו מסוגלים להרתיע את תאגידי הענק מלהרעיל את המרחב הציבורי, יהיה קשה למצוא פתרונות מקיפים נגד מידע מוטעה ברשת שזוכה לרוח גבית מה-AI.

אף על פי כן, עלינו לנסות. האפשרויות שעומדות לרשותנו כוללות, בין השאר, רגולציה, צנזורה, צעדי נגד וחינוך של הציבור.

זיהוי, רגולציה ויכולותיה של המדיה

מרכז Brennan לצדק, ארגון אמריקאי שפועל למען בחירות חופשיות והוגנות, נמנה עם התומכים הרבים של רגולציה חזקה. בחודש דצמבר, המרכז פרסם דו"ח מחקר תחת הכותרת "להסדיר ברגולציה דיפ-פייק ומדיה סינתטית בזירה הפוליטית" (Regulating AI Deepfakes and Synthetic Media in the Political Arena). המחקר מציג את עקרונות הפעולה של רגולציה בתחום, ונותן דוגמאות לצעדים אשר מגנים על תהליך הבחירות. הדו"ח מנסה מאוד לאזן בין אינטרסים מתחרים, אך בסופו של דבר, ניסיון זה אינו מתיישב עם הערך העליון של חופש ביטוי בחברות דמוקרטיות. אחרי הכל, הרעיון להכפיף שקרים לרגולציה מוביל לכך שתהיה רגולציה גם על התבטאויות אחרות, שללא ספק אמורות להישאר חוקיות. רגולציה היא אמנם דבר אפשרי, אך היא תמיד בעייתית. 

קיימים צעדי נגד טובים יותר. אנו זקוקים לכלים טובים יותר, שיאפשרו לנו להכיר את המדיה הסינתטית ואת מניעיה, ולהפריך או לאמת את התכנים שלה. שירותי תוכנה אשר טוענים כי הם מסוגלים לזהות טקסטים שנכתבו ע"י AI הוכיחו עצמם כבלתי אמינים לחלוטין. דבר זה הופך אותם למסוכנים. בפרויקטים של בינה עם קוד פתוח, כגון Bellingcat.com האירופי, האדם הוא הגורם המכריע. לפחות לטווח הקצר, השילוב בין בינה אנושית ובינת מכונה נראה כבסיס טוב.

החינוך הוא הפיתרון הטוב ביותר לטווח הארוך.

אמצעי נגד אפשרי נוסף, שנמצא כרגע בשלבי פיתוח, הוא יצירת סימן זיהוי דיגיטלי של המדיה בעת הקמתה. דבר זה נועד להבטיח כי סימן הזיהוי מתלווה אל התוכן, גם אם הוא מועבר הלאה ומתבצעים בו שינויים. במסגרת היוזמה "Content Authentication", חברות עסקיות עובדות יחד עם אוניברסיטאות וקבוצות אינטרסים אחרות על טכנולוגיה שתאפשר זאת. מדובר ביוזמה מבטיחה, אך היא נמצאת בשלבים מוקדמים ומעלה את כל השאלות הקשות האפשריות הקשורות לפיקוח על מדיה.

החינוך נותר הפתרון הטוב ביותר לטווח הארוך. הדרכות בנוגע ליכולותיה של המדיה, אשר נפוצות יותר באירופה מאשר בארצות הברית, מציעות לצרכני וליוצרי מדיה בסיס שמאפשר שיפוט הגיוני. האם דבר זה יכול לאפשר לנו להתגונן מפני שטף של תעמולה מקצועית ושקרים? את זאת עדיין איננו יודעים. אך אם לא ננסה כלל להגיע אל אנשים מכל הגילאים, באמצעות תוכניות מקיפות ומתמשכות, צפוי לנו עתיד קודר.