למה בינה מלאכותית לא תחליף את האינטליגנציה האנושית
בינה מלאכותית צריכה להרחיב ולא להחליף את האינטליגנציה האנושית

הטכנולוגיה התפתחה באופן משמעותי במהלך השנים האחרונות, בעיקר הודות לפריצות דרך בתחום הבינה המלאכותית. כ-51 אחוז מהעסקים משתמשים בה כיום לניהול אבטחת סייבר והונאות, משום שהיא יכולה לזהות פרצה פוטנציאלית לפני שהיא גורמת לצרות.
עם זאת, יעילותה של בינה מלאכותית יכולה לגרום לאנשים להיות תלויים יתר על המידה בטכנולוגיה זו. האמון המוחלט בבינה מלאכותית הוביל לכך ש-77 אחוז מהחברות הללו גילו פרצה במערכת הבינה המלאכותית שלהן. ככל שהטכנולוגיה משתנה ללא הרף, בעיות אלו עלולות להתרחש שוב, במיוחד אם לא יפוקחו עליהן.
עם זאת, אין זה אומר שחברות צריכות להימנע משימוש בבינה מלאכותית לצורכי אבטחת הסייבר שלהן. אין ספק שבינה מלאכותית יכולה להיות נכס כאשר משתמשים בה נכון. במקום זאת, חברות צריכות להשתמש בה כדי להגביר את האינטליגנציה האנושית ולא להחליף אותה. ללא הכללת קלט ופיקוח אנושיים בנוסחת האבטחה, הסיכוי ליצירת נקודה מתה יכול להיות גבוה מאוד.
סוגיית ההטיה של בינה מלאכותית באבטחת סייבר
מערכות בינה מלאכותית יכולות לזהות בקלות איום תוך שניות, משום שהן יכולות לעבד נתונים קיימים במהירות רבה. הבעיה העיקרית היא שאימון בינה מלאכותית לוקח הרבה זמן – לפעמים, זה יכול לקחת חודשים עד שמערכת הבינה המלאכותית תבין במלואה הליך חדש. לדוגמה, ChatGPT שואבת את רוב הנתונים שלה ממידע מלפני 2023. אותו הדבר חל על רוב כלי הבינה המלאכותית מכיוון שהם זקוקים לאימון ועדכון מתמידים כדי לשמור על דיוק המידע שלהם.
עם העלייה באיומי הסייבר, זה יכול להיות בעייתי למדי. ככל שהאקרים יוצרים דרכים חדשות ושונות לפרוץ מערכות אבטחה, טכנולוגיית בינה מלאכותית שאינה מעודכנת עלולה לא לדעת כיצד להגיב או לפספס איום לחלוטין.
בתרחיש זה, מעורבות אנושית הכרחית משום שאנשים יכולים להשתמש באינטואיציה ובניסיון שלהם כדי לקבוע האם קיים איום סייבר אמיתי. ללא מיומנות אנושית זו, הסתמכות מלאה על בינה מלאכותית עלולה לגרום לתוצאות חיוביות ושליליות שגויות, מה שעלול להוביל לפריצות סייבר מזיקות או לבזבוז משאבי חברה.
הטיה תרבותית יכולה להשפיע על נתוני האימון
ניתן לאמן חלק ממערכות הבינה המלאכותית עם נתונים חדשים בכל שבוע, מה שמבטיח שהן יישארו מעודכנות רוב הזמן. עם זאת, למרות חריצותם של המאמנים, עדיין קיים סיכון להטיות תרבותיות בנתונים המאומנים. לדוגמה, ארה"ב הייתה בחזית ההתקדמות האחרונה בתחום אבטחת הסייבר. הבעיה היא שזה נעשה כולו באנגלית, כך שמערכות בינה מלאכותית עלולות לפספס איומים המגיעים מאזורים שאינם דוברי אנגלית.
כדי להימנע מבעיה זו, חיוני לבדוק מערכות ותוכניות המשתמשות במערך מגוון תרבותי של כלי בינה מלאכותית ומעורבות אנושית כדי לכסות נקודות עיוורות פוטנציאליות.
אתגרים של הטיה אלגוריתמית
מערכות בינה מלאכותית מסתמכות על הנתונים שאיתם אומנו כדי לנקוט בפעולה מסוימת. אם נתונים אלה אינם שלמים או שיש פגמים באלגוריתם, קיים סיכוי גבוה שהדבר יוביל לתוצאות חיוביות ושליליות שגויות, יחד עם אי דיוקים.
כאשר זה קורה, הבינה המלאכותית יכולה להתחיל להזות, להציג דרכי פעולה והנחיות שנראות הגיוניות אך אינן נכונות מבחינה אתית. אם המערכת הייתה מוגדרת לפעול לפי כיוון הבינה המלאכותית ללא מעורבות אנושית, ההשלכות עלולות להיות משמעותיות וגוזלות זמן עבור החברה.
הזיות אלו יכולות להתרחש בכל עת, אך ניתן גם להימנע מהן. לדוגמה, בני אדם יכולים לאסוף ולאמת את המידע באופן קבוע, ולוודא שהכל שלם ומעודכן. הצד האנושי יכול גם לספק אינטואיציה, ולמצוא הטיות פוטנציאליות שעלולות לפגוע באלגוריתם האבטחה.
בינה מלאכותית טובה בדרך כלל כמו המידע שהוזן אליה, ולכן היא דורשת פיקוח מתמיד. אם היא נותרת ללא שינוי למשך תקופות ממושכות, האלגוריתם עלול להתיישן ולקבל החלטות שאינן עדכניות. המוח האנושי אמור להביא את ההיבט החדשני שלעתים קרובות חסר לבינה מלאכותית.
עניין ההטיה הקוגניטיבית בכוונון בינה מלאכותית
מערכות בינה מלאכותית לוקחות פרטים מורכבים ממאגר נתונים גדול כדי לקבל החלטה מושכלת ולא רגשית. עם זאת, הבעיה היא שהנתונים המסופקים לבינה המלאכותית מגיעים גם מבני אדם. מלבד הידע שלהם, הבינה המלאכותית יכולה גם לספוג הטיות פוטנציאליות שלהם או לחקות את חוסר הידע שלהם. בסופו של דבר, מערכות בינה מלאכותית הן כמו ספוג: אם למאמן הנתונים יש הטיות, יש סיכוי טוב שגם למוח המלאכותי יהיו כאלה.
לדוגמה, נניח שאתם יוצרים תוכנית אבטחה המונעת מפושעי סייבר גישה למסד הנתונים שלכם. עם זאת, אין לכם ידע בתחום אבטחת הסייבר; יש לכם רק את כישורי המחשב הדרושים כדי להרכיב אלגוריתם טוב. חוסר ידע זה יכול לבוא לידי ביטוי באלגוריתם הכתוב בעת ניבוי כיצד פושע סייבר עשוי לתקוף.
בדרך כלל מומלץ צוות מגוון כדי למנוע זאת. הם לא רק יכולים להשלים את מאגר הנתונים, אלא גם לזהות טכניקות התחמקות מסוימות שאחרת עלולות לעקוף את מערכת הבינה המלאכותית. זה יכול להפחית משמעותית פרצות פוטנציאליות ולהגן על המערכת מפני איום נסתר.
בסופו של דבר, בעוד שמערכות בינה מלאכותית יכולות להיות נכס משמעותי בהפחתת עומס העבודה בתחום אבטחת הסייבר, הן אינן יכולות לעבוד באופן עצמאי. כדי להבטיח שחברות מוגנות לחלוטין מפני איומי אבטחת סייבר, יש להשתמש בבינה מלאכותית כדי להגביר את האינטליגנציה האנושית ולא להחליף אותה. בדרך זו, ניתן למנוע טעויות יקרות וגוזלות זמן בטווח הארוך.