רולן קב ומורן בן גיגי,

10/06/2019

נושא מהותי שלא תמיד נלקח בחשבון בתכנון ובנייה של מערכות בינה מלאכותית (Artificial Intelligence, ובקיצור-AI) הוא היכולת שלנו, בני-אדם, להתמודד עם מערכות בינה מלאכותית ובעיקר לסמוך על המסקנות וההמלצות של מערכות אלו.

במחקר של MIT, נמצא כי אנשים רבים אינם סומכים על החלטות, תשובות או המלצות המתקבלות ממערכות המבוססות בינה מלאכותית. תוצאות סקר צרכנים שנעשה בארה"ב, העלו כי כאשר הציגו רשימה של שירותי AI פופולריים, דוגמת עוזרים אישיים כגון: Alexa, Siri, Google Home ועוד, תכנון פיננסי, אבחון רפואי, שכירת עובדים, 41.5% מהנשאלים ענו כי הם לא סומכים על אף אחד מהשירותים הללו. רק 9% מהנשאלים ענו כי הם סומכים על מערכות בינה מלאכותית עם כספיהם, ורק 4% סומכים על בינה מלאכותית בתהליך ההעסקה של העובדים. 

בסקר אחר נשאלו כ-2,000 צרכנים בארה"ב, "כאשר אתה חושב על AI, אילו רגשות מתארים בצורה הטובה ביותר את הרגשות שלך?" "התעניינות" הייתה התגובה השכיחה ביותר (45%), אך היא באה בהקבלה עם "מודאגים" (40.5%), "ספקני" (40.1%), "לא בטוח" (39.1%), ו-"חשוד" (29.8%). תחום ה-AI הגיע לארגונים רק בעשור האחרון אבל הקונספט של Machine Learning ו-Intelligent Systems עלה לשיח האקדמי הרבה לפני לכן, במהלך שנות ה-80.

כולם הסכימו שהצעד הבא יהיה שמחשבים יבצעו פעולות במקום בני אדם למרות אי הבשלות של התעשייה והצורך בכוח מחשוב שעוד לא היה קיים אז. כעת, אחרי שעברנו את המשוכות הטכנולוגיות ואת טבילת האש להכנסת אלגוריתמים לתהליכים בארגון, עולה נושא חדש על הפרק, שמגיע לא מהתיאוריה אלא מהשטח, ומדבר על בעיה בקבלת מערכות AI כחלק מתהליכי עבודה ארגוניים.

התחום החדש הזה, או האתגר הזה, שעולה לשיח בחודשים האחרונים, קוטלג על ידי DARPA האמריקאית (היחידה לפרויקטים מיוחדים של מחקר) בתור XAI – Explainable AI , והוא היכולת של מנוע AI להסביר מדוע ובאיזה אופן ההחלטה התקבלה. נראה כי כאשר מניחים מולנו מערכת, חכמה ככל שתהיה, שאינה תואמת את המחשבה האנושית, אנחנו מחליטים פשוט לפקפק בה.

לדוגמה, כאשר רופא מנתח מביט בצילום ורואה גידול שעל פי כל ניסיונו נראה ממאיר, ועדיין מערכת ה-AI טוענת כי מדובר בגידול שפיר, המנתח יבחר להתעלם מתשובת המערכת מתוך הנחה שהיא טועה. כשמערכת פועלת כקופסה סגורה (Black Box) ולפיכך אינה מספקת לנו הסבר, קשה לנו כאנשים להבין מדוע ואיך היא הגיעה למסקנה הזו. 

כתוצאה מכך, במידה ותשובת המערכת אינה תואמת את התשובה שלנו, האינסטינקט הראשוני שלנו יהיה להניח שהיא טעתה, בין אם מתוך מחשבה שהמערכת לא עשתה מחקר מעמיק כמונו, לא ראתה כמות מקרים כמונו או בעיקר בגלל שהמערכת לא יכולה לנהל אתנו דיון או אפילו להסביר למה ואיך הגיעה לתוצאה שאליה הגיעה. אם אדם אחר היה נותן תשובה שונה מהתשובה שלנו, היינו מאתגרים אותו ושואלים איך הוא הגיע לכך ואולי מוסיפים לו עוד פרמטרים לחשיבה שהוא לא לקח בחשבון בהתחלה.

מה ניתן לעשות? מצד אחד אפשר להשתמש במודל בינה מלאכותית (AI) יחסית פשוט שניתן להסבר בקלות ועל ידי כך יפשט את ההבנה באמצעות מעקף של המורכבות. אך, המודל הפשוט לא יצליח לפתור בעיות מורכבות. קרי, למודל AI פשוט תהיה רמת "אמינות" גבוהה אך הוא יהיה מוגבל ביכולותיו לסייע במקרי שימוש (Use Cases) מורכבים יותר.

מאידך גיסא, במידה ונרצה לנצל את מלוא הפוטנציאל והיכולות של הבינה המלאכותית נצטרך להשתמש לרוב במודלים מסובכים, שימוש במודלים מורכבים יצליח לסייע בפתרון בעיות עסקיות מורכבות, אך רמת ה"אמינות" תהיה נמוכה יותר. בנוסף לכך, יש לציין כי הערך המשמעותי עבור הלקוחות טמון במודלים המורכבים יותר.

זוהי דילמה שאנו מתמודדים עמה בכל יום ב- KPMG. יש לנו מתודולוגיה סדורה בנושא הנקראת AI in control, המאפשרת בניית אמון בתוצאות המערכת והשגת מלוא הפוטנציאל של בינה מלאכותית כמו גם קריטריונים לתכנון מערכת.

כשאנו בונים ללקוחותינו מערכות של בינה מלאכותית, זוהי סוגיה שמהדהדת ועולה בכל פגישה עליה אנחנו שמים דגש מיוחד והיא מנחה אותנו בתהליכי החשיבה. כשאנו פוגשים לקוח, אנו עוברים איתו תהליך חשיבה וזיקוק למציאת ערך עסקי משמעותי עבור הארגון שלו. חלקו הארי של תהליך מועבר במעבדת ה- AI שלנו, שנקראת גם בעולם Ignition Center. מטרתה של מעבדת ה- AI היא לייצר תהליך משולב עסקי וטכנולוגי עבור הלקוח, בבחירת כלים ופתרונות טכנולוגיים שיתנו מענה איכותי למטרות ואתגרי הארגון.

נכתב ע"י מורן בן גיגי שותף ראש תחום Data & Analytics ובשיתוף רולן קב, מנהל תחום AI, מחלקת Data & Analytics ב-KPMG סומך חייקין.