דלג לתוכן

ניהול סיכונים במודל FMEA לשימוש ההולך וגובר בבינה מלאכותית

מאת אמנון מרגלית – חבר סגל מרצים – מכללת מסד

 

מהי בינה מלאכותית?

בינה מלאכותית או AI  הוא מושג המתאר אינטליגנציה (תפיסה, סינתזה והסקת מידע) המוצגת על ידי מחשבים, השונה מאינטליגנציה אנושית המגובשת ע"י בני אדם.  זהו ניסיון להעניק למחשבים   אפשרות לדמות את יכולות החשיבה האנושית באמצעים טכנולוגיים, למשל, באמצעות למידת מכונה.  התחום הוא ענף של מדעי המחשב, העוסק ביכולת לתכנן תוכנות ומחשבים לפעול באופן המציג יכולות השואפות להתקרב להתנהגותה של הבינה האנושית.

ראשית דבר

ביל גייטס, ממייסדי מיקרוסופט ומהמשקיעים של OpenAI, התייחס לכניסת הבינה המלאכותית לחיי היום-יום ושיבח אותה: "משנה את העולם".

הוסיף ביל גייטס וציין : "בוודאי שמעתם על הבעיות עם מודולים של  AI הנוכחיים, כמו למשל שהם לא מבינים בבירור את הבקשות של בני האדם, מה שמוביל לתוצאות מוזרות. אם תבקשו מהמודל להמציא סיפור בדיוני הוא יעשה זאת נהדר, אך אם תבקשו ממנו לתכנן עבורכם טיול ייתכן והוא יציין, לדוגמה, בתי מלון שלא קיימים. זה קורה מכיוון שהבינה המלאכותית לא מבינה את ההקשר בבקשתכם והאם היא צריכה להמציא מלונות או לבדוק איזה מהם אמיתיים ויש להם חדרים פנויים".

מצד שני, עפ"י פרסומים, יותר מאלף ממומחי הבינה המלאכותית ומדעני המחשב המובילים בעולם, ביניהם גם אילון מאסק, דורשים לעצור לחצי שנה לפחות פיתוח של מערכות בינה מלאכותית, שכן הן מהוות "סיכון מהותי לאנושות".

דו"ח של כלכלני גולדמן סאקס מעריך כי העובדים בעלי הפוטנציאל הגבוה ביותר להיפגע מהבינה המלאכותית הם עורכי דין, מהנדסים ואדריכלים בעוד שעובדי כפיים לא יפגעו כמעט.

רציונל המאמר

יישומי הבינה המלאכותית (AI) מציפים אותנו לאחרונה מכל עבר. יחד עם הסבר שימושי היישומים השונים ולצד ההזדמנויות שניתן להפיק מהשימוש ביישומים אלו, מזהירים אותנו חדשות לבקרים מהסיכונים העולים מההסתמכות על תוצאות השאילתות השונות שניתן לבקש מהבינה המלאכותית.

FMEA (ניתוח מצב כשל והשפעתו) היא מתודולוגיית חשיבה מבוססת סיכונים לרבות בעולם האיכות הנמצאת בשימוש נרחב בתעשיות רבות כדי לזהות, להעריך ולצמצם סיכונים וכשלים פוטנציאליים במוצר או בתהליך. במאמר זה אנסה להראות את הדרך להחיל את ניתוח הסיכונים במתודולוגיית FMEA על מערכות AI כדי לנסות להבטיח את בטיחותן ואמינותן ע"י פעילות בקרה יזומה.

יחד עם סיכונים שאותם אמנה במאמר, לא אנסה לקבוע את ההסתברות של הכשל הפוטנציאלי PROBABILITY)) , חומרת הסיכון (SEVERITY)  ויכולת גילוי הכשל (DETECTABILITY) שהם בסיס לחישוב מספר הסיכון (RISK PROBABILITY NUMBER – RPN),

מאפייני סיכון אלה שונים מתעשייה לתעשייה ואפילו מארגון לארגון ויש לבצעם כחלק מתהליך ניהול סיכונים פנים ארגוני תוך כדי דיון משותף (סיעור מוחות) של כל הנוגעים בנושא ניהול סיכונים.

מתודולוגיית FMEA לניתוח סיכוני AI

  1. הגדרת נושא – בשונה מניתוח תהליך במתודולוגיית FMEA שבו בשלב זה תתבצע פריסת תהליך (לדוגמה מודל SIPOC ) הגדרת התחום שבו נעשה שימוש בבינה מלאכותית הכולל סיכונים יאפשר ניתוח רב תחומי לשימושי הבינה המלאכותית.
  2. זיהוי מצבי הכשל הצפויים בשלב זה יפורטו כל מצבי הכשל הפוטנציאליים עבור השימוש בבינה מלאכותית בתחום האמור. אלה יכולים להיות כשלים בארבעת ה M ( שיטות, אנשים, ציוד או חומר), בעיות באיכות הנתונים או טעויות אנוש. להלן אציע מספר כשלים פוטנציאליים שעלול השימוש ביישומי בינה מלאכותית ליצור :

 

  • אובדן משרות עקב אוטומציה של בינה מלאכותית: בינה מלאכותית יכולה להחליף עובדים אנושיים במשימות ובמגזרים רבים, מה שמוביל לאבטלה, אי שוויון בהכנסות ותסיסה חברתית.
  • אתגרים אתיים ומשפטיים: בינה מלאכותית יכולה להעלות סוגיות אתיות ומשפטיות כגון פרטיות, הסכמה, אחריותיות, הטיה, אפליה וכבוד האדם.
  • שימוש זדוני בבינה מלאכותית: ניתן להשתמש בבינה מלאכותית למטרות מזיקות כגון מתקפות סייבר, יצירת ידיעות כזב, קמפיינים של דיסאינפורמציה, מניפולציה דיגיטלית וכלי נשק אוטונומיים.
  • השלכות לא מכוונות של בינה מלאכותית: לבינה מלאכותית יכולות להיות תוצאות בלתי צפויות או בלתי רצויות שקשה לחזות או לשלוט בהן, כגון תאונות, טעויות, כשלים או חוסר התאמה לערכים אנושיים.
  • הטעיה והטיה : טעויות בנושאים מהותיים והסתמכות עליהם בביצוע פעילויות עסקיות עלול להביא לתוצאות כספיות שליליות לארגון.
  • טבלת מודל FMEA לדוגמה:

  1. ביצוע חשיבה תוצאתית כדי לחזות את הנזק הצפוי מכל אחד מהכשלים. ניתן להתחשב בעוצמת הנזק ובהשפעתו על פעילות הארגון או המערכת.
  2. כבר בשלב זה מומלץ לבצע ניתוח סיבת שורש לכשל הצפוי. ניתן להשתמש במודלים שונים לניתוח סיבות השורש כמו דיאגרמת עצמות דג, שיטת 5 למה, שיטת פריסת תהליך (SIPOC) או כל מודל מתודולוגי אחר. ניתוח זה יאפשר בשלב מאוחר יותר הגדרה נכונה של פעילויות בקרה למזעור או ביטול הסיכון.
  3. הערכה בנתון כמותי את החומרה של כל מצב כשל. הערכה זו כרוכה בקביעת ההשפעה הפוטנציאלית של כל כשל מהכשלים שיגובשו לשימוש בבינה מלאכותית על מערכת או תהליך, כמו גם כל ההשלכות הבטיחותיות או המשפטיות.
  4. יש לשער את הסבירות שבה צפוי כשל זה או אחר להתרחש תוך התחשבות בתדירות האירוע, בחזרתיות שלו  ובסיבות הפוטנציאליות.
  5. אפיון יכולת הגילוי של ארגון או מערכת לזהות מצבי כשל אלו תוך התחשבות בהערכת היכולת לזהות את מצב הכשל לפני שהוא גורם נזק.
  6. הכפלה של ההערכות הכמותיות שגובשו בסעיפים 3, 4 ו – 5 הנ"ל תאפשר לקבוע את מספר הסיכון (RPN) של כל אחד מהכשלים וכך ליצור תיעדוף פעולות בהתבסס על החומרה, הסבירות ויכולת הזיהוי של כל מצב כשל.

 

 

 

 

 

 

 

 

 

גלול כלפי מעלה