דלג לתוכן

חוק הבינה המלאכותית האירופי – מבט משולב עם תקינה ועם אתיקה במכללת מסד

מאת אמנון מרגלית-מרצה-מכללת מסד, מרכז ידע לאיכות ומצוינות

 

פתח דבר

הבינה המלאכותית פרצה לחיינו בסערה והוגדרה לא אחת כ"מהפכה התעשייתית הרביעית". בדומה למהפכות טכנולוגיות קודמות, היא משנה את הכלכלה, החברה ואת עולמות העבודה והחינוך. לצד ההזדמנויות כמו יעילות, חדשנות, אוטומציה ושיפור תהליכים מתעוררות גם שאלות מהותיות של סיכון, אתיקה ורגולציה.
האיחוד האירופי היה הראשון בעולם שהצליח למסגר בחקיקה כוללת את נושא הבינה המלאכותית באמצעות חוק הבינה המלאכותית של האיחוד האירופי שנכנס לתוקף בראשית אוגוסט 2024. חוק זה מגדיר מדרג סיכונים ליישומי בינה מלאכותית מחובות שקיפות ועד לאיסורים מוחלטים וקובע מסגרת מחייבת ליישום ולבקרה.

במאמר זה נבקש להציב את החוק החדש בהקשר רחב יותר לצד עקרונות התקינה בתחומי האיכות ולצד הכללים האתיים שמלווים את הוראת תחום הבינה המלאכותית במכללת מסד.

 

חוק הבינה המלאכותית האירופי עם חשיבה מבוססת סיכון

חוק הבינה המלאכותית האירופי פועל לפי עקרון יסוד בניהול סיכונים ככל שרמת הסיכון גבוהה יותר כך נדרשים מנגנוני בקרה והגבלות נוקשים יותר. החוק יוצר ארבע קטגוריות סיכון:

  1. מערכות אסורות לשימוש –  כלים המבצעים מניפולציה פסיכולוגית, ניצול פגיעויות, ניקוד חברתי, זיהוי פנים ללא הרשאה, הערכת סיכון פלילי או הסקת רגשות.
  2. מערכות בסיכון גבוה –  יישומי בינה מלאכותית בתחומי תשתיות קריטיות, בריאות, חינוך, תחבורה, משפט והגירה.
  3. מערכות בסיכון מוגבל –  צ'אט בוטים וכלים ליצירת תוכן מלאכותי כגון תמונה קול או טקסט הכפופים לחובת שקיפות.
  4. יתר המערכות – מערכות נטולות סיכון מהותי שאינן כפופות לדרישות רגולציה מיוחדות.

החוק מטיל חובות רגולטוריות משמעותיות כולל הערכת תאימות, ניהול סיכונים, שמירת תיעוד לעשר שנים, מנגנוני שקיפות ופיקוח אנושי. מנגנוני אכיפה ברורים הוגדרו עם קנסות שעשויים להגיע עד 35 מיליון אירו או שבעה אחוזים מהמחזור העסקי של החברה.

תקינה באיכות מול חוק הבינה המלאכותית

עולם ניהול האיכות מתבסס על מערכות תקינה בינלאומיות ובראשן סדרת תקני ISO 9000 המהווים מסגרת גלובלית לניהול איכות תוך דגש על שקיפות, עקיבות, ניהול סיכונים ושיפור מתמיד.
בדומה לכך חוק הבינה המלאכותית האירופי אינו מתמקד רק במניעה של שימושים מסוכנים אלא גם בהבטחת אמינות של המערכת. למעשה ניתן לראות בחוק הבינה המלאכותית האירופי מעין תקן איכות ייחודי ליישומי בינה מלאכותית אשר נבנה בגישה מקבילה למבנה המוכר לנו מ Annex SL הכולל מדיניות, ניהול סיכונים, הערכות תאימות, תיעוד ובקרה.

שילוב העקרונות מראה כי:

  • בניהול איכות הסיכון נתפס כחלק מתהליך של שיפור מתמיד המבוסס על PDCA .
  • בחוק הבינה המלאכותית האירופי הסיכון נתפס כבסיס לאסדרה רגולטורית מחייבת.

כך נוצר חיבור טבעי בין עולמות התקינה לבין הרגולציה האירופית וניתן לצפות כי בעתיד נראה תקני איכות ייעודיים ליישומי בינה מלאכותית. כבר כיום מתפתחים תקני ISO ו IEC 42001 לניהול מערכות בינה מלאכותית.

 

האתיקה במכללת מסד היא מצפן לשימוש אחראי

במכללת מסד אנו מדגישים לצד הבנת הטכנולוגיה גם אחריות ואתיקה בשימוש ביישומי בינה מלאכותית. עקרונות האתיקה הנהוגים אצלנו כוללים:

  1. שקיפות –  כל תוכן שנעשה בו שימוש ביישומי בינה מלאכותית חייב להיות מסומן ומוסבר.
  2. שמירה על זכויות יוצרים –  אין לעשות שימוש בתוצרים מלאכותיים מבלי לתת ייחוס ראוי או תוך פגיעה בזכויות קניין רוחני.
  3. הוגנות ואי הפליה –  שימוש ביישומי בינה מלאכותית חייב להיעשות תוך בדיקה שהפלטים אינם מפלים קבוצות אוכלוסייה ואינם פוגעים בכבוד האדם.
  4. אחריות אישית ומקצועית –  האחריות על שימוש בתוכן המופק באמצעות יישומי בינה מלאכותית היא של האדם המשתמש ולא של המערכת.
  5. למידה ביקורתית –  סטודנטים נדרשים להפעיל שיפוט ביקורתי ולא להסתמך באופן עיוור על פלטים של יישומי בינה מלאכותית.

עקרונות אלו מיישרים קו עם רוח חוק הבינה המלאכותית האירופי ועם גישות התקינה הבינלאומית ומשלבים אחריות מקצועית עם אתיקה חינוכית.

 

סוף דבר

חוק הבינה המלאכותית האירופי הוא ציון דרך עולמי בניסיון לאזן בין חדשנות לטובת האנושות לבין הגנה על זכויות אדם ובטיחות. שילובו עם עולם התקינה בתחומי האיכות יוצר מסגרת כפולה של בקרה רגולטורית מצד אחד וולונטרית מקצועית מצד שני. במכללת מסד אנו רואים באתיקה חלק בלתי נפרד משימוש ביישומי בינה מלאכותית ומקשרים אותה באופן טבעי לעולם התקינה ולניהול האיכות.

העתיד שייך לאלו שידעו להשתמש ביישומי בינה מלאכותית לא רק ביעילות אלא גם באחריות מתוך שילוב של רגולציה תקינה ואתיקה.

 

 

גלול כלפי מעלה