דירקטוריונים ומשקיעים צריכים להתייחס גם לנקודות התורפה ולניהול הסיכונים במערכות AI

קיים אתגר לגבי דיסאינפורמציה תוך שימוש בבינה המלאכותית | כנס לדירקטורים, מנהלים ומשקיעים של משרד ליפא מאיר ושות'

 

 

 
משתתפי כנס אתגרי הבינה מלאכותית רגולציה והסכמי ענן על שולחן הדירקטוריון, צילום: עמי פרץ משתתפי כנס אתגרי הבינה מלאכותית רגולציה והסכמי ענן על שולחן הדירקטוריון, צילום: עמי פרץ
 

מורן שקד
LinkedinFacebookTwitter Whatsapp
27/06/2023

תחום הבינה המלאכותית לוהט ומושך אליו משקיעים רבים שרוצים ליהנות מהצמיחה הגדולה של התחום והטכנולוגיות בתחום מתפתחות במהירות. בצד ההתפתחויות הטכנולוגיות המואצות והעניין הרב בטכנולוגיה, ועל רקע התפתחויות בתהליכי חקיקת חוק ה – AI האירופאי, נערך לאחרונה כנס בנושא "אתגרי ה-AI, רגולציה והסכמי ענן על שולחן הדירקטוריון" בהובלת משרד עורכי הדין ליפא מאיר ושות' בשיתוף פעולה עם איגוד הדירקטורים. 

בכנס שיועד לדירקטורים, למנהלים ולמשקיעים, בהובלתה של עו"ד ורד זליכה, שותפה וראשת תחום סייבר ובינה מלאכותית במשרד ליפא מאיר ושות', נטלו חלק בכירים ומומחים מ – Google, חברת  Team8, חברת Intuit, איגוד הדירקטורים, שירותי בריאות כללית וחברת AIDOC.

עו"ד ורד זליכה, שותפה וראשת תחום סייבר ובינה מלאכותית במשרד ליפא מאיר ושות', התייחסה בפתח הדברים לתהליכי החקיקה המואצים באירופה בתחום ה-AI, ולנושא הסטנדרטים הבינלאומיים בתחום, העומד על סדר היום הגלובאלי. לדבריה, "בימים אלו מתקיימים בפרלמנט האירופי דיונים קדחתניים באשר לרגולציה של הבינה המלאכותית, ולפי המהלכים הנוכחיים, הצפי הוא כי עשויה להיות חקיקה חדשה עד תחילת שנת 2024. באופן כללי, בדיונים על רגולציית AI ועל ניהול הסיכונים בבינה מלאכותית, עוסקים בין היתר, במענה לחשש מפני דיסאינפורמציה והפצת מידע שגוי לציבור, מניעת הטיות ואפליה אסורה, בדרישות הנוגעות לשקיפות וכן הסברתיות (של האלגוריתמים), הגנה על קניין רוחני, חוסן המערכות לסיכוני סייבר, הגנה על פרטיות ועוד. עו"ד זליכה הסבירה כי לצד הגישה האירופאית, בארה"ב ננקטת גישה זהירה יותר ביחס לאימוץ חקיקה פדרלית מקיפה חדשה, ובין היתר מתקיים שיח בין הממשל לבין חברות הטכנולוגיה שבחזית ה - AI (בהן מייקרוסופט, גוגל ו - OpenAI) בנושאים אלה. לדבריה "מטבע הדברים, ענקיות הטכנולוגיה ישמשו שחקן משמעותי בעיצוב הסטנדרטים שיחולו ביחס למערכות ה - AI ". 

באשר לאזהרות מומחים ולביקורת המושמעת בחודשים האחרונים כלפי הטכנולוגיה ציינה עו"ד זליכה, כי "הבינה המלאכותית מגלמת סיכויים וסיכונים. לצד ההתפתחויות הטכנולוגיות המואצות, מתפתחים אף כיווני הסדרה גלובאליים ורגולציה בתחום. הגם שתהליכי ההסדרה עודם בהתהוות, ניתן להצביע כבר היום על נקודות תורפה משפטיות, ורואים גם ניצנים להליכים משפטיים בעקבות השימוש בבינה מלאכותית ג'נרטיבית. דירקטוריונים, כמו גם משקיעים, צריכים לתת דעתם להתפתחויות אלה ולניהול הסיכון, בהתייחס לסוג הפיתוח או השימוש הספציפי שמוצג בפניהם ב - AI". 

אל"מ (מיל') בובי גילבורד, Chief Innovation Officer בחברת Team8 התייחס לפוטנציאל הטמון בבינה המלאכותית ולהתפתחויות הטכנולוגיות מהעת האחרונה. "אנחנו פוגשים את הבינה המלאכותית היוצרת כמעט בכל תחום בחיינו. מדובר  בתחילתה של התפתחות דרמטית, לא פחות מעידן האינטרנט שהחל בשנות ה-2000. ענקיות הטכנולוגיה כמו גוגל, מייקרוסופט כבר זיהו את ה- AI לפני כעשור ואת הפוטנציאל הטמון בה, ומאז אנחנו רואים התקדמות מואצת באלגוריתמיקה ויכולת להתמודד עם כמויות אדירות של מידע שמביאות לקבלת תוצאות ברמה גבוהה במיוחד. עם זאת לדבריו, קיימת גם מורכבות נוספת והיא הדיסאינפורמציה. "כאשר נפלטת תשובה מהבינה מלאכותית, קיים קושי משמעותי כיום להסביר את הסיבות שהביאו לתשובה. מה שהופך את ההטיה לכזו שאין לה הסבר או נימוק מה עומד מאחורי התשובה שקיבלנו. אנחנו מתקשים להגיד כיום על בסיס מה המכונה הזו אומנה כדי להגיע לאותה תשובה. זה רק אתגר אחד מתוך שלל דוגמאות נוספות בתחומי האבטחה והמשפט שעליהם יש לתת את הדעת".

עו"ד אביבית קוטלר, הממונה על הגנת מידע, סייבר ופרטיות בשירותי בריאות "כללית" התייחסה לפיתוח החדש בכללית: "כללית AI, מביא את עולם הרפואה לעידן חדש של רפואה יוזמת ומונעת, באמצעות כלי AI מגוונים. לאחרונה השקנו בכללית פלטפורמה חדשנית, פרי פיתוח עצמי של כללית, מבוסס בינה מלאכותית ((AI אשר משולב ככלי עזר במערכות המידע של רופאי ורופאות המשפחה. הפלטפורמה ששמה  C-Pi (Clalit Proactive-Preventive interventions) הינה פרויקט הדגל של אגף הרפואה בחטיבת הקהילה בכללית, בשיתוף הדוק עם מכון המחקר וחטיבת הדיגיטל. המיזם משלב ביג דאטה, בינה מלאכותית, אלגוריתם ממוחשב ומאגרי מידע רפואיים, במגמה לרכז את המידע ולהפכו לידע המנחה את הרופא לטיפול, המותאם אישית למטופל. מדובר באחת ממערכות המידע התומכות החלטה הראשונות בעולם אשר עונה על צרכים אלו ומשלבת מסד נתונים אישי מאגרי מידע ובינה  מלאכותית, לטיפול רפואי יוזם  ומניעתי מותאם אישית. באשר למעבר לשימוש במערכות AI ג'נרטיביות בעתיד, ציינה עו"ד קוטלר כי: "אנחנו מזהים את הסיכון ומנתחים אותו, ובין היתר שוקלים הקמת פלטפורמה להתנסות עם AI ג'נרטיבי, לייצר בקרות מונעות שימנעו פגיעה בפרטיות, דלף מידע או המלצות לא מהימנות. כל ארגון שעושה שימוש בבינה מלאכותית רצוי שיקים וועדת היגוי – מדובר בנושא חוצה יחידות בארגון וכולם צריכים להבין את תפקידם בשרשרת".

עידו מינץ, ארכיטקט AI בחברת Intuit הדגיש בדבריו כי "בתקופה זו, דירקטוריון של חברה שמעלה את הדאטה ל- AI צריך לבחון את הנהלים, הבקרות והמדיניות בנושא כדי להבטיח את בטיחות המידע של הלקוחות. עם הכניסה של GPT-3 וכעת 4- GPTהשינויים מתרחשים בקצב יומיומי, ולכן יש להנהלות ולדירקטורים מחויבות להבין איפה זה יפגוש אותם בעוד שנתיים-שלוש. ברגע שמחליטים להכניס מערכת AI לחברה זה לא משהו שקורה מיידית. ראוי להיערך בהתאמת התרבות הארגונית וכח האדם לצרכים העתידיים".

הכנס עסק גם במעבר של חברות לענן, הרגולציה והסיכונים הכרוכים בכך. עו"ד ורד זליכה הציגה את הדרישות הרגולטוריות לאבטחת מידע בענן, וציינה כי: "הסכמי לקוח וספק לשימוש בענן, מעבר לדרישות הרגולציה, הם גם אמצעי משמעותי לגידור סיכונים בהסדרת השימוש בענן, וכלי חשוב להתוויית חלוקת האחריות לאבטחת מידע והגנת סייבר בין הארגון המשתמש ובין ספקית הענן". 

עו"ד נעמה מטרסו קרפל, מובילת תחום אבטחת מידע וציות בישראל של ענקית הטכנולוגיה גוגל התייחסה לאופן ניהול המידע בענן, ובפרט לניהול אבטחת המידע בענן. לדבריה, "השינוי במעבר לענן הוא שינוי תפיסתי. חברה צריכה לדעת איך היא מנהלת את הדאטה שהלקוחות מאחסנים אצלה, והיא צריכה תכנון אסטרטגי עבור המעבר לענן, כיוון שבסוף היום מדובר בנכס הכי יקר של חברות וארגונים היום". מטרסו-קרפל התייחסה גם להתנהלות של החברות ושל ספקיות הענן בעת אירועי אבטחת מידע. לדבריה, "דירקטורים בהחלט צריכים להיות מעורבים יותר באסטרטגיית המעבר לענן ובאירועי אבטחה, ועליהם לשאול את ההנהלה ואת מנהל אבטחת המידע בחברה שאלות כגון - מה מצב אבטחת המידע של החברה, עד כמה החברה עמידה למתקפת סייבר והאם קיים מודל אחריות ברור בין הספקית לבין הלקוח ביחס לאירועי אבטחת מידע". היא הוסיפה כי ״גוגל נוקטת לפי מודל ״גורל משותף״, המבטא את המחויבות שלה לספק מגוון של פתרונות אבטחת מידע, שיטות וכלים עבור הלקוחות, כדי לסייע להן להתגונן ולהגיב בצורה טובה יותר במקרה של אירוע אבטחה״. 

מר יובל שגב, ראש פורום הסייבר באיגוד הדירקטורים ומנהל הגנת סייבר בחברת AIDOC ציין בדבריו כי "על פי המחקר האחרון של מקינזי, רק כ – 13% מהדירקטוריונים קיימו דיון בנושא הענן. חשוב להבין שני דברים עיקריים בהקשר זה. האחד, השאלה שהדירקטוריון צריך לשאול את עצמו אינה האם הארגון משתמש בבינה מלאכותית ובענן, וגם לא האם הוא צריך להשתמש. הוא בוודאי משתמש כבר היום. והדבר השני, השימוש בטכנולוגיות אלו, איננו דיון טכנולוגי, אלא דיון עסקי אסטרטגי, אשר לא ניתן להשאירו לאנשי הטכנולוגיה בארגון". 

x