התפתחויות בתחום הבינה המלאכותית הובילו לעליה בשימוש בביג דאטה ו-machine learning.

המהירות בה ניתן כיום לעבד פיסות מידע היא מפתיעה בהחלט. המידע נאסף, נאגר ומנותח על מנת לשפר יעילות באופן מתמיד וליצור מודיעין שניתן לנצלו לצורך פעילויות המובילות לגידול בהכנסות. בקיצור, בעולם של היום – מידע שווה כוח.

אולם, על חברות העוסקות בטכנולוגיות לאיסוף מידע לפעול בזהירות על מנת לנווט עצמן סביב שלל המוקשים המשפטיים אשר עלולים להתעורר במסגרת פעולותיהן.

פרטיות

למרות הדעה הרווחת, הזכות לפרטיות, אשר הוכרה מזמן כזכות יסוד, (עדיין) חיה ונושמת.

בדרך כלל, חייבים לקבל הסכמה מאדם לפני שניתן לשמור, להשתמש או לשתף מידע המאפשר זיהוי אישי (Personally Identifiable Information – PII). עם זאת, לעיתים קרובות, המידע נאסף מכל רחבי העולם על ידי זחלני רשת אשר מטרתם לאגור נתונים מכל פינה ברשת האינטרנט. הבעיה היא שבכל תחום שיפוט החוקים, התקנות והפרשנויות שונים זה מזה. ההגדרה של מה נחשב ל"PII" או ל"הסכמה" עלול להיות שונה בכל מדינה ומדינה.

כמו כן, החוקים עצמם משתנים ומתעדכנים באופן תדיר. למשל, חוק הגנת הפרטיות בישראל (1981) עתיד לקבל חיזוק, הן על-ידי התקנות להגנת הפרטיות (אבטחת נתונים) 2017 (שתכנסנה לתוקף במרץ 2018, והן על-ידי החוק האירופי החדש להגנת מידע כללי ("GDPR"), שיכנס לתוקף במאי 2018. נוסף על אלה, החלו ענפים שונים, כמו ענף הבנקאות וענף שירותי הבריאות, לקבוע כללי הגנת הפרטיות משל עצמם.

היקף החוקים שיש לקחת בחשבון מהווה אתגר רציני עבור גורמים העוסקים בתחום הביג דאטה.

לא זו בלבד שיש לנו בדרך כלל את הזכות להתנגד לאיסוף מידע פרטי לגבינו, אלא שיש לנו גם זכות, בנסיבות מסוימות, למחיקת המידע (המכונה גם "הזכות להישכח") המאפשרת לנו לדרוש בשלב מאוחר יותר שמידע הנאסף לגבינו, ימחק. משמעות הדבר היא שעל חברות אשר מחזיקות ב-PII להבטיח את האפשרות לאתר ולמחוק מידע בעתיד.

בתחומי שיפוט רבים, החוק מחייב כי כל גוף המחזיק במאגר מידע לרשום אותו אצל הרגולטור המקומי הממונה על אכיפת חוקי הפרטיות – הרשות למשפט, טכנולוגיה ומידע (רמו"ט) בישראל. בהינתן הערך של מידע, זה לא מפתיע שאנו עדים למקרי פריצה רבים למאגרי מידע, הן של חברות פרטיות והן של מוסדות המדינה.

בהתאם לתקנות, על כל בעל מאגר מידע להודיע באופן מיידי לרמו"ט על כל פריצה או ניסיון פריצה למאגר המידע שברשותו. על אף שחובה זו מגבירה שקיפות, בו זמנית, ההשלכות של התקנות מובילות לחשיפה מוגברת לתביעות ולתובענות ייצוגיות, ולבעיה מבחינת יחסי ציבור. על כן, אין להמעיט בחשיבות של אבטחת PII.

אמצעי אחד בו ניתן להימנע מפגיעה על ידי מוקשי פרטיות אלה הוא להפוך את הנתונים לאנונימיים, לאחד ולסכם את כל הנתונים שנאספו, ולשמור את הכמות המזערית האפשרית.

בהתחשב בכניסתן לתוקף כבר בתחילת השנה הבאה של התקנות וה-GDPR, כל מי שעוסק בביג דאטה בישראל צריך להתחיל לפעול כבר עתה למזעור הסיכונים. ראוי לציין כי עבירה על תקנות ה-GDPR נתונה לקנסות כבדים (הקנס המרבי הוא הגבוה מבין 20 מיליון יורו או 4% ממחזור ההכנסות הגלובליות השנתי בגין שנת הכספים הקודמת) ומטילה אחריות פלילית ואזרחית.

בעלות

חברות מבינות שעל אף שמידע זה כוח, שמירת המידע באופן הדוק לא תמיד מהווה הדרך הטובה ביותר למנף ולממש את הפוטנציאל הכלכלי שבו. לעיתים קרובות חברות משתפות את המידע עם צד שלישי. למשל, בענף המכוניות האוטונומיות, יצרני מכוניות כמו חברת ב.מ.וו., משתפים נתונים הנאספים על ידם בקשר לביצועי המכוניות, לבטיחות ולהתנהגות הנהגים עם יצרני הציוד המקורי, המשתמשים בנתונים כדי לשפר את יכולות הנהיגה של המכונית. על מנת להשיג מטרה זו, יצרני הציוד המקורי משלבים את המידע שהם קיבלו מהיצרניות עם מקורות המידע הקיימים אצלם ו/או בונים מודל ללמידה עמוקה (Deep Learning) המבוסס על המידע שקיבלו.

השאלה המתבקשת היא: מי מחזיק בבעלות על הנתונים המשולבים שנוצרו משיתוף הפעולה שתואר לעיל ומי מחזיק בבעלות על המסקנות שנבעו מהמודל הנ"ל ? – בדרך כלל, נתונים מוגנים תחת חוק זכויות יוצרים. אבל, כאשר משתפים את הנתונים עם אחרים, חובה לערוך הסכם שימוש המפרט באופן ברור ומדויק את הזכויות והחובות של כל צד, הכולל את נושא הבעלות, היקף הרישיון, שמירת סודיות, הגבלת אחריות והשלכות של סיום מערכת היחסים.

תחרות

כיום, מידע נחשב פחות כתוצר ביניים ויותר כנכס כשלעצמו. חלק מהרכישות האחרונות מצביעות באופן ברור על כך שאחד השיקולים המרכזיים העומדים מאחורי עסקת רכישה הינו הפוטנציאל להשיג את הנתונים בבעלות החברה הנרכשת. נזכיר את רכישת LinkedIn על ידי מיקרוסופט בשנה שעברה בסכום של 26 מיליארד דולר, דרכה השיגה מיקרוסופט כמות עצומה של נתונים אודות תחומי העיסוק, המיומנויות ותחומי העניין של המשתמשים. אם אכן, נתונים מהווים כוח, וניתן לנצלם כדי לצמצם את התחרות, אז מהר מאוד המחוקקים וכן הגופים הממונים על תחום ההגבלים העסקיים יהיו ערים לכך שעליהם לחשוב מחדש על הגדרת כוח שוק ועל אופן מניעת פרקטיקות שעשויות להגביל תחרות. צעדים אשר ישפיעו בהכרח על אופן ההתנהלות של חברות העוסקות בביג דאטה וכן על מערכות היחסים הקיימות בשוק.

אפליה

אלגוריתמים מנתחים נתונים ומפיקים מסקנות. לכאורה, השימוש באלגוריתמים מגביר את היכולת שלנו לקבל החלטות המבוססות על ראיות, ללא השפעה של דעה קדומה. אולם, אלגוריתם יהיה אובייקטיבי אך ורק במידה שכותבו אובייקטיבי או ככל שהנתונים עצמם אובייקטיביים.

היו לא מעט מקרים של טכנולוגיה מפלה שיצרו הדים גדולים בתקשורת. שתי דוגמאות: במקרה הראשון, טכנולוגית זיהוי הפנים של Google Photos תייגה כמה אנשים אפרו-אמריקנים בתור גורילות (המומחים טוענים שזה קרה כנראה עקב מצגים בלתי מדויקים של אנשים אפרו-אמריקנים במסד הנתונים ששימש להכשיר את האלגוריתם לזיהוי תמונות). במקרה השני, "טאי", הרובוט של מיקרוסופט המבוסס על בינה מלאכותית, אשר נועד ללמוד מהתנהגויות של משתמשי טוויטר ולצייץ ציוצים בהתאם, איבד שליטה לחלוטין והחל לצייץ ביטויים גזעניים.

ישנם חוקים רבים האוסרים על אפליה, ובמקרה שהאלגוריתם לא החל לפעול על דעת עצמו בניגוד לחוק, ההסתמכות על נתונים גולמיים במקום על כוונה לא תשחרר מאחריות.

לאור העלייה בשימוש בביג דאטה בשנים האחרונות ולאור התפקיד שממלאים נתונים כתחליף לקבלת החלטות על-ידי בני אדם וככלי עיקרי במעבר לעולם המחובר, אני בטוחה שלא שמענו את המילה האחרונה מהמחוקקים ומהרגולטורים שלנו. על העוסקים בביג דאטה, אפילו בעולם המשפטי של היום, לתכנן היטב את הצעדים שלהם.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.