The Tenth Privacy Conference

May 4, 2023

The Sonia and Edward Kossoy Conference Room (307), Buchmann Faculty of Law

תקצירים: 

 

אמור לי מי חבריך ואומר לך מי אתה – פרטיות ותפיסת העצמי

מר יובל גולדפוס

ההבנה של המושג "פרטיות" נתונה במחלוקת בקרב חוקרים ולכן הוצעו לפרטיות הגדרות רבות ושונות.  לטענתי, ניתן לפתור חלק נכבד מן המחלוקות אם התיאוריות השונות להבנתה יעמדו במספר קריטריונים: ראשית, יש להגדיר את מושא הפרטיות. שנית, יש להבחין בין פרטיות לבין הזכות לפרטיות. שלישית, יש להבחין בין האמצעים להשגת פרטיות לבין הערכים העומדים ביסודה. בהרצאה זו אציע הבנה פילוסופית של הפרטיות העונה על דרישות אלה.

בקצרה: ראשית, יש להבין את מושא הזכות לפרטיות באופן יחסני (relational) ולא אטומיסטי. לפיכך, על מנת להבין את תודעת האדם יש להתבונן בקשריו לעולם במקום לנסות להבינו במנותק  מסביבתו. אאמץ את הגותו של ג'ורג' הרבט מיד, לפיה לאדם מספר רב של תפיסות עצמי, או זהויות (self), ואטען כי פרטיות נוגעת להבחנה ביניהן. שנית, בעוד תיאוריות רבות אינן מבחינות בין פרטיות לבין הזכות לפרטיות, אטען כי פרטיות היא מצב קיומי ויש להבחין בינה לבין הזכות להגיע או לשמור על מצב זה. שלישית, אטען כי עלינו להבחין בין תיאוריות המציעות דרכים להשגת פרטיות, כגון אלה המבינות פרטיות כשליטה במידע או בגישה (access), לבין הערכים העומדים ביסוד הזכות לפרטיות. לטעמי, הערכים העיקריים העומדים ביסוד הפרטיות הם כבוד (הן סגולי והן מחיה) אוטונומיה, ואמון.

 

 

פרדוקס הפרטיות עולה לענן

ד"ר אושרי בר-גיל

לאורך ההיסטוריה, שינויים טכנולוגיים עיצבו מחדש את שאלות הפרטיות בהתאם לטכנולוגיות של זמנן (Lynch, 2016). בעשור האחרון ניכרת עליה דרמטית בשימוש בפלטפורמות טכנולוגיות המבצעות מעקב חודרני ומקיף ומאתגרת את פרטיות המשתמשים בהם, עליה העומדת בסתירה לחשיבות השמירה על הפרטיות כפי שמצהירים עליה המשתמשים (Madden & Rainie, 2015). סתירה זו, בין עמדות המשתמשים להתנהגותם בפועל במסירת פרטי המידע הפרטיים והאינטימיים שלהם לחברות הטכנולוגיה, כביכול ללא תמורה, מכונה בספרות "פרדוקס הפרטיות"  (Barnes, 2006; Kokolakis, 2017)  ועומדת במוקד המחקר שיוצג.

המחקר הינו חלק מתוכנית מחקר רחבה יותר אשר בוצעה בשיטה של אתנוגרפיית רשת והתבססה על כריה וניתוח ביקורת משתמשים בשירותי הפלטפורמה של גוגל כפי שאלו הופיעו בבלוגים, ספרים ובמחקרים אקדמיים. המחקר נועד להבין טוב יותר את השפעות השימוש בפלטפורמות דיגיטליות על תפיסת העצמי. אחד הפרקים במחקר עוסק בתפיסת הפרטיות המשתנה בעקבות השימוש בפלטפורמות, תפיסה אשר עשויה לספק הסבר לפרדוקס הפרטיות.

מממצאי המחקר עולה שבכדי להתמודד עם היצף המידע וקבלת ההחלטות הנדרשות מאיתנו בימינו, המשתמשים מאצילים חלק מתהליכי העיבוד וקבלת ההחלטות שלהם לפלטפורמות הטכנולוגיות. חשבו למשל על קבלת ההחלטות באיזו דרך לנסוע לעבודה (Waze), בחירת מסעדה בעיר זרה (Maps Google), איזה ידיעה חדשותית תעניין אותם (Google News) או אפילו מהו הסרט הבא שיצפו בו (Youtube, Netflix). האצלה זו מאפשרת להם לחסוך משאבי קשב וקבלת החלטות, אך בכדי שהתהליכים הקוגניטיביים המתבצעים בשילוב הפלטפורמות הטכנולוגיות יצליחו להגשים מטרות אלו   הם מעוניינים בהתאמה אישית (פרסונליזציה) מרבית של השירותים הללו. על מנת להשיג את הפרסונליזציה המיוחלת, המשתמשים נדרשים לתת לפלטפורמות גישה גם לזיכרונות החשובים ביותר שלהם, הזיכרונות אותם ניתן לכנות כ"פרטיים", אותם הזיכרונות שלא ירצו לחלוק או לתת גישה לאנשים אחרים – זאת במטרה שהפלטפורמה "תזכור" אותם, במובן של לתת להם להשפיע על פעולותיהם העתידיות. במילים אחרות, פרסונליזציה של שירותי גוגל דורשת מהמשתמשים לוותר על פרטיותם בתמורה לשירותי ההאצלה הקוגניטיבית שהם מקבל ממנה, שירותים אשר מאפשרים להם חיים קלים ונטולי חיכוך בעולם המידע המודרני.

המשגה זו מאפשרת לנו לראות כי פרדוקס הפרטיות הוא סוג של דילמת סוכן, כפי שזו מוכרת מעולם הכלכלה (Grossman & Hart, 1983) – אם שירותי גוגל פועלים עבור המשתמש ובשמו, ברור מדוע המשתמש לא יכול למדר או לנקוט פעולות ערפול (Brunton & Nissenbaum, 2015) מבלי שהדבר יפגע בו עצמו. מאידך, המשתמשים מבינים שהאינטרסים של ה"סוכן" ושלהם לא בהכרח תואמים ולכן צריך להיזהר בגילוי המידע. בייחוד כאשר מדובר בממשק מידע  עם גוגל, חברה מסחרית אשר מתבססת בין היתר על הכנסות מפרסום (Zuboff, 2018).  לאור הנוחות, הנגישות, הזמינות והצורך -  המשתמשים מוכנים להקריב את פרטיותם.

לטענתי תפיסה זו, המתבססת על ניתוח מעוגן במידע של מניעי המשתמשים, מאפשרת הבנה טובה יותר של פרדוקס הפרטיות ותאפשר תכנון מותאם של ממשקי פרטיות והתערבויות נוספות לשיפור הפרטיות של המשתמשים במערכות דיגיטליות בכלל ובשירותי הפלטפורמות הדיגיטליות באופן ספציפי.

 

 

"כשאתה אומר כן, למה אתה מתכוון? הכשל במודל הרגולטורי הקיים ופתרונות טכנולוגיים מוצעים"

גב' בר פרגון מזרחי

כאשר אנו חותמים על חוזה שכירות לדירה, למרות שמדובר בחוזה זמני של שנה, בדרך כלל נקרא את ההסכם ואת תנאיו לעומק ונערוך משא ומתן עם המשכיר על התנאים השונים. אולם, כאשר אנחנו חותמים על חוזה אחיד דיגיטלי עם ספקי אפליקציות, אשר הקשר בינינו לבין האפליקציה עשוי להיות ממושך )בדומה לקשר בינינו לבין פייסבוק שנמשך עבור חלקנו כבר שני עשורים(, אנו חותמים בצורה אוטומטית
על התנאים, מבלי לעיין בהם כלל. התנהגות זו טומנת בחובה סכנות, מאחר ופעמים רבות בתוך אסופת העמודים שכוללים ההסכמים, מסתתרות הוראות בעייתיות מבחינה נורמטיבית, בין היתר, ביחס למידע פרטי אודות המשתמשים ו הגבלת פעולות משפטיות. בשל כך, הכלי המשפטי של הסכמי שימוש והסכמי פרטיות למעשה מגביר את פוטנציאל הפגיעה בזכויות המשתמשים מכוח הסכמה מצדם לשימוש באפליקציה.
מאמר זה י ערוך דיון נורמטיבי ביחס לפתרונות הטכנולוגיים לכשל במודל הרגולטורי הקיים, אשר מתבסס על מתן הודעה וקבלת הסכמה לשימוש באפליקציות. המאמר יפתח בדיון מעמיק שיסקור את הספרות בנוגע לתופעה של אי קריאת תנאי השימוש ומדיניות הפרטיות והאופן בו משתמשים תופסים הסכמים אלה. בהמשך ידון המאמר בפתרונות הטכנולוגיים המרכזיים שהוצעו עד כה להנגשת ההסכמים למשתמשים, תוך הצגת היתרונות והחסרונות שקיימים בכל פתרון והערכת האפקטיביות שלו. לבסוף, יוצע פתרון לסוגיה בדמות של מדד מספרי להערכת מידת ההגנה של האפליקציות על מידע המשתמש. הדיון הנורמטיבי המוצע יוכל לסייע לחוקרים בתחום לקבל תמונה מקיפה על הבעיה במתן הודעה וקבלת הסכמה מעת המשתמשים ובעניין הכלים לטיפול בה. בכך ישמש המאמר כתשתית רעיונית ראשונית ויפתח פתח למחקרים נוספים בתחום.

 

 

טכנולוגיה משמרת פרטיות למיזוג נתונים

ד"ר דנה תורג'מן

מיזוג נתונים הוא שם כללי לטכניקות המשלבות מסדי נתונים שונים על מנת להגיע לתובנות מדויקות, ייצוגיות, ושימושיות יותר. הבעיה היא, שמיזוג נתונים עלול להוביל לפגיעה בפרטיות של אנשים המיוצגים באחד או יותר ממסדי הנתונים. זאת, גם אם מסדי הנתונים נחשבים "אנונימיים". 

במאמר זה אנו בונים מתודולוגיה משמרת פרטיות למיזוג נתונים, שמבוססת על "פרטיות דיפרנציאלית". מיזוג הנתונים עצמו מבוסס על טכניקות גנרטיביות מעולם למידת המכונה, ואינו דורש הנחת הנחות מקדימות על התפלגויות הנתונים. 

אנחנו מציגים סדרה של סימולציות שמראות את יכולות המתודה גם לשמר פרטיות וגם לייצר דיוק גבוה במיזוג נתונים, ע"י שילוב פרמטרים שיאפשרו לשלוט ברמת הפרטיות הרצויה. בנוסף, נציג דוגמה של מיזוג נתוני לקוחות מחברת תקשורת מובילה בצפון אמריקה, יחד עם נתונים מסקר שביעות רצון חיצוני אנונימי, שמודד את שביעות הרצון של לקוחות אותה החברה. דוגמה זו מאפשרת לנו להדגים את ההיתכנות העסקית בשימור פרטיות תוך השגת יעדים עסקיים של העלאת שביעות רצון לקוחות, ומציאת הקשר בין שביעות רצון לבין הסיכוי לעזוב את שירותי החברה. המתודה שלנו מאפשרת להתמודד עם הטיית הבחירה - ואכן אנחנו מוצאים שאנשים "קיצוניים יותר" בשביעות הרצון שלהם, הם גם אלו שיותר סביר שיענו על הסקר, ולתקן הטיה זו בניתוח התוצאות. 

בסדנה זו, בשל רוחב היריעה, אעלה בקצרה גם סוגיות הנוגעות לאתגרים והזדמנויות במתודולוגיות משמרות פרטיות באופן כללי - סוגיות משפטיות, סוגיות התנהגותיות וכו'.

 

 

הערכת פרטיות דיפרנציאלית של משתמשים במערכות סחר בנתונים

מר מיכאל חבקין

פרטיות דיפרנציאלית פותחה כתכונה של מנגנונים המשמשים לפרסום מידע מצטבר על מאגרי נתונים של אנשים המגבילה את כמות המידע שגורם חיצוני יכול להסיק אודות אדם יחיד במאגר זה. פרטיות דיפרנציאלית משמשת גם בסביבות סחר בנתונים, שבהן אנשים סוחרים בנתונים האישיים שלהם תמורת תשלום. הנכונות של משתמשים לשתף נתונים תלויה, בין היתר, בגורמים הקשריים, כגון חששות פרטיות, תועלת אישית, סוג הנתונים המשותפים וכו'. המטרה העיקרית של סביבות כאלה היא להגביר את תועלת הנתונים עבור מדעני נתונים, מצד אחד, ולהגן על פרטיות הפרטים, מן המצד האחר, תוך מיקסום הרווחה החברתית של המערכת כולה. בעבודה זו חקרנו את הפשרות בין הערכת הפרטיות הדיפרנציאלית של המשתמשים לבין העדפות שונות שלהם במסגרת תרחישי סחר בנתונים. בצורה זו, חיקינו את תהליך קבלת ההחלטות של אנשים תחת משימות בחירה שונות, כדי להבין אילו גורמים מכריעים בהחלטתם לשתף נתונים אישיים. מצאנו כי אנשים דרשו תשלומים נמוכים יותר מאוסף הנתונים עבור שיתוף הנתונים שלהם, ככל שסופקה פרטיות דיפרנציאלית חזקה יותר. במונחים של הערכת פרטיות דיפרנציאלית, ראינו שאנשים הציגו השקפה פרגמטית, תוך התמקדות ברווח האישי שלהם ובאופן עיבוד הנתונים שלהם, ולאו דווקא בסוג הנתונים המשותפים. מעצבי מערכות לניתוח נתונים יכולים להשתמש במסקנות אלו כדי לכוון בצורה מדויקת יותר את הפרטיות הדיפרנציאלית עבור סביבות סחר בנתונים.

 

 

Realizing the Dream of Decentralized AI

Prof. Katrina Ligett& Dr. Tomer Shadmy

This article exposes the emancipatory potential as well as the limitations of decentralized architectures of Machine Learning (ML) in affording and realizing individual privacy and public interests.
In the contemporary status quo, ML requires the collection of huge amounts of data and their transfer to central servers for training. During this process, individuals are exposed to various privacy vulnerabilities. The trained models, made from individuals’ data but without their active involvement, are then used to shape their future constraints and opportunities. Furthermore, only a small number of companies have the means to manage this data- and compute-intensive mode of production.
Federated Learning, (FL) a novel decentralized architecture for ML, has the potential to disrupt this status quo.5 In an FL architecture, the training process occurs on individuals' devices, and only “updates” to a preliminary model are then transferred to central servers. This transformation of learning from central servers to individuals' devices could enable learning with stronger privacy guarantees. It could furthermore provide individuals with a say in what of their data is collected, what it is used for, and how. It could enable multiple actors to build a common, robust ML model without sharing data. As such, FL could open up new modes of collaboration, competition, and innovation. However, the particulars of contemporary deployments of FL in the industry remain far from this vision. Data storage and computation can be decentralized, but that does not mean that individuals are automatically getting better privacy. Learning can happen on individuals' devices, but that does not mean they know, choose, or benefit from whatever is being learned. FL's infrastructure is still closed and proprietary, with no opportunities for new entrants to make use of the distributed data.
Herein lies the opportunity and the call to action. Building an understanding of the ways in which contemporary FL falls short of its disruptive potential can open up space for imagining the technological, regulatory, and societal conditions that might better support realizing the vision. The paper explores such conditions and advocates for new structures for data sharing and for collective decision-making that would support pluralistic modes of data collaboration. Although decentralized ML holds great promise, without new structures there is a risk that it could not only fail to guarantee privacy but could assist in circumventing data protection regulations, and it could strengthen established actors instead of opening markets up for new competition and cooperation.

 

 

הגנת הפרטיות בתא המשפחתי – האם יש מקום לבחינה ייחודית?

פרופ' בנימין שמואלי

חוק הגנת הפרטיות מציג עוולה פרטיקולרית. עוולות פרטיקולריות מתייחסות לסוג התנהגויות מוגדר ומגֵנות על אינטרסים ספציפיים. כשיסודות העוולה מתמלאים ואין הגנה, אין מקום לשיקולי מדיניות משפטית שמונעים את קבלתה, שכן המחוקק לא אִפשר מרחב תמרון לבית-המשפט, למעט כשישנה בחוק החרגה מפורשת. לעומת זאת, רשלנות, כעוולת מסגרת, חלה על אין-ספור התנהגויות, ולכן התנהגות ספציפית התרשלותית יכולה להיחסם מטעמי מדיניות וכך אכן עשתה הפסיקה כשחסמה, בשנים האחרונות, כמה תביעות נזיקין במשפחה, בהן בגין בגידה, אי-גילוי נטייה מינית והונאת אבהות.

יש  והחקיקה מחריגה עוולה פרטיקולרית מיחסי נישואין (כך בגרם הפרת חוזה). אך לא כך נעשה בחוק הגנת הפרטיות. ואכן, שורת תביעות להפרת פרטיות במשפחה נדונו ולא נחסמו בשנים האחרונות, על-רקע חדירה לסמארטפון, הצבת מצלמות בבית וצילום במצבים אינטימיים להוכחת בגידה ועוד.

המטרה המרכזית שבהקמת בית-המשפט לענייני משפחה, שם נדונות תביעות נזיקין במשפחה, היא יישוב סכסוכים בדרכי שלום ולאו דווקא צדק מתקן ופיצוי הנפגע מעוולה. לאור מטרה זו, יש לבחון אם יש מקום לשיקולי מדיניות גם בתביעות בגין הפרת הפרטיות במשפחה, אף שאינן נשענות על עוולות מסגרת. אם התשובה חיובית, האם על התביעה להיחסם, אף אם הוכחו יסודות הפרת הפרטיות, או שעל בית-המשפט להיות יצירתי ולהציע, במקרים המתאימים, סעדים רכים ולא שגרתיים, כגון אלה הקיימים בתחום הקרוב של לשון הרע (וגם ברשלנות רפואית בארצות-הברית), כדוגמת התנצלות והבעת חרטה בכתב, כסעדים בלעדיים, אף שלא נתבקשו בכתב-התביעה (אך קיימים בדרך-כלל בהליכים חוץ-משפטיים), ולחלופין כסעדים משלימים לצד הפיצויים הכספיים, שיביאו להפחתתם?

אחד ממקרי-המבחן שיידונו הוא תביעה של אב נגד בנו, שהיה בנתק ממושך עמו. כשהבן עמד להינשא, החליט שלא להזמין את אביו לחתונה אך ציין את שמו על ההזמנה. האב הגיש תביעה בגין עשיית רווח באמצעות השימוש בשמו ללא הסכמתו. מעבר לדיון ביסודות הפרת הפרטיות ובהגנות, ובין היתר בשאלה אם ציון שם האב על ההזמנה, למניעת שאלות מיותרות של מוזמנים, הוא סוג של רווח במשמעות חוק הגנת הפרטיות (בשונה ממקרה ברור של עשיית רווח מסחרי בשימוש בשם ללא הסכמה), הגיוני שהאב-התובע אינו מעוניין בסעד כספי, אף שזה הסעד שביקש בעצמו בכתב-התביעה.

האם על בית-המשפט: (א) לדחות את התביעה, כדי לא להסלים את המצב יותר, מטעמי מדיניות משפטית הקשורים במשפחה, אף שמדובר בעוולה פרטיקולרית?; (ב) להרחיב את הגנת "מעשה של מה בכך" בנסיבות הסכסוך המשפחתי, וכך לדחות את התביעה?; (ג) לחזור למטרת הקמת בית-המשפט לענייני משפחה, לשים את הטכניקה המשפטית "בצד", לשמש כמעין מגשר ולבחון את רצונו האמיתי של האב-התובע: נקמה, הכנעה, ואולי בכלל ניסיון לפיוס, שהביאוהו להשתמש בכלי המתאים אמנם טכנית, אך שאינו מתאים מהותית לפתרון הסכסוך? ואז, היוכל בית-המשפט להציע סעדים רכים, שאינם מופיעים בחוק הגנת הפרטיות, כסעדים יחידים או משלימים?

 

 

פרטיות בעבודה – הבסיס לשמירה על זכויות עובדים?

ד"ר תמי קצביאן

מחקר זה מבקש לטעון כי בעידן המודרני, בו ניתן לבלוש בקלות אחר המרחב האישי של העובדת, לאסוף נתוני עתק (ביג-דאטה) על עובדים ולנתח ולהסיק מהם מסקנות באמצעות טכנולוגיות של בינה מלאכותית –הזכות לפרטיות הופכת להיות, פעמים רבות, למעין "זכות פרלימינרית" הנדרשת לשם הבטחתן של זכויות רבות נוספות בשדה העבודה. כך למשל, תוכנות פיקוח ומעקב על עובדים מרחוק שנועדו, לכאורה, לבחון מתי העובדת עובדת מהבית ומתי היא עסוקה בפעילויות שאינו קשורות לעבודה, ולשלם לעובדת רק על אותן דקות בהן התוכנה זיהתה כי העובדת אכן עובדת – מאתגרות את זכותה הבסיסית של העובדת לקבל שכר עבור עבודה, ליהנות מזכותה לכבוד אנושי בסיסי ולאוטונומיה ומזכותה לזמן מנוחה. באופן דומה, תוכנות מעקב ופיקוח יכולות לזהות מתי העובדים מתקשרים ביניהם בפעילות קולקטיבית לשם יצירת איגוד עובדים ולאפשר למעסיק לחבל בפעילות זו, ובכך לפגוע בזכות ההתאגדות. השימוש המסיבי ברשתות חברתיות מצד העובדים ובטכנולוגיה חכמה מצד המעסיקים, מאפשר למעסיקים להתחקות בקלות אחר מאפייניהם האישיים של מועמדים לעבודה, ובכלל זה, עמדותיהם הפוליטיות, המגדר שלהם, אמונתם הדתית וכדומה. כך למעשה, בעידן הדיגיטלי, הזכות לפרטיות כרוכה גם בזכות העובדת לשוויון.

כנגד מצב דברים זה, יש להקנות לזכות לפרטיות רבדים נוספים של הגנה מעבר להסדר הפרטני שבין העובדת והמעסיקה. רבדים אלו צריכים לכלול הסדרים קולקטיביים שיש בהם כדי להבטיח הגנה על זכויות עובדים, וכן הטלת אחריות משפטית ישירה על חברות טכנולוגיה המייצרות אמצעי פיקוח על עובדים, גם בקונטקסט הקונקרטי של שדה העבודה.

 

 

אתגר הרוגלה: זכויות אדם וסיבר התקפי

 ד"ר תמר מגידו

באוקטובר 2018 נכנס ג'מאל חשוקג'י, העיתונאי הסעודי הגולה, לקונסוליה הסעודית באיסטנבול על מנת להפיק מסמכים רשמיים, אך לא יצא. על פי החשד, גורמים סעודיים רצחו אותו בקונסוליה וביתרו את גופתו על מנת לטשטש את עקבותיהם. זמן קצר לאחר היעלמו של חשוקג'י התברר כי מכשירי הטלפון של ארוסתו ושל אישתו לשעבר, וכן של קולגות שלו, הודבקו ברוגלה "פגסוס". מכשיר הטלפון שלו, כמו גופתו, מעולם לא נמצא ולכן לעולם לא נדע אם גם הוא הודבק.

ניתוח אירוע זה מנקודת המבט של דיני זכויות האדם לכאורה אינו מורכב במיוחד. חשוקג'י היה נתון לסמכות ולשליטה של הגורמים הסעודים בקונסוליה; אלו היו מחוייבים לכבד את זכותו לחיים, זכותו שלא להיות נתון לעינויים, שלא להיות נתון למעצר שרירותי, זכותו לחופש ביטוי וזכותו לפרטיות ועוד; ובפעולתם – הן בפגיעה הפיזית בגופו, והן בחדירה למכשיר שלו ככל שהייתה כזו – הפרו זכויות אלה.

עם זאת, ניתוח תרומתם של גורמים נוספים לפגיעה בזכויותיו של חשוקג'י, אינו כה פשוט. שאלה שעשויה להתעורר היא האם גם על חברת NSO, שפיתחה ומשווקת את הרוגלה פגסוס, וגם על מדינת ישראל, המעניקה ל-NSO רשיון שיווק וייצוא, מוטלות חובות מתחום דיני זכויות האדם, והאם ניתן, בהתאמה, לומר כי חובות אלה הופרו על ידן ביחס לחשוקג'י.

מאמר זה בוחן את האתגר שמציגה תעשיית הסייבר ההתקפי לדיני זכויות האדם, ושואל האם חולשותיה ומגבלותיה של מסגרת משפטית זו הופכות אותה לבלתי מתאימה לטיפול ברוגלות ובנזקיהן.

 

 

פרטיות אופפת ללא-משתמשים

ד"ר אלכס גקר

באוגוסט 2022, הכריזה ענקית המסחר והתשתיות הממוחשבות אמזון על כוונתה לרכוש את יצרנית חברת איי-רובוט, יצרנית השואב הרובוטי רומבה, ב 1.7 מיליארד דולר.  המהלך נתקל בהתנגדות מצד ה FTC בארה"ב ו EC באיחוד האירופי. אחת הדאגות המרכזיות היא מאגר המידע הנרחב שיועמד לרשות אמזון על החללים הפנימיים בבתי משתמשי רומבה, אורח חייהם ותחביביהם. במצגת זו נשתמש במקרה בוחן זה כדי לאפיין את הפרטיות של האי-שימוש: משתמשות שעוברות לגור במרחב שנוקה בעבר על ידי רומבה הופכות להיות ידועות בפוטנציה על ידי אמזון, באופן החורג מהבנתן ואף בלתי ניתן למניעה.

 

 

אוריינות מעקב ותפקידה של אמנות בקידומה

ד״ר רונן אידלמן

אמנים רבים בעשור האחרון מבטאים נקודות מבט ביקורתיות ואמביוולנטיות כלפי מעקב ופיקוח. חלקם, לעתים בשיתוף מדענים, מעצבים ומהנדסים, יוצרים פרויקטים המתנגדים למעקב )= כלים להגנה, הסוואה, הסתרה מפני מעשה המעקב(, או כאלה שחושפים את אופן פעולתו ותפקודו. אמנים אחרים חוקרים ומציגים כיצד ניתן להשתמש בטכנולוגיית מעקב לא רק כאמצעי שליטה, משמוע ורווח, אלא גם כמכשיר שמשרת את הצרכים והתועלת של האזרחים. 

בכנס אציג א  המושג ״אוריינות מעקב״ – הנחלת ידע, כישורים ומודעות שחיוניים בעידן המעקב הדיגיטלי, מתן כלים שמסייעים לנווט בחברת המעקב, ודרכים להעצים אנשים לקבל החלטות מושכלות לגבי פרטיותם ולהבין את ההשלכות הטכנולוגיה בה הם משתמשים בחיי היומיום שלהם. במסגרת הסדנה אציג גם את המחקר שלי על הדרכים שבהן ניתן להשתמש באמנות ככלי לקידום ״אוריינות מעקב״, והגברת המודעות למעקב דיגיטלי ואיסוף נתונים. יוצרים בתחומי האמנות חזותית, המיצג והתיאטרון משתמשים בטכנולוגיות המעקב כהצהרה אמנותית, כמעשה פוליטי וככלי חינוכי. הם משתמשים בטכנולוגיות באופן ביקורתי, והדבר מאפשר להם להציג שאלות אתיות, לנתח ולפרש בצורה ביקורתית היבטים של החברה בה הם חיים וליצור במה לדיון ציבורי, ניתוח אסטרטגי
וכלים לשינוי. אך עבודות מעקב רבות גם מעלות שאלות אתיות, שכן היוצרים משתמשים באותם הכלים אותם הם מבקרים, ולעיתים אף הם מפעילים את אותן טכנולוגיות מעקב ואיסוף כדי לחשוף ולהדגים את דרך "Defamiliarization" פעולתן. בסדנה אדון בעבודות שמשתמשות בטקטיקה האמנותית של ״הזדהות יתר״ ושמציגה אסתטיקה ופעולות מוכרות בצורה לא מוכרת או מוזרה, כך שהצופים יראו את המוכר מנוקדת מבט חדשה ויוכלו, אולי, להבין אותן בצורה אחרת.

 

 

סחר במידע אישי: נזיד עדשים 2.0

ד"ר מיקי זר

מידע הוא סחורה. יתר על כן; מידע הוא סחורה שקשה להפריז בחשיבותה לגיאופוליטיקה של הכלכלה העולמית העכשווית. אבולוציה של טכנולוגיות מידע בעשורים האחרונים יצרה ארכיטקטורות דיגיטליות של מעקב, המאפשרות איסוף, צבירה, עיבוד, אחסון והעברה של כמויות מסחררות של נתונים ומידע על כל דבר, גם עלינו: על הרגלי האכילה, השינה, הבילוי והצריכה שלנו, על רגשות, על חלומות, על סודות, על תנועות העכבר שלנו. המעבר לַדיגיטלי כרוך בהיעלמות הפרט והיעלמות ההמון גם יחד לתוך "חבילת המידע" הכוללת רסיסי מידע כמו טביעת אצבע, צלקת, קעקוע, היכן ממוקם בית המרקחת האחרון בו ביקרתי. אלה יורכבו בהמשך לפרופיל דיגיטלי שאף הוא ייסחר בשווקי המידע. ואין המדובר בתהליך של דה-מטריאליזציה ותו-לא, מכיוון שהסחר במידע ובתוצריו מייצרים מטריאליזציה חדשה: רסיסי המידע והפרופילים המורכבים מהם הופכים לסחורה, שבה משתמשים מחזיקי ובעלי המידע כדי להשפיע ולכוון את התנהגותו של הפרט מושא המידע.

המעקב אחר הפרט הוא יצרני: הוא המייצר את הפרט הנעקב. המאמר מבקש לבחון את השפעת הסחר במידע אישי ובתוצריו על הפרט מושא המידע. האם וכיצד המטריאליזציה של הזהות, הפיכתה לאובייקט סחיר, מדיד וניתן להשוואה, משפיעה על היחיד האנושי, על זהותו, על עצמיותו, על אנושיותו?  חלקו הראשון של הדיון מגלה את חיוורון ההשוואה הרווחת בין נפט למידע: מידע אינו אך ורק סחורה המשמשת לייצור סחורות אחרות, תהא חיוניותה אשר תהא, אלא סחורה טרנספורמטיבית כמו אדמה, עבודה, כסף. הסחרת המידע היא מפתח לטרנספורמציה חדשה: מחיקתו של האינדיבידואל. אינדיבידואלים, בעבר סובייקטים של תהליכי הסחרה, הפכו כעת לאובייקטים של הסחרה, במה שמהווה אינטינסיפיקציה של מהלך ההסחרה; הסחרת המידע האישי משלימה את המהלך שראשיתו בהסחרת כוח העבודה האנושי. בשיא תהליך הפירוק של הסובייקט האנושי, נפרקת ממנו יכולת הרפלקסיה העצמית שלו, ועמה האפשרות לחירות.

חלקו השני של הדיון מבקר את זה הראשון, באמצעות דיון אונטולוגי במידע אישי המכוון לשאלה הבאה: האם התנגדות מוסרית להסחרת האדם אינה אלא חלק חיוני ממערך סימבולי שמטרתו להסוות את היעדר המקור, את מות האנושי? את הדיון בחלק זה מניע חשד במוסרנות שבגינוי הסחרת העצמי ובמניעיו של גינוי כזה: לא אחת מתחוור לנו שהפניית אצבע מאשימה כלפי מנגנון כלשהו, היא חיונית לפעילותו התקינה של אותו מנגנון. ההוקעה המוסרית של הסחרת העצמי אינה אלא החייאה של סדר מוסרי שבו חפץ ההון, שבהיותו חסר מוסר נדרש לו מבנה-על מוסרי לשם תפקודו.

 

 

 

 

 

 

 

 

 

 

 

 

 

Tel Aviv University makes every effort to respect copyright. If you own copyright to the content contained
here and / or the use of such content is in your opinion infringing Contact the referral system >>