משתמש:יובל מדר/ארגז חול/מבחנה 3

מתוך ויקיפדיה, האנציקלופדיה החופשית

פרטיות דיפרנציאלית היא דרישה ממערכת נתונים סטטיסטיים לאפשר שליפת נתונים אמינה, בלי להסתכן בחשיפת רשומות ספציפיות במאגר הנתונים.

תרחיש[עריכת קוד מקור | עריכה]

גוף אמין מחזיק במאגר נתונים המכיל נתונים רגישים (למשל, נתונים רפואיים, הצבעות, כספיים וכו'), במטרה להציג נתונים סטטיסטיים על כלל רשומות המאגר (למשל, אחוז חולי הסרטן במדינה), אך בלא לחשוף נתונים על אנשים ספציפיים מהמאגר. (למשל, חשיפת מחלתו של אחד מחברי מאגר הנתונים)

פרטיות ε-דיפרנציאלית[עריכת קוד מקור | עריכה]

פעולות השרת האמין ממודלות כאלגוריתם (אקראי) .

נאמר על האלגוריתם שהוא מקיים פרטיות -דיפרנציאלית אם לכל שני מסדי נתונים הנבדלים באלמנט יחיד, ולכל קבוצה של פלטים של האלגוריתם:

כאשר ההסתברות מחושבת על פני כל תרחישי הריצה של האלגוריתם. ("הטלות המטבע" שלו)

משמעות הדבר היא שלכל שני מסדי נתונים הנבדלים זה מזה באיבר יחיד, אלגוריתם -פרטי דיפרנציאלית ייתן תוצאות דומות עבור שניהם. (כלומר, לא ניתן יהיה להשתמש באלגוריתם לקביעת ערכו של איבר בודד במאגר הנתונים.)

דוגמא[עריכת קוד מקור | עריכה]

יהי מסד נתונים של נתונים רפואיות, אשר כל רשומה שלו מכילה שני איברים , כאשר הראשון מציין את שם האדם, והשני מציין האם הוא חולה במחלה מסוימת.

לדוגמא:

שם חולה?
רוס כן
מוניקה כן
ג'ואי לא
פיבי לא
צ'נדלר כן

הניחו שיריב זדוני מנסה להבין האם צ'נדלר חולה או לא. נניח שגישת היריב למאגר הנתונים מוגבלת לחישוב מספר החולים בין החולים הראשונים במאגר. אם נניח שהיריב מגלה, באופן כזה או אחר, את מספרו הסידורי של צ'נדלר במאגר, (חמישי) הוא יכול לברר האם צ'נדלר חולה או לא, על ידי חישוב ההפרש .

לכן, סכמת הגישה שהוצעה למאגר הנתונים אינה משמרת פרטיות, על אף שלכשעצמה אינה מאפשרת בירור פרטים עבור רשומה בודדת במאגר.

Let us take this example a little further. Now we construct by replacing (Chandler,1) with (Chandler,0). Let us call the release mechanism (which releases the output of ) as . We say is -differentially private if it satisfies the definition, where can be thought of as a singleton set (something like etc.) if the output function of is a Discrete Random Variable (i.e. has a probability mass function(pmf)); else if it is a Continuous Random Variable (i.e. has a probability density function(pdf)), then can be thought to be a small range of reals (something like ).

In essence if such an exist then a particular individual's presence or absence in the database will not alter the distribution of the output of the query by a significant amount and thus assures privacy of individual information in an information theoretic sense.

מוטיבציה[עריכת קוד מקור | עריכה]

בעבר, מספר גישות הוצעו לסוגיית שמירה על אנונימיות של רשומות פומביות, ומרביתן נכשלו במקרים בהם התוקפים השיגו גישה למסדי נתונים נוספים, ובאמצעות ההצלבה בין השניים, פגעו באנונימיות המאגר.

שני מקרים מפורסמים של התקפות המקשרות מספרי מסדי נתונים הם תחרות Netflix Prize, ותקרית מאגר הנתונים הרפואיים של ועדת הביטוח הקבוצתי של מסצ'וסטס. (ה-GIC)

Netflix Prize[עריכת קוד מקור | עריכה]

חברת Netflix הציעה פרס בן מיליון דולר למי שיוכל להציע שיפור בן 10% למערכת המלצת התכנים שלה. לשם כך, שיחררה החברה מסד נתונים חלקי לבדיקות הפיתוח של המתחרים. לשחרור מסד הנתונים, צורפה ההכרזה "על מנת להגן על פרטיות לקוחותינו, כל המידע האישי המזהה את הלקוחות הוסר, ומזהי הלקוחות הוחלפו במזהים שהוגרלו באקראי".

חברת Netflix אינה אתר דירוג הסרטים היחיד ברשת, קיימים אתרים דומים רבים, וביניהם האתר IMDb. ב-IMDb, המשתמשים אינם בהכרח מדרגים את הסרטים באופן אנונימי. שני החוקרים ארוינד נרינן וויטלי שמטיקוב, מאוניברסיטת טקסס, קישרו בין מסדי הנתונים של שני האתרים (בהתבסס על זמני הדירוג), והצליחו לחשוף את זהות חלק מהמשתמשים במאגר שהפיצה Netflix.[1] ובכך הוכיחו שמאגר הנתונים הפומבי אינו אנונימי כפי שהאמינה החברה כאשר הפיצה אותו.

מאגר הנתונים הרפואיים של ה-GIC[עריכת קוד מקור | עריכה]

הוועדה האחראית על רכישת ביטוחים קבוצתיים לעובדי מדינה במדינת מסצ'וסטס בארצות הברית, ה-GIC, הפיצה את התיקים הרפואיים של עובדי המדינה, לאחר סינון שמותיהם, באינטרנט, אך המאגר הכיל את תאריכי הלידה שלהם, מינם, והמיקוד שלהם. חוקרת בשם לטניה סוויני, מאוניברסיטת קרנגי מלון קישרה את הנתונים במאגר זה למרשם המצביעים, על מנת לחלץ את תיקו הרפואי של מושל מסצ'וסטס[2].

רגישות[עריכת קוד מקור | עריכה]

Getting back on the main stream discussion on Differential Privacy, the sensitivity [3] ( ) of a function is

for all , differing in at most one element, and .

To get more intuition into this let us return to the example of the medical database and a query (which can also be seen as the function ) to find how many people in the first rows of the database have diabetes. Clearly, if we change one of the entries in the database then the output of the query will change by at most one. So, the sensitivity of this query is one. It so happens that there are techniques(which we will describe below) using which we can create a differentially private algorithm for functions with low sensitivity.

Trade-off between utility and privacy[עריכת קוד מקור | עריכה]

A trade-off between the accuracy of the statistics estimated in a privacy-preserving manner, and the privacy paramater ε. This trade-off is studied in [4] and [5].

Laplace noise[עריכת קוד מקור | עריכה]

Many differentially private algorithms rely on adding controlled noise[3] to functions with low sensitivity. We will elaborate this point by taking a special kind of noise (whose kernel is a Laplace distribution i.e. the probability density function , mean zero and standard deviation ). Now in our case we define the output function of as a real valued function (called as the transcript output by ) , where and is the original real valued query/function we plan to execute on the database. Now clearly can be considered to be a continuous random variable, where

which is atmost . We can consider to be the privacy factor . Thus follows a differentially private mechanism (as can be seen from the definition). If we try to use this concept in our diabetes example then it follows from the above derived fact that in order to have as the -differential private algorithm we need to have . Though we have used Laplacian noise here but we can use other forms of noises which also allows to create a differentially private mechanism, such as the Gaussian Noise (where of course a slight relaxation of the definition of differential privacy [2] is needed).

Composability[עריכת קוד מקור | עריכה]

Sequential composition [6][עריכת קוד מקור | עריכה]

If we query an ε-differential privacy mechanism times, the result would be -differentially private. In the more general case, if there are mechanisms: , whose privacy guarantees are differential privacy, respectively, then any function of them: is -differentially private.

Parallel composition [6][עריכת קוד מקור | עריכה]

However, if the previous mechanisms are computed on disjoint subsets of the private database then the function would be -differentially private instead.

Group privacy[עריכת קוד מקור | עריכה]

In general, ε-differential privacy is designed to protect the privacy between neighboring databases which differ only in one row. This means that no adversary with arbitrary auxiliary information can know if one particular participant submitted his information. However this is also extendable if we want to protect databases differing in rows, which amounts to adversary with arbitrary auxiliary information can know if particular participants submitted their information. This can be achieved because if items change, the probability dilation is bounded by instead of ,[2] i.e. for D1 and D2 differing on items:

Thus setting ε instead to achieves the desired result (protection of items). In other words, instead of having each item ε-differentially private protected, now every group of items is ε-differentially private protected (and each item is -differentially private protected).

Proof idea[עריכת קוד מקור | עריכה]

For three datasets D1, D2, and D3, such that D1 and D2 differ on one item, and D2 and D3 differ on one item (implicitly D1 and D3 differ on at most 2 items), the following holds for an ε-differentially private mechanism :

, and

hence:

The proof can be extended to instead of 2.


Stable transformations[עריכת קוד מקור | עריכה]

A transformation is -stable if the hamming distance between and is at most -times the hamming distance between and for any two databases . Theorem 2 in [6] asserts that if there is a mechanism that is -differentially private, then the composite mechanism is -differentially private.

This could be generalized to group privacy, as the group size could be thought of as the hamming distance between and (where contains the group and doesn't). In this case is -differentially private.


See also[עריכת קוד מקור | עריכה]

Notes[עריכת קוד מקור | עריכה]

  1. ^ Arvind Narayanan, Vitaly Shmatikov. Robust De-anonymization of Large Sparse Datasets. In IEEE Symposium on Security and Privacy 2008, p. 111–125.
  2. ^ 1 2 3 טקסט ההערה
  3. ^ 1 2 Dwork, McSherry, Nissim and Smith, 2006.
  4. ^ A. Ghosh, T. Roughgarden, and M. Sundararajan. Universally utility-maximizing privacy mechanisms. In Proceedings of the 41st annual ACM Symposium on Theory of Computing, pages 351–360. ACM New York, NY, USA, 2009.
  5. ^ H. Brenner and K. Nissim. Impossibility of Differentially Private Universally Optimal Mechanisms. In Proceedings of the 51st Annual IEEE Symposium on Foundations of Computer Science (FOCS), 2010.
  6. ^ 1 2 3 McSherry, SIGMOD 2009 (Theorem 3 and 4).

References[עריכת קוד מקור | עריכה]

הערות שוליים[עריכת קוד מקור | עריכה]

קישורים חיצוניים[עריכת קוד מקור | עריכה]

* Differential Privacy: A Survey of Results by Cynthia Dwork, Microsoft Research April 2008

קטגוריה:קריפטוגרפיה קטגוריה:פרטיות