Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Дифференциальная конфиденциальность - это система для публичного обмена информацией о наборе данных путем описания закономерностей групп в наборе данных при сокрытии информации о лицах в наборе данных. Идея дифференцированной конфиденциальности заключается в том, что если эффект от выполнения произвольной одиночной замены в базе данных достаточно мал, результат запроса не может быть использован для вывода много о каком-либо отдельном человеке и, следовательно, обеспечивает конфиденциальность. Другой способ описать дифференциальную конфиденциальность - это ограничение на алгоритмы, используемые для публикации совокупной информации о статистической базе данных.что ограничивает раскрытие частной информации о записях, информация о которых находится в базе данных. Например, дифференциально частные алгоритмы используются некоторыми государственными учреждениями для публикации демографической информации или других статистических агрегатов, обеспечивая при этом конфиденциальность ответов на опрос, а также компаниями для сбора информации о поведении пользователей при одновременном контроле того, что видно даже внутренним аналитикам.

Грубо говоря, алгоритм является дифференциально частным, если наблюдатель, видя его результат, не может сказать, использовалась ли информация конкретного человека в вычислениях. Дифференциальная конфиденциальность часто обсуждается в контексте идентификации лиц, информация о которых может находиться в базе данных. Хотя это не относится напрямую к атакам идентификации и повторной идентификации , дифференциально частные алгоритмы, вероятно, противостоят таким атакам. [1]

Дифференциальная конфиденциальность была разработана криптографами и поэтому часто ассоциируется с криптографией и заимствует большую часть своего языка из криптографии.

История [ править ]

Официальным статистическим организациям поручено собирать информацию от частных лиц или учреждений и публиковать агрегированные данные в интересах общества. Например, в ходе переписи населения США 1790 года была собрана информация о лицах, проживающих в Соединенных Штатах, и опубликованы таблицы, основанные на полу, возрасте, расе и условиях подневольного состояния. Статистические организации давно собирают информацию под обещанием конфиденциальности.что предоставленная информация будет использоваться в статистических целях, но публикации не будут содержать информацию, которая может быть прослежена до конкретного человека или учреждения. Для достижения этой цели статистические организации долгое время скрывали информацию в своих публикациях. Например, в таблице, в которой представлены продажи каждого бизнеса в городе, сгруппированные по бизнес-категориям, ячейка, содержащая информацию только от одной компании, может быть скрыта, чтобы сохранить конфиденциальность конкретных продаж этой компании.

Внедрение систем электронной обработки информации статистическими агентствами в 1950-х и 1960-х годах резко увеличило количество таблиц, которые могла создать статистическая организация, и, таким образом, значительно увеличило вероятность ненадлежащего раскрытия конфиденциальной информации. Например, если компания, для которой были подавлены показатели продаж, также включала эти цифры в общий объем продаж в регионе, то можно было бы определить подавленное значение, вычтя другие продажи из этой суммы. Но также могут быть комбинации добавлений и вычитаний, которые могут привести к раскрытию личной информации. Количество комбинаций, которые необходимо проверить, растет экспоненциально с увеличением количества публикаций,и потенциально неограничен, если пользователи данных могут делать запросы к статистической базе данных с помощью интерактивной системы запросов.

В 1977 году Тор Далениус формализовал математику подавления клеток. [2]

В 1979 году Дороти Деннинг , Питер Дж. Деннинг и Майер Д. Шварц формализовали концепцию трекера, злоумышленника, который мог бы узнать конфиденциальное содержимое статистической базы данных, создав серию целевых запросов и запомнив результаты. [3] Это и последующие исследования показали, что свойства конфиденциальности в базе данных можно сохранить только при рассмотрении каждого нового запроса в свете (возможно, всех) предыдущих запросов. Это направление работы иногда называют конфиденциальностью запросов, в результате чего отслеживание влияния запроса на конфиденциальность отдельных лиц в базе данных было NP-сложной задачей.

В 2003 году Кобби Ниссим и Ирит Динур продемонстрировали, что невозможно публиковать произвольные запросы к частной статистической базе данных без раскрытия некоторого количества частной информации, и что все информационное содержание базы данных может быть раскрыто путем публикации результатов удивительно небольшого количество случайных запросов - гораздо меньше, чем предполагалось в предыдущей работе. [4] Общее явление, известное как фундаментальный закон восстановления информации , и его ключевое понимание, а именно, что в самом общем случае нельзя защитить конфиденциальность, не создавая некоторого шума, привело к развитию дифференциальной конфиденциальности.

В 2006 году Синтия Дворк , Фрэнк МакШерри , Кобби Ниссим и Адам Д. Смит опубликовали статью, в которой формализовали количество шума, которое необходимо было добавить, и предложили общий механизм для этого. [1] Их работа была одним из лауреатов премии TCC Test-of-Time Award 2016 [5] и премии Гёделя 2017 года . [6]

С тех пор последующие исследования показали, что существует множество способов получения очень точной статистики из базы данных, при этом обеспечивая высокий уровень конфиденциальности. [7] [8]

ε-дифференциальная конфиденциальность [ править ]

В статье Дворка, МакШерри, Ниссима и Смита 2006 года была представлена ​​концепция ε-дифференциальной конфиденциальности, математического определения потери конфиденциальности, связанной с любым выпуском данных, взятых из статистической базы данных. (Здесь термин « статистическая база данных» означает набор данных, которые собираются под залогом конфиденциальности с целью получения статистики, которая в результате своего производства не ставит под угрозу конфиденциальность тех лиц, которые предоставили данные.)

Интуиция для определения ε-дифференциальной конфиденциальности 2006 года заключается в том, что конфиденциальность человека не может быть нарушена статистической публикацией, если его данные не находятся в базе данных. Следовательно, при дифференцированной конфиденциальности цель состоит в том, чтобы предоставить каждому человеку примерно такую ​​же конфиденциальность, которая была бы результатом удаления их данных. То есть статистические функции, выполняемые в базе данных, не должны чрезмерно зависеть от данных какого-либо одного человека.

Конечно, то, насколько каждый человек вносит свой вклад в результат базы данных, частично зависит от того, сколько данных людей задействовано в запросе. Если база данных содержит данные от одного человека, данные этого человека составляют 100%. Если база данных содержит данные от сотни человек, данные каждого человека составляют всего 1%. Ключевое понимание дифференциальной конфиденциальности заключается в том, что, поскольку запрос выполняется на основе данных все меньшего и меньшего числа людей, к результату запроса необходимо добавлять больше шума, чтобы обеспечить такую ​​же степень конфиденциальности. Отсюда и название статьи 2006 года «Калибровка шума по чувствительности при анализе частных данных».

В документе 2006 года представлены как математическое определение дифференциальной конфиденциальности, так и механизм, основанный на добавлении шума Лапласа (т. Е. Шума, происходящего от распределения Лапласа ), который удовлетворяет этому определению.

Определение ε-дифференциальной конфиденциальности [ править ]

Пусть ε будет положительным действительное число и быть рандомизированным алгоритмом , который принимает набор данных в качестве входных данных (представляющих действия доверенной стороны , держащих данные). Пусть будет обозначать образ из . Алгоритм называется обеспечить -дифференциальную конфиденциальность , если для всех наборов данных и которые отличаются по одному элементу (т.е., данные одного человека), и все подмножества из :

где вероятность берется из случайности, используемой алгоритмом. [9]

Дифференциальная конфиденциальность предлагает надежные и надежные гарантии, которые облегчают модульное проектирование и анализ дифференциально закрытых механизмов благодаря возможности компоновки , устойчивости к постобработке и постепенной деградации при наличии коррелированных данных .

Возможность компоновки [ править ]

(Само-) компонуемость относится к тому факту, что совместное распределение выходных данных (возможно, адаптивно выбранных) дифференциально закрытых механизмов удовлетворяет дифференциальной конфиденциальности.

Последовательная композиция. Если мы запрашиваем время механизма ε-дифференциальной конфиденциальности и рандомизация механизма независима для каждого запроса, то результат будет -дифференциально частным. В более общем случае, если существуют независимые механизмы:, чьи гарантии конфиденциальности являются дифференциальной конфиденциальностью, соответственно, то любая их функция : является дифференциально частной. [10]

Параллельная композиция. Если предыдущие механизмы вычисляются на непересекающихся подмножествах частной базы данных, тогда функция вместо этого будет дифференциально частной. [10]

Устойчивость к постобработке [ править ]

Для любой детерминированной или рандомизированной функции, определенной над образом механизма , если она удовлетворяет ε-дифференциальной секретности, то удовлетворяет .

В совокупности возможность компоновки и устойчивость к постобработке позволяют модульное построение и анализ дифференциально приватных механизмов и мотивируют концепцию бюджета потери конфиденциальности . Если все элементы, которые обращаются к конфиденциальным данным сложных механизмов, являются по отдельности дифференциально конфиденциальными, то будет их комбинация с последующей произвольной постобработкой.

Конфиденциальность группы [ править ]

В общем, ε-дифференциальная конфиденциальность предназначена для защиты конфиденциальности между соседними базами данных, которые отличаются только в одной строке. Это означает, что ни один противник с произвольной вспомогательной информацией не может знать, предоставил ли один конкретный участник свою информацию. Однако это также можно расширить, если мы хотим защитить базы данных, различающиеся по строкам, что означает, что злоумышленник с произвольной вспомогательной информацией может знать, предоставили ли конкретные участники свою информацию. Этого можно достичь, потому что, если элементы меняются, расширение вероятности ограничивается вместо , [11], то есть для D 1 и D 2, различающихся по элементам:

Таким образом, установка ε вместо достижения желаемого результата (защита элементов). Другими словами, вместо того, чтобы иметь каждый элемент ε-дифференциально частной защиты, теперь каждая группа элементов является ε-дифференциально частной защитой (и каждый элемент является дифференциально частной защитой).

ε-дифференциально частные механизмы [ править ]

Поскольку дифференциальная конфиденциальность является вероятностной концепцией, любой дифференциально частный механизм обязательно рандомизируется. Некоторые из них, такие как механизм Лапласа, описанный ниже, полагаются на добавление контролируемого шума к функции, которую мы хотим вычислить. Другие, такие как экспоненциальный механизм [12] и апостериорная выборка [13], вместо этого образуют проблемно-зависимое семейство распределений.

Чувствительность [ править ]

Позвольте быть положительным целым числом, быть набором наборов данных и быть функцией. Чувствительность [1] функции, обозначаемой , определяется

где максимум берется по всем парам наборов данных и в отличающихся не более чем в одном элементе , и обозначает норму . ℓ 1 {\displaystyle \ell _{1}}

В приведенном ниже примере медицинской базы данных, если мы рассматриваем функцию , чувствительность функции равна единице, поскольку изменение любой одной записи в базе данных приводит к изменению выходных данных функции на ноль или единицу.

Существуют методы (которые описаны ниже), с помощью которых мы можем создать дифференциально частный алгоритм для функций с низкой чувствительностью.

Механизм Лапласа [ править ]

Механизм Лапласа добавляет шум Лапласа (т.е. шум из распределения Лапласа , который может быть выражен функцией плотности вероятности , которая имеет нулевое среднее значение и стандартное отклонение ). Теперь в нашем случае мы определяем функцию вывода как функцию с действительным знаком (называемую выводом транскрипта ) как где и - исходный запрос / функция с действительным знаком, которую мы планировали выполнить в базе данных. Теперь очевидно, что ее можно рассматривать как непрерывную случайную величину, где



что самое большее . Мы можем считать это фактором конфиденциальности . Таким образом, следует дифференциально частный механизм (как видно из определения выше ). Если попытаться использовать эту концепцию в нашем примере сахарного диабета , то это следует из полученного выше того , что для того , чтобы иметь в качестве -дифференциального частного алгоритма , мы должны иметь . Хотя здесь мы использовали шум Лапласа, можно использовать и другие формы шума, такие как гауссовский шум, но они могут потребовать небольшого ослабления определения дифференциальной конфиденциальности. [11]

Согласно этому определению, дифференциальная конфиденциальность является условием для механизма выпуска (т. Е. Доверенная сторона раскрывает информацию о наборе данных), а не для самого набора данных. Интуитивно это означает, что для любых двух схожих наборов данных данный дифференциально частный алгоритм будет вести себя примерно одинаково для обоих наборов данных. Определение дает надежную гарантию того, что присутствие или отсутствие человека не окажет существенного влияния на окончательный результат алгоритма.

Например, предположим, что у нас есть база данных медицинских записей, где каждая запись представляет собой пару ( Имя , X ), где - логическое значение, обозначающее, есть ли у человека диабет или нет. Например:

Теперь предположим , что злоумышленник (часто называют в противника ) хочет найти , имеет ли Чандлер диабет или нет. Предположим, он также знает, в какой строке базы данных находится Чендлер. Теперь предположим, что злоумышленнику разрешено использовать только определенную форму запроса, которая возвращает частичную сумму первых строк столбца в базе данных. Чтобы определить диабетический статус Чендлера, противник выполняет и затем вычисляет их разницу. В этом примере и , следовательно, их разница равна 1. Это указывает на то, что поле «Имеет диабет» в строке Чендлера должно быть 1. В этом примере показано, как может быть скомпрометирована индивидуальная информация даже без явного запроса информации о конкретном человеке.

Продолжая этот пример, если мы построим , заменив (Chandler, 1) на (Chandler, 0), то этот злонамеренный злоумышленник сможет отличить от , вычисляя для каждого набора данных. Если бы злоумышленник должен был получить значения через -дифференциально частный алгоритм для достаточно маленького размера , то он или она не смогли бы различить два набора данных.

Случайный ответ [ править ]

Простой пример, особенно развит в социальных науках , [14] , чтобы попросить человека ответить на вопрос : «Вы владеете Do приписывать ?», В соответствии со следующей процедурой:

  1. Подбросьте монетку .
  2. Если орел, то снова подбросьте монету (игнорируя результат) и честно ответьте на вопрос.
  3. Если выпала решка, то снова подбросьте монету и ответьте «Да», если выпадет решка, и «Нет», если выпадет решка.

(Кажется, что лишний дополнительный бросок в первом случае необходим в ситуациях, когда другие могут наблюдать только действие подбрасывания монеты, даже если фактический результат остается скрытым.) Конфиденциальность возникает из опровержимости индивидуальных ответов.

Но в целом эти данные с множеством ответов имеют большое значение, поскольку положительные отзывы дают четверть людей, у которых нет атрибута А, и три четверти людей, которые им действительно обладают. Таким образом, если p - истинная доля людей с A , то мы ожидаем получить (1/4) (1- p ) + (3/4) p = (1/4) + p / 2 положительных ответов. Следовательно, можно оценить p .

В частности, если атрибут A является синонимом незаконного поведения, то ответ «Да» не является компрометирующим, поскольку у человека есть вероятность ответа «Да», каким бы он ни был.

Хотя этот пример, основанный на рандомизированном ответе , может быть применим к микроданным (т. Е. К выпуску наборов данных с каждым отдельным ответом), по определению дифференциальная конфиденциальность исключает выпуск микроданных и применима только к запросам (т.е. агрегированию отдельных ответов в один результат), поскольку это нарушит требования, а точнее правдоподобное отрицание того, что субъект участвовал или нет. [15] [16]

Стабильные трансформации [ править ]

Преобразование является стабильным, если расстояние Хэмминга между и не превышает расстояния Хэмминга между любыми двумя базами данных и для них . Теорема 2 в [10] утверждает, что если существует механизм, который является -дифференциально частным, то составной механизм является -дифференциально частным.

Это можно обобщить на конфиденциальность группы, так как размер группы можно рассматривать как расстояние Хэмминга между и (где содержит группу, а не нет). В этом случае - дифференциально частный.

Другие понятия дифференциальной конфиденциальности [ править ]

Поскольку дифференциальная конфиденциальность считается слишком сильной или слабой для некоторых приложений, было предложено множество ее версий. [17] Наиболее распространенным ослаблением является (ε, δ) -дифференциальная конфиденциальность [18], которая ослабляет определение, допуская дополнительную малую δ-плотность вероятности, на которой верхняя граница ε не выполняется.

Принятие дифференциальной конфиденциальности в реальных приложениях [ править ]

На сегодняшний день известно несколько практических применений дифференциальной конфиденциальности:

  • 2008: Бюро переписи населения США за демонстрацию схем передвижения. [19]
  • 2014: RAPPOR от Google для телеметрии, например, изучения статистики о нежелательном ПО, захватывающем настройки пользователей [20] (реализация RAPPOR с открытым исходным кодом ).
  • 2015: Google за обмен исторической статистикой трафика. [21]
  • 2016: Apple объявила о намерении использовать дифференциальную конфиденциальность в iOS 10 для улучшения своей технологии интеллектуального персонального помощника . [22]
  • 2017: Microsoft для телеметрии в Windows. [23]
  • 2019: Privitar Lens - это API, использующий дифференциальную конфиденциальность. [24]
  • 2020: LinkedIn, по запросам рекламодателей. [25]

См. Также [ править ]

  • Квазиидентификатор
  • Экспоненциальный механизм (дифференциальная конфиденциальность) - метод разработки дифференциально частных алгоритмов.
  • k-анонимность
  • Дифференциально частный анализ графиков
  • Защищенная информация о здоровье

Ссылки [ править ]

  1. ^ a b c « Калибровка шума по чувствительности в анализе личных данных » Синтия Дворк, Фрэнк МакШерри, Кобби Ниссим, Адам Смит. В теории криптографических конференции (КТС), Springer, 2006. DOI : 10.1007 / 11681878_14 . Полная версия появится в журнале секретности и конфиденциальности, 7 (3), 17-51. DOI : 10.29012 / jpc.v7i3.405
  2. ^ Tore Dalenius (1977). «К методологии контроля за раскрытием статистической информации». Statistik Tidskrift . 15 .
  3. ^ Дороти Э. Деннинг; Питер Дж. Деннинг; Майер Д. Шварц (март 1978 г.). «Трекер: угроза безопасности статистических баз данных» (PDF) . 4 (1): 76–96. Cite journal requires |journal= (help)
  4. ^ Ирит Динер и Kobbi Нисим. 2003. Раскрытие информации при сохранении конфиденциальности. В материалах двадцать второго симпозиума ACM SIGMOD-SIGACT-SIGART по принципам систем баз данных (PODS '03). ACM, Нью-Йорк, Нью-Йорк, США, 202–210. DOI : 10,1145 / 773153,773173
  5. ^ "Премия TCC Test-of-Time" .
  6. ^ "Премия Гёделя 2017" .
  7. ^ Хилтон, Майкл. «Дифференциальная конфиденциальность: исторический обзор». S2CID 16861132 .  Cite journal requires |journal= (help)
  8. ^ Дворк, Синтия (2008-04-25). «Дифференциальная конфиденциальность: обзор результатов» . В Агравале - Маниндра; Ду, Динчжу; Дуань, Чжэньхуа; Ли, Ангшэн (ред.). Теория и приложения вычислительных моделей . Конспект лекций по информатике. 4978 . Springer Berlin Heidelberg. С. 1–19. DOI : 10.1007 / 978-3-540-79228-4_1 . ISBN 9783540792277.
  9. ^ Алгоритмические основы дифференциальной конфиденциальности Синтии Дворк и Аарон Рот. Основы и тенденции теоретической информатики. Vol. 9, вып. 3–4, стр. 211-407, август 2014 г. doi : 10.1561 / 0400000042
  10. ^ a b c Интегрированные запросы конфиденциальности: расширяемая платформа для анализа данных с сохранением конфиденциальности. Автор Фрэнк Д. МакШерри. В материалах 35-й Международной конференции SIGMOD по управлению данными (SIGMOD), 2009 г. doi : 10.1145 / 1559845.1559850
  11. ^ a b Дифференциальная конфиденциальность Синтии Дворк, Международный коллоквиум по автоматам, языкам и программированию (ICALP) 2006 г., стр. 1–12. DOI : 10.1007 / 11787006 1
  12. ^ F.McSherry и K.Talwar. Дизайн Mechasim через дифференциальную конфиденциальность. Материалы 48-го ежегодного симпозиума основ компьютерных наук, 2007.
  13. ^ Христос Димитракакис, Блейн Нельсон, Айкатерини Митрокотса, Бенджамин Рубинштейн. Надежный и частный байесовский вывод. Теория алгоритмического обучения 2014
  14. Warner, SL (март 1965 г.). «Рандомизированный ответ: методика опроса для устранения уклончивого ответа». Журнал Американской статистической ассоциации . Тейлор и Фрэнсис . 60 (309): 63–69. DOI : 10.1080 / 01621459.1965.10480775 . JSTOR 2283137 . PMID 12261830 .  
  15. ^ Дворк, Синтия. «Прочная основа для анализа частных данных». Сообщения ACM 54.1 (2011): 86–95, примечание 19 выше, стр. 91.
  16. ^ Bambauer, Джейн, Кришнамурти Muralidhar и Rathindra Sarathy. «Золото дураков: иллюстрированная критика дифференциальной конфиденциальности». Vand. J. Ent. & Тех. Л. 16 (2013): 701.
  17. ^ СОК: Дифференциальный Privacies Дэмиена Desfontaines, Балаж Пейо. 2019.
  18. ^ Дворк, Синтия, Krishnaram Kenthapadi, Фрэнк Макшерри, Илья Миронов и Мони Naor. «Наши данные, мы сами: конфиденциальность за счет распределенной генерации шума». В достижениях в криптологии-EUROCRYPT 2006, стр. 486–503. Springer Berlin Heidelberg, 2006 г.
  19. ^ Ashwin Machanavajjhala, Даниэль Кифер, Джон М. Abowd, Йоханнес Герке, и Ларс Vilhuber. «Конфиденциальность: теория встречает практику на карте». В материалах 24-й Международной конференции по инженерии данных, ICDE) 2008 г.
  20. ^ Эльфар Эрлингссон, Василий Пихур, Александра Королова. «ДОКЛАД: рандомизированный агрегированный порядковый ответ с сохранением конфиденциальности». В материалах 21-й конференции ACM по компьютерной и коммуникационной безопасности (CCS), 2014. doi : 10.1145 / 2660267.2660348
  21. ^ Решение городской мобильности с помощью технологий Эндрю Эланд. Блог Google Policy Europe, 18 ноября 2015 г.
  22. ^ «Apple - Информация для прессы - Apple анонсирует iOS 10, самый крупный релиз iOS за всю историю» . Apple . Проверено 16 июня +2016 .
  23. ^ Сбор данных телеметрии в частном порядке Болином Дингом, Яной Кулькарни, Сергеем Еханиным. НИПС 2017.
  24. ^ "Privitar Lens" . Проверено 20 февраля 2018 года .
  25. ^ LinkedIn Audience Engagements API: система аналитики данных с сохранением конфиденциальности в масштабе Райана Роджерса, Суббу Субраманиама, Шона Пенга, Дэвида Дарфи, Сынхён Ли, Сантоша Кумара Канча, Шраддха Сахай, Парвеза Ахаммада. arXiv: 2002.05839.

Дальнейшее чтение [ править ]

  • Список чтения о дифференциальной конфиденциальности
  • Абоуд, Джон. 2017. «Как будут работать статистические агентства, если все данные являются частными?». Журнал конфиденциальности и конфиденциальности 7 (3). doi : 10.29012 / jpc.v7i3.404 ( слайды )
  • «Дифференциальная конфиденциальность: учебник для нетехнической аудитории» , Кобби Ниссим, Томас Стейнке, Александра Вуд, Мика Альтман , Аарон Бембенек, Марк Бун, Марко Габоарди, Дэвид Р. О'Брайен и Салил Вадхан, Harvard Privacy Tools Project , 14 февраля 2018
  • Динур, Ирит и Кобби Ниссим. 2003. Раскрытие информации при сохранении конфиденциальности. В материалах двадцать второго симпозиума ACM SIGMOD-SIGACT-SIGART по принципам систем баз данных (PODS '03). ACM, Нью-Йорк, Нью-Йорк, США, 202-210. DOI : 10.1145 / 773153.773173 .
  • Дворк, Синтия, Фрэнк МакШерри, Кобби Ниссим и Адам Смит. 2006. in Halevi, S. & Rabin, T. (Eds.) Калибровка шума по чувствительности в теории анализа частных данных криптографии: Третья конференция по теории криптографии, TCC 2006, Нью-Йорк, Нью-Йорк, США, 4–7 марта 2006 г. . Труды, Springer Berlin Heidelberg, 265-284, DOI : 10.1007 / 11681878 14 .
  • Дворк, Синтия. 2006. Дифференциальная конфиденциальность, 33-й Международный коллоквиум по автоматам, языкам и программированию, часть II (ICALP 2006), Springer Verlag, 4052, 1-12, ISBN 3-540-35907-9 . 
  • Дворк, Синтия и Аарон Рот. 2014. Алгоритмические основы дифференциальной конфиденциальности. Основы и тенденции теоретической информатики. Vol. 9, №№ 3–4. 211-407, DOI : 10,1561 / 0400000042 .
  • Мачанаваджхала, Ашвин, Дэниел Кифер, Джон М. Абоуд, Йоханнес Герке и Ларс Вилхубер. 2008. Конфиденциальность: Теория Встречается практика на карте, Международной конференции по инженерной данных (ICDE) 2008: 277-286, DOI : 10,1109 / ICDE.2008.4497436 .
  • Дворк, Синтия и Мони Наор. 2010. О трудностях предотвращения раскрытия информации в статистических базах данных или аргументах в пользу особой конфиденциальности, Журнал неприкосновенности частной жизни и конфиденциальности: Vol. 2: Вып. 1, статья 8. Доступно по адресу: http://repository.cmu.edu/jpc/vol2/iss1/8 .
  • Кифер, Дэниел и Ашвин Мачанаваджхала. 2011. Никакого бесплатного обеда в области конфиденциальности данных. В материалах Международной конференции ACM SIGMOD 2011 года по управлению данными (SIGMOD '11). ACM, Нью-Йорк, Нью-Йорк, США, 193-204. DOI : 10.1145 / 1989323.1989345 .
  • Эрлингссон, Эльфар, Василий Пихур и Александра Королова. 2014. ДОКЛАД: рандомизированный агрегированный порядковый ответ с сохранением конфиденциальности. В материалах конференции ACM SIGSAC 2014 по компьютерной и коммуникационной безопасности (CCS '14). ACM, Нью-Йорк, Нью-Йорк, США, 1054-1067. DOI : 10.1145 / 2660267.2660348 .
  • Абоуд, Джон М. и Ян М. Шмутте. 2017 г. Пересмотр экономики конфиденциальности: статистика населения и защита конфиденциальности как общественные блага. Институт динамики труда Корнельского университета, Институт динамики труда Корнельского университета, https://digitalcommons.ilr.cornell.edu/ldi/37/
  • Абоуд, Джон М. и Ян М. Шмутте. Скоро. Экономический анализ защиты конфиденциальности и статистической точности как социального выбора. Американский экономический обзор, arXiv : 1808.06303
  • Apple, Inc. 2016. Apple анонсирует iOS 10, крупнейшую версию iOS за всю историю. Пресс-релиз (13 июня). https://www.apple.com/newsroom/2016/06/apple-previews-ios-10-biggest-ios-release-ever.html .
  • Динг, Болин, Джанардхан Кулкарни и Сергей Еханин, 2017. Частный сбор данных телеметрии, NIPS 2017.
  • http://www.win-vector.com/blog/2015/10/a-simpler-explanation-of-differential-privacy/
  • Райффель, Тео, Эндрю Траск и др. al. «Общая структура для обеспечения конфиденциальности глубокого обучения»

Внешние ссылки [ править ]

  • Дифференциальная конфиденциальность , Синтия Дворк, ICALP, июль 2006 г.
  • Алгоритмические основы дифференциальной конфиденциальности Синтии Дворк и Аарон Рот, 2014.
  • Дифференциальная конфиденциальность: обзор результатов Синтии Дворк, Microsoft Research, апрель 2008 г.
  • Конфиденциальность динамических данных: постоянное наблюдение и общая конфиденциальность , Мони Наор, Институт перспективных исследований, ноябрь 2009 г.
  • Учебник по дифференциальной конфиденциальности по Катрина Лигетт , Калифорнийский технологический институт, декабрь 2013 года
  • Практическое руководство по дифференциальной конфиденциальности для новичков, Кристин Таск, Университет Пердью, апрель 2012 г.
  • Private Map Maker v0.2 в блоге Common Data Project
  • Изучение статистики с конфиденциальностью, с помощью The Flip of a Coin , Эльфар Эрлингссон, исследовательский блог Google, октябрь 2014 г.