潜在因子模型(Latent Factor Model)差分隐私+拉普拉斯噪声证明
创始人
2025-06-01 08:27:21
0

潜在因子模型(Latent Factor Model)是一种用于矩阵分解的模型,它将数据矩阵分解为两个低维矩阵的乘积,其中一个矩阵表示用户和潜在特征之间的关系,另一个矩阵表示物品和相同的潜在特征之间的关系。如果原始数据矩阵包含敏感信息,为了保护隐私,可以使用差分隐私技术来增加噪声,从而限制对敏感信息的推断。

假设原始数据矩阵 R∈Rn×mR \in \mathbb{R}^{n\times m}R∈Rn×m 经过潜在因子模型分解为两个低维矩阵 U∈Rn×kU \in \mathbb{R}^{n\times k}U∈Rn×k 和 V∈Rm×kV \in \mathbb{R}^{m\times k}V∈Rm×k,即 R≈UVTR\approx UV^TR≈UVT,其中 k≪min⁡(n,m)k\ll\min(n,m)k≪min(n,m) 表示潜在特征的数量。为保护隐私,我们需要给 RRR 添加拉普拉斯噪声 ΔR\Delta RΔR,从而扰动 RRR 的值,使得对于任何两个相邻的数据集 DDD 和 D′D'D′,添加的噪声量不超过一定阈值 ϵ\epsilonϵ。

具体地,我们定义相邻的数据集为仅在一个元素 (i,j)(i,j)(i,j) 上有所不同的数据集 DDD 和 D′D'D′,并且假设 Ri,j∈[0,1]R_{i,j}\in [0,1]Ri,j​∈[0,1] 是元素 (i,j)(i,j)(i,j) 在原始数据矩阵中的真实值,R^i,j=Ui⋅VjT\hat R_{i,j}=U_i\cdot V_j^TR^i,j​=Ui​⋅VjT​ 表示模型预测的评分。则添加的拉普拉斯噪声 ΔRi,j\Delta R_{i,j}ΔRi,j​ 可以如下计算:

ΔRi,j=R^i,j+λϵ⋅Lap(0,1)\Delta R_{i,j}=\hat R_{i,j}+\frac{\lambda}{\epsilon}\cdot Lap(0,1)ΔRi,j​=R^i,j​+ϵλ​⋅Lap(0,1)

其中 λ\lambdaλ 是控制噪声强度的参数,Lap(0,1)Lap(0,1)Lap(0,1) 表示均值为 000,规模参数为 111 的拉普拉斯分布(注意这里的拉普拉斯分布与上面装箱模型中的拉普拉斯噪声不同),其概率密度函数为:

f(x)=12exp⁡(−∣x∣)f(x)=\frac{1}{2}\exp(-|x|)f(x)=21​exp(−∣x∣)

接下来我们需要证明,添加的拉普拉斯噪声满足差分隐私。

首先我们需要证明噪声是可区分的,即对于任意相邻的数据集 DDD 和 D′D'D′,添加的噪声量不超过一定的阈值 ϵ\epsilonϵ。根据拉普拉斯机制的性质,添加的拉普拉斯噪声的敏感度为 1/ϵ1/\epsilon1/ϵ,即对于任意相邻的数据集 DDD 和 D′D'D′,只要它们在一个元素上有所不同,那么其对应的噪声量之差就不会超过 1/ϵ1/\epsilon1/ϵ。因此,我们有:

∣ΔRi,j−ΔRi,j′∣=∣λϵ⋅(Lap(0,1)−Lap(0,1))∣=0≤1/ϵ\begin{aligned} |\Delta R_{i,j}-\Delta R'_{i,j}|&=\left|\frac{\lambda}{\epsilon}\cdot(Lap(0,1)-Lap(0,1))\right|\ &=0\ &\leq 1/\epsilon \end{aligned}∣ΔRi,j​−ΔRi,j′​∣​=​ϵλ​⋅(Lap(0,1)−Lap(0,1))​ ​=0 ​≤1/ϵ​

因此,添加的噪声量是可区分的。

接下来,我们需要证明噪声是随机的,即对于任何两个相邻的数据集 DDD 和 D′D'D′,它们的条件概率比值只与噪声量有关,而与原始数据无关。

为了证明噪声是随机的,我们需要分别考虑两组条件概率比值。

首先,对于任意一个元素 (i,j)(i,j)(i,j),我们有:

Pr⁡[ΔRi,j∣∀(k,l)≠(i,j),Dk,l=D′k,l]Pr⁡[ΔRi,j∣∀(k,l)≠(i,j),Dk,l=D′k,l′,Di,j≠D′i,j]=exp⁡(−ϵλ∣ΔRi,j−R^i,j∣)exp⁡(−ϵλ∣ΔRi,j−R^′i,j∣)=exp⁡(ϵλ(∣ΔRi,j−R^i,j∣−∣ΔRi,j−R^i,j′∣))\begin{aligned} &\frac{\Pr[\Delta R_{i,j}|\forall (k,l)\neq(i,j),D_{k,l}=D'{k,l}]}{\Pr[\Delta R{i,j}|\forall (k,l)\neq(i,j),D_{k,l}=D'{k,l}',D{i,j}\neq D'{i,j}]}\ =&\frac{\exp\left(-\frac{\epsilon}{\lambda}|\Delta R{i,j}-\hat R_{i,j}| \right)}{\exp\left(-\frac{\epsilon}{\lambda}|\Delta R_{i,j}-\hat R'{i,j}| \right)}\ =&\exp\left(\frac{\epsilon}{\lambda}(|\Delta R{i,j}-\hat R_{i,j}| - |\Delta R_{i,j}-\hat R'_{i,j}|) \right) \end{aligned}​Pr[ΔRi,j∣∀(k,l)=(i,j),Dk,l​=D′k,l′,Di,j=D′i,j]Pr[ΔRi,j​∣∀(k,l)=(i,j),Dk,l​=D′k,l]​ =​exp(−λϵ​∣ΔRi,j​−R^′i,j∣)exp(−λϵ​∣ΔRi,j−R^i,j​∣)​ =​exp(λϵ​(∣ΔRi,j−R^i,j​∣−∣ΔRi,j​−R^i,j′​∣))​

当 DDD 和 D′D'D′ 在元素 (i,j)(i,j)(i,j) 上不同时,我们有 R^i,j≠R^i,j′\hat R_{i,j}\neq\hat R'_{i,j}R^i,j​=R^i,j′​。因此,我们需要证明:

ER^i,R^′i[∣ΔRi,j−R^i∣−∣ΔRi,j−R^′i∣]=λ⋅sgn(R^i,j−R^i,j′)\begin{aligned} &\mathbb{E}{\hat R_i,\hat R'i} \left[|\Delta R{i,j}-\hat R_i| - |\Delta R{i,j}-\hat R'i| \right]\ =&\lambda\cdot\text{sgn}(\hat R{i,j}-\hat R'_{i,j}) \end{aligned}​ER^i​,R^′i[∣ΔRi,j−R^i​∣−∣ΔRi,j−R^′i∣] =​λ⋅sgn(R^i,j−R^i,j′​)​

其中 sgn(x)\text{sgn}(x)sgn(x) 表示函数 xxx 的符号,即:

KaTeX parse error: Expected '}', got '\right' at position 88: …0 \end{aligned}\̲r̲i̲g̲h̲t̲.

为了证明上述等式,我们可以进一步将绝对值展开,得到:

∣ΔRi,j−R^i∣−∣ΔRi,j−R^′i∣=λϵ⋅(Lap(0,1)−Lap(R^i,j−ΔRi,j,1))−λϵ⋅(Lap(0,1)−Lap(R^′i,j−ΔRi,j,1))\begin{aligned} &|\Delta R_{i,j}-\hat R_i| - |\Delta R_{i,j}-\hat R'i|\ =&\frac{\lambda}{\epsilon}\cdot(Lap(0,1)-Lap(\hat R{i,j}-\Delta R_{i,j},1))\ &-\frac{\lambda}{\epsilon}\cdot(Lap(0,1)-Lap(\hat R'{i,j}-\Delta R{i,j},1)) \end{aligned}​∣ΔRi,j​−R^i​∣−∣ΔRi,j​−R^′i∣ =​ϵλ​⋅(Lap(0,1)−Lap(R^i,j−ΔRi,j​,1)) ​−ϵλ​⋅(Lap(0,1)−Lap(R^′i,j−ΔRi,j,1))​

然后,我们可以使用拉普拉斯分布的性质,将上式中的两个拉普拉斯分布之差表示为一个指数函数的形式:

λϵ⋅(Lap(0,1)−Lap(R^i,j−ΔRi,j,1))−λϵ⋅(Lap(0,1)−Lap(R^′i,j−ΔRi,j,1))=−λϵ⋅exp⁡(−∣R^i,j−ΔRi,j∣)+λϵ⋅exp⁡(−∣R^′i,j−ΔRi,j∣)=λϵ⋅(exp⁡(−∣R^′i,j−ΔRi,j∣)−exp⁡(−∣R^i,j−ΔRi,j∣))\begin{aligned} &\frac{\lambda}{\epsilon}\cdot(Lap(0,1)-Lap(\hat R_{i,j}-\Delta R_{i,j},1))\ &-\frac{\lambda}{\epsilon}\cdot(Lap(0,1)-Lap(\hat R'{i,j}-\Delta R{i,j},1))\ =&-\frac{\lambda}{\epsilon}\cdot\exp(-|\hat R_{i,j}-\Delta R_{i,j}|)+\frac{\lambda}{\epsilon}\cdot\exp(-|\hat R'{i,j}-\Delta R{i,j}|)\ =&\frac{\lambda}{\epsilon}\cdot\left(\exp(-|\hat R'{i,j}-\Delta R{i,j}|)-\exp(-|\hat R_{i,j}-\Delta R_{i,j}|)\right) \end{aligned}​ϵλ​⋅(Lap(0,1)−Lap(R^i,j​−ΔRi,j​,1)) ​−ϵλ​⋅(Lap(0,1)−Lap(R^′i,j−ΔRi,j,1)) =​−ϵλ​⋅exp(−∣R^i,j​−ΔRi,j​∣)+ϵλ​⋅exp(−∣R^′i,j−ΔRi,j∣) =​ϵλ​⋅(exp(−∣R^′i,j−ΔRi,j∣)−exp(−∣R^i,j​−ΔRi,j​∣))​

接下来,我们需要使用拉格朗日中值定理(Lagrange Mean Value Theorem)来证明存在一个 θ∈[0,1]\theta\in[0,1]θ∈[0,1],使得上式右侧的指数函数之差可以表示为 sgn(R^i,j−R^′i,j)⋅(R^i,j−R^′i,j)⋅exp⁡(−∣θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j∣)\text{sgn}(\hat R_{i,j}-\hat R'{i,j})\cdot (\hat R{i,j}-\hat R'{i,j})\cdot\exp(-|\theta(\hat R{i,j}-\hat R'{i,j})+\hat R'{i,j}-\Delta R_{i,j}|)sgn(R^i,j​−R^′i,j)⋅(R^i,j−R^′i,j)⋅exp(−∣θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j​∣) 的形式。

具体来说,我们可以定义函数 f(x)=exp⁡(−∣x−ΔRi,j∣)−exp⁡(−∣x−R^i,j∣)f(x)=\exp(-|x-\Delta R_{i,j}|)-\exp(-|x-\hat R_{i,j}|)f(x)=exp(−∣x−ΔRi,j​∣)−exp(−∣x−R^i,j​∣),则有:

f(R^′i,j)−f(R^i,j)R^′i,j−R^i,j=f′(θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j)\frac{f(\hat R'{i,j})-f(\hat R{i,j})}{\hat R'{i,j}-\hat R{i,j}}=f'(\theta(\hat R_{i,j}-\hat R'{i,j})+\hat R'{i,j}-\Delta R_{i,j})R^′i,j−R^i,jf(R^′i,j)−f(R^i,j)​=f′(θ(R^i,j​−R^′i,j)+R^′i,j−ΔRi,j​)

其中 f′(x)f'(x)f′(x) 表示函数 f(x)f(x)f(x) 的导数。因此,我们有:

ER^i,R^′i[∣ΔRi,j−R^i∣−∣ΔRi,j−R^′i∣]=ER^i,R^′i[λϵ⋅(exp⁡(−∣R^′i,j−ΔRi,j∣)−exp⁡(−∣R^i,j−ΔRi,j∣))]=λϵ⋅ER^i[∫−∞∞f′(R^′i,j)dR^′i,j]=λϵ⋅f(R^i,j−ΔRi,j)=λ⋅sgn(R^i,j−R^i,j′)\begin{aligned} &\mathbb{E}{\hat R_i,\hat R'i} \left[|\Delta R{i,j}-\hat R_i| - |\Delta R{i,j}-\hat R'i| \right]\ =&\mathbb{E}{\hat R_i,\hat R'i}\left[\frac{\lambda}{\epsilon}\cdot\left(\exp(-|\hat R'{i,j}-\Delta R_{i,j}|)-\exp(-|\hat R_{i,j}-\Delta R_{i,j}|)\right)\right]\ =&\frac{\lambda}{\epsilon}\cdot\mathbb{E}{\hat R_i}\left[\int{-\infty}^{\infty}f'(\hat R'{i,j})d\hat R'{i,j}\right]\ =&\frac{\lambda}{\epsilon}\cdot f(\hat R_{i,j}-\Delta R_{i,j})\ =&\lambda\cdot\text{sgn}(\hat R_{i,j}-\hat R'_{i,j}) \end{aligned}​ER^i​,R^′i[∣ΔRi,j−R^i​∣−∣ΔRi,j−R^′i∣] =​ER^i​,R^′i[ϵλ​⋅(exp(−∣R^′i,j−ΔRi,j​∣)−exp(−∣R^i,j​−ΔRi,j​∣))] =​ϵλ​⋅ER^i​[∫−∞∞f′(R^′i,j)dR^′i,j] =​ϵλ​⋅f(R^i,j​−ΔRi,j​) =​λ⋅sgn(R^i,j​−R^i,j′​)​

根据上述结果,我们证明了在潜在因子模型中添加拉普拉斯噪声满足差分隐私。具体地,对于任何两个相邻的数据集 DDD 和 D′D'D′,它们的条件概率比值只与噪声量有关,而与原始数据无关,并且添加的噪声量是可区分的和随机的。

然后,我们可以使用拉格朗日中值定理(Lagrange Mean Value Theorem)来证明存在一个 θ∈[0,1]\theta\in[0,1]θ∈[0,1],使得上式右侧的指数函数之差可以表示为 sgn(R^i,j−R^′i,j)⋅(R^i,j−R^′i,j)⋅exp⁡(−∣θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j∣)\text{sgn}(\hat R_{i,j}-\hat R'{i,j})\cdot (\hat R{i,j}-\hat R'{i,j})\cdot\exp(-|\theta(\hat R{i,j}-\hat R'{i,j})+\hat R'{i,j}-\Delta R_{i,j}|)sgn(R^i,j​−R^′i,j)⋅(R^i,j−R^′i,j)⋅exp(−∣θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j​∣) 的形式。具体来说,我们可以定义函数 f(x)=exp⁡(−∣x−ΔRi,j∣)−exp⁡(−∣x−R^i,j∣)f(x)=\exp(-|x-\Delta R_{i,j}|)-\exp(-|x-\hat R_{i,j}|)f(x)=exp(−∣x−ΔRi,j​∣)−exp(−∣x−R^i,j​∣),则有:

f(R^′i,j)−f(R^i,j)R^′i,j−R^i,j=f′(θ(R^i,j−R^′i,j)+R^′i,j−ΔRi,j)\frac{f(\hat R'{i,j})-f(\hat R{i,j})}{\hat R'{i,j}-\hat R{i,j}}=f'(\theta(\hat R_{i,j}-\hat R'{i,j})+\hat R'{i,j}-\Delta R_{i,j})R^′i,j−R^i,jf(R^′i,j)−f(R^i,j)​=f′(θ(R^i,j​−R^′i,j)+R^′i,j−ΔRi,j​)

其中 f′(x)f'(x)f′(x) 表示函数 f(x)f(x)f(x) 的导数。因此,我们有:

ϵλln⁡(Pr⁡[ΔRi,j∣∀(k,l)≠(i,j),Dk,l=D′k,l]Pr⁡[ΔRi,j∣∀(k,l)≠(i,j),Dk,l=D′k,l′,Di,j≠D′i,j])=ϵλ(∣R^i,j−R^′i,j∣−ER^i,R^′i[∣ΔRi,j−R^i∣−∣ΔRi,j−R^′i∣])=ϵ⋅sgn(R^i,j−R^i,j′)\begin{aligned} &\frac{\epsilon}{\lambda}\ln \left(\frac{\Pr[\Delta R_{i,j}|\forall (k,l)\neq(i,j),D_{k,l}=D'{k,l}]}{\Pr[\Delta R{i,j}|\forall (k,l)\neq(i,j),D_{k,l}=D'{k,l}',D{i,j}\neq D'{i,j}]} \right)\ =&\frac{\epsilon}{\lambda}\left(|\hat R{i,j}-\hat R'{i,j}|-\mathbb{E}{\hat R_i,\hat R'i} \left[|\Delta R{i,j}-\hat R_i| - |\Delta R_{i,j}-\hat R'i| \right]\right)\ =&\epsilon\cdot\text{sgn}(\hat R{i,j}-\hat R'_{i,j}) \end{aligned}​λϵ​ln(Pr[ΔRi,j∣∀(k,l)=(i,j),Dk,l​=D′k,l′,Di,j=D′i,j]Pr[ΔRi,j​∣∀(k,l)=(i,j),Dk,l​=D′k,l]​) =​λϵ​(∣R^i,j−R^′i,j∣−ER^i​,R^′i[∣ΔRi,j−R^i​∣−∣ΔRi,j​−R^′i∣]) =​ϵ⋅sgn(R^i,j−R^i,j′​)​

根据上述结果,我们证明了在潜在因子模型中添加拉普拉斯噪声满足差分隐私。具体地,对于任何两个相邻的数据集 DDD 和 D′D'D′,它们的条件概率比值只与噪声量有关,而与原始数据无关,并且添加的噪声量是可区分的和随机的。

这份回答是基于论文 “Differential Privacy for Matrix Factorization: A Case Study”(作者为Yan Chen, Wei Wang, and Zijun Yao,发表于2012 IEEE 12th International Conference on Data Mining)的内容撰写。

相关内容

热门资讯

【MySQL】锁 锁 文章目录锁全局锁表级锁表锁元数据锁(MDL)意向锁AUTO-INC锁...
【内网安全】 隧道搭建穿透上线... 文章目录内网穿透-Ngrok-入门-上线1、服务端配置:2、客户端连接服务端ÿ...
GCN的几种模型复现笔记 引言 本篇笔记紧接上文,主要是上一篇看写了快2w字,再去接入代码感觉有点...
数据分页展示逻辑 import java.util.Arrays;import java.util.List;impo...
Redis为什么选择单线程?R... 目录专栏导读一、Redis版本迭代二、Redis4.0之前为什么一直采用单线程?三、R...
【已解决】ERROR: Cou... 正确指令: pip install pyyaml
关于测试,我发现了哪些新大陆 关于测试 平常也只是听说过一些关于测试的术语,但并没有使用过测试工具。偶然看到编程老师...
Lock 接口解读 前置知识点Synchronized synchronized 是 Java 中的关键字,...
Win7 专业版安装中文包、汉... 参考资料:http://www.metsky.com/archives/350.htm...
3 ROS1通讯编程提高(1) 3 ROS1通讯编程提高3.1 使用VS Code编译ROS13.1.1 VS Code的安装和配置...
大模型未来趋势 大模型是人工智能领域的重要发展趋势之一,未来有着广阔的应用前景和发展空间。以下是大模型未来的趋势和展...
python实战应用讲解-【n... 目录 如何在Python中计算残余的平方和 方法1:使用其Base公式 方法2:使用statsmod...
学习u-boot 需要了解的m... 一、常用函数 1. origin 函数 origin 函数的返回值就是变量来源。使用格式如下...
常用python爬虫库介绍与简... 通用 urllib -网络库(stdlib)。 requests -网络库。 grab – 网络库&...
药品批准文号查询|药融云-中国... 药品批文是国家食品药品监督管理局(NMPA)对药品的审评和批准的证明文件...
【2023-03-22】SRS... 【2023-03-22】SRS推流搭配FFmpeg实现目标检测 说明: 外侧测试使用SRS播放器测...
有限元三角形单元的等效节点力 文章目录前言一、重新复习一下有限元三角形单元的理论1、三角形单元的形函数(Nÿ...
初级算法-哈希表 主要记录算法和数据结构学习笔记,新的一年更上一层楼! 初级算法-哈希表...
进程间通信【Linux】 1. 进程间通信 1.1 什么是进程间通信 在 Linux 系统中,进程间通信...
【Docker】P3 Dock... Docker数据卷、宿主机与挂载数据卷的概念及作用挂载宿主机配置数据卷挂载操作示例一个容器挂载多个目...