复高斯分布(Complex Gaussian Distribution)是一种描述复数随机变量的概率分布。对于一个复随机变量 ( Z ),其复高斯分布的概率密度函数(Probability Density Function, PDF)通常表示为:
[ f Z ( z ) = 1 π σ 2 e ? ∣ z ? μ ∣ 2 σ 2 f_Z(z) = \frac{1}{\pi \sigma^2} e^{-\frac{|z-\mu|^2}{\sigma^2}} fZ?(z)=πσ21?e?σ2∣z?μ∣2? ]
其中:
需要注意的是,这里的复数 ( z z z ) 和 ( μ \mu μ ) 是复平面上的值。这样定义的复高斯分布是二维的,包括实部和虚部。
对于一维的复高斯分布,即只考虑实部或虚部的情况,概率密度函数会略有不同,但整体形式仍然类似。
如果一个向量 ( Z \mathbf{Z} Z ) 的每个元素都服从复高斯分布,那么整个向量 ( Z \mathbf{Z} Z ) 的概率密度函数可以通过各个元素的概率密度函数的乘积来表示。
假设 ( Z \mathbf{Z} Z ) 是一个包含 ( N N N ) 个元素的复向量,其中每个元素 ( Z i Z_i Zi? ) 都是复高斯分布的随机变量。那么,( Z \mathbf{Z} Z ) 的概率密度函数可以表示为:
[ f Z ( z ) = ∏ i = 1 N f Z i ( z i ) f_{\mathbf{Z}}(\mathbf{z}) = \prod_{i=1}^{N} f_{Z_i}(z_i) fZ?(z)=∏i=1N?fZi??(zi?) ]
其中:
这个表示假设各个元素之间是相互独立的。这种情况下,整个复向量的概率密度函数就是各个元素概率密度函数的乘积。
如果你希望考虑一个矩阵的情况,其中每个元素都是复高斯分布的随机变量,你可以采用类似的思路。
假设矩阵 ( Z \mathbf{Z} Z ) 是一个 ( M × N M \times N M×N ) 复矩阵,其中每个元素 ( Z i j Z_{ij} Zij? ) 是一个复高斯分布的随机变量。那么,整个矩阵 ( Z \mathbf{Z} Z ) 的概率密度函数可以表示为各个元素概率密度函数的乘积。这是基于独立同分布的假设,即矩阵的各个元素之间是相互独立的。
[ f Z ( z ) = ∏ i = 1 M ∏ j = 1 N f Z i j ( z i j ) f_{\mathbf{Z}}(\mathbf{z}) = \prod_{i=1}^{M} \prod_{j=1}^{N} f_{Z_{ij}}(z_{ij}) fZ?(z)=∏i=1M?∏j=1N?fZij??(zij?) ]
其中:
需要注意的是,这种表示假设矩阵的各个元素是相互独立的,这在某些情况下可能不符合实际情况。如果矩阵的元素之间存在相关性,那么概率密度函数的表示可能会更为复杂。
Robust Beamfocusing for FDA-Aided Near-Field
Covert Communications With Uncertain Location
2023 IEEE ICC
Let ( D w , θ w ) \left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) (Dw?,θw?) denote the location of Willie. We assume Willie is synchronized with Alice with the full knowledge of the carrier frequencies, and the channel vector h H ( D w , θ w ) \mathbf{h}^{H}\left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) hH(Dw?,θw?) . This is the worst case for legitimate nodes to analyze the lower bound of covert communications performance. The hypothesis test at Willie is given by
{ H 0 : y w ( n ) = z w ( n ) , H 1 : y w ( n ) = h w H w s ( n ) + z w ( n ) , \left\{\begin{array}{l} \mathcal{H}_{0}: y_{\mathrm{w}}^{(n)}=z_{\mathrm{w}}^{(n)}, \\ \mathcal{H}_{1}: y_{\mathrm{w}}^{(n)}=\mathbf{h}_{\mathrm{w}}^{H} \mathbf{w} s^{(n)}+z_{\mathrm{w}}^{(n)}, \end{array}\right. {H0?:yw(n)?=zw(n)?,H1?:yw(n)?=hwH?ws(n)+zw(n)?,?
where h w H \mathbf{h}_{\mathrm{w}}^{H} hwH? is short for h H ( D w , θ w ) \mathbf{h}^{H}\left(D_{\mathrm{w}}, \theta_{\mathrm{w}}\right) hH(Dw?,θw?) , and z w ( n ) ~ C N ( 0 , σ w 2 ) z_{\mathrm{w}}^{(n)} \sim \mathcal{C N}\left(0, \sigma_{\mathrm{w}}^{2}\right) zw(n)?~CN(0,σw2?) is the AWGN at Willie with noise power σ w 2 \sigma_{\mathrm{w}}^{2} σw2? . From (5), the probability distribution functions (PDFs) of y w = [ y w ( 1 ) , y w ( 2 ) , … , y w ( N ) ] T \mathbf{y}_{\mathrm{w}}= \left[y_{\mathrm{w}}^{(1)}, y_{\mathrm{w}}^{(2)}, \ldots, y_{\mathrm{w}}^{(N)}\right]^{T} yw?=[yw(1)?,yw(2)?,…,yw(N)?]T under H 0 \mathcal{H}_{0} H0? and H 1 \mathcal{H}_{1} H1? can be derived as
P 0 ? P ( y w ∣ H 0 ) = 1 π N σ w 2 N e ? y w H y w σ w 2 \mathbb{P}_{0} \triangleq \mathbb{P}\left(\mathbf{y}_{\mathrm{w}} \mid \mathcal{H}_{0}\right)=\frac{1}{\pi^{N} \sigma_{\mathrm{w}}^{2 N}} e^{-\frac{\mathbf{y}_{\mathrm{w}}^{H} \mathbf{y}_{\mathrm{w}}}{\sigma_{\mathrm{w}}^{2}}} P0??P(yw?∣H0?)=πNσw2N?1?e?σw2?ywH?yw??
P 1 ? P ( y w ∣ H 1 ) = 1 π N ( ∣ h w H w ∣ 2 + σ w 2 ) N e ? y w H y w ∣ h w H ∣ 2 + σ w 2 \mathbb{P}_{1} \triangleq \mathbb{P}\left(\mathbf{y}_{\mathrm{w}} \mid \mathcal{H}_{1}\right)=\frac{1}{\pi^{N}\left(\left|\mathbf{h}_{\mathrm{w}}^{H} \mathbf{w}\right|^{2}+\sigma_{\mathrm{w}}^{2}\right)^{N}} e^{-\frac{\mathbf{y}_{\mathrm{w}}^{H} \mathbf{y}_{\mathrm{w}}}{\left|\mathbf{h}_{\mathrm{w}}^{H}\right|^{2}+\sigma_{\mathrm{w}}^{2}}} P1??P(yw?∣H1?)=πN(∣hwH?w∣2+σw2?)N1?e?∣hwH?∣2+σw2?ywH?yw??