Autoregressive Quantile networks for generative modeling
- 3 autoregressive implicit quantiles
3 autoregressive implicit quantiles
autoregressive:自身做回歸變量,用之前若干時刻的隨機變量 來建模 之后某些時刻 隨機變量的模型。
N維隨機變量的IQN建模 :
n維隨機變量:X=(X1,...,Xn)∈X1×,...,×Xn=XX=(X_1,...,X_n)\in \mathcal{X}_1\times,...,\times\mathcal{X}_n=\mathcal{X}X=(X1?,...,Xn?)∈X1?×,...,×Xn?=X ,基于IQN 兩個簡單應用:
方式1– 假設X的各個維度是comonotonic,其聯合分位數函數可以表示為:
FX?1(τ)=(FX1?1(τ),...,FXn?1(τ))F^{-1}_X (\tau)=(F^{-1}_{X_1} (\tau),...,F^{-1}_{X_n} (\tau))FX?1?(τ)=(FX1??1?(τ),...,FXn??1?(τ))
即每個維度使用相同的τ\tauτ值。
方式2–假設X的各個維度是相互獨立的,每個XiX_iXi?使用不同的τi\tau_iτi?,但是聯合分位數該怎么寫沒有表示出來。
以上兩種假設都太強了,并不適用于圖像生成領域。下面開始介紹AIQN方法,圖像的概率密度pXp_XpX?采用和PixleCNN 中一樣的條件似然的乘積建模,那么聯合的累積分布函數可以表示為下式:
pX(x)=∏i=1npXσ(i)(xσ(i)∣xσ(1),...,xσ(i?1))p_X(x)=\prod_{i=1}^np_{X_{\sigma(i)}}(x_{\sigma(i)}|x_{\sigma(1)},...,x_{\sigma(i-1)})pX?(x)=i=1∏n?pXσ(i)??(xσ(i)?∣xσ(1)?,...,xσ(i?1)?)
FX(x)=P(X1<x1,....,Xn<xn)=∏i=1nFXi∣Xi?1,...,X1(xi)F_X(x)=P(X_1<x_1,....,X_n<x_n)\\ =\prod_{i=1}^nF_{X_i|X_{i-1},...,X_{1}}(x_i)FX?(x)=P(X1?<x1?,....,Xn?<xn?)=i=1∏n?FXi?∣Xi?1?,...,X1??(xi?)
此時聯合分位點和聯合分位數分別為:
τjoint=∏i=1nτi\tau_{joint}=\prod_{i=1}^n\tau_iτjoint?=i=1∏n?τi?
FX?1(τjoint)=(FX?1(τ1),...,FXn∣Xn?1?1(τn))F^{-1}_X(\tau_{joint})=(F^{-1}_X(\tau_{1}),...,F^{-1}_{X_n|X_{n-1}}(\tau_{n}))FX?1?(τjoint?)=(FX?1?(τ1?),...,FXn?∣Xn?1??1?(τn?))
整張圖像的聯合分位數FX?1(τjoint)F^{-1}_X(\tau_{joint})FX?1?(τjoint?) 可以分解為各個像素位置分位數的聯合表示。所以可以逐像素的使用分位數回歸,來 訓練生成模型。