跳转至

Uniform Convergence 失败与高维推断

来源:Leeb & Pötscher (2005, ET; 2007, WP)

为什么高维 inference 会出问题?

核心矛盾:sparse 估计量必须同时做选择(哪些系数为零)和推断(非零系数多大),当真实参数接近零但不等于零时(致命区域 \(\beta = O(c/\sqrt{n})\)),这两件事发生冲突。

三层递进的问题:

  1. 有限样本分布是双峰的:在致命区域内,模型选择"时对时错",post-selection 估计量的分布是两个正态的混合,渐近正态近似完全失效
  2. Maximal MSE 发散:由 contiguity 论证,对任意大的损失 \(l(s)\),总能找到 \(\theta_n = -s/\sqrt{n}\) 使得 sparsity condition 迫使 \(\hat{\theta} = 0\),损失恰好等于 \(l(s)\)——这不是"误判变少但结果放大"的 trade-off,而是可以构造任意大的损失
  3. 数学上不可修复:极限分布在 \(\beta=0\) 处不连续,没有任何 bootstrap 能修复

从数学角度看,本质是 pointwise vs uniform 的问题:oracle property 只对每个固定参数逐点成立,但致命区域是一条"移动的裂缝"——随 \(n\) 缩小但永不消失,pointwise 极限看不到它。

那能不能至少识别哪些系数为零?

可以做到 pointwise(对固定参数,样本量够大终会选对),但不能 uniform(总存在信号太弱无法检测的参数)。除非加 beta-min condition 假设信号足够强——但这不可验证。

后续文献的主流选择是放弃选模型,转向 debiased LASSO / DML 做 uniformly valid inference。