Prism 将错误发现率的概念作为我们定义异常值方法的一部分(从一叠值中或在非线性回归过程中)。Prism 还可以在同时计算多重 t 检验值时使用 FDR 方法,在分析其他地方计算的一堆 P 值时使用 FDR 方法,以及在进行单因素、双因素或三因素方差分析后使用多重比较方法。
•这种方法首先计算每次比较的 P 值。当作为方差分析的后续方法使用时,使用费雪最小显著性差异法(该方法本身不校正多重比较,但会将方差集中起来以增加自由度)进行比较。在分析一组 t 检验时,首先要单独计算每个 t 检验。在分析一组 P 值时,当然是直接输入这些 P 值。
•这里将解释其目的。第一步是指定 Q,即所需的错误发现率(可以是介于 0 和 1 之间的分数,也可以是介于 0% 和 100% 之间的百分比)。然后,Prism 会告诉你哪些 P 值低到足以被称为 "发现",目标是确保这些 "发现"中不超过 Q% 实际上是假阳性。本示例将 Q 值设为 0.05,目标是不超过 5%的 "发现"为假阳性。
•Prism 可让您从三种算法中选择一种来决定哪些 P 值小到足以成为 "发现"。本杰明尼和霍奇伯格法是最先开发的,因此是比较标准的方法。Benjamani、Krieger 和 Yekutieli 方法的检验力更强,因此更受青睐。本杰明尼和叶库泰利法的假设较少,但检验力要小得多。
•当 P 值较小时,这种 FDR 方法不使用 "统计学显著"的概念或短语,而是使用 "发现"一词(有些作者使用的术语不同)。
•FDR 方法无法计算每项比较的置信区间。
•Q(注意是大写)是您输入的期望 FDR 值。Prism 还会为每次比较计算 q(小写)。q 值是 Q 的值,在这个值上,特定比较将处于被归类为发现与否的边缘。q 值不仅依赖于该比较族,还依赖于族中比较的数量和 P 值的分布。
•Prism 报告的 q 值是经 FDR调整的 P 值,而不是经 FDR校正 的 P 值。这是一个微妙的区别。
•如果所有零假设都为真,那么您发现一个或多个发现的概率只有 Q%(其中 Q 是您选择的错误发现率)。
•如果所有的 P 值都小于您选择的 Q 值(修正了 P 值是分数而 Q 值是百分比的事实),那么所有的比较都将被标记为发现。(当您选择本杰明尼和耶库泰利方法时,这条规则就不适用了)。
•如果所有 P 值都大于您选择的 Q 值,那么任何比较都不会被标记为发现。
•q 值通常大于相应的 P 值。例外情况是,P 值最大的比较的 q 值可以等于 P 值。
•q 值由该比较的 P 值、其他 P 值和比较次数决定。输入的 Q 值不会影响 q 值的计算。
•Prism 中的算法控制的是 FDR,而不是 pFDR(这里不做解释)。
•这些方法确定的 q 值往往比使用通常的多重比较方法(Bonferroni 等)计算出的调整 P 值更高(而且绝不会更低)。
•非数学评论:Glickman, M. E., Rao, S. R., & Schultz, M. R. (2014). 错误发现率控制是健康研究中 Bonferroni- 类型调整的推荐替代方案。 临床流行病学杂志》, 67(8),850-857。