Множественные эксперименты: теория и практика

от автора

В современном мире сложно представить развитие продукта без A/B-тестирования. Чтобы успешно запустить продукт или новую функциональность — надо грамотно спроектировать A/B, рассчитать и интерпретировать его результаты. Иногда нам требуется тестирование более чем для двух групп. В этой статье мы рассмотрим как раз такой случай — множественное тестирование:

— поговорим о том, когда и зачем следует проводить множественные тесты;
— рассмотрим основные методы расчёта результатов тестов и математические принципы, на которых основаны методы;
— приведём примеры программной реализации методов; эти примеры вы сможете использовать в своих проектах.

Итак, приступим.

Множественные эксперименты: когда и зачем

Очевидно, что любое техническое усложнение эксперимента должно быть обосновано практической необходимостью. Это касается и множественных тестов. Если аудитория разбивается более чем на две подгруппы, вероятность получить ошибку первого рода при эксперименте нарастает экспоненциально:

$1 – (1 – \alpha)^n, $

где $n$ — число подгрупп, $\alpha$ — заданный уровень статистической значимости.
Таким образом, при добавлении всего одной дополнительной подгруппы в привычный парный тест ($n = 3$) при заданном стандартном уровне $\alpha = 0.05$ мы получаем вероятность ошибки первого рода $p = 0.14$, что значительно превышает наш заданный $\alpha = 0.05$.

Зачем же проводить множественные эксперименты, если они снижают точность результатов исследования? Причин может быть несколько:

1. Требуется протестировать несколько изменений и их кумулятивное воздействие на продуктовые метрики. Пример — показ пользователю на странице сервиса двух новых элементов, которые по-разному расположены относительно друг друга.
2. Изменения можно протестировать только в одном временно́м промежутке, поскольку они и взаимозависимы, и чувствительны к недельной сезонности. Пример — отключение рекламных каналов для расчёта эффекта межканальной каннибализации.
3. Заказчик хочет как можно скорее и дешевле получить ответ, какой из вариантов следует выбрать, сэкономив при этом время разработки и внедрения эксперимента.

Если мы столкнулись с одной из таких задач и нам предстоит рассчитать статистическую значимость для теста — нужно учитывать необходимость поправки на множественное тестирование. О том, что же это такое и как это правильно сделать, и пойдёт речь ниже.

Множественные эксперименты: особенности расчёта

Основные понятия

Рассмотрим общий случай, когда мы имеем дело с $n$ гипотезами $H_{0i}$, $i = 1, …, n$ о попарном равенстве медианы или среднего $m$ подгрупп. В таком случае возможен и верный, и неверный результат исхода $H_{0i}$ $VS$ $H_{1i}$ для каждой из $i = 1, …, n$ гипотез. Представим результаты в виде confusion matrix эксперимента:

$H_{0i}$ не отклонена $H_{0i}$ отклонена $Total$

$H_{0i}$ верна

$U$ $V$ $n_0$
$H_{0i}$ неверна $T$ $S$ $n_1$
$Total$ $k – R$ $R$ $n$

Таким образом, неверно отклонены $V$ из $R$ отклонённых основных гипотез.

Исходя из этих параметров, мы введём два важных понятия ошибок, которые контролируются при множественном тестировании: $FWER$ и $FDR$.

Групповая вероятность ошибки $FWER$ (Family-Wise Error Rate) представляет собой вероятность получить по крайней мере одну ошибку первого рода и определяется формулой:

$FWER = p(V>0).$

$FDR$ (False Discovery Rate) — это математическое ожидание отношения ошибок первого рода к общему количеству отклонений основной гипотезы:

$FDR = E(V/R|R>0).$

Рассмотрим методы контроля этих ошибок на примере стандартного продуктового кейса.

Описание кейса

В качестве простого примера рассмотрим эксперимент, в котором трём изолированным, непересекающимся группам пользователей показали три варианта страницы с предложением нажать на кнопку звонка по объявлению. В качестве основной метрики для простоты расчёта возьмём суммарное количество звонков в каждой группе.

Посмотрим на то, как же менялась исследуемая метрика:

Рис. 1. График динамики нажатий на кнопку звонка

Воспользуемся стандартным методом $bootstrap$, чтобы привести распределение целевой метрики в выборках к нормальному виду, и посмотрим на гистограммы и диаграммы размаха средних значений в выборках:

Рис. 2. Гистограмма распределения средних значений в группах

Рис. 3. Диаграмма размаха средних значений в группах

Судя по графикам, группа C выигрывает по количеству нажатий на кнопку звонка. Однако необходимо убедиться в статистической значимости результатов. Для этого приведём оцениваемую метрику к виду нормального распределения и воспользуемся привычным t-критерием Стьюдента для попарного сравнения групп в эксперименте, а затем — методами контроля $FWER$ и $FDR$ для учёта поправки на множественное сравнение.

Контроль FWER

Существует множество методов контроля данной ошибки, однако наиболее распространены два: 1) одношаговая процедура с одновременной корректировкой $p-value$ для всех тестируемых гипотез методом Бонферрони; 2) последовательная, итеративная корректировка $p-value$ c принятием решения на каждом шаге в соответствии с результатом методом Холма.

1. Поправка Бонферрони

Эта одношаговая процедура позволяет снизить вероятность ложноположительного результата эксперимента. Суть метода — принять альтернативную гипотезу, если:

$p ≥ \alpha / n, $

где $n$ — количество тестируемых гипотез.

Реализовать метод можно достаточно просто при помощи стандартной библиотеки $bootstrapped$:

from bootstrapped import bootstrap as bs from bootstrapped import compare_functions as bs_cmp from bootstrapped import stats_functions as bs_st   bs_ab_estims = bs.bootstrap_ab(np.array(group_A), np.array(group_B),                                 bs_st.mean bs_cmp.difference,                                 num_iterations=5000, alpha=0.05/3,                                 iteration_batch_size=100, scale_test_by=1,                                 num_threads=4)  bs_bc_estims = bs.bootstrap_ab(np.array(group_B), np.array(group_C),                                 bs_st.mean bs_cmp.difference,                                 num_iterations=5000, alpha=0.05/3,                                 iteration_batch_size=100, scale_test_by=1,                                 num_threads=4)  bs_ac_estims = bs.bootstrap_ab(np.array(group_A), np.array(group_C),                                 bs_st.mean bs_cmp.difference,                                 num_iterations=5000, alpha=0.05/3,                                 iteration_batch_size=100, scale_test_by=1,                                 num_threads=4) 

Получив результаты статистической оценки, можно сделать выводы, различаются группы или нет.

Основной минус подхода: чем больше подгрупп — тем меньше мощность критерия, что увеличивает вероятность принять неверную гипотезу. Например, для десяти тестов и $α_i = 0.05$ необходимо получить $p_i ≤ 5 · 10^-3$, чтобы сказать, что разница значимая. Чтобы нивелировать эти недостатки, можно выбрать метод Холма.

2. Метод Холма

Это нисходящая процедура последовательного изменения $p-value$. На первом шаге алгоритма метода реальные $p-value$ сортируются по возрастанию:

$p_1 ≤ ··· ≤ p_n,$

затем корректируется исходно заданный $\alpha$-уровень:

$ \alpha^{’}_i = \alpha / (n – i + 1), $

после чего проверяется условие $p_i ≥ \alpha^{’}_i$ и делается заключение, верна ли основная гипотеза $H_{0i}$.
Точка останова алгоритма — момент i, когда принята первая основная гипотеза $H_{0i}$, при этом принимаются и все последующие $H_{0j}, j > i$.
Реализовать данный метод можно при помощи процедуры $multipletests()$ из библиотеки $statsmodels$ с параметром $method=”holm”$:

from bootstrapped import bootstrap as bs from bootstrapped import stats_functions as bs_st from scipy.stats import ttest_ind from statsmodels.sandbox.stats.multicomp import multipletests  bs_a = bs.bootstrap(np.array(group_A), stat_func=bs_st.mean,               num_iterations=10000, iteration_batch_size=300,               return_distribution=True)   bs_b = bs.bootstrap(np.array(group_B), stat_func=bs_st.mean,               num_iterations=10000, iteration_batch_size=300,               return_distribution=True)  bs_c = bs.bootstrap(np.array(group_C), stat_func=bs_st.mean,               num_iterations=10000, iteration_batch_size=300,               return_distribution=True)   stat_ab, p_ab = stats.ttest_ind(pd.DataFrame(bs_a), pd.DataFrame(bs_b))  stat_bc, p_bc = stats.ttest_ind(pd.DataFrame(bs_b), pd.DataFrame(bs_c))  stat_ac, p_ac = stats.ttest_ind(pd.DataFrame(bs_a), pd.DataFrame(bs_c))  print(sorted([p_ab, p_bc, p_ac]))  print("FWER: " + str(multipletests(sorted([p_ab, p_bc, p_ac]), alpha=0.05,                       method='holm', is_sorted = True))) 

Контроль FDR

Контроль $FDR$ означает, что выполняется условие $FDR = E(V/R) < \alpha$. При этом $FDR ≤ FWER$, т. е. вероятность получить ошибку первого рода при контроле $FDR$ снижается.

Метод Бенджамини — Хохберга

Эта восходящая процедура предполагает последовательное изменение $p-value$, предварительно отсортированных по возрастанию:

$p_1 ≤ ··· ≤ p_n.$

Затем исходный $α$-уровень корректируется по формуле:

$\alpha^{’}_i = i · \alpha / n, $

затем, как и в методе Холма, проверяется условие $p_i ≥ \alpha^{’}_i$ и делается заключение, верна ли основная гипотеза $H_{0i}$ и все последующие $H_{0j}, j > i$.
Метод Бенджамини — Хохберга, как и метод Холма, можно реализовать при помощи процедуры $multipletests()$:

print("FDR: " + str(multipletests([p_ab, p_bc, p_ac], alpha=0.05,                      method='fdr_bh', is_sorted = False))) 

Заключение

В статье мы рассказали об основных методах оценки результатов множественных тестов и привели примеры программного кода, реализующего эти методы. Мы надеемся, что вы с пользой и интересом провели время и сможете применить описанные процедуры на практике. А если у вас возникли вопросы — мы с радостью ответим на них.

Спасибо за внимание!


ссылка на оригинал статьи https://habr.com/ru/company/yandex/blog/476826/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *