Um teste_de_hipoteses_freq ideal seria aquele em que as probabilidades de erro tipo I e II são ambas nulas. Em geral, este teste não existe, então, fixada a teste_de_hipoteses_freq \(\alpha \in [0,1]\), optamos pelo teste com teste_de_hipoteses_freq \(\leq \alpha\) em \(\Theta_0\) que tenha menor poder em \(\Theta_0^C\). Ou seja, o teste que minimiza a probabilidade de teste_de_hipoteses_freq enquanto mantém uma significância \(\alpha\). Este teste é chamado UMP (Uniformemente Mais Poderoso).
Quando \(\Theta = \{ \theta_0, \theta_1 \}\) e temos duas teste_de_hipoteses_freq \(H_0: \theta = \theta_0\) e \(H_1: \theta = \theta_1\), o UMP tem uma forma definida, dada pelo Lema de Neyman-Pearson:
Se \(H_0: \theta = \theta_0\) é uma hipótese simples, o teste UMP para \(H_0\) é dado por \[ \varphi^*(\mathbf{x}) = \begin{cases} 1\text{, se } \displaystyle \frac{f(\mathbf{x} \ | \ \theta_0)}{f(\mathbf{x} \ | \ \theta_1)} \leq k \\ 0 \text{, c.c} \end{cases} \] onde \(k\) é uma quantidade fixada, que está totalmente determinada pela significância \(\alpha\) desejada para o teste: \[ \alpha = \mathbb{P} \left( \frac{f(\mathbf{x} \ | \ \theta_0)}{f(\mathbf{x} \ | \ \theta_1)} \leq k \ | \ \theta = \theta_0 \right) \]
Em particular, se \(k = b/a\), \(\varphi^*\) minimiza a combinação \[ a \mathbb{P}(\text{erro tipo I}) + b \mathbb{P}(\text{erro tipo II}) \] Assim, podemos escolher \(k\) dependendo da preferência relativa entre os dois erros (quantificando quanto um erro é mais indesejável que o outro).
Ref. Statistical Inference, Casella e Berger
Em casos diferentes dos descritos até aqui, em geral não é possível obter o teste UMP. Neste caso, é usada uma generalização deste teste, denominado teste RVG (da Razão de Verossimilhança Generalizada).
Se queremos testar \(H_0 : \theta \in \Theta_0\) contra \(H_1: \theta \not\in \Theta_0\), definimos como estatística de teste a razão entre a moda de \(\mathbf{x}\) sob \(\Theta_0\) e sua moda global: \[ \lambda(\mathbf{x}) = \frac{\displaystyle \sup_{\theta \in \Theta_0}f(\mathbf{x} \ | \ \theta)}{\displaystyle \sup_{\theta \in \Theta}f(\mathbf{x} \ | \ \theta)} \] Neste caso, o teste RVG é dado por \[ {\varphi}_{\text{rvg}}(\mathbf{x}) = \begin{cases} 1 \text{, se } \lambda(\mathbf{x}) \leq k \\ 0 \text{, c.c.} \end{cases} \] Onde \(k\) também pode ser obtido fixando o nível de significância \(\alpha\).
Supondo \(H_0\) verdadeira, a distribuição assintótica de \(\lambda\) é \[ \lambda(\mathbf{x}) \underset{ n }{ \longrightarrow } \chi^2_g \] onde \(\chi^2_g\) é a distribuição chi-quadrado com \(g = \dim\Theta - \dim \Theta_0\) graus de liberdade.