Capítulo 5 Modelos de distribuições discretas

Neste capítulo estudaremos vários modelos de distribuições de variáveis aleatórias discretas mais comuns. Ao longo do capítulo usaremos a notação \(X\sim\mathcal D\) para dizer que \(X\) “tem distribuição \(\mathcal D\)”, onde \(\mathcal D\) é uma certa distribuição de probabilidade.

5.1 Distribuição Uniforme Discreta

Definição 5.1 Dizemos que a v.a. \(X\) tem distribuição uniforme discreta sobre o conjunto \(\{x_1,\ldots,x_n\}\subset \mathbb R\) se tem função de probabilidade dada por \[ p(x_i) = \frac{1}{n}, \; i =1,2,\ldots,n. \] \(X\) é um elemento escolhido ao acaso no conjunto \(\{x_1,\ldots,x_n\}\).

Notação: \(X\sim\) Uniforme discreta\(\{x_1,\ldots,x_n\}\).

Exemplo 5.1 Seja \(X\): Número observado no lançamento de um dado honesto, temos que \[ p(i)=\frac{1}{6}, \; i=1,2,3,4,5,6. \]

Proposição 5.1 Seja \(X\sim\) Uniforme discreta\(\{1,\ldots,n\}\), então: \[\begin{align*} E(X) = \frac{n+1}{2} \text{ e } Var(X) = \frac{(n-1)(n+1)}{12} \end{align*}\]

Prova. \[\begin{align*} E(X) &= \frac{1}{n} \sum_{i=1}^n i = \frac{1}{n} \frac{n(n+1)}{2} = \frac{n+1}{2} \\ E(X^2) &= \frac{1}{n} \sum_{i=1}^n i^2 = \frac{1}{n} \frac{n(n+1)(2n+1)}{6} \\ Var(X) &= E(X^2) - [E(X)]^2 = \frac{(n-1)(n+1)}{12} \end{align*}\]

5.2 Distribuição de Bernoulli

Definição 5.2 (Ensaio de Bernoulli) Um ensaio de Bernoulli é um experimento com somente dois resultados possíveis: sucesso ou fracasso, de modo que a probabilidade de sucesso é igual a \(p\in[0,1]\).

Exemplo 5.2 Exemplos de ensaios de Bernoulli são:

  1. Lançamento de uma moeda: cara (sucesso) ou coroa (fracasso).
  2. Avaliação de um item: item bom (sucesso) ou item defeituoso (fracasso).
  3. Resposta de um munícipe sobre o favorecimento a um projeto de lei: sim (sucesso) ou não (fracasso).

Dado um evento \(A \subset \Omega\) com espaço amostral \(\Omega\) associado a um certo experimento aleatório, podemos definir um ensaio de Bernoulli, da seguinte maneira: dizemos que ocorre sucesso, se \(A\) ocorre, e dizemos que ocorre fracasso se, \(A^c\) ocorre. Por exemplo, considere o lançamento de um dado honesto e, defina \(A=\{6\}\): observar a face 6, logo \(A^c=\{1,2,3,4,5\}\). No exemplo, a probabilidade de sucesso é \(p=1/6\).

Considere um ensaio de Bernoulli, e defina a v.a. \(X \in \{0,1\}\) com distribuição de probabilidade: \[P(X=1)=p \text{ e } P(X=0)=1-p,\] de modo que \(\{X=1\}\) corresponde ao evento em que ocorreu sucesso e o evento \(\{X=0\}\) corresponde ao evento em que ocorreu fracasso. Dizemos que \(X\) é a da ocorrência de sucesso em um ensaio de Bernoulli. No exemplo do lançamento do dado, temos: \[ X(\omega)=\begin{cases} 1, & \omega \in A =\{6\}, \\ 0, & \omega \in A^c=\{1,2,3,4,5\} \end{cases} \]

Definição 5.3 A variável aleatória \(X\) definida como a indicadora da ocorrência de sucesso em um ensaio de Bernoulli tem uma distribuição de Bernoulli com parâmetro \(p\), cuja função de probabilidade de \(X\) é dada por: \[ p(x) = p^x (1-p)^{1-x}, \; x=0,1. \]

Notação: \(X \sim\) Bernoulli(\(p\)), onde \(p\) é chamado de parâmetro de sucesso.

Exemplo 5.3 A continuação apresentamos alguns exemplos de variáveis aleatórias com distribuição de Bernoulli:

  1. Uma pessoa é selecionada ao acaso entre os moradores de uma cidade, e pergunta-se a ela se concorda com um projeto municipal. As respostas possíveis são SIM (sucesso) ou NÃO (fracasso). Defina: \[ X=\begin{cases} 1, & \text{se a pessoa responde SIM}, \\ 0, & \text{se a pessoa responde NÃO} \end{cases} \]

  2. No lançamento de uma moeda. Defina: \[ X=\begin{cases} 1, & \text{se sair cara}, \\ 0, & \text{se sair coroa} \end{cases} \]

  3. Na inspecção de um item de um lote. Defina: \[ X=\begin{cases} 1, & \text{se o item for defeituoso}, \\ 0, & \text{se o item não for defeituoso} \end{cases} \]

Proposição 5.2 Seja \(X\sim\) Bernoulli(\(p\)), temos que \[ E(X) = p \text{ e } Var(X) = p(1-p) \]

Prova. \[\begin{align*} E(X) &= \sum_{x=0}^1 x\, p^x (1-p)^{1-x} = p\\ E(X^2) &= \sum_{x=0}^1 x^2 \, p^x (1-p)^{1-x} = p \\ Var(X) &= E(X^2) - [E(X)]^2 = p-p^2= p(1-p) \end{align*}\]

5.3 Distribuição Binomial

A distribuição binomial, surge da realização sucessiva de \(n\geq 1\) ensaios independentes de Bernoulli. Por exemplo, considere o experimento de lançar uma moeda honestas 10 vezes esse experimento tem as seguintes características:

  1. O experimento lançar uma moeda é um ensaio de Bernoulli.

  2. O experimento é realizado 3 vezes.

  3. Todos os 3 ensaios são idênticos e independentes.

  4. A probabilidade \(p=1/2\) de obter uma cara, é constante em todos os ensaios.

Nesse experimento, definimos a variável aleatória, \(X\), definida como o número de caras obtidas nos 3 lançamentos.

Sob as condições do experimento podemos determinar a função de probabilidade de \(X\).

Podemos determinar que a função de probabilidade de \(X\) é:

\[ p(x) = \binom{3}{x}(1/2)^x(1/2)^{n-x}, \; x=0,1,2,3. \]

Explicação:

  • \(\binom{3}{x}\): corresponde ao número de maneiras de escolher 2 caras.

  • \((1/2)^{x}\): corresponde à probabilidade de observar \(x\) caras nos \(n\) lançamentos (multiplicamos as probabilidades pois os ensaios são independentes).

  • \((1/2)^{n-x}\): corresponde à probabilidade de observar \(n-x\) coroas nos \(n\) lançamentos (multiplicamos as probabilidades pois os ensaios são independentes).

Repare que se \(X\sim\) Binomial(\(n,p\)), então \(X= X_1 + \ldots + X_n\), onde \(X_1,\ldots,X_n \overset{iid}{\sim}\) Bernoulli(\(p\)). De modo que \(X_i = 1\) se o \(i\)-ésimo ensaio for sucesso ou \(X_i=0\) se o \(i\)-ésimo ensaio for fracasso.

Definição 5.4 Considere \(n\geq 1\) ensaios independentes de Bernoulli e seja \(p\) a probabilidade de sucesso em cada ensaio. Logo, a variável aleatória \(X\) definida como o número de sucessos nos \(n\) ensaios tem uma distribuição binomial de parâmetros \(n\) e \(p\), cuja função de probabilidade é dada por \[ p(x) = \binom{n}{x} p^x (1-p)^{n-x}, \, x=0,1,\ldots,n. \] Notação: \(X\sim\) Binomial(\(n,p\)).

Observação. Note que pelo Teorema Binomial \(p(x)\) é de fato uma função de probabilidade. Com efeito: \[ \sum_{x=0}^n \binom{n}{x} p^x (1-p)^{n-x} = (p+(1-p))^n = 1. \]

Proposição 5.3 Seja \(X\sim\)Binomial(\(n,p\)), temos que \[ E(X) = np \text{ e } Var(X) = np(1-p) \]

Prova. Usamos o fato que \(X=\sum_{i=1}^n X_i\), em que cada \(X_1, \ldots, X_n \sim\) Bernoulli(\(p\)) independentes. Logo \[\begin{align*} E(X) = \sum_{i=1}^n E(X_i) = np, \\ Var(X) = \sum_{i=1}^n Var(X_i) = np(1-p). \end{align*}\]

Exemplo 5.4 Suponha que 60% da população de uma cidade é a favor de um projeto proposto pelo prefeito. Seleciona-se uma amostra aleatória de 15 pessoas.

  1. Qual a probabilidade de que a amostra contenha no máximo duas pessoas favoráveis ao projeto?

  2. Quais são o valor esperado e variância do número de pessoas a favor do projeto na amostra?

Solução. Seja \(X\) o número de pessoas favoráveis ao projeto na amostra. Então, \(X\sim\) Binomial(15,0.6).

  1. \(P(X\leq 2) = \binom{15}{0} (0.6)^0 (0.4)^{15} + \binom{15}{1} (0.6)^1 (0.4)^{14} + \binom{15}{0} (0.6)^2 (0.4)^{13}\)

  2. \(E(X) = 15 \times 0.6 = 9\) e \(Var(X)= 15 \times 0.6 \times 0.4 =3.6\).

Proposição 5.4 Seja \(X\sim\) Binomial(\(n,p\)), então, à medida que \(x\) varia de 0 a \(n\), \(p(x)\) primeiro cresce e depois decresce, atingindo seu valor máximo quando \(x=\lfloor (n+1)p \rfloor\): maior inteiro menor ou igual que \((n+1)p\).

5.4 Distribuição Geométrica

Definição 5.5 Consideremos um ensaio de Bernoulli com probabilidade de sucesso \(p\) e realizações sucessivas e independentes desse experimento até que ocorra o primeiro sucesso. A variável aleatória definida como o número de ensaios necessários até o primeiro sucesso tem uma distribuição geométrica de parâmetro \(p\), cuja função de probabilidade é dada por \[ p(x) = (1-p)^{x-1}p, \; x=1,2,3,\ldots \] Notação: \(X\sim\) Geom(\(p\))

Observação. Pela série geométrica vemos que \(p(x)\) é de fato uma função de probabilidade. Com efeito: \[ \sum_{x=1}^\infty (1-p)^{x-1}p = p\sum_{x=0} (1-p)^x = p \times \frac{1}{1-(1-p)} =1. \]

Proposição 5.5 Seja \(X\sim\) Geom(\(p\)), temos que \[ E(X) = \frac{1}{p} \text{ e } Var(X) = \frac{1-p}{p^2} \]

Prova. Seja \(q=1-p\), logo \[\begin{align*} E(X) &= \sum_{x=1}^\infty x q^{x-1} p \\ &= \sum_{x=1}^\infty (x-1 + 1) q^{x-1} p \\ &= \sum_{x=1}^\infty (x-1) q^{x-1} p + \sum_{x=1}^\infty q^{x-1} p \\ &= q\sum_{y=0}^\infty y q^{y-1} p + 1 \\ &= q E(X) + 1. \end{align*}\] Daí, \((1-q) E(X)= 1 \Rightarrow E(X) = \frac{1}{p}\).

\[\begin{align*} E(X^2) &= \sum_{x=1}^\infty x^2 q^{x-1}p \\ &= \sum_{x=1}^\infty (x-1 + 1)^2 q^{x-1}p \\ &= \sum_{x=1}^\infty (x-1)^2 q^{x-1}p + 2 \sum_{x=1}^\infty (x-1) q^{x-1}p + \sum_{x=1}^\infty q^{x-1}p \\ &= q\sum_{y=0}^\infty y^2 q^{y-1} p + 2q \sum_{y=0}^\infty yq^{y-1}p + 1 \\ &=qE(X^2) + 2q E(X) + 1. \end{align*}\] Daí, \(pE(X^2) = \frac{2q}{p} +1 \Rightarrow E(X^2) = \frac{2q+p}{p^2} = \frac{q+1}{p^2}\). Portanto, \[ Var(X) = E(X^2) - [E(X)]^2= \frac{q+1}{p^2} - \frac{1}{p^2} = \frac{q}{p^2} = \frac{1-p}{p^2}. \]

Exemplo 5.5 Um dado honesto é lançado repetidamente, de modo independente, até que se obtenha a face 6. Determine:

  1. a probabilidade de que sejam necessários exatamente 5 lançamentos.

  2. a probabilidade de que sejam necessários pelo menos 4 lançamentos.

  3. a esperança e variância do número de lançamentos feitos.

Solução. Seja \(X:\) Número de lançamentos feitos até obter a face 6. Então, \(X\sim\) Geométrica(\(p = 1/6\)).

  1. \(P(X=5)= \left(\frac{1}{6}\right)\left(\frac{5}{6}\right)^4 = \frac{5^4}{6^5} \approx 0.0804\).

  2. \(P(X\geq 4) = \sum_{x=4}^\infty \left(\frac{1}{6}\right)\left(\frac{5}{6}\right)^{x-1} = \left(\frac{5}{6}\right)^3 \approx 0.5787.\)

  3. \(E(X)=\frac{1}{1/6} = 6\) e \(Var(X)=\frac{5/6}{(1/6)^2} = 30\).

5.5 Distribuição Binomial Negativa (Pascal)

Definição 5.6 Consideremos um ensaio de Bernoulli com probabilidade de sucesso \(p\) e realizações sucessivas e independentes desse experimento até que ocorra o \(r\)-ésimo sucesso. A variável aleatória definida como o número de ensaios necessários até o \(r\)-ésimo sucesso tem uma distribuição binomial negativa de parâmetros \(r\) e \(p\), cuja função de probabilidade é dada por \[ p(x) = \binom{x-1}{r-1} p^r(1-p)^{x-r}, \; x=r,r+1,\ldots \] Notação: \(X \sim\) BN(\(r,p\))

Observação. Seja \(y=x-r\), \(x=r,r+1\ldots\) , \[\begin{align*} \binom{x-1}{r-1} &= \binom{y+r-1}{r-1} \\ &=\frac{(y+r-1)\cdots r (r-1)!}{(r-1)! y!}\\ &=\frac{(y+r-1)\cdots r}{y!} \\ &=(-1)^y \frac{(-r)\cdots (-y-r+1)}{y!}\\ &=(-1)^y\binom{-r}{y} \end{align*}\] Daí, o nome de binomial negativa.

Da observação anterior se \(X\sim\) BN(\(r,p\)), então pode-se escrever a função de probabilidade de \(X\) como

\[ p(x) = (-1)^{x-r} \binom{-r}{x-r}p^rq^{x-r}, \; x=r,r+1,\ldots \] onde \(q=1-p\).

Observação. Da série binomial \[ (1+x)^\beta = \sum_{y=0}^\infty \binom{\beta}{y} x^y, \] temos que \[ p^{-r} = (1-q)^{-r} = \sum_{y=0}^\infty \binom{-r}{y} (-q)^y, \]

Agora, é facil mostrar que \(p(x)\) é de fato uma função de probabilidade \[\begin{align*} \sum_{x=r}^\infty (-1)^{x-r} \binom{-r}{x-r}p^rq^{x-r} &=\sum_{y=0}^\infty (-1)^y \binom{-r}{y}p^rq^y\\ &= \sum_{y=0}^\infty \binom{-r}{y} (-q)^y p^r = p^{-r} p^r = 1. \end{align*}\]

Observação. Repare que se \(X\sim\) BN(\(r,p\)), então \(X=\sum_{i=1}^r X_i\), tal que \(X_1,\ldots,X_r \overset{iid}{\sim}\) Geom(\(p\)). A interpretação é a seguinte: \(X_1\) representa o número de ensaios até o primeiro sucesso, \(X_2\) representa o número de ensaios necessários depois do primeiro sucesso para obter o segundo sucesso e assim por diante.

Proposição 5.6 Seja \(X\sim\) BN(\(r,p\)), temos que \[ E(X) = \frac{r}{p} \text{ e } Var(X) = \frac{r(1-p)}{p^2} \]

Prova. \(X=\sum_{i=1}^r X_i\), tal que \(X_1,\ldots,X_r\overset{iid}{\sim}\) Geom(\(p\)), logo \[\begin{align*} E(X) &= \sum_{i=1}^r E(X_i) = \frac{r}{p}, \\ Var(X) &= \sum_{i=1}^r Var(X_i) = \frac{r(1-p)}{p^2}. \end{align*}\]

Exemplo 5.6 Um dado honesto é lançado repetidamente, de modo independente, até que a face 6 seja obtida 4 vezes. Qual a probabilidade de que sejam necessários exatamente 10 lançamentos?

Solução. \(X:\) Número de lançamentos necessários até que a face 6 seja obtida 4 vezes. Então \(X\sim\) Binomial Negativa(\(r=4,p=1/6\)). Logo \[ P(X=10) = p(10) = \binom{10-1}{4-1} (1/6)^4(5/6)^{6} = \binom{9}{3} (1/6)^4(5/6)^{6} \approx 0,0217. \]

5.6 Distribuição Hipergeométrica

Definição 5.7 Considere uma urna com \(N\) bolas das quais \(R\leq N\) são vermelhas e \(N-R\) são pretas. Suponha que selecionamos uma amostra de tamanho \(n\leq N\) sem reposição. A variável aleatória definida como o número de bolas vermelhas selecionadas na amostra tem uma distribuição hipergeométrica de parâmetros \(n\), \(R\) e \(N\) cuja função de probabilidade é dada por

\[ p(x) = \frac{\binom{R}{x} \binom{N-R}{n-x}}{\binom{N}{n}}, \; x=0,1,\ldots n. \] Notação: \(X\sim\) Hipergeométrica(\(n,R,N\)).

Observação. Embora tenhamos definido \(p(x)\) para qualquer \(x\) entre 0 e \(n\) simplesmente por mera conveniência, o verdadeiro suporte da distribuição são os valores de \(x\) inteiros tais que \(\textrm{máx}(0,n-(N-R))\leq x \leq \textrm{mín}(n,R).\)

Exemplo 5.7 Um aluno estuda 12 exercícios, dos quais o professor vai escolher 6 aleatoriamente para uma prova. O estudante sabe resolver 9 dos 12 problemas. Seja \(X\) o número de exercícios resolvidos por ele na prova.

  1. Qual a distribuição de \(X\)?

  2. Calcule a probabilidade de que o aluno resolva ao menos 5 exercícios da prova.

Solução. Seja X: Número de exercícios resolvidos pelo estudante na prova.

  1. \(X\sim\) Hipergeométrica(6,9,12).

  2. \(P(X\geq 5) = p(5) + p(6) = 1/2.\)

Proposição 5.7 Seja \(X\sim\) Hipergeométrica(\(n,R,N\)) e seja \(p=\frac{R}{N}\), então \[ E(X)=np \text{ e } Var(X) = \left(\frac{N-n}{N-1}\right) np(1-p) \]

Prova. Seja \(p=\frac{R}{N}\), \[\begin{align*} E(X) &= \sum_{x=1}^n x \frac{\binom{R}{x} \binom{N-R}{n-x}}{\binom{N}{n}} \end{align*}\]

Usando as identidades

\[\begin{align*} x\binom{R}{x} = R \binom{R-1}{x-1} \text{ e } n\binom{N}{n} = N \binom{N-1}{n-1} \end{align*}\]

obtemos

\[\begin{align*} E(X) &=\frac{nR}{N} \sum_{x=1}^n \end{align*}\]

5.7 Distribuição de Poisson

Definição 5.8 Uma variável aleatória tem distribuição de Poisson de parâmetro \(\lambda >0\) se sua função de probabilidade é \[ p(x) = \frac{e^{-\lambda} \lambda^x}{x!}, \; x=0,1,2, \ldots \] Notação: \(X\sim\) Poisson(\(\lambda\))

Exemplo 5.8 Alguns exemplos de variáveis que podem ser modeladas por uma distribuição de Poisson são:

  • O número de erros de impressão em uma página.

  • O número de clientes que chegam em uma agência bancária.

  • O número de gols na copa do mundo.

  • O número de partículas \(\alpha\) emitidas por um material radioativo em um período de tempo determinado.

Observação. Geralmente a distribuição de Poisson é usada para modelar uma contagem de indivíduos que se distribuem aleatoriamente no tempo ou no espaço.

Proposição 5.8 Seja \(X\sim\) Poisson(\(\lambda\)), temos que \[ E(X) = \lambda \text{ e } Var(X)=\lambda \]

Prova. \[\begin{align*} E(X) &=\sum_{x=0}^\infty x \frac{e^{-\lambda} \lambda^x}{x!} \\ &=\sum_{x=1}^\infty \frac{e^{-\lambda} \lambda^x}{(x-1)!}\\ &= \lambda \sum_{x=1}^\infty \frac{e^{-\lambda} \lambda^{x-1}}{(x-1)!}\\ &= \lambda \sum_{y=0}^\infty \frac{e^{-\lambda} \lambda^y}{y!}\\ &=\lambda. \end{align*}\]

\[\begin{align*} E(X^2) &=\sum_{x=0}^\infty x^2 \frac{e^{-\lambda} \lambda^x}{x!} \\ &=\lambda \sum_{x=1}^\infty x \frac{e^{-\lambda} \lambda^{x-1}}{(x-1)!} \\ &= \lambda \sum_{y=0}^\infty (y+1) \frac{e^{-\lambda} \lambda^y}{y!}\\ &= \lambda \left[\sum_{y=0}^\infty y \frac{e^{-\lambda} \lambda^y}{y!} + \sum_{y=0}^\infty \frac{e^{-\lambda} \lambda^y}{y!} \right]\\ &=\lambda(\lambda + 1). \end{align*}\]

Portanto, \(Var(X) = \lambda(\lambda + 1) - \lambda^2 = \lambda\).

Exemplo 5.9 Suponha que o número de erros tipográficos em uma única página deste livro tenha uma distribuição de Poisson com \(\lambda = 1/2\). Calcule a probabilidade de que exista pelo menos um erro nesta página.

Solução. Seja \(X\): Número de erros nesta página, logo \[ P(X\geq 1) = 1- P(X\leq 0) = 1-e^{-1/2} \approx 0,393. \]

Exemplo 5.10 O número de partículas que uma fonte radioativa emite por minuto é uma variável aleatória com distribuição de Poisson com média igual a 5. Qual a probabilidade de que pelo menos três partículas sejam emitidas em um minuto.

Solução. \[ P(X\geq 3) = 1-e^{-5}-5e^{-5} -\frac{5^2e^{-5}}{2!} = 1-\frac{37}{2}e^{-5} \approx 0,8753. \]

5.8 Aproximação de Poisson à Binomial

Seja \(X\sim\) Binomial(\(n,p\)), com \(n\) grande e \(p\) pequeno, de modo que o valor \(\lambda = np\) é moderado. E seja \(Y\sim\) Poisson(\(\lambda=np\)), então para qualquer inteiro \(x\) entre 0 e \(n\),

\[ P(X=x) \approx P(Y=x) = \frac{e^{-np} (np)^x}{x!} \]

Essa aproximação decorre do Teorema de Poisson [Zu vergleichen Poisson, Recherches sur la probablité des jugements, Paris 1837. no 81, p. 205–207]. A idea é como segue:

\[\begin{align*} \binom{n}{x}p^x(1-p)^{n-x} &= \frac{n!}{(n-x)!x!} \left(\frac{\lambda}{n}\right)^{x} \left( 1- \frac{\lambda}{n}\right)^{n-x} \\ &=\frac{n!}{(n-x)!}\left(\frac{\lambda^x}{x!}\right) \left( 1- \frac{\lambda}{n}\right)^{n} \left(1- \frac{\lambda}{n}\right)^{-x}\\ &= \frac{\lambda^x}{x!} \times (1)(1-1/n)\cdots(1-(x+1)/n) \times \left( 1- \frac{\lambda}{n}\right)^{n} \times \left(1- \frac{\lambda}{n}\right)^{-x} \end{align*}\] Finalmente, quando \(n\to \infty\), temos que \(\binom{n}{x}p^x(1-p)^{n-x} \to e^{-\lambda}\frac{\lambda^x}{x!}\). Esse resultado também é conhecido como a Lei dos pequenos números.

Observação. Como regras práticas temos: \(n\geq 20\) e \(p\leq 0,05\) ou \(n\geq 100\) e \(np \leq 10\) Uma outra regra conhecida é: \(n>50\) e \(np<5\).

A tabela a continuação mostra diferentes valores de uma distribuição de Poisson com \(\lambda = 4\) e três distribuições binomiais, tais que \(np=4\).

Tabela: Comparação da Distribuição Binomial com a Poisson

x Bin(40,0.1) Bin(100,0.04) Bin(400,0.01) Poi(4)
0 0.0147809 0.0168703 0.0168703 0.0183156
1 0.0656928 0.0702930 0.0702930 0.0732626
2 0.1423344 0.1449793 0.1449793 0.1465251
3 0.2003225 0.1973329 0.1973329 0.1953668
4 0.2058870 0.1993885 0.1993885 0.1953668
5 0.1647096 0.1595108 0.1595108 0.1562935
6 0.1067562 0.1052328 0.1052328 0.1041956
7 0.0576145 0.0588803 0.0588803 0.0595404
8 0.0264066 0.0285201 0.0285201 0.0297702
9 0.0104323 0.0121475 0.0121475 0.0132312
10 0.0035933 0.0046059 0.0046059 0.0052925

Na Figura abaixo, mostramos o histograma de probabilidades de uma distribuição binomial com parâmetros \(n=400\) e \(p=0.01\) juntamente com o histograma de probabilidades de uma Poisson com média \(\lambda = 4\). Repare na semelhança dos gráficos.

Uma outra ilustração dessa aproximação, pode ser vista na Figura a continuação:

Exemplo 5.11 Seja \(X\sim\) Binomial(100,0.065) \[ P(X=10) = \binom{100}{10} (0.065)^{10}(0.935)^{90} \approx 0.05502 \]

Pela aproximação de Poisson à Binomial, usamos \(Y\sim\) Poisson(\(100\times 0.065 = 6.5\)), logo

\[ P(X=10) \approx P(Y=10) = \frac{e^{-6.5} (6.5)^{10}}{10!} \approx 0.05578 \]