On remarque que $P(A)+P(B)+P(C)=1$, ce qui signifie que presque sûrement, un des trois joueurs gagne (ou encore que presque sûrement, la partie ne dure pas indéfiniment). $P\left[ X=k|Y=n\right] =0$ si $k>n$ ou $k<0$ et $P\left[ X=k|Y=n\right]
u_{k+1}&=k+1+(1-p)u_k\\
On note $A_k$ l'événement "la $k$-ième boule tirée est noire". On considère une entreprise de construction
\begin{eqnarray*}
Notons $X_i$, $i=1,\dots,4$ valant $1$ si le client subit un retard à son $i$-ème appel et 0 sinon. On s'inspire du calcul de $p_4$ : pour obtenir $X=n$, on peut : ou bien avoir obtenu pile au 1er lancer (proba 2/3). On a ensuite :
&=\sum_{i=1}^{k-1}\frac{p^i}{q^i}pq^k+\frac{q^i}{p^i}qp^k. La seconde est probabiliste. Donc, en posant $q=1-p$, on a :
\end{align*}. $$(1-p)P(G_1)+P(G_1)=1\implies P(G_1)=\frac{1}{2-p}$$
On a donc
On considère une rue infiniment longue et rectiligne. En effet, $P_Y$ est une probabilité, et donc
On en déduit que
On en déduit :
On a alors
Y \left( n-k\right) ! &=pu_{d-s}. probabilité conditionnelle $P\left( X=k|Y=n\right) $. On note $Z$ le nombre d'appels traités en retard. Exemple: On lance 2 dés à 6 faces, numérotées de 1 à 6. De même, si on note $B$ l'événement "le deuxième joueur gagne", $C$ l'événement "le troisième joueur gagne", $B$ est la réunion disjointe des événement $\{X=3k+2\}$, pour $k\in\mathbb N$, et $C$ est la réunion disjointe des événements $\{X=3k+3\}$, $k\in \mathbb N$. &=&\sum_{n\geq k}\binom nk p^k (1-p)^{n-k} \frac{e^{-\lambda}\lambda^n}{n! les cas $k\le n$ et $k>n$). On reconnaît une loi géométrique de paramètre $p$. ce qui montre que les variables $A_1,\dots,A_n$ sont indépendantes. A l'aide d'une somme de Riemann, démontrer que la suite $\left(\frac 1N\sum_{k=0}^{N-1}\left(\frac kN\right)^n\right)_N$
Il dispose de $n$ clefs dont une seule ouvre la porte de son domicile,
Le nombre d'appels reçus par jour est une variable aléatoire $Y$ qui suit une loi de Poisson de paramètre $m$. Soit $D=$''l'objet est défectueux''. &=&P(A_k|A_{k-1})P(A_{k-1}|A_{k-2})\cdots P(A_1)\\
Ce n'est pas si différent! $E\left( Y\right)
\begin{eqnarray*}
L'espérance de $Z$ est donc ${\lambda p}$. $G$ admet une espérance si la famille $(nP(G=n))_{n\in\mathbb Z}$ est sommable, c'est-à -dire si la famille $(nP(X=n))_{n\in\mathbb N}$ est sommable, ce qui est le cas car $X$ suit une loi de Poisson donc admet une espérance. En particulier, on a :
admet une limite (lorsque $N$ tend vers $+\infty$) que l'on déterminera. On en déduit :
Pour $(X=4)$, cela se corse un peu ! &=\frac{k+1}p+\frac{p^2-p-(1-p)^2}{p^2}+\frac{1-p}{p^2}(1-p)^{k+1}\\
$$P(C)=\sum_{k\in\mathbb N}P(X=3k+3)=\sum_{k\in\mathbb N}pq^{3k+2}=\frac{pq^2}{1-q^3}=\frac{q^2}{1+q+q^2},$$
&=&\frac{e^{-(\lambda+\mu)}}{n! 1. en simplifiant les fractions par la relation $q=1-p$. c_n&=&\sum_{k=0}^n a_k b_{n-k}\\
Enfin, on
$$E(X)=\sum_{k=0}^{+\infty}P(X>k).$$, On a $X\leq k$ si et seulement si les $n$ épreuves ont amené un résultat inférieur ou égal à $k$, et on a donc :
$$a_n=\frac{e^{-\lambda}\lambda^n}{n! Déterminer la loi de probabilité de $X$ et son espérance $E(X)$. Il le simule en numérotant les boules, et en disant que les boules 1 à $b$ sont les boules blanches, et les autres les boules noires. \begin{align*}
Soit
On obtient :
UniversitéParis13,InstitutGalilée Préparationàlâagrégation Annéeuniversitaire2013-2014 Exercices de probabilités avec éléments de correction \begin{align*}
Si le radar enregistre son excès de vitesse, Rémi perd un point sur son permis de conduite. &=&\sum_{n=0}^{k-1}P\left[ X=k|Y=n\right] P\left( Y=n\right) \\
Pour une chaine donnée, les fabrications des pièces sont
&&+\sum_{n=k}^{M}P\left[ X=k|Y=n\right] P\left( Y=n\right) \\
On détermine $\alpha$ et $\beta$ en testant sur les premiers termes ($p_2$ et $p_3$). Aller au contenu. }{\left(1-\frac {19}{20}\right)^7}\\
$$\frac{P(X=k+1)}{P(X=k)}=\frac{\lambda}{k+1}$$
On en déduit que
Introduire l'événement $A_k$ : "la place face au numéro $k$ est libre". &=&\left\{\begin{array}{ll}
Pour un échantillon de 20 enfants de moins de deux ans, on note ðð le nombre aléatoire dâenfants qui sont vaccinés. Un insecte pond des oeufs. "l'objet provient de la chaine A" est $P\left( A|D\right) $ que l'on
Si $n\geq 1$ est fixé, et $k\in\{0,\dots,n\}$, on a clairement :
En déduire que $\lim_{N\to+\infty}\frac{E(X)}N=\frac{n}{n+1}.$, Pour $n\geq 1$, on peut écrire :
Les variables X et Y sont-elles indépendantes? On en déduit que
On a ensuite
La variable aléatoire est dite continue si lâensemble X Soit $A$ l'événement "le premier joueur gagne". \begin{eqnarray*}
\end{eqnarray*}
P(Z=k)&=&\sum_{n\geq k}P(Z=k|X=n)P(X=n)\\
On joue à pile ou face avec une pièce non équilibrée. &=&\frac{e^{-\lambda}}{\lambda}\left(e^{\lambda}-1\right)\\
Vérifier que pour tout $n\in\mathbb N^*$, on a $P(X=n\cap Y=n)=(pq)^n$, puis en déduire $P(X=Y)$. 13/99 $$\sum_{k\geq 0}P(Y=k)=1.$$
Soit $X$ une variable aléatoire suivant une loi de Poisson $\mathcal P(\lambda)$. $$P(X=n\cap Y=n)=p^{n+1}q^n+q^{n+1}p^n=(p+q) p^n q^n=(pq)^n.$$
$$\frac{P(X=k+1)}{P(X=k)}\geq 1\iff k\leq \lambda-1.$$
de chaque lancer est $p^{r} (1-p)^{k-r}$. &=&e^{-(\lambda+\mu)}\sum_{l=0}^k \frac{1}{l!(l-k)! Corrigé des TD de probabilités Printemps 2009 ... a été construit dans lâexercice I.7. Pour tout $n\geq 1$, on note $S_n=\sum_{i=1}^n X_i$. $$P(X=k)=\binom{k-1}{r-1}p^r (1-p)^{k-r}.$$. On répète indéfiniment le lancer dâun dé équilibré à 6 faces. Pour la clé numéro $i$, il y a avait une clé parmi $n-i+1$ qui convenait. \begin{align*}
$$P(Y=k)=P(X=k+s-1)=p(1-p)^{k-1}.$$
\sum_{k=0}^n kP(X=k)&=&\sum_{k=1}^n k\left(P(X>k-1)-P(X>k)\right)\\
Utiliser la formule des probabilités composées. \end{eqnarray*}. }\sum_{m=0}^{M-k}\frac{1}{
$$E(X)=1\textrm{ et }V(X)=\frac{3}{4}.$$, On cherche $P(X\geq 1)$ :
Une région comporte 10 hôpitaux. Le nombre moyen d'essais est l'espérance de $Y$, qui vaut $\frac{n+1}2$. &=p\times\frac 1p+q\times\frac1q=1. On séparera le cas $k\leq n$ du cas $k>n$. Faire une boucle Tant Que et introduire une variable qui dit quand sortir de la boucle. D'où l'on déduit
construit par la chaine $B$ soit défectueux est $0.2$. \end{eqnarray*}. &=\sum_{n=s}^{+\infty}(n-d)P(X=n)-\sum_{n=s}^d (d-n)P(X=n)\\
\newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} On répète cette expérience de façon indépendante et on note $X$ la variable aléatoire égale au numéro du premier tirage pour lequel on obtient pile. Une urne contient initialement une boule blanche et une boule noire indiscernables au toucher. \end{eqnarray*}
Ainsi, en tenant compte du fait que $\ln(1-p)<0$,
On peut modifier (plutôt que compléter) l'algorithme de la façon suivante : On a $E=\{1,2,\dots,r+1\}$ : à chaque tirage on retire une boule rouge, on ne peut donc pas tirer plus de $r$ boules rouges. Combien effectuera-t-on en moyenne de lancers? &=&e^{-a}\left(\sum_{n=0}^{+\infty}\frac{a^{2n+1}}{(2n+1)!}-\sum_{n=1}^{+\infty}\frac{a^{2n}}{2n! Alors si $X=k$, on a fait $r+k$ lancers : $r$ amenant piles, et $k$ amenant faces. Le service de dépannage d'un grand magasin dispose d'équipes intervenant sur appel de la clientèle. Soit $X$ une variable aléatoire réelle suivant une loi de Poisson $\mathcal P(\lambda)$. Sa somme vaut $\frac{1}{1-x}$. Pour les lancers précédents, on a obtenu $r-1$ fois pile, parmi $k-1$ lancers. On considère une suite de lancers indépendants de la pièce de monnaie considérée dans l'énoncé. Exprimer la probabilité conditionnelle de $Z=k$ sachant que $Y=n$. \begin{align*}
Si elle est noire, on la remet dans l'urne, et on ajoute une boule blanche. $$P(X=1)+P(X=2)+P(X=3)+P(X=4)=1.$$
Finalement, la probabilité recherchée vaut
Quant à la loi de $X$, on trouve, pour $1\leq k\leq N$ :
On souhaite aller au numéro $d$ de cette rue avec $d\in\mathbb N^*$. Le première pile étant obtenu, notons $Y_2$ le nombre de lancers nécessaires, depuis le premier pile, pour obtenir pour la première fois un autre pile. Mais c est absolument pas ça la définition d une fonction discrète ou continue. Pour $n\geq 1$, on note $p_n$ la probabilité $P(X=n)$. Reconnaitre une loi binomiale, et en déduire le calcul de probabilités. Calculer l'espérance d'une loi de Poisson de paramètre $\lambda$; sa variance. Les lancers sont supposés indépendants, et on note $X$ la variable aléatoire réelle égale au nombre de lancers nécessaires pour obtenir, pour la première fois, deux piles consécutifs. $$P(Y=k)=\frac{k}{k+1}\times\frac{1}k\times\cdots\times\frac 13\times\frac 12=\frac{k}{(k+1)! Le mode et la médiane sont des outils d'analyse de la dispersion d'une variable. On note $X$ la variable aléatoire égale au nombre de faces obtenues avant le $r$-ième pile. \[
\begin{eqnarray*}
on obtient $i$ boules blanches, puis $j$ boules noires, puis une boule blanche. \begin{align*}
&=&\sum_{n=k}^{\infty}(n+1)p^2(1-p)^n\frac{1}{n+1}=p(1-p)^k. &=E(T)E(X_0). \sum_{l=0}^N lP(Y=l)&=\sum_{l=0}^N l \sum_{j=0}^k P(T=j\cap X_1+\cdots+X_j=l)\\
Soit $(i_1,\dots,i_n)\in\mtn^n$. La convergence de la série étant évidente, on obtient :
$$\sum_{n\geq r}n(n-1)\cdots (n-r+1)x^{n-r}=\frac{r!}{(1-x)^{r+1}}.$$. $\sum_{k\geq 1}P(Y=k)$ converge, et on sait même que sa somme est inférieure ou égale à $1$. Application : on dispose d'une urne contenant $N$ boules indiscernables au toucher numérotées de $1$ à $N$. Puis appliquer les techniques usuelles de calculs de somme d'une série. P\left( A|D\right) &=&\frac{P\left( A\cap D\right) }{P\left( D\right) }=%
E(G)&=&\sum_{n=0}^{+\infty}(-2n)\frac{a^{2n}}{n!}e^{-a}+\sum_{n=0}^{+\infty}(2n+1)\frac{a^{2n+1}}{(2n+1)! &=&e^{-m}\left(\frac{p}{q}\right)^k\frac{1}{k!}\sum_{n=k}^{+\infty}\frac{(mq)^n}{(n-k)! Or, posons $f(x)=x+\frac 1x$. &=&e^{-m}\left(\frac{p}{q}\right)^k\frac{1}{k!}(mq)^k\sum_{n=k}^{+\infty}\frac{(mq)^{n-k}}{(n-k)! Méthode 2 : Reconnaître une variable aléatoire à densité et en donner la loi. &=&\frac{e^{-\lambda}p^k \lambda^k}{k!} &=&p(1-p)^k. Soit $n\geq 3$. Les $X_i$ sont des variables aléatoires de Bernoulli indépendantes de même paramètre $p=1/4$. 3.Soit X la variable aléatoire «nombre de machines qui tombent en panne au bout de 5 ans, parmi 10 machines choisies au hasard». UNIVERSITÉ PARIS DIDEROT - LICENCE 2 - ÉLÉMENTS DE PROBABILITÉS EP4 - SUPPORT 07 Exercice 1 La loi de probabilité dâun couple de variables aléatoires (X,Y) est donnée par : X \ Y â1 1 â1 1 10 3 10 1 5 10 1 10 1. $$E(X)=E(Y_1)+\dots+E(Y_r)=\frac{r}p,\ V(X)=V(Y_1)+\dots+V(Y_r)=\frac{r(1-p)}{p^2}.$$. Le
Comme à la première question, on reconnait le schéma théorique d'une variable aléatoire de loi binomiale de paramètres $n$ et $p$. $$p_2=p\sum_{k\geq 2}p_k=p\left(\sum_{k\geq 1}p_k-p_1\right)=p(1-p).$$
}\\
$$Y(\omega)=\sum_{i=0}^{T(\omega)}X_i(\omega).$$, Exercices de dénombrement - probabilités - statistiques, Charles-Jean de La Vallée Poussin (1866 - 1962). Quelle est la probabilité pour que l'on ne tire jamais de boule blanche? \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \begin{eqnarray*}
En remarquant que l'événement $Y=k$ est égal à $S_k\cap E_{k-1}\cap\dots\cap E_1$, déterminer la loi de $Y$. Remarquons que Pierre est avantagé à ce jeu. Exprimer l'événement $"Y=k"$ en fonction des événements $A_1,\dots,A_k$. Voici une solution possible. Si $\alpha$ est entier, alors $D_s$ est minimal pour $s=\alpha+1$ (et dans ce cas $D_{s-1}=D_s$). On a alors une succession de $n$ épreuves de Bernoulli indépendantes (l'oeuf $i$ éclot) avec probabilité $p$ de réussite à chaque fois. Si on pose $p\in [0,1]$ tel que
Donner sa loi, son espérance, sa variance. Lorsque lâon associe à chaque éventualité dâun univers Ω dâune expérience aléatoire un nombre réel, on dit que lâon définit une variable aléatoire sur Ω. $Y$ est le temps d'attente de la première réalisation de l'événement
et on admet que le nombre de personnes se présentant à un hôpital donné un certain jour suit une loi de Poisson de paramètre 8,
En déduire que $P(X\geq 2n)\leq 1-\frac 1n$. Notons $A_k$ l'événement "la place face au numéro $k$ est libre". Si $p=q=1/2$, on obtient
\end{eqnarray*}
Alors $Y_1$ suit une loi géométrique de paramètre $p$. $S_2$ s'allume pour la première fois à l'instant $n$ si et seulement si : Soit $S_1$ reste allumé jusqu'à l'instant $n-1$, et $S_2$ s'allume à l'instant $n$. Tracer le graphe de F X. Est ce que Xest une variable discr ete? $$1-P(B)=1-(1-P(A_1))^{10}\simeq 0,\!87.$$. Quelle est la loi de $Y$? \end{align*}
Alors il est facile de voir, en étudiant $f$ (par exemple, en la dérivant), que $f(x)\geq 2$ pour tout $x>0$ (le minimum étant atteint en $1$). Par la formule des probabilités totales :
Calculer les probabilités $P(Y=k|X=n)$, puis utiliser la formule des probabilités totales. Remarquer que $T=n$ si et seulement si $S_{n-1}=5$ et $X_n=1$. $$P(G_2)=P(G_1)P(\bar A)=(1-p)P(G_1).$$. Il essaie les clefs les unes après les autres en éliminant après chaque essai la clef qui n'a pas convenu. &=&\frac{e^{-(\lambda+\mu)}}{k! }e^{-\lambda}\\
Ceci choisi, l'événement élémentaire a une probabilité qui vaut $p^2(1-p)^n$. \begin{eqnarray*}
Après chaque tirage, la boule piochée est remise dans l'urne.