Frappes philosophiques et sociétales 3.0 Forum Index

Frappes philosophiques et sociétales 3.0
Forum de réflexion philosophique et sociétale

 FAQFAQ   SearchSearch   MemberlistMemberlist   UsergroupsUsergroups   RegisterRegister 
 ProfileProfile   Log in to check your private messagesLog in to check your private messages   Log inLog in 

A propos du livre "66 leçons pour l'agrégation de mathématiques" de Mathieu KIEFFER

 
Post new topic   Reply to topic    Frappes philosophiques et sociétales 3.0 Forum Index -> Mathématiques -> Mes sujets de discussion personnels, sur les mathématiques
Previous topic :: Next topic  
Author Message
Philosophe 3.0
Administrateur

Offline

Joined: 16 Feb 2011
Posts: 135

PostPosted: Sun 21 May - 11:10 (2017)    Post subject: A propos du livre "66 leçons pour l'agrégation de mathématiques" de Mathieu KIEFFER Reply with quote

Remarque : Pour pouvoir lire, correctement et entièrement, le texte qui suit, il est préférable d'utiliser le navigateur Mozilla Firefox.


L'auteur qui a déjà eu le CAPES externe de mathématiques, au moins 7 ans auparavant, dit s'être préparé pour l'agrégation interne de mathématiques 2016, pendant 16 mois ou plus précisément 64 semaines effectives, en travaillant 20 heures par semaine, et n'a pas pu traiter et boucler tout le programme, concernant les oraux.

Il a bien réussi les épreuves écrites, mais a été très bon dans une épreuve orale et médiocre dans une autre, mais a malgré tout obtenu, modestement, le concours.

Cela ne présage pas des efforts conséquents qu'il a dû consentir, à préparer 66 leçons, qui sont rassemblées dans son livre pavé d'un peu moins de 700 pages, qui apparaît en 1ère impression, comme très clair et très bien fait, malgré quelques petites imperfections (*).

Que doit-on penser, dès lors, des efforts consentis par les meilleurs de l'agrégation interne et, plus encore, de l'agrégation externe, même si les meilleurs pédagogues ne sont pas nécessairement les plus forts ?

Ce livre me donne un bon ordre d'idée de ce qu'il faut faire à l'oral et des efforts auxquels il faut consentir.

Ce livre correspond à mon état d'esprit et à mes valeurs.

Mais, je remarque que j'ai, plus ou moins, vu la plupart des notions proposées, tout au long de mon cursus, mais que je suis bien incapable de toutes me les approprier et de toutes les assimiler, de manière durable et stable, dans ma tête, avec les démonstrations, même si je peux les comprendre en les lisant.


(*) Certaines sommes et certains produits finis, certains ensembles finis, certains multiplets ou suite finies, certaines réunions et certaines intersections finies auraient pu être écrits, sous une forme plus formelle et plus synthétique, sans faire appel aux 3 petits points de suspension : "[tex]\cdots[/tex]".

Quelques petits détails de notation : Par exemple les notations "y" et "t", dans l'inégalité de Markov et l'inégalité de Bienaymé-Tchebychev, ont été mal choisies.

Quelques petites étapes de calcul auraient dû être plus explicitées, comme par exemple certaines étapes, lors de certains changements d'indice, dans certaines sommes dénombrables


En 2nde impression, même s'il se peut que certaines propositions et théorèmes soient hors-sujet concernant certaines leçons (**), ce livre constitue néanmoins un catalogue de définitions, et de propositions, de théorèmes et de corollaires, démontrés et présentés, très clairement et de manière aérée.

En outre ce livre pourrait être utile, à tout étudiant et en particulier ceux de Licence.

(**) Il ne sert à rien dans la leçon "Probabilité conditionnelle et indépendance", de présenter le théorème 788 (Formule des probabilités totales), si on ne se s'en sert pas dans la suite et notamment pour expliciter d'avantage le théorème 789 (Formules de Bayes).

Par ailleurs, il est regrettable que le théorème donnant la formule des probabilités composées ne figure pas dans cette leçon.

Dans la leçon "Couples de variables aléatoires discrètes. Covariance. Exemples d'utilisation", non seulement la définition 870 de la loi conditionnelle de [tex]Y [/tex]
sachant [tex](X=x_i)[/tex] n'a rien à y faire, sauf si on veut parler de variance voire de covariance conditionnelles, de plus si tel était le cas, et si elle est exacte, elle n'est pas introduite de la manière la plus naturelle, mais de façon maladroite.



Préliminaires :


Définition :


Soit [tex](\Omega, {\cal A})[/tex] un espace probabilisable.


[tex]X [/tex] variable aléatoire réelle

sur [tex](\Omega, {\cal A})[/tex]

[tex]\Longleftrightarrow_{d\acute{e}f}[/tex]

[tex]X : \Omega \rightarrow \mathbb{R} [/tex]

et [tex]\forall B \in \mathcal{B}(\mathbb{R}), \,\, X^{-1}(B) \in \cal{A}[/tex].


Fin définition


Soit [tex]X \,\, : \,\, \Omega \,\, \rightarrow \,\, \mathbb{R}[/tex], une variable aléatoire réelle,

sur [tex](\Omega, {\cal A})[/tex].

[tex]X(\Omega) = \{X(\omega) | \omega \in \Omega\} = x^I = \{x_i | i \in I\} \subset \mathbb{R}[/tex],
avec [tex] I [/tex] ensemble dénombrable.


Soit [tex]Y \,\, : \,\, \Omega \,\, \rightarrow \,\, \mathbb{R}[/tex], une variable aléatoire réelle,

sur [tex](\Omega, {\cal A})[/tex].

[tex]Y(\Omega) = \{Y(\omega) | \omega \in \Omega\} = y^J = \{y_j | j \in J\} \subset \mathbb{R}[/tex],
avec [tex]J[/tex] ensemble dénombrable.


On préféra la notation [tex]Z[/tex]

à la notation [tex]V[/tex].

[tex]Z = (X;Y) \,\, : \,\, \Omega \,\, \rightarrow \,\, \mathbb{R}^2 \,\, : \,\, \omega \,\, \mapsto \,\, \Big(X(\omega); Y(\omega)\Big)[/tex]

[tex]Z(\Omega) = (X;Y)(\Omega) = \Big \{ \Big(X(\omega);Y(\omega)\Big) \Big| \omega \in \Omega \Big \} \subset \Big \{(x;y)| x \in X(\Omega); y \in Y(\Omega) \Big\} = X(\Omega) \times Y(\Omega)[/tex] et on ne peut pas en dire plus, pour le moment.


Dans la définition 869, il aurait peut-être fallu écrire :


2)

Préliminaires facultatifs, avec une seule variable aléatoire :


Soit [tex](\Omega, {\cal A}, P)[/tex], un espace probabilisé.

Soit [tex]X \,\, : \,\, \Omega \,\, \rightarrow \,\, \mathbb{R}[/tex], une variable aléatoire réelle, sur cet espace.


La loi de probabilité de [tex]X[/tex],

notée [tex]P_X[/tex],

est la probabilité définie par[tex] P_X \,\, : \,\, {\mathcal{B}}(\mathbb{R}) \,\, \rightarrow \,\, [0,1] \,\, : \,\, B \,\, \mapsto \,\, P_X(B) = P[X^{-1}(B)]  [= _{notation} P(X \in B)][/tex]



Soit [tex](\Omega, {\cal A}, P)[/tex], un espace probabilisé.

Soit [tex]X \,\, : \,\, \Omega \,\, \rightarrow \,\, \mathbb{R}[/tex], une variable aléatoire réelle, dénombrable,

sur [tex](\Omega, {\cal A}, P)[/tex],

c-à-d telle que [tex]X(\Omega) = \{x_i | i \in I\}[/tex] soit dénombrable.


La loi de probabilité de[tex] X[/tex],

notée [tex]P_X[/tex],

est la probabilité définie par [tex]P_X \,\, : \,\, {\cal P}[X(\Omega)]\,\, \rightarrow \,\, [0,1] \,\, : \,\, B \,\, \mapsto \,\, P_X(B) = P[X^{-1}(B)]  [= _{notation} P(X \in B)]
[/tex]


Ce qui est équivalent à,

La loi de probabilité de [tex]X[/tex],

notée [tex]P_X[/tex],

est la probabilité définie par [tex]\displaystyle{P_X \,\, : \,\, {\cal{P}}[X(\Omega)] \,\, \rightarrow \,\, [0,1] \,\, : \,\, B = \{x_{i_B} | i_B \in I_B, \,\, \forall i_{B,1}, i_{B,2} \in I_B, \,\, i_{B,1} \neq i_{B,2}, \,\, x_{i_{B,1}} \neq x_{i_{B,2}} \} = \bigcup_{i_B \in I_B} \{x_{i_B}\} \,\, \mapsto \,\, P_X(B) = P[X^{-1}(B)] [= _{notation} P(X \in B)] }[/tex]

[tex]\displaystyle{= P\bigg(X^{-1}\Big(\bigcup_{i_B \in I_B} \{x_{i_B}\}\Big)\bigg) = P\bigg(\bigcup_{i_B \in I_B} X^{-1}\Big( \{x_{i_B}\}\Big)\bigg) =_{(***)} \sum_{i_B \in I_B} P\Big(X^{-1}(\{x_{i_B}\})\Big) = \sum_{i_B \in I_B} P(X \in \{x_{i_B}\}) = \sum_{i_B \in I_B} P(X = x_{i_B})}[/tex]

car [tex]\displaystyle{(***)\forall {i_{B,1},{i_{B,2} \in I_B, \,\, i_{B,1} \neq i_{B,2}, \,\, X^{-1}\Big( \{x_{i_{B,1}}\}\Big) \bigcap X^{-1}\Big( \{x_{i_{B,2}}\}\Big) = \Big( X \in \{x_{i_{B,1}}\} \Big) \bigcap \Big( X \in \{x_{i_{B,2}}\} \Big) = \Big( X = x_{i_{B,1}} \Big) \bigcap \Big( X = x_{i_{B,2}} \Big) = \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,1}}\Big\} \bigcap \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,2}}\Big\}= \emptyset}[/tex],


car [tex]\forall {i_{B,1},{i_{B,2} \in I_B, \,\, i_{B,1} \neq i_{B,2}, \,\, x_{i_{B,1}} \neq x_{i_{B,2}}, \,\, \forall \omega \in \Omega, \,\, \Big(X(\omega) = x_{i_{B,1}} \,\, \Longrightarrow \,\, X(\omega) \neq x_{i_{B,2}}\Big)[/tex]

car [tex]X[/tex] est une application.

donc [tex]\displaystyle{\forall {i_{B,1},{i_{B,2} \in I_B, \,\, i_{B,1} \neq i_{B,2}, \,\, x_{i_{B,1}} \neq x_{i_{B,2}}, \,\, \bigg(\omega' \in \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,1}}\Big\} \Longrightarrow \,\, \omega' \in \Big \{ \omega \in \Omega |X(\omega) \neq x_{i_{B,2}} \Big \} \,\, \Longrightarrow \,\, \omega' \notin \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,2}} \Big \} \bigg)[/tex]

donc [tex]\forall {i_{B,1},{i_{B,2} \in I_B, \,\, i_{B,1} \neq i_{B,2}, \,\, x_{i_{B,1}} \neq x_{i_{B,2}}, \,\, \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,1}} \Big \} \bigcap \Big \{ \omega \in \Omega |X(\omega) = x_{i_{B,2}} \Big \} = \emptyset}[/tex]



Réponse obligatoire, avec un couple de variables aléatoires (du coup la définition 869, devient une proposition), c-à-d en remplaçant le [tex]X[/tex] précédent,

par [tex]Z[/tex] :



Soit [tex] {I'} \in {\cal P}(I)[/tex]

[tex] {J'} \in {\cal P}(J)[/tex]

On pose [tex]x^{I'} = \{x_i | i \in I'\}[/tex]

et [tex]y^{J'} = \{y_j | j \in J'\}[/tex]



Soit [tex]\displaystyle{{\cal C} = \Big \{x^{I'} \times y^{J'} | ({I'},{J'}) \in {\cal P}(I) \times {\cal P}(J), \,\, (x^{I'},y^{J'}) \in {\cal P}\Big((X;Y)(\Omega)\Big),\,\, \forall (i_{1},j_{1}), (i_{2},j_{2}) \in {I'} \times {J'}, \,\, (i_{1},j_{1}) \neq (i_{2},j_{2}), \,\, (x_{i_{1}},y_{j_{1}}), (x_{i_{2}},y_{j_{2}}) \in x^{I'} \times y^{J'}, \,\, (x_{i_{1}},y_{j_{1}}) \neq (x_{i_{2}},y_{j_{2}}) \Big \}}[/tex]


Soit [tex]\sigma({\cal C})[/tex]

la tribu sur [tex]Z(\Omega)[/tex],

engendrée par [tex]{\cal C}[/tex]


On a : [tex]{\cal P} \Big(Z(\Omega) \Big) = \sigma({\cal C})[/tex]


Proposition :


[tex]Z[/tex] va

sur [tex]\Big(\Omega,{\cal A}\Big)[/tex]

[tex]\Longleftrightarrow [/tex]

[tex]\forall C \in {\cal C}, \,\, Z^{-1}(C) \in {\cal A}[/tex]


Fin proposition


La loi de probabilité de [tex]Z[/tex],

notée [tex]P_Z[/tex],

est entièrement déterminée par sa restriction à [tex]{\cal C}[/tex]

c-à-d par [tex](P_Z)_{|{\cal C}}[/tex]

définie par [tex]\displaystyle{(P_Z)_{|{\cal C}} \,\, : \,\, {\cal C}\,\, \rightarrow \,\, [0,1] \,\, : \,\, x^{I'} \times y^{J'} = \bigcup_{(i,j) \in {I'} \times {J'}} \{(x_{i},y_{i})\} \,\, \mapsto \,\, P_Z(x^{I'} \times y^{J'}) = P_{(X;Y)}(x_{I'} \times y_{J'}) = P[{(X;Y)}^{-1}(x^{I'} \times y^{J'})] \Big[= _{notation} P\Big((X;Y) \in x^{I'} \times y^{J'}\Big)\Big]}[/tex]

[tex]\displaystyle{= P\bigg({(X,Y)}^{-1}\Big(\bigcup_{(i,j) \in {I'} \times {J'}} \{(x_{i},y_{j})\}\Big)\bigg) = P\bigg(\bigcup_{(i,j) \in {I'} \times {J'}} {(X;Y)}^{-1}\Big( \{(x_{i},y_{j})\}\Big)\bigg) = \sum_{(i,j) \in {I'} \times {J'}} P\Big({(X;Y)}^{-1}(\{(x_{i},y_{j})\})\Big) = \sum_{(i,j) \in {I'} \times {J'}} P\Big((X;Y) \in \{(x_{i},y_{j})\}\Big) = \sum_{(i,j) \in {I'} \times {J'}} P\Big((X;Y) = (x_{i},y_{j})\Big) = \sum_{(i,j) \in {I'} \times {J'}} P\Big((X= x_{i}) \bigcap (Y = y_{j})\Big) = \sum_{(i,j) \in {I'} \times {J'}} P\Big(X= x_{i};Y = y_{j}\Big) }[/tex]


Donc la loi du couple [tex](X;Y)[/tex] est entièrement déterminée par

la suite : [tex]\bigg(P\Big((X;Y) \in \{(x_{i},y_{j})\}\Big)\bigg)_{(i,j) \in I \times J }= \bigg(P\Big(X= x_{i};Y = y_{j}\Big)\bigg)_{(i,j) \in I \times J}[/tex]


Probabilités et Statistiques : Eléments de cours et exercices


Remarque : Jusqu'ici, la plupart des remarques que j'ai faites, ne concernent que les probabilités.


Back to top
Publicité






PostPosted: Sun 21 May - 11:10 (2017)    Post subject: Publicité

PublicitéSupprimer les publicités ?
Back to top
Display posts from previous:   
Post new topic   Reply to topic    Frappes philosophiques et sociétales 3.0 Forum Index -> Mathématiques -> Mes sujets de discussion personnels, sur les mathématiques All times are GMT + 2 Hours
Page 1 of 1

 
Jump to:  

Index | Administration Panel | Free forum | Free support forum | Free forums directory | Report a violation | Conditions générales d'utilisation
Powered by phpBB © 2001, 2005 phpBB Group