Distribution bêta d'une variable aléatoire. Approximation de la loi de distribution de la somme des variables aléatoires distribuées selon la loi bêta. Un extrait caractérisant la distribution Beta
Tu n'es pas un esclave !
Parcours pédagogique fermé pour les enfants de l'élite : "Le vrai arrangement du monde".
http://noslave.org
Un article de Wikipédia, l'encyclopédie libre
Densité de probabilité Fonction de densité de probabilité pour la distribution bêta |
|
Fonction de distribution Fonction de distribution cumulative pour la distribution bêta |
|
La désignation | texvc pas trouvé; Voir math / README pour l'aide à la configuration.): \ Text (Be) (\ alpha, \ beta)
|
Options | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README - référence de réglage.): \ Alpha> 0
Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): \ Beta> 0
|
Transporteur | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): X \ in
|
Densité de probabilité | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (x ^ (\ alpha-1) (1-x) ^ (\ beta-1)) (\ mathrm (B) (\ alpha, \ beta))
|
Fonction de distribution | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): I_x (\ alpha, \ beta)
|
Valeur attendue | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Frac (\ alpha) (\ alpha + \ beta)
|
Médian | |
Mode | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Frac (\ alpha-1) (\ alpha + \ beta-2) pour Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Alpha> 1, \ beta> 1
|
Dispersion | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (\ alpha \ beta) ((\ alpha + \ beta) ^ 2 (\ alpha + \ beta + 1))
|
Coefficient d'asymétrie | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (2 \, (\ beta- \ alpha) \ sqrt (\ alpha + \ beta + 1)) ((\ alpha + \ beta + 2) \ sqrt (\ alpha \ bêta))
|
Coefficient d'aplatissement | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : 6 \, \ frac (\ alpha ^ 3- \ alpha ^ 2 (2 \ beta-1) + \ beta ^ 2 (\ beta + 1) -2 \ alpha \ beta ( \ bêta + 2)) (\ alpha \ bêta (\ alpha + \ bêta + 2) (\ alpha + \ bêta + 3))
|
Entropie différentielle | |
Fonction génératrice des moments | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): 1 + \ sum_ (k = 1) ^ (\ infty) \ left (\ prod_ (r = 0) ^ (k-1) \ frac (\ alpha + r) (\ alpha + \ bêta + r) \ droite) \ frac (t ^ k) (k
!}
|
Fonction caractéristique | Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): () _1F_1 (\ alpha; \ alpha + \ beta; i \, t)
|
Distribution bêta en théorie des probabilités et en statistique, une famille à deux paramètres de distributions absolument continues. Utilisé pour décrire des variables aléatoires dont les valeurs sont limitées à un intervalle fini.
Définition
90px | Distributions de probabilité | |
---|---|---|
unidimensionnel | Multidimensionnel | |
Discret: | Bernoulli | binôme | Géométrique | Hypergéométrique | Logarithmique | Binôme négatif | Poissons | Uniforme discret | Multinomial |
Absolument continu : | Bêta| Weibulla | Gamma | Hyperexponentiel | Distribution Gompertz | Kolmogorov | Cauchy | Laplace | Lognormale | | | Kopula |
Un extrait caractérisant la distribution Beta
Les larmes brillaient dans mes yeux... Et je n'en avais pas du tout honte. Je donnerais beaucoup pour rencontrer l'un d'eux vivant !.. Surtout Magdalena. Quelle magie ancienne et merveilleuse a brûlé dans l'âme de cette femme étonnante lorsqu'elle a créé son royaume magique ?! Le royaume dans lequel régnaient la Connaissance et la Compréhension, et dont l'épine dorsale était l'Amour. Non seulement l'amour que criait la « sainte » église, ayant usé ce mot merveilleux au point que je ne voulais plus l'entendre, mais ce beau et pur, réel et courageux, le seul et étonnant AMOUR dont nom les pouvoirs sont nés ... et avec le nom duquel les anciens guerriers se sont précipités au combat ... avec le nom de qui est né nouvelle vie... au nom de qui notre monde a changé et est devenu meilleur ... Cet Amour a été porté par la Marie d'Or. Et c'est devant cette Marie que je voudrais m'incliner... Pour tout ce qu'elle a porté, pour sa VIE pure et lumineuse, pour son courage et son courage, et pour l'Amour.Mais, malheureusement, c'était impossible de faire ça... Elle a vécu il y a des siècles. Et je ne pouvais pas être celui qui la connaissait. Une tristesse incroyablement profonde et légère a soudainement balayé ma tête et des larmes amères ont coulé ...
- Eh bien, qu'est-ce que tu es, mon ami !.. D'autres chagrins t'attendent ! - Sever s'exclama surpris. - Calmez vous s'il vous plait ...
Il a doucement touché ma main et peu à peu la tristesse a disparu. Il ne restait que de l'amertume, comme si j'avais perdu quelque chose de léger et de cher...
- Tu ne peux pas te détendre... La guerre t'attend, Isidora.
- Dis-moi, Sever, l'enseignement des Cathares s'appelait-il l'Enseignement de l'Amour à cause de la Madeleine ?
- Ici tu n'as pas tout à fait raison, Isidora. Les non-initiés l'appelaient l'Enseignement de l'Amour. Pour ceux qui ont compris, cela avait un sens complètement différent. Ecoutez le son des mots, Isidora : l'amour en français sonne - amor - n'est-ce pas ? Et maintenant, enlevez ce mot, en séparant la lettre "a" de celui-ci ... Il s'avérera a'mor (un "mort) - sans mort ... C'est le vrai sens des enseignements de la Madeleine - l'Enseignement des Immortels Comme je te l'ai dit tout à l'heure - tout simplement, Isidora, ne serait-ce que pour regarder et écouter correctement... Eh bien, et pour ceux qui n'entendent pas - que cela reste l'Enseignement de l'Amour... c'est beau aussi.
Je suis resté complètement abasourdi. L'Enseignement des Immortels ! .. Daariya ... Alors, quel était l'enseignement de Radomir et de Madeleine ! .. Le Nord m'a surpris plusieurs fois, mais je n'ai jamais été aussi choqué ! pouvoir magique, et je ne pouvais pas me pardonner de ne pas en avoir parlé avec le Nord auparavant.
- Dis-moi, Sever, est-ce qu'il reste quelque chose des disques du Qatar ? Quelque chose a dû survivre, non ? Même si ce ne sont pas les Parfaits eux-mêmes, alors au moins juste des disciples ? Je veux dire quelque chose à propos de leur vraie vie et de leur enseignement ?
- Malheureusement - non, Isidora. L'Inquisition a tout détruit, partout. Ses vassaux, par ordre du Pape, ont même été envoyés dans d'autres pays pour détruire chaque manuscrit, chaque morceau d'écorce de bouleau qu'ils pouvaient trouver... Nous cherchions au moins quelque chose, mais nous ne pouvions rien sauver.
- Et les gens eux-mêmes ? Ne pourrait-il pas rester quelque chose pour les gens qui le garderaient à travers les siècles ?
- Je ne sais pas, Isidora... Je pense que même si quelqu'un avait une sorte d'enregistrement, cela a changé avec le temps. Après tout, il est naturel pour une personne de tout remodeler à sa manière... Et surtout sans comprendre. Il est donc peu probable que quoi que ce soit ait survécu tel quel. C'est dommage... Certes, nous avons conservé les journaux intimes de Radomir et de Madeleine, mais c'était avant la création du katar. Bien que, je pense, l'enseignement n'a pas changé.
- Désolé, pour mes pensées et mes questions confuses, Sever. Je vois que j'ai beaucoup perdu sans venir vers toi. Mais quand même, je suis toujours en vie. Et pendant que je respire, je peux toujours te demander, n'est-ce pas ? Pouvez-vous me dire comment la vie de Svetodar s'est terminée ? Désolé de vous interrompre.
Sever sourit sincèrement. Il aimait mon impatience et ma soif d'"avoir le temps" de le découvrir. Et il continua avec plaisir.
Après son retour, Svetodar a vécu et enseigné en Occitanie pendant seulement deux ans, à Isidora. Mais ces années sont devenues les années les plus chères et les plus heureuses de sa vie errante. Ses jours, illuminés par le rire joyeux de Beloyar, se passaient dans son Montségur bien-aimé, entouré des Parfaits, à qui Svetodar essayait honnêtement et sincèrement de transmettre ce que le lointain Voyageur lui avait appris pendant de nombreuses années.
Considérez la distribution bêta, calculez son espérance mathématique, sa variance et son mode. En utilisant la fonction MS EXCEL BETA.DIST (), nous tracerons les graphiques de la fonction de distribution et de la densité de probabilité. Générons un tableau de nombres aléatoires et évaluons les paramètres de distribution.
Distribution bêtaBêta- Distribution) dépend de 2 paramètres : ( alpha)> 0(détermine la forme de la distribution) et b (bêta)> 0(détermine l'échelle).
Contrairement à de nombreuses autres distributions continues, la plage de variation d'une variable aléatoire ayant Distribution bêta, est limité par le segment. En dehors de ce segment densité de distribution est égal à 0. Les limites de ce segment sont fixées par le chercheur en fonction du problème. Si A = 0 et B = 1, alors tel Distribution bêta appelé standard.
Distribution bêta a la désignation Bêta(Alpha Beta).
Noter: Si les paramètres alpha et bêta= 1, alors Distribution bêta se transforme en, c'est-à-dire Bêta (1; 1; A; B) = U (A; B).
En général fonction de répartition ne peut pas être exprimé en fonctions élémentaires, il est donc calculé par des méthodes numériques, par exemple, en utilisant la fonction MS EXCEL BETA.DIST ().
Noter: Pour la commodité d'écrire des formules dans le fichier d'exemple pour les paramètres de distribution alpha et bêta approprié.
Le fichier d'exemple contient également des graphiques densité de probabilité et fonctions de distribution avec des valeurs marquées milieu, et .
Génération de nombres aléatoires et estimation de paramètres
À l'aide de fonction de distribution inverse(ou valeurs quantiles ( p- quantile), voir) vous pouvez générer des valeurs d'une variable aléatoire ayant Distribution bêta... Pour ce faire, vous devez utiliser la formule :
BÊTA.OBR (RAND (); alpha; bêta; A; B)
CONSEIL: Parce que des nombres aléatoires sont générés à l'aide de la fonction RAND (), puis en appuyant sur la touche F9, il est possible d'obtenir à chaque fois un nouvel échantillon et, par conséquent, une nouvelle estimation des paramètres.
La fonction RAND() génère de 0 à 1, ce qui correspond exactement à la plage de variation de la probabilité (voir. exemple de feuille de fichier Génération).
Avoir maintenant un tableau de nombres aléatoires généré avec paramètres donnés Distribution alpha et bêta(soit 200), estimons les paramètres de distribution.
Estimation des paramètres alpha et bêta peut être fait avec méthode des moments(on suppose que les paramètres A et B sont connus) :
- formule de Bernoulli.
Lui-même Distribution
sont appelés binôme.
Les paramètres de la distribution binomiale sont la probabilité de succès p (q = 1 - p) et le nombre d'essais n. La distribution binomiale est utile pour décrire la distribution d'événements binomiaux, tels que le nombre d'hommes et de femmes sélectionnés au hasard. entreprises. L'utilisation de la distribution binomiale dans les problèmes de jeu est d'une importance particulière.
La formule exacte de la probabilité m de succès dans n essais s'écrit comme suit :
où p est la probabilité de succès ; q est 1-p, q> = 0, p + q = 1 ; n - nombre de tests, m = 0,1 ... m
Les principales caractéristiques de la distribution binomiale :
6. Formule de Poisson et distribution de Poisson.
Soit le nombre d'essais n grand, la probabilité p petite, et
np est petit. Ensuite, la probabilité de m succès dans n essais peut être approximativement déterminée par la formule de Poisson:
.
Une variable aléatoire avec une série de distribution m,
a une distribution de Poisson. Plus n est élevé, plus la formule de Poisson est précise. Pour les calculs approximatifs, la formule est utilisée pour n = 10,
0 - 2, pour n = 100
0 - 3. Dans les calculs d'ingénierie, la formule est appliquée lorsque n = 20,
0 - 3, n = 100,
0 - 7. Pour des calculs précis, la formule est appliquée lorsque n = 100,
0 - 7, n = 1000,
0
– 15.
Calculons l'espérance mathématique et la variance d'une variable aléatoire avec une distribution de Poisson.
Les principales caractéristiques d'une variable aléatoire de Poisson :
Diagramme de distribution de Poisson :
7. Répartition géométrique.
Considérons le schéma de Bernoulli. Désignons X - le nombre d'essais avant le premier succès, si la probabilité de succès dans un essai est p. Si le premier test est réussi, alors X = 0. Par conséquent,
... Si X = 1, c'est-à-dire le premier test est infructueux, et le second est réussi, puis par le théorème de multiplication
... De même, si X = n, alors tous les tests jusqu'au n-ième test sont infructueux et
... Composons une série de distribution d'une variable aléatoire X
Une variable aléatoire avec une telle série de distribution a répartition géométrique.
Vérifions la condition de normalisation :
8. Distribution hypergéométrique.
Il s'agit d'une distribution de probabilité discrète d'une variable aléatoire X prenant des valeurs entières m = 0, 1,2, ..., n avec des probabilités :
où N, M et n sont des nombres entiers non négatifs et M< N, n < N.
L'espérance mathématique de la distribution hypergéométrique ne dépend pas de N et coïncide avec l'espérance mathématique µ = np de la distribution binomiale correspondante.
Dispersion de la distribution hypergéométrique ne dépasse pas la variance de la distribution binomiale npq. Les instances de n'importe quel ordre de la distribution hypergéométrique tendent vers les valeurs correspondantes des moments de la distribution binomiale.
9. Distribution bêta.
La distribution bêta a une densité de la forme :
La distribution bêta standard est concentrée dans la plage de 0 à 1. En appliquant des transformations linéaires, la valeur bêta peut être transformée de manière à prendre des valeurs dans n'importe quelle plage.
Les principales caractéristiques numériques d'une grandeur avec une distribution bêta :
Quelle est l'idée du raisonnement probabiliste?La première étape, la plus naturelle du raisonnement probabiliste, est la suivante : si vous avez une variable qui prend des valeurs au hasard, alors vous aimeriez savoir avec quelles probabilités cette variable prend certaines valeurs. La combinaison de ces probabilités est précisément ce qui détermine la distribution de probabilité. Par exemple, avec un dé, vous pouvez a priori de supposer qu'avec des probabilités égales 1/6 il tombera sur n'importe quel bord. Et cela se produit à condition que l'os soit symétrique. Si l'os est asymétrique, il est alors possible de déterminer des probabilités élevées pour les faces qui tombent plus souvent et des probabilités plus faibles pour les faces qui tombent moins souvent, sur la base de données expérimentales. Si un bord ne tombe pas du tout, on peut lui attribuer une probabilité de 0. C'est la loi de probabilité la plus simple qui peut être utilisée pour décrire les résultats d'un lancer de dé. Bien sûr, il s'agit d'un exemple extrêmement simple, mais des problèmes similaires se posent, par exemple, dans les calculs actuariels, lorsque le risque réel est calculé sur la base de données réelles lors de l'émission d'une police d'assurance.
Dans ce chapitre, nous examinerons les lois probabilistes les plus courantes en pratique.
Ces distributions peuvent être facilement tracées dans STATISTICA.
Distribution normale
La distribution de probabilité normale est particulièrement utilisée en statistique. La distribution normale donne bon modèle pour des phénomènes réels dans lesquels :
1) les données ont une forte tendance à se regrouper autour d'un centre ;
2) les écarts positifs et négatifs par rapport au centre sont également probables ;
3) la fréquence des écarts diminue rapidement lorsque les écarts par rapport au centre deviennent importants.
Le mécanisme sous-jacent à la distribution normale, expliqué à l'aide du théorème dit central limite, peut être décrit au sens figuré comme suit. Imaginez que vous avez des particules de pollen que vous jetez au hasard dans un verre d'eau. En regardant une particule individuelle au microscope, vous verrez un phénomène étonnant - la particule se déplace. Bien sûr, cela se produit parce que les molécules d'eau se déplacent et transfèrent leur mouvement aux particules de pollen en suspension.
Mais comment s'effectue exactement le mouvement ? Voici une question plus intéressante. Et ce mouvement est très bizarre !
Il existe un nombre infini d'influences indépendantes sur une particule de pollen individuelle sous la forme d'impacts de molécules d'eau, qui font que la particule se déplace le long d'une trajectoire très étrange. Au microscope, ce mouvement ressemble à une ligne brisée de façon répétée et chaotique. Ces plis ne peuvent pas être prédits, il n'y a aucune régularité en eux, ce qui correspond exactement aux collisions chaotiques de molécules sur une particule. Une particule en suspension, ayant subi l'impact d'une molécule d'eau à un moment aléatoire, change de direction de mouvement, puis se déplace pendant un certain temps par inertie, puis retombe sous l'impact de la molécule suivante, et ainsi de suite. Il y a une table de billard incroyable dans un verre d'eau !
Étant donné que le mouvement des molécules a une direction et une vitesse aléatoires, l'amplitude et la direction des plis dans la trajectoire sont également complètement aléatoires et imprévisibles. Ce phénomène étonnant, appelé mouvement brownien, découvert au 19ème siècle, nous fait penser à beaucoup de choses.
Si nous introduisons un système approprié et marquons les coordonnées de la particule à certains moments, alors nous obtiendrons la loi normale. Plus précisément, les déplacements de la particule de pollen résultant de l'impact des molécules obéiront à la loi normale.
Pour la première fois, la loi du mouvement d'une telle particule, appelée brownienne, a été décrite au niveau physique de la rigueur par A. Einstein. Ensuite, Lenjevan a développé une approche plus simple et plus intuitive.
Les mathématiciens du 20e siècle ont consacré les meilleures pages à cette théorie, et le premier pas a été fait il y a 300 ans, lorsqu'elle a été découverte option la plus simple théorème central limite.
En théorie des probabilités, le théorème central limite, connu à l'origine dans la formulation de Moivre et Laplace dès le 17ème siècle comme un développement de la célèbre loi des grands nombres par J. Bernoulli (1654-1705) (voir J. Bernoulli (1713 ), Ars Conjectandi), est aujourd'hui extrêmement développé et atteint son apogée. dans le principe moderne d'invariance, dans la création duquel l'école mathématique russe a joué un rôle essentiel. C'est dans ce principe que le mouvement d'une particule brownienne trouve son explication mathématique rigoureuse.
L'idée est qu'en faisant la somme d'un grand nombre de grandeurs indépendantes (impacts de molécules sur les particules de pollen) dans certaines conditions raisonnables, ce sont précisément les grandeurs normalement distribuées qui sont obtenues. Et cela se produit indépendamment, c'est-à-dire invariablement, de la distribution des valeurs initiales. En d'autres termes, si une variable est influencée par de nombreux facteurs, ces influences sont indépendantes, relativement petites et s'additionnent, alors la valeur résultante a une distribution normale.
Par exemple, un nombre presque infini de facteurs déterminent le poids d'une personne (des milliers de gènes, des prédispositions, des maladies, etc.). Ainsi, on peut s'attendre à une distribution normale du poids dans la population de toutes les personnes.
Si vous êtes un financier et que vous jouez en bourse, alors, bien sûr, vous êtes au courant de cas où les cours des actions se comportent comme des particules browniennes, subissant les impacts chaotiques de nombreux facteurs.
Formellement, la densité de la distribution normale s'écrit comme suit :
où a et x 2 sont les paramètres de la loi, interprétés respectivement comme la valeur moyenne et la variance d'une variable aléatoire donnée (en raison du rôle particulier de la distribution normale, nous utiliserons une notation spéciale pour désigner sa fonction de densité et sa distribution fonction). Visuellement, le graphique de densité normale est la fameuse courbe en cloche.
La fonction de distribution correspondante de la variable aléatoire normale (a, x 2) est notée Ф (x; a, x 2) et est donnée par la relation :
Une loi normale de paramètres a = 0 et x 2 = 1 est dite standard.
Fonction de distribution normale standard inverse appliquée à z, 0 Utilisez la calculatrice probabiliste STATISTICA pour calculer z à partir de x et vice versa. Caractéristiques fondamentales de la loi normale : Moyenne, mode, médiane : E = x mod = x med = a ; Dispersion : D = 2 ; Asymétrie: Excès: On peut voir à partir des formules que la distribution normale est décrite par deux paramètres : a - moyenne - moyenne ; õ - écart type - écart type, lire : "sigma". Parfois avec l'écart type est appelé écart type, mais c'est déjà une terminologie dépassée. Voici quelques faits utiles sur la distribution normale. La moyenne détermine la mesure de la distribution de densité. La densité de distribution normale est symétrique par rapport à la moyenne. La moyenne de la distribution normale coïncide avec la médiane et le mode (voir graphiques). Densité de distribution normale avec variance 1 et moyenne 1 Densité de distribution normale avec moyenne 0 et variance 0,01 Densité de distribution normale avec moyenne 0 et variance 4 Avec une augmentation de la variance, la densité de la distribution normale s'étale ou s'étale le long de l'axe OX ; avec une diminution de la variance, elle se contracte au contraire, se concentrant autour d'un point - le point de valeur maximale coïncidant avec la moyenne valeur. Dans le cas limite de variance nulle, la variable aléatoire dégénère et prend une valeur unique égale à la moyenne. Il est utile de connaître les règles 2 et 3 sigma, ou les écarts types 2 et 3, qui sont associées à la distribution normale et qui sont utilisées dans diverses applications. Le sens de ces règles est très simple. Si deux et trois écarts types (2- et 3-sigma) sont fixés respectivement à droite et à gauche du point moyen ou, ce qui est le même, du point de densité maximale de la distribution normale, alors l'aire sous la courbe de densité normale calculée sur cet intervalle sera respectivement égale à 95,45% et 99,73 % de toute la surface sous le graphique (vérifiez sur le calculateur probabiliste STATISTICA !). En d'autres termes, il peut être exprimé comme suit : 95,45 % et 99,73 % de toutes les observations indépendantes de la population normale, par exemple la taille d'une pièce ou le cours de l'action, se situent dans la zone des écarts types 2 et 3. de la moyenne. Répartition uniforme La distribution uniforme est utile pour décrire des variables dans lesquelles chaque valeur est également probable, en d'autres termes, les valeurs d'une variable sont uniformément distribuées dans une zone. Vous trouverez ci-dessous les formules de densité et les fonctions de distribution d'une variable aléatoire uniforme prenant des valeurs sur l'intervalle [a, b]. A partir de ces formules, il est facile de comprendre que la probabilité qu'une variable aléatoire uniforme prenne des valeurs de l'ensemble [c, d] [a, b] est égal à (d - c) / (b - a). nous mettons a = 0, b = 1. Ci-dessous se trouve un graphique d'une densité de probabilité uniforme centrée sur un segment. Caractéristiques numériques de la loi uniforme : Distribution exponentielle Il y a des événements que l'on peut qualifier de rares dans le langage courant. Si T est le temps entre le début d'événements rares se produisant en moyenne avec une intensité X, alors la valeur Cette distribution a une propriété très intéressante d'absence d'effet secondaire, ou, comme on dit, la propriété de Markov, en l'honneur du célèbre mathématicien russe A.A. Markov, qui peut s'expliquer comme suit. Si la distribution entre les moments d'occurrence de certains événements est indicative, alors la distribution comptée à partir de n'importe quel moment t jusqu'au prochain événement a également une distribution exponentielle (avec le même paramètre). En d'autres termes, pour un flux d'événements rares, le temps d'attente du prochain visiteur est toujours distribué de manière exponentielle, peu importe depuis combien de temps vous l'avez déjà attendu. La distribution exponentielle est associée à la distribution de Poisson : dans un intervalle de temps unitaire, le nombre d'événements, dont les intervalles sont indépendants et distribués de manière exponentielle, a une distribution de Poisson. Si les intervalles entre les visites du site ont une distribution exponentielle, alors le nombre de visites, par exemple, dans l'heure, est distribué selon la loi de Poisson. La distribution exponentielle est un cas particulier de la distribution de Weibull. Si le temps n'est pas continu, mais discret, alors l'analogue de la distribution exponentielle est la distribution géométrique. La densité de distribution exponentielle est décrite par la formule : Cette distribution n'a qu'un seul paramètre, qui détermine ses caractéristiques. Le graphique de densité de distribution exponentielle a la forme : Caractéristiques numériques de base de la distribution exponentielle : Répartition Erlang Cette distribution continue est centrée sur (0,1) et a une densité : L'espérance mathématique et la variance sont égales respectivement La distribution Erlang porte le nom d'A. Erlang, qui l'a d'abord appliquée aux problèmes de la théorie des files d'attente et de la téléphonie. La distribution d'Erlang avec les paramètres µ et n est la distribution de la somme de n variables aléatoires indépendantes, identiquement distribuées, dont chacune a une distribution exponentielle avec le paramètre nµ À La distribution d'Erlang n = 1 est la même que la distribution exponentielle ou exponentielle. Répartition de Laplace La fonction de densité de la distribution de Laplace, ou, comme on l'appelle aussi, double exponentielle, est utilisée, par exemple, pour décrire la distribution des erreurs dans les modèles de régression. En regardant le graphique de cette distribution, vous verrez qu'il se compose de deux distributions exponentielles, symétriques par rapport à l'axe OY. Si le paramètre de position est 0, alors la fonction de densité de distribution de Laplace a la forme : Les principales caractéristiques numériques de cette loi de distribution, en supposant que le paramètre de position est nul, sont les suivantes : Dans le cas général, la densité de distribution de Laplace a la forme : a est la moyenne de la distribution ; b est le paramètre d'échelle ; e est le nombre d'Euler (2,71 ...). Répartition gamma La densité de distribution exponentielle a un mode au point 0, ce qui est parfois gênant pour des applications pratiques. Dans de nombreux exemples, il est connu à l'avance que le mode de la variable aléatoire considérée n'est pas égal à 0, par exemple, les intervalles entre les acheteurs arrivant dans un magasin de commerce électronique ou visitant un site ont un mode prononcé. La distribution gamma est utilisée pour simuler de tels événements. La densité de la distribution gamma est la suivante : où Γ est la fonction d'Euler, a> 0 est le paramètre "forme" et b> 0 est le paramètre d'échelle. Dans un cas particulier, nous avons une distribution d'Erlang et une distribution exponentielle. Les principales caractéristiques de la distribution gamma : Vous trouverez ci-dessous deux tracés de densité gamma avec un paramètre d'échelle de 1 et des paramètres de forme de 3 et 5. Une propriété utile de la distribution gamma : la somme d'un nombre quelconque de variables aléatoires indépendantes distribuées gamma (avec le même paramètre d'échelle b) (a l, b) + (a 2, b) + --- + (a n, b) obéit également à la distribution gamma, mais avec les paramètres a 1 + a 2 + + a n et b. Distribution lognormale Une variable aléatoire h est dite log-normale, ou log-normale, si son logarithme népérien (lnh) obéit à la loi de distribution normale. La distribution lognormale est utilisée, par exemple, lors de la modélisation de variables telles que le revenu, l'âge des jeunes mariés ou la tolérance de la norme pour les substances nocives dans les aliments. Ainsi, si la quantité x a une distribution normale, alors la quantité y = e x a une distribution Lognormale. Si vous remplacez la valeur normale par la puissance exponentielle, vous comprendrez facilement que la valeur lognormale est obtenue à la suite de multiples multiplications de valeurs indépendantes, tout comme une variable aléatoire normale est le résultat d'une sommation multiple. La densité de la distribution lognormale est : Les principales caractéristiques d'une distribution lognormale sont : Distribution du chi carré La somme des carrés de m valeurs normales indépendantes de moyenne 0 et de variance 1 a une distribution du chi carré avec m degrés de liberté. Cette distribution est le plus souvent utilisée dans l'analyse des données. Formellement, la densité de la distribution bien carrée à m degrés de liberté a la forme : Avec négatif x densité devient 0. Les principales caractéristiques numériques de la distribution du chi carré sont : Le tracé de la densité est illustré dans la figure ci-dessous : Distribution binomiale La distribution binomiale est la distribution discrète la plus importante qui est concentrée en quelques points seulement. La distribution binomiale attribue des probabilités positives à ces points. Ainsi, la distribution binomiale diffère des distributions continues (normale, chi carré, etc.), qui attribuent des probabilités nulles à des points sélectionnés séparément et sont appelées continues. Vous pouvez mieux comprendre la distribution binomiale en regardant le jeu suivant. Imaginez que vous lancez une pièce. Soit la probabilité de tomber des armoiries p, et la probabilité d'obtenir pile est q = 1 - p (on considère le cas le plus général où la pièce est asymétrique, a, par exemple, un centre de gravité décalé - un trou est fait dans la pièce). La chute des armoiries est considérée comme un succès, et la chute des queues est considérée comme un échec. Ensuite, le nombre d'armoiries (ou de queues) abandonnées a une distribution binomiale. A noter que la prise en compte de pièces asymétriques ou de dés irréguliers présente un intérêt pratique. Comme J. Neumann l'a noté dans son élégant livre Introductory Course in Probability Theory and Mathematical Statistics, les gens ont longtemps deviné que la fréquence des points tombant sur un dé dépendait des propriétés de ce dé lui-même et pouvait être modifiée artificiellement. Les archéologues ont trouvé deux paires d'os dans la tombe du pharaon : "honnêtes" - avec des probabilités égales de chute de tous les côtés, et faux - avec un déplacement délibéré du centre de gravité, ce qui a augmenté la probabilité de chute des six. Les paramètres de la distribution binomiale sont la probabilité de succès p (q = 1 - p) et le nombre de tests n. La distribution binomiale est utile pour décrire la distribution d'événements binomiaux, tels que le nombre d'hommes et de femmes dans des entreprises sélectionnées au hasard. L'utilisation de la distribution binomiale dans les problèmes de jeu est d'une importance particulière. La formule exacte pour la probabilité t de succès dans n tests s'écrivent comme suit : p-probabilité de succès q est égal à 1-p, q> = 0, p + q == 1 n- nombre de tests, m = 0,1 ... m Les principales caractéristiques de la distribution binomiale : Le graphique de cette distribution à divers nombres les tests n et les probabilités de réussite p ont la forme : La distribution binomiale est liée à la distribution normale et à la distribution de Poisson (voir ci-dessous) ; à certaines valeurs des paramètres avec un grand nombre de tests, il se transforme en ces distributions. Cela se démontre facilement avec STATISTICA. Par exemple, en considérant le graphique de la distribution binomiale avec des paramètres p = 0,7, n = 100 (voir figure), nous avons utilisé STATISTICA BASIC - vous pouvez remarquer que le graphique est très similaire à la densité de la distribution normale (il l'est vraiment !). Diagramme de distribution binomiale avec paramètres p = 0,05, n = 100 est très similaire au graphique de la distribution de Poisson. Comme déjà mentionné, la distribution binomiale est née d'observations du jeu de jeu le plus simple - lancer la bonne pièce. Dans de nombreuses situations, ce modèle sert de bonne première approximation pour plus de jeux difficiles et les processus aléatoires qui surviennent lorsque vous jouez en bourse. Il est remarquable que les caractéristiques essentielles de nombreux processus complexes puissent être comprises à partir d'un simple modèle binomial. Par exemple, considérons la situation suivante. Marquons la chute des armoiries comme 1, et la chute des queues - moins 1, et nous résumerons les gains et les pertes à des moments successifs. Les graphiques montrent les trajectoires typiques d'un tel jeu avec 1 000 lancers, 5 000 lancers et 10 000 lancers. Faites attention à combien de temps la trajectoire est au dessus ou en dessous de zéro, autrement dit, le temps pendant lequel l'un des joueurs gagne dans un jeu absolument équitable est très long, et les transitions de victoire à défaite sont relativement rares, et c'est difficile à intégrer dans un esprit non préparé, pour qui l'expression "jeu absolument juste" sonne comme un sortilège. Ainsi, bien que le jeu soit juste dans les conditions, le comportement d'une trajectoire type n'est pas du tout juste et ne montre pas d'équilibre ! Bien sûr, empiriquement, ce fait est connu de tous les joueurs, une stratégie y est associée, lorsque le joueur n'est pas autorisé à repartir avec une victoire, mais est obligé de jouer plus loin. Considérez le nombre de lancers au cours desquels un joueur gagne (trajectoire supérieure à 0), et l'autre perd (trajectoire inférieure à 0). À première vue, il semble que le nombre de tels lancers soit à peu près le même. Cependant (voir le livre passionnant : Feller V. « Introduction à la théorie des probabilités et ses applications. » Moscou : Mir, 1984, p. 106) avec 10 000 lancers d'une pièce de monnaie idéale (c'est-à-dire, p = q = 0,5, n = 10 000) la probabilité que l'une des parties mènera plus de 9 930 procès et l'autre - moins de 70, dépasse 0,1. Étonnamment, dans un jeu de 10 000 lancers de la bonne pièce, la probabilité que le leadership ne change pas plus de 8 fois est supérieure à 0,14 et la probabilité de plus de 78 changements de leadership est d'environ 0,12. Ainsi, nous avons une situation paradoxale : dans la marche symétrique de Bernoulli, les « vagues » sur le graphique entre des rendements nuls successifs (voir les graphiques) peuvent être étonnamment longues. Ceci est lié à une autre circonstance, à savoir que pour T n/n (la fraction de temps où le graphique est au dessus de l'axe des abscisses) les valeurs les moins probables sont proches de 1/2. Les mathématiciens ont découvert la loi dite de l'arc sinus, selon laquelle pour chaque 0< а <1 вероятность неравенства
, где Т n - число шагов, в течение которых первый игрок находится в выигрыше, стремится к Distribution arcsineuse Cette distribution continue est concentrée sur l'intervalle (0, 1) et a une densité : La distribution sinusoïdale inverse est associée à une marche aléatoire. Il s'agit de la distribution de la proportion de temps pendant laquelle le premier joueur gagne en lançant une pièce symétrique, c'est-à-dire une pièce qui avec des probabilités égales S tombe sur les armoiries et les queues. D'une autre manière, un tel jeu peut être vu comme une marche aléatoire d'une particule qui, partant de zéro, fait des sauts unitaires vers la droite ou vers la gauche avec des probabilités égales. Étant donné que les sauts de la particule - l'apparition des armoiries ou des queues - sont également probables, une telle marche est souvent appelée symétrique. Si les probabilités étaient différentes, alors nous aurions une marche asymétrique. Le graphique de la densité de distribution de l'arc sinus est représenté sur la figure suivante : La chose la plus intéressante est l'interprétation de haute qualité du graphique, à partir de laquelle vous pouvez tirer des conclusions étonnantes sur la séquence de victoires et la séquence de défaites dans un jeu équitable. En regardant le graphique, vous pouvez voir que le minimum de densité est au point 1/2. "Et alors ?!" - tu demandes. Mais si vous pensez à cette observation, alors il n'y aura pas de limites à votre surprise ! Il s'avère que lorsqu'il est défini comme juste, le jeu n'est en fait pas aussi juste qu'il n'y paraît à première vue. Les trajectoires d'un aléatoire symétrique, dans lesquelles la particule passe un temps égal à la fois sur les demi-axes positif et négatif, c'est-à-dire à droite ou à gauche de zéro, ne sont que les moins probables. Passant au langage des joueurs, nous pouvons dire que lors du lancement d'une pièce symétrique, les jeux dans lesquels les joueurs gagnent et perdent à temps égal sont les moins probables. Au contraire, les jeux dans lesquels un joueur est significativement plus susceptible de gagner et l'autre, respectivement, de perdre, sont les plus susceptibles. Un paradoxe étonnant ! Calculer la probabilité que la fraction de temps t pendant laquelle le premier joueur gagne soit comprise entre t1 à t2, il faut à partir de la valeur de la fonction de distribution F (t2) soustraire la valeur de la fonction de distribution F (t1). Formellement on obtient : P (t1 Sur la base de ce fait, il est possible de calculer avec STATISTICA qu'à 10 000 pas la particule reste du côté positif de plus de 9930 instants de temps avec une probabilité de 0,1, c'est-à-dire qu'en gros, une telle situation sera observée au moins dans un cas sur dix (bien que, à première vue, cela semble absurde ; voir la note remarquablement claire de Yu. V. Prokhorov "Bernoulli's Walk" dans l'encyclopédie "Probability and Mathematical Statistics", pp. 42-43, Moscou : Grande Encyclopédie Russe, 1999) ... Distribution binomiale négative Il s'agit d'une distribution discrète qui attribue à l'ensemble des points k = 0,1,2, ... probabilités : p k = P (X = k) = C k r + k-1 p r (l-p) k ", où 0<р<1,r>0.
La distribution binomiale négative se retrouve dans de nombreuses applications. En général r> 0 distribution binomiale négative est interprétée comme la distribution du temps d'attente pour le rème "succès" dans le schéma de test de Bernoulli avec la probabilité de "succès" p, par exemple, le nombre de rouleaux à faire avant que le deuxième blason soit roulé, auquel cas il est parfois appelé la distribution de Pascal et est un analogue discret de la distribution gamma. À r = 1 la distribution binomiale négative coïncide avec la distribution géométrique. Si Y est une variable aléatoire avec une distribution de Poisson avec un paramètre aléatoire, qui, à son tour, a une distribution gamma avec densité Alors Ub aura une distribution binomiale négative avec des paramètres ; Loi de Poisson La distribution de Poisson est parfois appelée distribution des événements rares. Des exemples de variables distribuées selon la loi de Poisson sont : le nombre d'accidents, le nombre de défauts dans le processus de fabrication, etc. La distribution de Poisson est déterminée par la formule : Les principales caractéristiques d'une variable aléatoire de Poisson : La distribution de Poisson est liée à la distribution exponentielle et à la distribution de Bernoulli. Si le nombre d'événements a une distribution de Poisson, alors les intervalles entre les événements ont une distribution exponentielle ou exponentielle. Diagramme de distribution de Poisson : Comparez le tracé de la distribution de Poisson avec le paramètre 5 avec le tracé de la distribution de Bernoulli à p = q = 0,5, n = 100. Vous verrez que les graphiques sont très similaires. Dans le cas général, il y a le schéma suivant (voir, par exemple, l'excellent livre : Shiryaev AN « Probability. » Moscou : Nauka, p. 76) : si dans les tests de Bernoulli n prend de grandes valeurs, et la probabilité de succès / ? est relativement petit, de sorte que le nombre moyen de succès (produit et sieste) n'est ni petit ni grand, alors la loi de Bernoulli avec les paramètres n, p peut être remplacée par la loi de Poisson avec le paramètre = np. La distribution de Poisson est largement utilisée dans la pratique, par exemple, dans les cartes de contrôle qualité en tant que distribution d'événements rares. Comme autre exemple, considérons le problème suivant lié aux lignes téléphoniques et tiré de la pratique (voir : Feller V. Introduction à la théorie des probabilités et ses applications. Moscou : Mir, 1984, p. 205, et aussi Molina E. S. (1935) Probabilité en ingénierie, Génie électrique, 54, pages 423-427 ; Bell Telephone System Technical Publications Monograph B-854). Cette tâche est facile à traduire dans une langue moderne, par exemple dans la langue des communications mobiles, ce que les lecteurs intéressés sont invités à faire. Le problème est formulé comme suit. Soit deux centraux téléphoniques - A et B. Le poste téléphonique A doit assurer la communication de 2000 abonnés avec le poste B. La qualité de la communication doit être telle que seul 1 appel sur 100 attend que la ligne se libère. La question est : combien de lignes téléphoniques faut-il prévoir pour assurer la qualité de communication donnée ? Évidemment, il est insensé de créer 2 000 lignes, car beaucoup d'entre elles seront gratuites pendant longtemps. D'après des considérations intuitives, il est clair qu'apparemment, il existe un nombre optimal de lignes N. Comment calculer ce nombre ? Commençons par un modèle réaliste qui décrit l'intensité de l'accès de l'abonné au réseau, tout en notant que l'exactitude du modèle peut, bien entendu, être vérifiée à l'aide de critères statistiques standards. Ainsi, supposons que chaque abonné utilise la ligne en moyenne 2 minutes par heure et que les raccordements des abonnés soient indépendants (cependant, comme le note à juste titre Feller, ce dernier a lieu s'il n'y a pas d'événements qui affectent tous les abonnés, par exemple, une guerre ou un ouragan). Nous avons alors 2000 essais de Bernoulli (tirage au sort) ou connexions réseau avec un taux de réussite de p = 2/60 = 1/30. Vous devez trouver un tel N lorsque la probabilité que plus de N utilisateurs soient connectés simultanément au réseau ne dépasse pas 0,01. Ces calculs peuvent être facilement résolus dans le système STATISTICA. Résoudre le problème sur STATISTICA. Étape 1. Ouvrir le module Statistiques de base... Créez un fichier binoml.sta contenant 110 observations. Nommez la première variable BINÔME, la deuxième variable est POISSON. Étape 2. BINÔME, Ouvrez la fenêtre Variable 1(voir fig.). Entrez la formule dans la fenêtre comme indiqué sur la figure. Cliquez sur le bouton d'accord. Étape 3. En double-cliquant sur le titre POISSON, Ouvrez la fenêtre Variable 2(voir fig.) Entrez la formule dans la fenêtre comme indiqué sur la figure. Notez que nous calculons le paramètre de la distribution de Poisson en utilisant la formule = n × p. Donc = 2000 × 1/30. Cliquez sur le bouton d'accord.
STATISTICA calculera les probabilités et les écrira dans le fichier généré. Étape 4. Faites défiler le tableau construit jusqu'aux cas portant le numéro 86. Vous verrez que la probabilité qu'au moins 86 utilisateurs du réseau sur 2000 travaillent simultanément pendant une heure est de 0,01347 si la distribution binomiale est utilisée. La probabilité que 86 personnes ou plus sur 2 000 utilisateurs du réseau travaillent simultanément pendant une heure est de 0,01293 lorsque l'on utilise l'approximation de Poisson pour la distribution binomiale. Puisque nous avons besoin d'une probabilité de pas plus de 0,01, alors 87 lignes seront suffisantes pour fournir la qualité de communication requise. Des résultats similaires peuvent être obtenus en utilisant l'approximation normale pour la distribution binomiale (vérifiez-le !). A noter que V. Feller ne disposait pas du système STATISTICA et utilisait des tables pour la distribution binomiale et normale. En utilisant le même raisonnement, on peut résoudre le problème suivant discuté par W. Feller. Il est nécessaire de vérifier si plus ou moins de lignes seront nécessaires pour desservir de manière fiable les utilisateurs en les divisant en 2 groupes de 1000 personnes chacun. Il s'avère que la division des utilisateurs en groupes nécessitera 10 lignes supplémentaires pour atteindre le même niveau de qualité. Vous pouvez également prendre en compte l'évolution de l'intensité de la connexion réseau au cours de la journée. Répartition géométrique Si des tests de Bernoulli indépendants sont effectués et que le nombre de tests est compté jusqu'au prochain "succès", alors ce nombre a une distribution géométrique. Ainsi, si vous lancez une pièce, alors le nombre de lancers que vous devez faire avant que le prochain blason ne tombe obéit à une loi géométrique. La distribution géométrique est déterminée par la formule : F (x) = p (1-p) x-1 p est la probabilité de succès, x = 1, 2,3 ... Le nom de la distribution est associé à une progression géométrique. Ainsi, la distribution géométrique définit la probabilité que le succès soit venu à une certaine étape. La distribution géométrique est un analogue discret de la distribution exponentielle. Si le temps change en quanta, alors la probabilité de succès à chaque instant est décrite par une loi géométrique. Si le temps est continu, alors la probabilité est décrite par une loi exponentielle ou exponentielle. Distribution hypergéométrique Il s'agit d'une distribution de probabilité discrète d'une variable aléatoire X prenant des valeurs entières m = 0, 1,2, ..., n avec des probabilités : où N, M et n sont des nombres entiers non négatifs et M<
N, n < N. La distribution hypergéométrique est généralement associée à un choix sans récidive et détermine, par exemple, la probabilité de trouver exactement m boules noires dans un échantillon aléatoire de taille n d'une population générale contenant N boules, dont M noires et N - M blanches (voir , par exemple, l'encyclopédie « Probabilités et statistiques mathématiques », Moscou : Grande Encyclopédie Russe, p. 144). L'espérance mathématique de la distribution hypergéométrique ne dépend pas de N et coïncide avec l'espérance mathématique µ = np de la distribution binomiale correspondante. Dispersion de la distribution hypergéométrique ne dépasse pas la variance de la distribution binomiale npq. Pour les moments de tout ordre, la distribution hypergéométrique tend vers les valeurs correspondantes des moments de la distribution binomiale. Cette répartition est extrêmement courante dans les tâches de contrôle qualité. Distribution polynomiale Une distribution polynomiale, ou multinomiale, généralise naturellement la distribution. Si la distribution binomiale se produit lorsqu'une pièce de monnaie est lancée avec deux résultats (treillis ou armoiries), alors la distribution polynomiale se produit lorsqu'un dé est lancé et qu'il y a plus de deux résultats possibles. Formellement, il s'agit de la distribution de probabilité conjointe des variables aléatoires X 1, ..., X k, prenant des valeurs entières non négatives n 1, ..., nk, satisfaisant la condition n 1 + ... + nk = n, avec probabilités : Le nom "distribution polynomiale" s'explique par le fait que des probabilités multinomiales surviennent lors du développement du polynôme (p 1 + ... + p k) n Distribution bêta La distribution bêta a une densité de la forme : La distribution bêta standard est concentrée dans la plage de 0 à 1. En appliquant des transformations linéaires, la valeur bêta peut être transformée de manière à prendre des valeurs dans n'importe quelle plage. Les principales caractéristiques numériques d'une grandeur avec une distribution bêta : Distribution des valeurs extrêmes La distribution des valeurs extrêmes (type I) a une densité de la forme : Cette distribution est parfois aussi appelée distribution extrême. La distribution des valeurs extrêmes est utilisée pour modéliser des événements extrêmes, tels que les niveaux d'inondation, les vitesses de vortex, le maximum d'indices boursiers pour une année donnée, etc. Cette distribution est utilisée en théorie de la fiabilité, par exemple, pour décrire le temps de défaillance des circuits électriques, ainsi que dans les calculs actuariels. Répartition de Rayleigh La distribution de Rayleigh a une densité de la forme : où b est le paramètre d'échelle. La distribution de Rayleigh est concentrée dans la plage de 0 à l'infini. Au lieu de 0, STATISTICA vous permet de saisir une autre valeur pour le paramètre de seuil, qui sera soustraite des données d'origine avant d'ajuster la distribution de Rayleigh. Par conséquent, la valeur du paramètre de seuil doit être inférieure à toutes les valeurs observées. Si deux variables y 1 et y 2 sont indépendantes l'une de l'autre et sont normalement distribuées avec la même variance, alors la variable aura une distribution de Rayleigh. La distribution de Rayleigh est utilisée, par exemple, en théorie du tir. Distribution de Weibull La distribution de Weibull porte le nom du chercheur suédois Waloddi Weibull, qui a utilisé cette distribution pour décrire différents types de temps de défaillance dans la théorie de la fiabilité. Formellement, la densité de distribution de Weibull s'écrit sous la forme : Parfois, la densité de distribution de Weibull s'écrit aussi sous la forme : B est le paramètre d'échelle ; С - paramètre de forme ; E est la constante d'Euler (2,718 ...). Paramètre de position. Typiquement, la distribution de Weibull est centrée sur le demi-axe de 0 à l'infini. Si, au lieu de la frontière 0, nous introduisons le paramètre a, ce qui est souvent nécessaire en pratique, alors la distribution dite de Weibull à trois paramètres apparaît. La distribution de Weibull est largement utilisée dans la théorie de la fiabilité et de l'assurance. Comme décrit ci-dessus, la distribution exponentielle est souvent utilisée comme modèle pour estimer le MTBF en supposant que la probabilité de défaillance d'une installation est constante. Si la probabilité de défaillance change au fil du temps, la distribution de Weibull est appliquée. À c = 1 ou, dans une autre paramétrisation, at, la distribution de Weibull, comme il est facile de le voir à partir des formules, se transforme en une distribution exponentielle, et en, en une distribution de Rayleigh. Des méthodes spéciales ont été développées pour estimer les paramètres de la distribution de Weibull (voir, par exemple, le livre : Lawless (1982) Statistical models and methods for life data, Belmont, CA : Lifetime Learning, qui décrit les méthodes d'estimation, ainsi que les problèmes qui se posent lors de l'estimation du paramètre de position pour une distribution à trois paramètres de Weibull). Souvent, lors de l'exécution d'une analyse de fiabilité, il est nécessaire de considérer la probabilité de défaillance dans un court intervalle de temps après un moment donné. t pourvu que jusqu'au moment t aucune panne ne s'est produite. Une telle fonction est appelée fonction de risque, ou fonction de taux de défaillance, et est formellement définie comme suit : H (t) - fonction du taux de défaillance ou fonction de risque à l'instant t ; f (t) - densité de distribution des temps de défaillance ; F (t) - fonction de distribution des temps de défaillance (intégrale de la densité sur l'intervalle). En termes généraux, la fonction de taux de défaillance s'écrit comme suit : Lorsque la fonction de risque est égale à une constante, ce qui correspond au fonctionnement normal de l'appareil (voir formules). A, la fonction de risque diminue, ce qui correspond au rodage de l'appareil. A, la fonction de risque diminue, ce qui correspond au vieillissement de l'appareil. Les fonctions de risque typiques sont présentées dans le graphique. Les graphiques de densité de Weibull avec différents paramètres sont présentés ci-dessous. Il faut faire attention à trois plages de valeurs du paramètre a : Dans le premier domaine, la fonction de risque diminue (période de réglage), dans le deuxième domaine, la fonction de risque est égale à une constante, dans le troisième domaine, la fonction de risque augmente. On comprend aisément ce qui a été dit pour l'exemple de l'achat d'une voiture neuve : il y a d'abord une période d'adaptation de la voiture, puis une longue période de fonctionnement normal, puis les pièces de la voiture s'usent et le risque de sa panne augmente fortement . Il est important que toutes les périodes de fonctionnement puissent être décrites par la même famille de distribution. C'est l'idée de la distribution de Weibull. Voici les principales caractéristiques numériques de la distribution de Weibull. Répartition de Pareto Dans divers problèmes de statistiques appliquées, on rencontre souvent des distributions dites tronquées. Par exemple, cette distribution est utilisée en assurance ou en fiscalité lorsque les revenus d'intérêt dépassent une certaine valeur c 0 Les principales caractéristiques numériques de la distribution de Pareto : Distribution logistique La distribution logistique a une fonction de densité : A - paramètre de position ; B est le paramètre d'échelle ; E est le nombre d'Euler (2,71 ...). Hotelling T 2 -distribution Cette distribution continue, concentrée sur l'intervalle (0, T), a une densité : où les paramètres n et k, n> _k> _1, sont appelés degrés de liberté. À K = 1, la distribution P de Hotelling se réduit à la distribution de Student, et pour tout k> 1 peut être considéré comme une généralisation de la distribution de Student au cas multidimensionnel. La distribution Hotelling est basée sur la distribution normale. Soit un vecteur aléatoire à k dimensions Y ayant une distribution normale avec un vecteur moyen nul et une matrice de covariance. Considérez la valeur où les vecteurs aléatoires Z i sont indépendants les uns des autres et Y et sont distribués de la même manière que Y. Alors la variable aléatoire T 2 = Y T S -1 Y a la distribution T 2-Hotelling avec n degrés de liberté (Y est un vecteur colonne, T est l'opérateur de transposition). où la variable aléatoire t n a une distribution de Student à n degrés de liberté (voir "Probabilités et statistiques mathématiques", Encyclopédie, p. 792). Si Y a une distribution normale avec une moyenne non nulle, alors la distribution correspondante est appelée décentré Distribution T 2 de Hotelling avec n degrés de liberté et paramètre de non-centralité v. La distribution T 2 de Hotelling est utilisée en statistique mathématique dans la même situation que la distribution t de Student, mais uniquement dans le cas multidimensionnel. Si les résultats des observations X 1, ..., X n sont des vecteurs aléatoires indépendants, normalement distribués avec un vecteur moyen µ et une matrice de covariance non dégénérée, alors les statistiques a une distribution Hotelling T 2 avec n - 1 degrés de liberté. Ce fait constitue la base du critère de Hotelling. Dans STATISTICA, le critère Hotelling est disponible, par exemple, dans le module Statistiques de base et tableaux (voir la boîte de dialogue ci-dessous). Répartition Maxwell La distribution de Maxwell est apparue en physique lors de la description de la distribution des vitesses des molécules de gaz parfaits. Cette distribution continue est centrée sur (0,) et a une densité : La fonction de distribution a la forme : où (x) est la fonction de distribution normale standard. La distribution de Maxwell a un coefficient d'asymétrie positif et un seul mode en un point (c'est-à-dire que la distribution est unimodale). La distribution de Maxwell a des moments finis de n'importe quel ordre ; l'espérance mathématique et la variance sont égales, respectivement, et La distribution de Maxwell est naturellement liée à la distribution normale. Si X 1, X 2, X 3 sont des variables aléatoires indépendantes de distribution normale avec les paramètres 0 et х 2, alors la variable aléatoire a une distribution Maxwell. Ainsi, la distribution de Maxwell peut être considérée comme la distribution de la longueur d'un vecteur aléatoire, dont les coordonnées dans le système de coordonnées cartésiennes dans l'espace tridimensionnel sont indépendantes et normalement distribuées avec une moyenne 0 et une variance x 2. Répartition de Cauchy Cette distribution étonnante n'a parfois pas de valeur moyenne, puisque sa densité tend très lentement vers zéro avec l'augmentation de x en valeur absolue. De telles distributions sont appelées distributions à queue lourde. Si vous avez besoin d'une distribution qui n'a pas de moyen, appelez immédiatement la distribution Cauchy. La distribution de Cauchy est unimodale et symétrique par rapport au mode, qui est à la fois la médiane et a une fonction de densité de la forme : où c> 0 est le paramètre d'échelle et a est le paramètre central, qui détermine simultanément les valeurs du mode et de la médiane. L'intégrale de la densité, c'est-à-dire la fonction de distribution, est donnée par le rapport : Distribution t de Student Le statisticien anglais V. Gosset, connu sous le pseudonyme « Student » et qui commença sa carrière par une étude statistique de la qualité de la bière anglaise, obtint en 1908 le résultat suivant. Laisser être x 0, x 1, .., x m - indépendants, (0, s 2) - variables aléatoires normalement distribuées : Cette distribution, maintenant connue sous le nom de distribution t de Student (en abrégé t (m) -distributions, où m est le nombre de degrés de liberté), sous-tend le célèbre test t destiné à comparer les moyennes de deux populations. Fonction de densité f t (x) ne dépend pas de la variance х 2 des variables aléatoires et, de plus, est unimodale et symétrique par rapport au point х = 0. Caractéristiques numériques de base de la distribution de Student : La distribution t est importante lorsque les estimations de la moyenne sont prises en compte et que la variance de l'échantillon est inconnue. Dans ce cas, la variance de l'échantillon et la distribution t sont utilisées. Aux grands degrés de liberté (supérieurs à 30), la distribution t coïncide pratiquement avec la distribution normale standard. Le graphique de la fonction de densité de la distribution t se déforme avec un nombre croissant de degrés de liberté comme suit : le pic augmente, les queues vont plus abruptement vers 0, et il semble que les graphiques de la fonction de densité de la distribution t sont comprimés latéralement. F-répartition Envisager m 1 + m 2 quantités indépendantes et (0, s 2) normalement distribuées et met De toute évidence, la même variable aléatoire peut être définie comme le rapport de deux quantités indépendantes et convenablement normalisées à distribution du chi carré et, c'est-à-dire Le célèbre statisticien anglais R. Fisher montra en 1924 que la densité de probabilité d'une variable aléatoire F (m 1, m 2) est donnée par la fonction : où (y) est la valeur de la fonction gamma d'Euler dans. point y, et la loi elle-même est appelée la distribution F avec les nombres de degrés de liberté du numérateur et du dénominateur égaux à m, 1 et m7, respectivement Caractéristiques numériques de base de la distribution F : La distribution F se produit dans le discriminant, la régression et l'analyse de la variance, et d'autres types d'analyse de données multivariées.
T a une distribution exponentielle avec un paramètre (lambda). La distribution exponentielle est souvent utilisée pour décrire l'intervalle entre des événements aléatoires successifs, comme l'intervalle entre les visites sur un site impopulaire, car ces visites sont des événements rares.