Distribution bêta d'une variable aléatoire. Approximation de la loi de distribution de la somme des variables aléatoires distribuées selon la loi bêta. Un extrait caractérisant la distribution Beta

Tu n'es pas un esclave !
Parcours pédagogique fermé pour les enfants de l'élite : "Le vrai arrangement du monde".
http://noslave.org

Un article de Wikipédia, l'encyclopédie libre

Distribution bêta
Densité de probabilité
Fonction de densité de probabilité pour la distribution bêta
Fonction de distribution
Fonction de distribution cumulative pour la distribution bêta
La désignation texvc pas trouvé; Voir math / README pour l'aide à la configuration.): \ Text (Be) (\ alpha, \ beta)
Options Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README - référence de réglage.): \ Alpha> 0
Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): \ Beta> 0
Transporteur Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): X \ in
Densité de probabilité Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (x ^ (\ alpha-1) (1-x) ^ (\ beta-1)) (\ mathrm (B) (\ alpha, \ beta))
Fonction de distribution Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): I_x (\ alpha, \ beta)
Valeur attendue Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Frac (\ alpha) (\ alpha + \ beta)
Médian
Mode Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Frac (\ alpha-1) (\ alpha + \ beta-2) pour Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide au réglage.): \ Alpha> 1, \ beta> 1
Dispersion Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (\ alpha \ beta) ((\ alpha + \ beta) ^ 2 (\ alpha + \ beta + 1))
Coefficient d'asymétrie Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : \ Frac (2 \, (\ beta- \ alpha) \ sqrt (\ alpha + \ beta + 1)) ((\ alpha + \ beta + 2) \ sqrt (\ alpha \ bêta))
Coefficient d'aplatissement Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.) : 6 \, \ frac (\ alpha ^ 3- \ alpha ^ 2 (2 \ beta-1) + \ beta ^ 2 (\ beta + 1) -2 \ alpha \ beta ( \ bêta + 2)) (\ alpha \ bêta (\ alpha + \ bêta + 2) (\ alpha + \ bêta + 3))
Entropie différentielle
Fonction génératrice des moments Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): 1 + \ sum_ (k = 1) ^ (\ infty) \ left (\ prod_ (r = 0) ^ (k-1) \ frac (\ alpha + r) (\ alpha + \ bêta + r) \ droite) \ frac (t ^ k) (k !}
Fonction caractéristique Impossible d'analyser l'expression (Exécutable texvc pas trouvé; Voir math / README pour l'aide à la configuration.): () _1F_1 (\ alpha; \ alpha + \ beta; i \, t)

Distribution bêta en théorie des probabilités et en statistique, une famille à deux paramètres de distributions absolument continues. Utilisé pour décrire des variables aléatoires dont les valeurs sont limitées à un intervalle fini.

Définition

90px Distributions de probabilité
unidimensionnel Multidimensionnel
Discret: Bernoulli | binôme | Géométrique | Hypergéométrique | Logarithmique | Binôme négatif | Poissons | Uniforme discret Multinomial
Absolument continu : Bêta| Weibulla | Gamma | Hyperexponentiel | Distribution Gompertz | Kolmogorov | Cauchy | Laplace | Lognormale | | | Kopula

Un extrait caractérisant la distribution Beta

Les larmes brillaient dans mes yeux... Et je n'en avais pas du tout honte. Je donnerais beaucoup pour rencontrer l'un d'eux vivant !.. Surtout Magdalena. Quelle magie ancienne et merveilleuse a brûlé dans l'âme de cette femme étonnante lorsqu'elle a créé son royaume magique ?! Le royaume dans lequel régnaient la Connaissance et la Compréhension, et dont l'épine dorsale était l'Amour. Non seulement l'amour que criait la « sainte » église, ayant usé ce mot merveilleux au point que je ne voulais plus l'entendre, mais ce beau et pur, réel et courageux, le seul et étonnant AMOUR dont nom les pouvoirs sont nés ... et avec le nom duquel les anciens guerriers se sont précipités au combat ... avec le nom de qui est né nouvelle vie... au nom de qui notre monde a changé et est devenu meilleur ... Cet Amour a été porté par la Marie d'Or. Et c'est devant cette Marie que je voudrais m'incliner... Pour tout ce qu'elle a porté, pour sa VIE pure et lumineuse, pour son courage et son courage, et pour l'Amour.
Mais, malheureusement, c'était impossible de faire ça... Elle a vécu il y a des siècles. Et je ne pouvais pas être celui qui la connaissait. Une tristesse incroyablement profonde et légère a soudainement balayé ma tête et des larmes amères ont coulé ...
- Eh bien, qu'est-ce que tu es, mon ami !.. D'autres chagrins t'attendent ! - Sever s'exclama surpris. - Calmez vous s'il vous plait ...
Il a doucement touché ma main et peu à peu la tristesse a disparu. Il ne restait que de l'amertume, comme si j'avais perdu quelque chose de léger et de cher...
- Tu ne peux pas te détendre... La guerre t'attend, Isidora.
- Dis-moi, Sever, l'enseignement des Cathares s'appelait-il l'Enseignement de l'Amour à cause de la Madeleine ?
- Ici tu n'as pas tout à fait raison, Isidora. Les non-initiés l'appelaient l'Enseignement de l'Amour. Pour ceux qui ont compris, cela avait un sens complètement différent. Ecoutez le son des mots, Isidora : l'amour en français sonne - amor - n'est-ce pas ? Et maintenant, enlevez ce mot, en séparant la lettre "a" de celui-ci ... Il s'avérera a'mor (un "mort) - sans mort ... C'est le vrai sens des enseignements de la Madeleine - l'Enseignement des Immortels Comme je te l'ai dit tout à l'heure - tout simplement, Isidora, ne serait-ce que pour regarder et écouter correctement... Eh bien, et pour ceux qui n'entendent pas - que cela reste l'Enseignement de l'Amour... c'est beau aussi.
Je suis resté complètement abasourdi. L'Enseignement des Immortels ! .. Daariya ... Alors, quel était l'enseignement de Radomir et de Madeleine ! .. Le Nord m'a surpris plusieurs fois, mais je n'ai jamais été aussi choqué ! pouvoir magique, et je ne pouvais pas me pardonner de ne pas en avoir parlé avec le Nord auparavant.
- Dis-moi, Sever, est-ce qu'il reste quelque chose des disques du Qatar ? Quelque chose a dû survivre, non ? Même si ce ne sont pas les Parfaits eux-mêmes, alors au moins juste des disciples ? Je veux dire quelque chose à propos de leur vraie vie et de leur enseignement ?
- Malheureusement - non, Isidora. L'Inquisition a tout détruit, partout. Ses vassaux, par ordre du Pape, ont même été envoyés dans d'autres pays pour détruire chaque manuscrit, chaque morceau d'écorce de bouleau qu'ils pouvaient trouver... Nous cherchions au moins quelque chose, mais nous ne pouvions rien sauver.
- Et les gens eux-mêmes ? Ne pourrait-il pas rester quelque chose pour les gens qui le garderaient à travers les siècles ?
- Je ne sais pas, Isidora... Je pense que même si quelqu'un avait une sorte d'enregistrement, cela a changé avec le temps. Après tout, il est naturel pour une personne de tout remodeler à sa manière... Et surtout sans comprendre. Il est donc peu probable que quoi que ce soit ait survécu tel quel. C'est dommage... Certes, nous avons conservé les journaux intimes de Radomir et de Madeleine, mais c'était avant la création du katar. Bien que, je pense, l'enseignement n'a pas changé.
- Désolé, pour mes pensées et mes questions confuses, Sever. Je vois que j'ai beaucoup perdu sans venir vers toi. Mais quand même, je suis toujours en vie. Et pendant que je respire, je peux toujours te demander, n'est-ce pas ? Pouvez-vous me dire comment la vie de Svetodar s'est terminée ? Désolé de vous interrompre.
Sever sourit sincèrement. Il aimait mon impatience et ma soif d'"avoir le temps" de le découvrir. Et il continua avec plaisir.
Après son retour, Svetodar a vécu et enseigné en Occitanie pendant seulement deux ans, à Isidora. Mais ces années sont devenues les années les plus chères et les plus heureuses de sa vie errante. Ses jours, illuminés par le rire joyeux de Beloyar, se passaient dans son Montségur bien-aimé, entouré des Parfaits, à qui Svetodar essayait honnêtement et sincèrement de transmettre ce que le lointain Voyageur lui avait appris pendant de nombreuses années.

Considérez la distribution bêta, calculez son espérance mathématique, sa variance et son mode. En utilisant la fonction MS EXCEL BETA.DIST (), nous tracerons les graphiques de la fonction de distribution et de la densité de probabilité. Générons un tableau de nombres aléatoires et évaluons les paramètres de distribution.

Distribution bêtaBêta- Distribution) dépend de 2 paramètres : ( alpha)> 0(détermine la forme de la distribution) et b (bêta)> 0(détermine l'échelle).

Contrairement à de nombreuses autres distributions continues, la plage de variation d'une variable aléatoire ayant Distribution bêta, est limité par le segment. En dehors de ce segment densité de distribution est égal à 0. Les limites de ce segment sont fixées par le chercheur en fonction du problème. Si A = 0 et B = 1, alors tel Distribution bêta appelé standard.

Distribution bêta a la désignation Bêta(Alpha Beta).

Noter: Si les paramètres alpha et bêta= 1, alors Distribution bêta se transforme en, c'est-à-dire Bêta (1; 1; A; B) = U (A; B).

En général fonction de répartition ne peut pas être exprimé en fonctions élémentaires, il est donc calculé par des méthodes numériques, par exemple, en utilisant la fonction MS EXCEL BETA.DIST ().

Noter: Pour la commodité d'écrire des formules dans le fichier d'exemple pour les paramètres de distribution alpha et bêta approprié.

Le fichier d'exemple contient également des graphiques densité de probabilité et fonctions de distribution avec des valeurs marquées milieu, et .

Génération de nombres aléatoires et estimation de paramètres

À l'aide de fonction de distribution inverse(ou valeurs quantiles ( p- quantile), voir) vous pouvez générer des valeurs d'une variable aléatoire ayant Distribution bêta... Pour ce faire, vous devez utiliser la formule :

BÊTA.OBR (RAND (); alpha; bêta; A; B)

CONSEIL: Parce que des nombres aléatoires sont générés à l'aide de la fonction RAND (), puis en appuyant sur la touche F9, il est possible d'obtenir à chaque fois un nouvel échantillon et, par conséquent, une nouvelle estimation des paramètres.

La fonction RAND() génère de 0 à 1, ce qui correspond exactement à la plage de variation de la probabilité (voir. exemple de feuille de fichier Génération).

Avoir maintenant un tableau de nombres aléatoires généré avec paramètres donnés Distribution alpha et bêta(soit 200), estimons les paramètres de distribution.

Estimation des paramètres alpha et bêta peut être fait avec méthode des moments(on suppose que les paramètres A et B sont connus) :

- formule de Bernoulli.

Lui-même Distribution
sont appelés binôme.

Les paramètres de la distribution binomiale sont la probabilité de succès p (q = 1 - p) et le nombre d'essais n. La distribution binomiale est utile pour décrire la distribution d'événements binomiaux, tels que le nombre d'hommes et de femmes sélectionnés au hasard. entreprises. L'utilisation de la distribution binomiale dans les problèmes de jeu est d'une importance particulière.

La formule exacte de la probabilité m de succès dans n essais s'écrit comme suit :

où p est la probabilité de succès ; q est 1-p, q> = 0, p + q = 1 ; n - nombre de tests, m = 0,1 ... m

Les principales caractéristiques de la distribution binomiale :

6. Formule de Poisson et distribution de Poisson.

Soit le nombre d'essais n grand, la probabilité p petite, et
np est petit. Ensuite, la probabilité de m succès dans n essais peut être approximativement déterminée par la formule de Poisson:

.

Une variable aléatoire avec une série de distribution m,
a une distribution de Poisson. Plus n est élevé, plus la formule de Poisson est précise. Pour les calculs approximatifs, la formule est utilisée pour n = 10,
0 - 2, pour n = 100
0 - 3. Dans les calculs d'ingénierie, la formule est appliquée lorsque n = 20,
0 - 3, n = 100,
0 - 7. Pour des calculs précis, la formule est appliquée lorsque n = 100,
0 - 7, n = 1000,
0 – 15.

Calculons l'espérance mathématique et la variance d'une variable aléatoire avec une distribution de Poisson.

Les principales caractéristiques d'une variable aléatoire de Poisson :

Diagramme de distribution de Poisson :

7. Répartition géométrique.

Considérons le schéma de Bernoulli. Désignons X - le nombre d'essais avant le premier succès, si la probabilité de succès dans un essai est p. Si le premier test est réussi, alors X = 0. Par conséquent,
... Si X = 1, c'est-à-dire le premier test est infructueux, et le second est réussi, puis par le théorème de multiplication
... De même, si X = n, alors tous les tests jusqu'au n-ième test sont infructueux et
... Composons une série de distribution d'une variable aléatoire X

Une variable aléatoire avec une telle série de distribution a répartition géométrique.

Vérifions la condition de normalisation :

8. Distribution hypergéométrique.

Il s'agit d'une distribution de probabilité discrète d'une variable aléatoire X prenant des valeurs entières m = 0, 1,2, ..., n avec des probabilités :

où N, M et n sont des nombres entiers non négatifs et M< N, n < N.

L'espérance mathématique de la distribution hypergéométrique ne dépend pas de N et coïncide avec l'espérance mathématique µ = np de la distribution binomiale correspondante.

Dispersion de la distribution hypergéométrique ne dépasse pas la variance de la distribution binomiale npq. Les instances de n'importe quel ordre de la distribution hypergéométrique tendent vers les valeurs correspondantes des moments de la distribution binomiale.

9. Distribution bêta.

La distribution bêta a une densité de la forme :

La distribution bêta standard est concentrée dans la plage de 0 à 1. En appliquant des transformations linéaires, la valeur bêta peut être transformée de manière à prendre des valeurs dans n'importe quelle plage.

Les principales caractéristiques numériques d'une grandeur avec une distribution bêta :

Quelle est l'idée du raisonnement probabiliste?

La première étape, la plus naturelle du raisonnement probabiliste, est la suivante : si vous avez une variable qui prend des valeurs au hasard, alors vous aimeriez savoir avec quelles probabilités cette variable prend certaines valeurs. La combinaison de ces probabilités est précisément ce qui détermine la distribution de probabilité. Par exemple, avec un dé, vous pouvez a priori de supposer qu'avec des probabilités égales 1/6 il tombera sur n'importe quel bord. Et cela se produit à condition que l'os soit symétrique. Si l'os est asymétrique, il est alors possible de déterminer des probabilités élevées pour les faces qui tombent plus souvent et des probabilités plus faibles pour les faces qui tombent moins souvent, sur la base de données expérimentales. Si un bord ne tombe pas du tout, on peut lui attribuer une probabilité de 0. C'est la loi de probabilité la plus simple qui peut être utilisée pour décrire les résultats d'un lancer de dé. Bien sûr, il s'agit d'un exemple extrêmement simple, mais des problèmes similaires se posent, par exemple, dans les calculs actuariels, lorsque le risque réel est calculé sur la base de données réelles lors de l'émission d'une police d'assurance.

Dans ce chapitre, nous examinerons les lois probabilistes les plus courantes en pratique.

Ces distributions peuvent être facilement tracées dans STATISTICA.

Distribution normale

La distribution de probabilité normale est particulièrement utilisée en statistique. La distribution normale donne bon modèle pour des phénomènes réels dans lesquels :

1) les données ont une forte tendance à se regrouper autour d'un centre ;

2) les écarts positifs et négatifs par rapport au centre sont également probables ;

3) la fréquence des écarts diminue rapidement lorsque les écarts par rapport au centre deviennent importants.

Le mécanisme sous-jacent à la distribution normale, expliqué à l'aide du théorème dit central limite, peut être décrit au sens figuré comme suit. Imaginez que vous avez des particules de pollen que vous jetez au hasard dans un verre d'eau. En regardant une particule individuelle au microscope, vous verrez un phénomène étonnant - la particule se déplace. Bien sûr, cela se produit parce que les molécules d'eau se déplacent et transfèrent leur mouvement aux particules de pollen en suspension.

Mais comment s'effectue exactement le mouvement ? Voici une question plus intéressante. Et ce mouvement est très bizarre !

Il existe un nombre infini d'influences indépendantes sur une particule de pollen individuelle sous la forme d'impacts de molécules d'eau, qui font que la particule se déplace le long d'une trajectoire très étrange. Au microscope, ce mouvement ressemble à une ligne brisée de façon répétée et chaotique. Ces plis ne peuvent pas être prédits, il n'y a aucune régularité en eux, ce qui correspond exactement aux collisions chaotiques de molécules sur une particule. Une particule en suspension, ayant subi l'impact d'une molécule d'eau à un moment aléatoire, change de direction de mouvement, puis se déplace pendant un certain temps par inertie, puis retombe sous l'impact de la molécule suivante, et ainsi de suite. Il y a une table de billard incroyable dans un verre d'eau !

Étant donné que le mouvement des molécules a une direction et une vitesse aléatoires, l'amplitude et la direction des plis dans la trajectoire sont également complètement aléatoires et imprévisibles. Ce phénomène étonnant, appelé mouvement brownien, découvert au 19ème siècle, nous fait penser à beaucoup de choses.

Si nous introduisons un système approprié et marquons les coordonnées de la particule à certains moments, alors nous obtiendrons la loi normale. Plus précisément, les déplacements de la particule de pollen résultant de l'impact des molécules obéiront à la loi normale.

Pour la première fois, la loi du mouvement d'une telle particule, appelée brownienne, a été décrite au niveau physique de la rigueur par A. Einstein. Ensuite, Lenjevan a développé une approche plus simple et plus intuitive.

Les mathématiciens du 20e siècle ont consacré les meilleures pages à cette théorie, et le premier pas a été fait il y a 300 ans, lorsqu'elle a été découverte option la plus simple théorème central limite.

En théorie des probabilités, le théorème central limite, connu à l'origine dans la formulation de Moivre et Laplace dès le 17ème siècle comme un développement de la célèbre loi des grands nombres par J. Bernoulli (1654-1705) (voir J. Bernoulli (1713 ), Ars Conjectandi), est aujourd'hui extrêmement développé et atteint son apogée. dans le principe moderne d'invariance, dans la création duquel l'école mathématique russe a joué un rôle essentiel. C'est dans ce principe que le mouvement d'une particule brownienne trouve son explication mathématique rigoureuse.

L'idée est qu'en faisant la somme d'un grand nombre de grandeurs indépendantes (impacts de molécules sur les particules de pollen) dans certaines conditions raisonnables, ce sont précisément les grandeurs normalement distribuées qui sont obtenues. Et cela se produit indépendamment, c'est-à-dire invariablement, de la distribution des valeurs initiales. En d'autres termes, si une variable est influencée par de nombreux facteurs, ces influences sont indépendantes, relativement petites et s'additionnent, alors la valeur résultante a une distribution normale.

Par exemple, un nombre presque infini de facteurs déterminent le poids d'une personne (des milliers de gènes, des prédispositions, des maladies, etc.). Ainsi, on peut s'attendre à une distribution normale du poids dans la population de toutes les personnes.

Si vous êtes un financier et que vous jouez en bourse, alors, bien sûr, vous êtes au courant de cas où les cours des actions se comportent comme des particules browniennes, subissant les impacts chaotiques de nombreux facteurs.

Formellement, la densité de la distribution normale s'écrit comme suit :

où a et x 2 sont les paramètres de la loi, interprétés respectivement comme la valeur moyenne et la variance d'une variable aléatoire donnée (en raison du rôle particulier de la distribution normale, nous utiliserons une notation spéciale pour désigner sa fonction de densité et sa distribution fonction). Visuellement, le graphique de densité normale est la fameuse courbe en cloche.

La fonction de distribution correspondante de la variable aléatoire normale (a, x 2) est notée Ф (x; a, x 2) et est donnée par la relation :


Une loi normale de paramètres a = 0 et x 2 = 1 est dite standard.

Fonction de distribution normale standard inverse appliquée à z, 0

Utilisez la calculatrice probabiliste STATISTICA pour calculer z à partir de x et vice versa.

Caractéristiques fondamentales de la loi normale :

Moyenne, mode, médiane : E = x mod = x med = a ;

Dispersion : D = 2 ;

Asymétrie:

Excès:

On peut voir à partir des formules que la distribution normale est décrite par deux paramètres :

a - moyenne - moyenne ;

õ - écart type - écart type, lire : "sigma".

Parfois avec l'écart type est appelé écart type, mais c'est déjà une terminologie dépassée.

Voici quelques faits utiles sur la distribution normale.

La moyenne détermine la mesure de la distribution de densité. La densité de distribution normale est symétrique par rapport à la moyenne. La moyenne de la distribution normale coïncide avec la médiane et le mode (voir graphiques).

Densité de distribution normale avec variance 1 et moyenne 1

Densité de distribution normale avec moyenne 0 et variance 0,01

Densité de distribution normale avec moyenne 0 et variance 4

Avec une augmentation de la variance, la densité de la distribution normale s'étale ou s'étale le long de l'axe OX ; avec une diminution de la variance, elle se contracte au contraire, se concentrant autour d'un point - le point de valeur maximale coïncidant avec la moyenne valeur. Dans le cas limite de variance nulle, la variable aléatoire dégénère et prend une valeur unique égale à la moyenne.

Il est utile de connaître les règles 2 et 3 sigma, ou les écarts types 2 et 3, qui sont associées à la distribution normale et qui sont utilisées dans diverses applications. Le sens de ces règles est très simple.

Si deux et trois écarts types (2- et 3-sigma) sont fixés respectivement à droite et à gauche du point moyen ou, ce qui est le même, du point de densité maximale de la distribution normale, alors l'aire sous la courbe de densité normale calculée sur cet intervalle sera respectivement égale à 95,45% et 99,73 % de toute la surface sous le graphique (vérifiez sur le calculateur probabiliste STATISTICA !).

En d'autres termes, il peut être exprimé comme suit : 95,45 % et 99,73 % de toutes les observations indépendantes de la population normale, par exemple la taille d'une pièce ou le cours de l'action, se situent dans la zone des écarts types 2 et 3. de la moyenne.

Répartition uniforme

La distribution uniforme est utile pour décrire des variables dans lesquelles chaque valeur est également probable, en d'autres termes, les valeurs d'une variable sont uniformément distribuées dans une zone.

Vous trouverez ci-dessous les formules de densité et les fonctions de distribution d'une variable aléatoire uniforme prenant des valeurs sur l'intervalle [a, b].

A partir de ces formules, il est facile de comprendre que la probabilité qu'une variable aléatoire uniforme prenne des valeurs de l'ensemble [c, d] [a, b] est égal à (d - c) / (b - a).

nous mettons a = 0, b = 1. Ci-dessous se trouve un graphique d'une densité de probabilité uniforme centrée sur un segment.

Caractéristiques numériques de la loi uniforme :

Distribution exponentielle

Il y a des événements que l'on peut qualifier de rares dans le langage courant. Si T est le temps entre le début d'événements rares se produisant en moyenne avec une intensité X, alors la valeur
T a une distribution exponentielle avec un paramètre (lambda). La distribution exponentielle est souvent utilisée pour décrire l'intervalle entre des événements aléatoires successifs, comme l'intervalle entre les visites sur un site impopulaire, car ces visites sont des événements rares.

Cette distribution a une propriété très intéressante d'absence d'effet secondaire, ou, comme on dit, la propriété de Markov, en l'honneur du célèbre mathématicien russe A.A. Markov, qui peut s'expliquer comme suit. Si la distribution entre les moments d'occurrence de certains événements est indicative, alors la distribution comptée à partir de n'importe quel moment t jusqu'au prochain événement a également une distribution exponentielle (avec le même paramètre).

En d'autres termes, pour un flux d'événements rares, le temps d'attente du prochain visiteur est toujours distribué de manière exponentielle, peu importe depuis combien de temps vous l'avez déjà attendu.

La distribution exponentielle est associée à la distribution de Poisson : dans un intervalle de temps unitaire, le nombre d'événements, dont les intervalles sont indépendants et distribués de manière exponentielle, a une distribution de Poisson. Si les intervalles entre les visites du site ont une distribution exponentielle, alors le nombre de visites, par exemple, dans l'heure, est distribué selon la loi de Poisson.

La distribution exponentielle est un cas particulier de la distribution de Weibull.

Si le temps n'est pas continu, mais discret, alors l'analogue de la distribution exponentielle est la distribution géométrique.

La densité de distribution exponentielle est décrite par la formule :

Cette distribution n'a qu'un seul paramètre, qui détermine ses caractéristiques.

Le graphique de densité de distribution exponentielle a la forme :

Caractéristiques numériques de base de la distribution exponentielle :

Répartition Erlang

Cette distribution continue est centrée sur (0,1) et a une densité :

L'espérance mathématique et la variance sont égales respectivement

La distribution Erlang porte le nom d'A. Erlang, qui l'a d'abord appliquée aux problèmes de la théorie des files d'attente et de la téléphonie.

La distribution d'Erlang avec les paramètres µ et n est la distribution de la somme de n variables aléatoires indépendantes, identiquement distribuées, dont chacune a une distribution exponentielle avec le paramètre nµ

À La distribution d'Erlang n = 1 est la même que la distribution exponentielle ou exponentielle.

Répartition de Laplace

La fonction de densité de la distribution de Laplace, ou, comme on l'appelle aussi, double exponentielle, est utilisée, par exemple, pour décrire la distribution des erreurs dans les modèles de régression. En regardant le graphique de cette distribution, vous verrez qu'il se compose de deux distributions exponentielles, symétriques par rapport à l'axe OY.

Si le paramètre de position est 0, alors la fonction de densité de distribution de Laplace a la forme :

Les principales caractéristiques numériques de cette loi de distribution, en supposant que le paramètre de position est nul, sont les suivantes :

Dans le cas général, la densité de distribution de Laplace a la forme :

a est la moyenne de la distribution ; b est le paramètre d'échelle ; e est le nombre d'Euler (2,71 ...).

Répartition gamma

La densité de distribution exponentielle a un mode au point 0, ce qui est parfois gênant pour des applications pratiques. Dans de nombreux exemples, il est connu à l'avance que le mode de la variable aléatoire considérée n'est pas égal à 0, par exemple, les intervalles entre les acheteurs arrivant dans un magasin de commerce électronique ou visitant un site ont un mode prononcé. La distribution gamma est utilisée pour simuler de tels événements.

La densité de la distribution gamma est la suivante :

où Γ est la fonction d'Euler, a> 0 est le paramètre "forme" et b> 0 est le paramètre d'échelle.

Dans un cas particulier, nous avons une distribution d'Erlang et une distribution exponentielle.

Les principales caractéristiques de la distribution gamma :

Vous trouverez ci-dessous deux tracés de densité gamma avec un paramètre d'échelle de 1 et des paramètres de forme de 3 et 5.

Une propriété utile de la distribution gamma : la somme d'un nombre quelconque de variables aléatoires indépendantes distribuées gamma (avec le même paramètre d'échelle b)

(a l, b) + (a 2, b) + --- + (a n, b) obéit également à la distribution gamma, mais avec les paramètres a 1 + a 2 + + a n et b.

Distribution lognormale

Une variable aléatoire h est dite log-normale, ou log-normale, si son logarithme népérien (lnh) obéit à la loi de distribution normale.

La distribution lognormale est utilisée, par exemple, lors de la modélisation de variables telles que le revenu, l'âge des jeunes mariés ou la tolérance de la norme pour les substances nocives dans les aliments.

Ainsi, si la quantité x a une distribution normale, alors la quantité y = e x a une distribution Lognormale.

Si vous remplacez la valeur normale par la puissance exponentielle, vous comprendrez facilement que la valeur lognormale est obtenue à la suite de multiples multiplications de valeurs indépendantes, tout comme une variable aléatoire normale est le résultat d'une sommation multiple.

La densité de la distribution lognormale est :

Les principales caractéristiques d'une distribution lognormale sont :


Distribution du chi carré

La somme des carrés de m valeurs normales indépendantes de moyenne 0 et de variance 1 a une distribution du chi carré avec m degrés de liberté. Cette distribution est le plus souvent utilisée dans l'analyse des données.

Formellement, la densité de la distribution bien carrée à m degrés de liberté a la forme :

Avec négatif x densité devient 0.

Les principales caractéristiques numériques de la distribution du chi carré sont :

Le tracé de la densité est illustré dans la figure ci-dessous :

Distribution binomiale

La distribution binomiale est la distribution discrète la plus importante qui est concentrée en quelques points seulement. La distribution binomiale attribue des probabilités positives à ces points. Ainsi, la distribution binomiale diffère des distributions continues (normale, chi carré, etc.), qui attribuent des probabilités nulles à des points sélectionnés séparément et sont appelées continues.

Vous pouvez mieux comprendre la distribution binomiale en regardant le jeu suivant.

Imaginez que vous lancez une pièce. Soit la probabilité de tomber des armoiries p, et la probabilité d'obtenir pile est q = 1 - p (on considère le cas le plus général où la pièce est asymétrique, a, par exemple, un centre de gravité décalé - un trou est fait dans la pièce).

La chute des armoiries est considérée comme un succès, et la chute des queues est considérée comme un échec. Ensuite, le nombre d'armoiries (ou de queues) abandonnées a une distribution binomiale.

A noter que la prise en compte de pièces asymétriques ou de dés irréguliers présente un intérêt pratique. Comme J. Neumann l'a noté dans son élégant livre Introductory Course in Probability Theory and Mathematical Statistics, les gens ont longtemps deviné que la fréquence des points tombant sur un dé dépendait des propriétés de ce dé lui-même et pouvait être modifiée artificiellement. Les archéologues ont trouvé deux paires d'os dans la tombe du pharaon : "honnêtes" - avec des probabilités égales de chute de tous les côtés, et faux - avec un déplacement délibéré du centre de gravité, ce qui a augmenté la probabilité de chute des six.

Les paramètres de la distribution binomiale sont la probabilité de succès p (q = 1 - p) et le nombre de tests n.

La distribution binomiale est utile pour décrire la distribution d'événements binomiaux, tels que le nombre d'hommes et de femmes dans des entreprises sélectionnées au hasard. L'utilisation de la distribution binomiale dans les problèmes de jeu est d'une importance particulière.

La formule exacte pour la probabilité t de succès dans n tests s'écrivent comme suit :

p-probabilité de succès

q est égal à 1-p, q> = 0, p + q == 1

n- nombre de tests, m = 0,1 ... m

Les principales caractéristiques de la distribution binomiale :

Le graphique de cette distribution à divers nombres les tests n et les probabilités de réussite p ont la forme :

La distribution binomiale est liée à la distribution normale et à la distribution de Poisson (voir ci-dessous) ; à certaines valeurs des paramètres avec un grand nombre de tests, il se transforme en ces distributions. Cela se démontre facilement avec STATISTICA.

Par exemple, en considérant le graphique de la distribution binomiale avec des paramètres p = 0,7, n = 100 (voir figure), nous avons utilisé STATISTICA BASIC - vous pouvez remarquer que le graphique est très similaire à la densité de la distribution normale (il l'est vraiment !).

Diagramme de distribution binomiale avec paramètres p = 0,05, n = 100 est très similaire au graphique de la distribution de Poisson.

Comme déjà mentionné, la distribution binomiale est née d'observations du jeu de jeu le plus simple - lancer la bonne pièce. Dans de nombreuses situations, ce modèle sert de bonne première approximation pour plus de jeux difficiles et les processus aléatoires qui surviennent lorsque vous jouez en bourse. Il est remarquable que les caractéristiques essentielles de nombreux processus complexes puissent être comprises à partir d'un simple modèle binomial.

Par exemple, considérons la situation suivante.

Marquons la chute des armoiries comme 1, et la chute des queues - moins 1, et nous résumerons les gains et les pertes à des moments successifs. Les graphiques montrent les trajectoires typiques d'un tel jeu avec 1 000 lancers, 5 000 lancers et 10 000 lancers. Faites attention à combien de temps la trajectoire est au dessus ou en dessous de zéro, autrement dit, le temps pendant lequel l'un des joueurs gagne dans un jeu absolument équitable est très long, et les transitions de victoire à défaite sont relativement rares, et c'est difficile à intégrer dans un esprit non préparé, pour qui l'expression "jeu absolument juste" sonne comme un sortilège. Ainsi, bien que le jeu soit juste dans les conditions, le comportement d'une trajectoire type n'est pas du tout juste et ne montre pas d'équilibre !

Bien sûr, empiriquement, ce fait est connu de tous les joueurs, une stratégie y est associée, lorsque le joueur n'est pas autorisé à repartir avec une victoire, mais est obligé de jouer plus loin.


Considérez le nombre de lancers au cours desquels un joueur gagne (trajectoire supérieure à 0), et l'autre perd (trajectoire inférieure à 0). À première vue, il semble que le nombre de tels lancers soit à peu près le même. Cependant (voir le livre passionnant : Feller V. « Introduction à la théorie des probabilités et ses applications. » Moscou : Mir, 1984, p. 106) avec 10 000 lancers d'une pièce de monnaie idéale (c'est-à-dire, p = q = 0,5, n = 10 000) la probabilité que l'une des parties mènera plus de 9 930 procès et l'autre - moins de 70, dépasse 0,1.

Étonnamment, dans un jeu de 10 000 lancers de la bonne pièce, la probabilité que le leadership ne change pas plus de 8 fois est supérieure à 0,14 et la probabilité de plus de 78 changements de leadership est d'environ 0,12.

Ainsi, nous avons une situation paradoxale : dans la marche symétrique de Bernoulli, les « vagues » sur le graphique entre des rendements nuls successifs (voir les graphiques) peuvent être étonnamment longues. Ceci est lié à une autre circonstance, à savoir que pour T n/n (la fraction de temps où le graphique est au dessus de l'axe des abscisses) les valeurs les moins probables sont proches de 1/2.

Les mathématiciens ont découvert la loi dite de l'arc sinus, selon laquelle pour chaque 0< а <1 вероятность неравенства , где Т n - число шагов, в течение которых первый игрок находится в выигрыше, стремится к

Distribution arcsineuse

Cette distribution continue est concentrée sur l'intervalle (0, 1) et a une densité :

La distribution sinusoïdale inverse est associée à une marche aléatoire. Il s'agit de la distribution de la proportion de temps pendant laquelle le premier joueur gagne en lançant une pièce symétrique, c'est-à-dire une pièce qui avec des probabilités égales S tombe sur les armoiries et les queues. D'une autre manière, un tel jeu peut être vu comme une marche aléatoire d'une particule qui, partant de zéro, fait des sauts unitaires vers la droite ou vers la gauche avec des probabilités égales. Étant donné que les sauts de la particule - l'apparition des armoiries ou des queues - sont également probables, une telle marche est souvent appelée symétrique. Si les probabilités étaient différentes, alors nous aurions une marche asymétrique.

Le graphique de la densité de distribution de l'arc sinus est représenté sur la figure suivante :

La chose la plus intéressante est l'interprétation de haute qualité du graphique, à partir de laquelle vous pouvez tirer des conclusions étonnantes sur la séquence de victoires et la séquence de défaites dans un jeu équitable. En regardant le graphique, vous pouvez voir que le minimum de densité est au point 1/2. "Et alors ?!" - tu demandes. Mais si vous pensez à cette observation, alors il n'y aura pas de limites à votre surprise ! Il s'avère que lorsqu'il est défini comme juste, le jeu n'est en fait pas aussi juste qu'il n'y paraît à première vue.

Les trajectoires d'un aléatoire symétrique, dans lesquelles la particule passe un temps égal à la fois sur les demi-axes positif et négatif, c'est-à-dire à droite ou à gauche de zéro, ne sont que les moins probables. Passant au langage des joueurs, nous pouvons dire que lors du lancement d'une pièce symétrique, les jeux dans lesquels les joueurs gagnent et perdent à temps égal sont les moins probables.

Au contraire, les jeux dans lesquels un joueur est significativement plus susceptible de gagner et l'autre, respectivement, de perdre, sont les plus susceptibles. Un paradoxe étonnant !

Calculer la probabilité que la fraction de temps t pendant laquelle le premier joueur gagne soit comprise entre t1 à t2, il faut à partir de la valeur de la fonction de distribution F (t2) soustraire la valeur de la fonction de distribution F (t1).

Formellement on obtient :

P (t1

Sur la base de ce fait, il est possible de calculer avec STATISTICA qu'à 10 000 pas la particule reste du côté positif de plus de 9930 instants de temps avec une probabilité de 0,1, c'est-à-dire qu'en gros, une telle situation sera observée au moins dans un cas sur dix (bien que, à première vue, cela semble absurde ; voir la note remarquablement claire de Yu. V. Prokhorov "Bernoulli's Walk" dans l'encyclopédie "Probability and Mathematical Statistics", pp. 42-43, Moscou : Grande Encyclopédie Russe, 1999) ...

Distribution binomiale négative

Il s'agit d'une distribution discrète qui attribue à l'ensemble des points k = 0,1,2, ... probabilités :

p k = P (X = k) = C k r + k-1 p r (l-p) k ", où 0<р<1,r>0.

La distribution binomiale négative se retrouve dans de nombreuses applications.

En général r> 0 distribution binomiale négative est interprétée comme la distribution du temps d'attente pour le rème "succès" dans le schéma de test de Bernoulli avec la probabilité de "succès" p, par exemple, le nombre de rouleaux à faire avant que le deuxième blason soit roulé, auquel cas il est parfois appelé la distribution de Pascal et est un analogue discret de la distribution gamma.

À r = 1 la distribution binomiale négative coïncide avec la distribution géométrique.

Si Y est une variable aléatoire avec une distribution de Poisson avec un paramètre aléatoire, qui, à son tour, a une distribution gamma avec densité

Alors Ub aura une distribution binomiale négative avec des paramètres ;

Loi de Poisson

La distribution de Poisson est parfois appelée distribution des événements rares. Des exemples de variables distribuées selon la loi de Poisson sont : le nombre d'accidents, le nombre de défauts dans le processus de fabrication, etc. La distribution de Poisson est déterminée par la formule :

Les principales caractéristiques d'une variable aléatoire de Poisson :

La distribution de Poisson est liée à la distribution exponentielle et à la distribution de Bernoulli.

Si le nombre d'événements a une distribution de Poisson, alors les intervalles entre les événements ont une distribution exponentielle ou exponentielle.

Diagramme de distribution de Poisson :

Comparez le tracé de la distribution de Poisson avec le paramètre 5 avec le tracé de la distribution de Bernoulli à p = q = 0,5, n = 100.

Vous verrez que les graphiques sont très similaires. Dans le cas général, il y a le schéma suivant (voir, par exemple, l'excellent livre : Shiryaev AN « Probability. » Moscou : Nauka, p. 76) : si dans les tests de Bernoulli n prend de grandes valeurs, et la probabilité de succès / ? est relativement petit, de sorte que le nombre moyen de succès (produit et sieste) n'est ni petit ni grand, alors la loi de Bernoulli avec les paramètres n, p peut être remplacée par la loi de Poisson avec le paramètre = np.

La distribution de Poisson est largement utilisée dans la pratique, par exemple, dans les cartes de contrôle qualité en tant que distribution d'événements rares.

Comme autre exemple, considérons le problème suivant lié aux lignes téléphoniques et tiré de la pratique (voir : Feller V. Introduction à la théorie des probabilités et ses applications. Moscou : Mir, 1984, p. 205, et aussi Molina E. S. (1935) Probabilité en ingénierie, Génie électrique, 54, pages 423-427 ; Bell Telephone System Technical Publications Monograph B-854). Cette tâche est facile à traduire dans une langue moderne, par exemple dans la langue des communications mobiles, ce que les lecteurs intéressés sont invités à faire.

Le problème est formulé comme suit. Soit deux centraux téléphoniques - A et B.

Le poste téléphonique A doit assurer la communication de 2000 abonnés avec le poste B. La qualité de la communication doit être telle que seul 1 appel sur 100 attend que la ligne se libère.

La question est : combien de lignes téléphoniques faut-il prévoir pour assurer la qualité de communication donnée ? Évidemment, il est insensé de créer 2 000 lignes, car beaucoup d'entre elles seront gratuites pendant longtemps. D'après des considérations intuitives, il est clair qu'apparemment, il existe un nombre optimal de lignes N. Comment calculer ce nombre ?

Commençons par un modèle réaliste qui décrit l'intensité de l'accès de l'abonné au réseau, tout en notant que l'exactitude du modèle peut, bien entendu, être vérifiée à l'aide de critères statistiques standards.

Ainsi, supposons que chaque abonné utilise la ligne en moyenne 2 minutes par heure et que les raccordements des abonnés soient indépendants (cependant, comme le note à juste titre Feller, ce dernier a lieu s'il n'y a pas d'événements qui affectent tous les abonnés, par exemple, une guerre ou un ouragan).

Nous avons alors 2000 essais de Bernoulli (tirage au sort) ou connexions réseau avec un taux de réussite de p = 2/60 = 1/30.

Vous devez trouver un tel N lorsque la probabilité que plus de N utilisateurs soient connectés simultanément au réseau ne dépasse pas 0,01. Ces calculs peuvent être facilement résolus dans le système STATISTICA.

Résoudre le problème sur STATISTICA.

Étape 1. Ouvrir le module Statistiques de base... Créez un fichier binoml.sta contenant 110 observations. Nommez la première variable BINÔME, la deuxième variable est POISSON.

Étape 2. BINÔME, Ouvrez la fenêtre Variable 1(voir fig.). Entrez la formule dans la fenêtre comme indiqué sur la figure. Cliquez sur le bouton d'accord.


Étape 3. En double-cliquant sur le titre POISSON, Ouvrez la fenêtre Variable 2(voir fig.)

Entrez la formule dans la fenêtre comme indiqué sur la figure. Notez que nous calculons le paramètre de la distribution de Poisson en utilisant la formule = n × p. Donc = 2000 × 1/30. Cliquez sur le bouton d'accord.


STATISTICA calculera les probabilités et les écrira dans le fichier généré.

Étape 4. Faites défiler le tableau construit jusqu'aux cas portant le numéro 86. Vous verrez que la probabilité qu'au moins 86 utilisateurs du réseau sur 2000 travaillent simultanément pendant une heure est de 0,01347 si la distribution binomiale est utilisée.

La probabilité que 86 personnes ou plus sur 2 000 utilisateurs du réseau travaillent simultanément pendant une heure est de 0,01293 lorsque l'on utilise l'approximation de Poisson pour la distribution binomiale.

Puisque nous avons besoin d'une probabilité de pas plus de 0,01, alors 87 lignes seront suffisantes pour fournir la qualité de communication requise.

Des résultats similaires peuvent être obtenus en utilisant l'approximation normale pour la distribution binomiale (vérifiez-le !).

A noter que V. Feller ne disposait pas du système STATISTICA et utilisait des tables pour la distribution binomiale et normale.

En utilisant le même raisonnement, on peut résoudre le problème suivant discuté par W. Feller. Il est nécessaire de vérifier si plus ou moins de lignes seront nécessaires pour desservir de manière fiable les utilisateurs en les divisant en 2 groupes de 1000 personnes chacun.

Il s'avère que la division des utilisateurs en groupes nécessitera 10 lignes supplémentaires pour atteindre le même niveau de qualité.

Vous pouvez également prendre en compte l'évolution de l'intensité de la connexion réseau au cours de la journée.

Répartition géométrique

Si des tests de Bernoulli indépendants sont effectués et que le nombre de tests est compté jusqu'au prochain "succès", alors ce nombre a une distribution géométrique. Ainsi, si vous lancez une pièce, alors le nombre de lancers que vous devez faire avant que le prochain blason ne tombe obéit à une loi géométrique.

La distribution géométrique est déterminée par la formule :

F (x) = p (1-p) x-1

p est la probabilité de succès, x = 1, 2,3 ...

Le nom de la distribution est associé à une progression géométrique.

Ainsi, la distribution géométrique définit la probabilité que le succès soit venu à une certaine étape.

La distribution géométrique est un analogue discret de la distribution exponentielle. Si le temps change en quanta, alors la probabilité de succès à chaque instant est décrite par une loi géométrique. Si le temps est continu, alors la probabilité est décrite par une loi exponentielle ou exponentielle.

Distribution hypergéométrique

Il s'agit d'une distribution de probabilité discrète d'une variable aléatoire X prenant des valeurs entières m = 0, 1,2, ..., n avec des probabilités :

où N, M et n sont des nombres entiers non négatifs et M< N, n < N.

La distribution hypergéométrique est généralement associée à un choix sans récidive et détermine, par exemple, la probabilité de trouver exactement m boules noires dans un échantillon aléatoire de taille n d'une population générale contenant N boules, dont M noires et N - M blanches (voir , par exemple, l'encyclopédie « Probabilités et statistiques mathématiques », Moscou : Grande Encyclopédie Russe, p. 144).

L'espérance mathématique de la distribution hypergéométrique ne dépend pas de N et coïncide avec l'espérance mathématique µ = np de la distribution binomiale correspondante.

Dispersion de la distribution hypergéométrique ne dépasse pas la variance de la distribution binomiale npq. Pour les moments de tout ordre, la distribution hypergéométrique tend vers les valeurs correspondantes des moments de la distribution binomiale.

Cette répartition est extrêmement courante dans les tâches de contrôle qualité.

Distribution polynomiale

Une distribution polynomiale, ou multinomiale, généralise naturellement la distribution. Si la distribution binomiale se produit lorsqu'une pièce de monnaie est lancée avec deux résultats (treillis ou armoiries), alors la distribution polynomiale se produit lorsqu'un dé est lancé et qu'il y a plus de deux résultats possibles. Formellement, il s'agit de la distribution de probabilité conjointe des variables aléatoires X 1, ..., X k, prenant des valeurs entières non négatives n 1, ..., nk, satisfaisant la condition n 1 + ... + nk = n, avec probabilités :

Le nom "distribution polynomiale" s'explique par le fait que des probabilités multinomiales surviennent lors du développement du polynôme (p 1 + ... + p k) n

Distribution bêta

La distribution bêta a une densité de la forme :


La distribution bêta standard est concentrée dans la plage de 0 à 1. En appliquant des transformations linéaires, la valeur bêta peut être transformée de manière à prendre des valeurs dans n'importe quelle plage.

Les principales caractéristiques numériques d'une grandeur avec une distribution bêta :


Distribution des valeurs extrêmes

La distribution des valeurs extrêmes (type I) a une densité de la forme :

Cette distribution est parfois aussi appelée distribution extrême.

La distribution des valeurs extrêmes est utilisée pour modéliser des événements extrêmes, tels que les niveaux d'inondation, les vitesses de vortex, le maximum d'indices boursiers pour une année donnée, etc.

Cette distribution est utilisée en théorie de la fiabilité, par exemple, pour décrire le temps de défaillance des circuits électriques, ainsi que dans les calculs actuariels.

Répartition de Rayleigh

La distribution de Rayleigh a une densité de la forme :

où b est le paramètre d'échelle.

La distribution de Rayleigh est concentrée dans la plage de 0 à l'infini. Au lieu de 0, STATISTICA vous permet de saisir une autre valeur pour le paramètre de seuil, qui sera soustraite des données d'origine avant d'ajuster la distribution de Rayleigh. Par conséquent, la valeur du paramètre de seuil doit être inférieure à toutes les valeurs observées.

Si deux variables y 1 et y 2 sont indépendantes l'une de l'autre et sont normalement distribuées avec la même variance, alors la variable aura une distribution de Rayleigh.

La distribution de Rayleigh est utilisée, par exemple, en théorie du tir.


Distribution de Weibull

La distribution de Weibull porte le nom du chercheur suédois Waloddi Weibull, qui a utilisé cette distribution pour décrire différents types de temps de défaillance dans la théorie de la fiabilité.

Formellement, la densité de distribution de Weibull s'écrit sous la forme :

Parfois, la densité de distribution de Weibull s'écrit aussi sous la forme :

B est le paramètre d'échelle ;

С - paramètre de forme ;

E est la constante d'Euler (2,718 ...).

Paramètre de position. Typiquement, la distribution de Weibull est centrée sur le demi-axe de 0 à l'infini. Si, au lieu de la frontière 0, nous introduisons le paramètre a, ce qui est souvent nécessaire en pratique, alors la distribution dite de Weibull à trois paramètres apparaît.

La distribution de Weibull est largement utilisée dans la théorie de la fiabilité et de l'assurance.

Comme décrit ci-dessus, la distribution exponentielle est souvent utilisée comme modèle pour estimer le MTBF en supposant que la probabilité de défaillance d'une installation est constante. Si la probabilité de défaillance change au fil du temps, la distribution de Weibull est appliquée.

À c = 1 ou, dans une autre paramétrisation, at, la distribution de Weibull, comme il est facile de le voir à partir des formules, se transforme en une distribution exponentielle, et en, en une distribution de Rayleigh.

Des méthodes spéciales ont été développées pour estimer les paramètres de la distribution de Weibull (voir, par exemple, le livre : Lawless (1982) Statistical models and methods for life data, Belmont, CA : Lifetime Learning, qui décrit les méthodes d'estimation, ainsi que les problèmes qui se posent lors de l'estimation du paramètre de position pour une distribution à trois paramètres de Weibull).

Souvent, lors de l'exécution d'une analyse de fiabilité, il est nécessaire de considérer la probabilité de défaillance dans un court intervalle de temps après un moment donné. t pourvu que jusqu'au moment t aucune panne ne s'est produite.

Une telle fonction est appelée fonction de risque, ou fonction de taux de défaillance, et est formellement définie comme suit :

H (t) - fonction du taux de défaillance ou fonction de risque à l'instant t ;

f (t) - densité de distribution des temps de défaillance ;

F (t) - fonction de distribution des temps de défaillance (intégrale de la densité sur l'intervalle).

En termes généraux, la fonction de taux de défaillance s'écrit comme suit :

Lorsque la fonction de risque est égale à une constante, ce qui correspond au fonctionnement normal de l'appareil (voir formules).

A, la fonction de risque diminue, ce qui correspond au rodage de l'appareil.

A, la fonction de risque diminue, ce qui correspond au vieillissement de l'appareil. Les fonctions de risque typiques sont présentées dans le graphique.


Les graphiques de densité de Weibull avec différents paramètres sont présentés ci-dessous. Il faut faire attention à trois plages de valeurs du paramètre a :

Dans le premier domaine, la fonction de risque diminue (période de réglage), dans le deuxième domaine, la fonction de risque est égale à une constante, dans le troisième domaine, la fonction de risque augmente.

On comprend aisément ce qui a été dit pour l'exemple de l'achat d'une voiture neuve : il y a d'abord une période d'adaptation de la voiture, puis une longue période de fonctionnement normal, puis les pièces de la voiture s'usent et le risque de sa panne augmente fortement .

Il est important que toutes les périodes de fonctionnement puissent être décrites par la même famille de distribution. C'est l'idée de la distribution de Weibull.


Voici les principales caractéristiques numériques de la distribution de Weibull.


Répartition de Pareto

Dans divers problèmes de statistiques appliquées, on rencontre souvent des distributions dites tronquées.

Par exemple, cette distribution est utilisée en assurance ou en fiscalité lorsque les revenus d'intérêt dépassent une certaine valeur c 0

Les principales caractéristiques numériques de la distribution de Pareto :


Distribution logistique

La distribution logistique a une fonction de densité :

A - paramètre de position ;

B est le paramètre d'échelle ;

E est le nombre d'Euler (2,71 ...).


Hotelling T 2 -distribution

Cette distribution continue, concentrée sur l'intervalle (0, T), a une densité :

où les paramètres n et k, n> _k> _1, sont appelés degrés de liberté.

À K = 1, la distribution P de Hotelling se réduit à la distribution de Student, et pour tout k> 1 peut être considéré comme une généralisation de la distribution de Student au cas multidimensionnel.

La distribution Hotelling est basée sur la distribution normale.

Soit un vecteur aléatoire à k dimensions Y ayant une distribution normale avec un vecteur moyen nul et une matrice de covariance.

Considérez la valeur

où les vecteurs aléatoires Z i sont indépendants les uns des autres et Y et sont distribués de la même manière que Y.

Alors la variable aléatoire T 2 = Y T S -1 Y a la distribution T 2-Hotelling avec n degrés de liberté (Y est un vecteur colonne, T est l'opérateur de transposition).

où la variable aléatoire t n a une distribution de Student à n degrés de liberté (voir "Probabilités et statistiques mathématiques", Encyclopédie, p. 792).

Si Y a une distribution normale avec une moyenne non nulle, alors la distribution correspondante est appelée décentré Distribution T 2 de Hotelling avec n degrés de liberté et paramètre de non-centralité v.

La distribution T 2 de Hotelling est utilisée en statistique mathématique dans la même situation que la distribution t de Student, mais uniquement dans le cas multidimensionnel. Si les résultats des observations X 1, ..., X n sont des vecteurs aléatoires indépendants, normalement distribués avec un vecteur moyen µ et une matrice de covariance non dégénérée, alors les statistiques


a une distribution Hotelling T 2 avec n - 1 degrés de liberté. Ce fait constitue la base du critère de Hotelling.

Dans STATISTICA, le critère Hotelling est disponible, par exemple, dans le module Statistiques de base et tableaux (voir la boîte de dialogue ci-dessous).


Répartition Maxwell

La distribution de Maxwell est apparue en physique lors de la description de la distribution des vitesses des molécules de gaz parfaits.

Cette distribution continue est centrée sur (0,) et a une densité :

La fonction de distribution a la forme :

où (x) est la fonction de distribution normale standard. La distribution de Maxwell a un coefficient d'asymétrie positif et un seul mode en un point (c'est-à-dire que la distribution est unimodale).

La distribution de Maxwell a des moments finis de n'importe quel ordre ; l'espérance mathématique et la variance sont égales, respectivement, et

La distribution de Maxwell est naturellement liée à la distribution normale.

Si X 1, X 2, X 3 sont des variables aléatoires indépendantes de distribution normale avec les paramètres 0 et х 2, alors la variable aléatoire a une distribution Maxwell. Ainsi, la distribution de Maxwell peut être considérée comme la distribution de la longueur d'un vecteur aléatoire, dont les coordonnées dans le système de coordonnées cartésiennes dans l'espace tridimensionnel sont indépendantes et normalement distribuées avec une moyenne 0 et une variance x 2.

Répartition de Cauchy

Cette distribution étonnante n'a parfois pas de valeur moyenne, puisque sa densité tend très lentement vers zéro avec l'augmentation de x en valeur absolue. De telles distributions sont appelées distributions à queue lourde. Si vous avez besoin d'une distribution qui n'a pas de moyen, appelez immédiatement la distribution Cauchy.

La distribution de Cauchy est unimodale et symétrique par rapport au mode, qui est à la fois la médiane et a une fonction de densité de la forme :

c> 0 est le paramètre d'échelle et a est le paramètre central, qui détermine simultanément les valeurs du mode et de la médiane.

L'intégrale de la densité, c'est-à-dire la fonction de distribution, est donnée par le rapport :

Distribution t de Student

Le statisticien anglais V. Gosset, connu sous le pseudonyme « Student » et qui commença sa carrière par une étude statistique de la qualité de la bière anglaise, obtint en 1908 le résultat suivant. Laisser être x 0, x 1, .., x m - indépendants, (0, s 2) - variables aléatoires normalement distribuées :


Cette distribution, maintenant connue sous le nom de distribution t de Student (en abrégé t (m) -distributions, où m est le nombre de degrés de liberté), sous-tend le célèbre test t destiné à comparer les moyennes de deux populations.

Fonction de densité f t (x) ne dépend pas de la variance х 2 des variables aléatoires et, de plus, est unimodale et symétrique par rapport au point х = 0.

Caractéristiques numériques de base de la distribution de Student :

La distribution t est importante lorsque les estimations de la moyenne sont prises en compte et que la variance de l'échantillon est inconnue. Dans ce cas, la variance de l'échantillon et la distribution t sont utilisées.

Aux grands degrés de liberté (supérieurs à 30), la distribution t coïncide pratiquement avec la distribution normale standard.

Le graphique de la fonction de densité de la distribution t se déforme avec un nombre croissant de degrés de liberté comme suit : le pic augmente, les queues vont plus abruptement vers 0, et il semble que les graphiques de la fonction de densité de la distribution t sont comprimés latéralement.


F-répartition

Envisager m 1 + m 2 quantités indépendantes et (0, s 2) normalement distribuées

et met

De toute évidence, la même variable aléatoire peut être définie comme le rapport de deux quantités indépendantes et convenablement normalisées à distribution du chi carré et, c'est-à-dire

Le célèbre statisticien anglais R. Fisher montra en 1924 que la densité de probabilité d'une variable aléatoire F (m 1, m 2) est donnée par la fonction :


où (y) est la valeur de la fonction gamma d'Euler dans. point y, et la loi elle-même est appelée la distribution F avec les nombres de degrés de liberté du numérateur et du dénominateur égaux à m, 1 et m7, respectivement

Caractéristiques numériques de base de la distribution F :


La distribution F se produit dans le discriminant, la régression et l'analyse de la variance, et d'autres types d'analyse de données multivariées.

Lien correct vers cet article :

Oleinikova S.A. - Approximation de la loi de distribution de la somme des variables aléatoires distribuées selon la loi bêta // Cybernétique et programmation. - 2015. - N° 6. - P. 35 - 54. DOI : 10.7256 / 2306-4196.2015.6.17225 URL : https://nbpublish.com/library_read_article.php?id=17225

Approximation de la loi de distribution de la somme des variables aléatoires distribuées selon la loi bêta

Olenikova Svetlana Alexandrovna

Docteur en Sciences Techniques

Professeur agrégé, Université technique d'État de Voronej

394026, Russie, Voronej, perspective Moskovski, 14

Oleinikova Svetlana Alexandrovna

Docteur en Sciences Techniques

Professeur agrégé, Département des systèmes automatisés et informatiques, Université technique d'État de Voronej

394026, Russie, g. Voronej, perspective Moskovskii, 14

Date d'envoi de l'article à l'éditeur :

14-12-2015

Date de révision de l'article :

15-12-2015

Annotation.

Le sujet de recherche dans ce travail est la densité de distribution d'une variable aléatoire, qui est la somme d'un nombre fini de valeurs bêta, dont chacune est distribuée dans son propre intervalle avec ses propres paramètres. Cette loi est répandue en théorie des probabilités et en statistiques mathématiques, car elle peut être utilisée pour décrire un nombre suffisamment grand de phénomènes aléatoires si les valeurs de la variable aléatoire continue correspondante sont concentrées dans un certain intervalle. Puisque la somme recherchée des valeurs bêta ne peut être exprimée par aucune des lois connues, le problème se pose d'estimer sa densité de distribution. Le but du travail est de trouver une telle approximation pour la densité de distribution de la somme des valeurs bêta, qui différerait par la plus petite erreur. Pour atteindre cet objectif, une expérience de calcul a été réalisée, à la suite de laquelle, pour un nombre donné de valeurs bêta, la valeur numérique de la densité de distribution a été comparée à l'approximation de la densité souhaitée. Les distributions normale et bêta ont été utilisées comme approximations. A la suite de l'analyse expérimentale, des résultats ont été obtenus qui indiquent l'opportunité d'approximer la loi de distribution recherchée par la loi bêta. Comme l'un des domaines d'application des résultats obtenus, le problème de la gestion de projet avec une durée aléatoire est considéré, où le rôle clé est joué par l'estimation du temps d'exécution du projet, qui, en raison des spécificités du domaine, peut être décrit en utilisant la somme des valeurs bêta.


Mots clés: variable aléatoire, distribution bêta, densité de distribution, loi de distribution normale, somme de variables aléatoires, expérience de calcul, algorithme récursif, approximation, erreur, PERT

10.7256/2306-4196.2015.6.17225


Date de publication:

19-01-2016

Résumé.

Le sujet de la recherche dans cet article est la fonction de densité de probabilité (PDF) de la variable aléatoire, qui est la somme d'un nombre fini de valeurs bêta. Cette loi est répandue dans la théorie des probabilités et des statistiques mathématiques, car son utilisation peut être décrite par un nombre suffisamment grand d'événements aléatoires, si la valeur de la variable aléatoire continue correspondante se concentre dans une certaine plage. Étant donné que la somme requise des valeurs bêta ne peut être exprimée par aucune des lois connues, le problème de l'estimation de sa distribution de densité se pose. Le but est de trouver une telle approximation pour le PDF de la somme des valeurs bêta qui aurait le moins d'erreur. Pour atteindre cet objectif, une expérience de calcul a été menée, dans laquelle pour un nombre donné de valeurs bêta, la valeur numérique du PDF avec l'approximation de la densité souhaitée a été comparée. Comme approximations, les distributions normale et bêta ont été utilisées. En conclusion de l'analyse expérimentale, les résultats, indiquant la pertinence de l'approximation de la loi souhaitée à l'aide de la distribution bêta, ont été obtenus. Comme l'un des domaines d'application des résultats, le problème de gestion de projet avec les durées aléatoires des travaux est considéré. Ici, la question clé est l'évaluation du temps de mise en œuvre du projet, qui, en raison du domaine spécifique, peut être décrit par la somme des valeurs bêta.

Mots clés:

Valeur aléatoire, distribution bêta, fonction de densité, distribution normale, somme de variables aléatoires, expérience de calcul, algorithme récursif, approximation, erreur, PERT

introduction

Le problème de l'estimation de la loi de distribution de la somme des valeurs bêta est considéré. C'est une loi universelle qui peut être utilisée pour décrire la plupart des phénomènes aléatoires avec une loi de distribution continue. En particulier, dans le nombre écrasant de cas d'enquête sur des phénomènes aléatoires qui peuvent être décrits par des variables aléatoires continues unimodales comprises dans une certaine plage de valeurs, une telle valeur peut être approchée par la loi bêta. À cet égard, le problème de trouver la loi de distribution pour la somme des valeurs bêta est non seulement de nature scientifique, mais aussi d'un certain intérêt pratique. De plus, contrairement à la plupart des lois de distribution, la loi bêta n'a pas de propriétés uniques permettant une description analytique de la quantité souhaitée. De plus, la spécificité de cette loi est telle qu'il est extrêmement difficile d'extraire une intégrale définie multiple nécessaire pour déterminer la densité d'une somme de variables aléatoires, et le résultat est une expression assez lourde même pour n = 2, et avec une augmentation en nombre de termes, la complexité de l'expression finale augmente plusieurs fois. À cet égard, se pose le problème d'approximer la densité de distribution de la somme des valeurs bêta avec une erreur minimale.

Cet article présente une approche pour trouver une approximation de la loi souhaitée au moyen d'une expérience informatique qui permet pour chaque cas spécifique de comparer l'erreur obtenue en estimant la densité d'intérêt en utilisant les lois les plus appropriées : normale et bêta. En conséquence, il a été conclu qu'il est conseillé d'estimer la somme des valeurs bêta à l'aide de la distribution bêta.

1. Énoncé du problème et de ses caractéristiques

En général, la loi bêta est déterminée par la densité spécifiée dans l'intervalle comme suit :

`f_ (xi_ (i)) (x) = ((0,; t<0), ((t^(p_(i)-1)(1-t)^(q_(i)-1))/(B(p_(i),q_(i))(b_(i)-a_(i))^(p_(i)+q_(i)-1)), ; 0<=t<=1;),(0, ; t>1):} (1)`

Cependant, d'un intérêt pratique sont, en règle générale, les valeurs bêta déterminées dans un intervalle arbitraire. Cela est principalement dû au fait que l'éventail des problèmes pratiques dans ce cas est beaucoup plus large et, deuxièmement, lors de la recherche d'une solution pour un cas plus général, il ne sera pas possible d'obtenir un résultat pour un cas particulier, ce qui être déterminé par une variable aléatoire (1) ne présente aucune difficulté. Par conséquent, dans ce qui suit, nous considérerons des variables aléatoires définies sur un intervalle arbitraire. Dans ce cas, le problème peut être formulé comme suit.

Nous considérons le problème de l'estimation de la loi de distribution d'une variable aléatoire, qui est la somme des variables aléatoires `xi_ (i),` i = 1, ..., n, dont chacun est distribué selon la loi bêta dans l'intervalle avec les paramètres p i et q i. La densité de distribution des termes individuels sera déterminée par la formule :

Le problème de trouver la loi de la somme des valeurs bêta a été partiellement résolu plus tôt. En particulier, des formules ont été obtenues pour estimer la somme de deux valeurs bêta, chacune étant déterminée à l'aide de (1). Dans l'approche proposée pour la recherche de la somme de deux variables aléatoires avec la loi de distribution (2).

Cependant, dans le cas général, le problème initial n'a pas été résolu. Ceci est principalement dû à la spécificité de la formule (2), qui ne permet pas d'obtenir des formules compactes et pratiques pour trouver la densité à partir de la somme des variables aléatoires. En effet, pour deux quantités`xi_1` et` xi_2` la densité requise sera déterminée comme suit :

`f_ (eta) (z) = int_-prop ^ propf_ (xi_1) (x) f_ (xi_2) (z-x) dx (3)`

Dans le cas de l'addition de n variables aléatoires, une intégrale multiple est obtenue. Dans le même temps, pour ce problème, il existe des difficultés liées aux spécificités de la distribution bêta. En particulier, même pour n = 2, l'utilisation de la formule (3) conduit à un résultat assez lourd, qui est défini en termes de fonctions hypergéométriques. Reprendre l'intégrale de la densité obtenue, ce qui doit être fait déjà à n = 3 et plus, est extrêmement difficile. Dans le même temps, des erreurs ne sont pas exclues qui surviendront inévitablement lors de l'arrondi et du calcul d'une expression aussi complexe. A cet égard, il devient nécessaire de rechercher une approximation pour la formule (3), qui permet d'appliquer des formules bien connues avec un minimum d'erreur.

2. Expérience de calcul pour approximer la densité de la somme des valeurs bêta

Pour analyser les spécificités de la densité de distribution souhaitée, une expérience a été réalisée qui permet de collecter des informations statistiques sur une variable aléatoire, qui est la somme d'un nombre prédéterminé de variables aléatoires avec une distribution bêta avec des paramètres donnés. Le montage expérimental a été décrit plus en détail dans. En faisant varier les paramètres des valeurs bêta individuelles, ainsi que leur nombre, à la suite d'un grand nombre d'expériences réalisées, nous sommes arrivés aux conclusions suivantes.

1. Si les variables aléatoires individuelles incluses dans la somme ont des densités symétriques, alors l'histogramme de la distribution finale a une forme proche de la normale. Ils sont également proches de la loi normale d'évaluation des caractéristiques numériques de la valeur finale (espérance mathématique, variance, asymétrie et aplatissement).

2. Si les variables aléatoires individuelles sont asymétriques (avec à la fois des asymétries positives et négatives), mais que l'asymétrie totale est de 0, alors du point de vue de la représentation graphique et des caractéristiques numériques, la loi de distribution obtenue est également proche de la normale.

3. Dans d'autres cas, la loi recherchée est visuellement proche de la loi bêta. En particulier, la somme de cinq variables aléatoires asymétriques est illustrée à la figure 1.

Figure 1 - La somme de cinq variables aléatoires également asymétriques

Ainsi, sur la base de l'expérience réalisée, il est possible d'émettre une hypothèse sur une éventuelle approximation de la densité de la somme des valeurs bêta par une distribution normale ou bêta.

Pour confirmer cette hypothèse et choisir la seule loi d'approximation, nous allons réaliser l'expérience suivante. Après avoir donné le nombre de variables aléatoires à distribution bêta, ainsi que leurs paramètres, nous trouvons la valeur numérique de la densité requise et la comparons à la densité de la distribution normale ou bêta correspondante. Cela nécessitera :

1) développer un algorithme qui vous permet d'estimer numériquement la densité de la somme des valeurs bêta ;

2) avec les paramètres donnés et le nombre de valeurs initiales, déterminer les paramètres de la distribution finale dans l'hypothèse d'une distribution normale ou bêta ;

3) déterminer l'erreur d'approximation par la distribution normale ou la distribution bêta.

Examinons ces tâches plus en détail. Un algorithme numérique pour trouver la densité de la somme des valeurs bêta est basé sur la récursivité. La somme de n variables aléatoires arbitraires peut être déterminée comme suit :

`eta_ (n) = xi_ (1) + ... + xi_ (n) = eta_ (n-1) + xi_ (n)` , (4)

`eta_ (n-1) = xi_ (1) + ... + xi_ (n-1)` . (5)

De même, vous pouvez décrire la densité de distribution de la variable aléatoire `eta_ (n-1)` :

`eta_ (n-1) = xi_ (1) + ... + xi_ (n-1) = eta_ (n-2) + xi_ (n-1)` , (6)

En poursuivant un raisonnement similaire et en utilisant la formule (3), nous obtenons :

`f_ (eta_ (n)) (x) = int_-prop ^ prop (f_ (xi_ (n-1)) (x-x_ (n-1)) * int_-prop ^ prop (f_ (xi_ (n- 2)) (x_ (n-1) -x_ (n-2)) ... int_-prop ^ propf_ (xi_ (2)) (x_ (2) -x_ (1)) dx_ (1) ... ) dx_ (n-2)) dx_ (n-1). (7) `

Ces considérations, ainsi que les spécificités de la détermination de la densité pour les quantités avec une distribution bêta, sont données plus en détail dans.

Les paramètres de la loi de distribution finale sont déterminés en se basant sur l'hypothèse d'indépendance des variables aléatoires. Dans ce cas, l'espérance mathématique et la variance de leur somme seront déterminées par les formules :

`Meta_ (n) = Mxi_ (1) + ... + Mxi_ (n), (8)`

Pour la loi normale, les paramètres a et 'sigma' seront directement déterminés par les formules (8) et (9). Pour la distribution bêta, vous devez d'abord calculer les bornes inférieure et supérieure. Ils peuvent être définis comme suit :` `

`a = somme_ (i = 1) ^ na_ (i)` ; (Dix)

,,, b = somme_ (i = 1) ^ nb_ (i) `. (Onze)

Ici a i et b i sont les limites des intervalles de termes individuels. Ensuite, nous allons composer un système d'équations comprenant des formules pour l'espérance mathématique et la variance de la valeur bêta :

`((Mxi = a + (ba) p / (p + q)), (Dxi = (ba) ^ (2) (pq) / ((p + q) ^ 2 (p + q + 1))) : ) (12) `

Ici `xi` est une variable aléatoire décrivant la somme requise. Son espérance mathématique et sa variance sont déterminées par les formules (8) et (9) ; les paramètres a et b sont donnés par les formules (10) et (11). Ayant résolu le système (12) par rapport aux paramètres p et q, on aura :

`p = ((b-Mxi) (Mxi-a) ^ 2-Dxi (Mxi-a)) / (Dxi (b-a))` . (13)

`q = ((b-Mxi) ^ 2 (Mxi-a) -Dxi (b-Mxi)) / (Dxi (b-a))` . (14)

`E = int_a ^ b | hatf (x) -f_ (eta) (x) | dx. (15) `

Ici, « hatf (x) » est une approximation de la somme des valeurs bêta ; `f_ (eta) (x)` - loi de distribution de la somme des valeurs bêta.

Nous modifierons séquentiellement les paramètres des valeurs bêta individuelles pour estimer les erreurs. En particulier, les questions suivantes seront intéressantes :

1) à quelle vitesse la somme des valeurs bêta converge vers la distribution normale, et est-il possible d'estimer la somme par une autre loi qui aura une erreur minimale par rapport à la vraie loi de distribution de la somme des valeurs bêta ;

2) de combien l'erreur augmente avec une augmentation de l'asymétrie des valeurs bêta ;

3) comment l'erreur changera si les intervalles de distribution des valeurs bêta sont différents.

Le schéma général de l'algorithme expérimental pour chaque valeur individuelle des valeurs bêta peut être représenté comme suit (Figure 2).

Figure 2 - Schéma général de l'algorithme expérimental

PogBeta - l'erreur résultant de l'approximation de la loi finale par la distribution bêta dans l'intervalle ;

PogNorm - l'erreur résultant de l'approximation de la loi finale par une distribution normale dans l'intervalle ;

ItogBeta - la valeur finale de l'erreur résultant de l'approximation de la distribution finale par la loi bêta ;

ItogNorm - la valeur totale de l'erreur résultant de l'approximation de la distribution finale par la loi normale.

3. Résultats expérimentaux

Analysons les résultats de l'expérience décrite plus haut.

La dynamique de la diminution des erreurs avec une augmentation du nombre de termes est illustrée sur la figure 3. L'abscisse montre le nombre de termes et l'ordonnée montre l'ampleur de l'erreur. Ci-après, la série "Norm" montre l'évolution de l'erreur par la distribution normale, la série "Beta" - la distribution bêta.

Figure 3 - Réduction des erreurs avec une diminution du nombre de termes

Comme on peut le voir sur cette figure, pour deux termes, l'erreur d'approximation par la loi bêta est environ 4 fois inférieure à l'erreur d'approximation par la loi de distribution normale. Évidemment, à mesure que les termes augmentent, l'erreur d'approximation par la loi normale diminue beaucoup plus rapidement que la loi bêta. On peut aussi supposer que pour un très grand nombre de termes, l'approximation par la loi normale aura une erreur plus petite que l'approximation par la distribution bêta. Cependant, compte tenu de l'ampleur de l'erreur dans ce cas, on peut conclure que du point de vue du nombre de termes, la distribution bêta est préférable.

La figure 4 montre la dynamique des changements d'erreurs avec une augmentation de l'asymétrie des variables aléatoires. Sans perte de généralité, le paramètre p de toutes les valeurs bêta initiales a été fixé à la valeur 2, et la dynamique de l'évolution du paramètre q + 1 est indiquée sur l'axe des abscisses. L'axe des ordonnées dans les graphiques montre l'erreur d'approximation. Les résultats de l'expérience avec d'autres valeurs des paramètres sont généralement similaires.

Dans ce cas, il est également évident qu'il est préférable d'approximer la somme des valeurs bêta par une distribution bêta.

Figure 4 - Variation des erreurs d'approximation avec une asymétrie croissante des quantités

Ensuite, nous avons analysé l'évolution des erreurs lors de la modification de la plage des valeurs bêta initiales. La figure 5 montre les résultats de la mesure de l'erreur pour la somme de quatre valeurs bêta, dont trois sont distribuées dans l'intervalle, et la plage de la quatrième augmente séquentiellement (elle est tracée en abscisse).

Figure 5 - Modification des erreurs lors de la modification des intervalles de distribution des variables aléatoires

Sur la base des illustrations graphiques présentées dans les figures 3 à 5, ainsi que de la prise en compte des données obtenues à la suite de l'expérience, on peut conclure qu'il est conseillé d'utiliser la distribution bêta pour approximer la somme des valeurs bêta.

Comme les résultats l'ont montré, dans 98% des cas, l'erreur d'approximation de la valeur étudiée par la loi bêta sera inférieure à celle d'approximation de la distribution normale. La valeur moyenne de l'erreur d'approximation bêta dépendra principalement de la largeur des intervalles sur lesquels chaque terme est distribué. Dans ce cas, cette estimation (contrairement à la loi normale) dépend très peu de la symétrie des variables aléatoires, ainsi que du nombre de termes.

4. Candidatures

L'un des domaines d'application des résultats obtenus est la tâche de gestion de projet. Un projet est un ensemble de travaux série-parallèles mutuellement dépendants avec une durée de service aléatoire. Dans ce cas, la durée du projet sera une valeur aléatoire. Évidemment, l'évaluation de la loi de distribution de cette quantité est intéressante non seulement aux étapes de planification, mais aussi dans l'analyse des situations possibles liées à l'achèvement intempestif de tous les travaux. Compte tenu du fait que le retard du projet peut conduire à une grande variété de situations défavorables, y compris des amendes, l'estimation de la loi de distribution d'une variable aléatoire décrivant la durée du projet semble être une tâche pratique extrêmement importante.

Actuellement, la méthode PERT est utilisée pour cette évaluation. Selon ses hypothèses, la durée du projet est une variable aléatoire normalement distribuée « eta » avec des paramètres :

`a = somme_ (i = 1) ^ k Meta_ (i)`, (16)

`sigma = sqrt (somme_ (i = 1) ^ k D eta_ (i))` . (17)

Ici k est le nombre de jobs sur le chemin critique du projet ; `eta_ (1)`, ..., `eta_ (k)` - durée de ces travaux.

Considérons la correction de la méthode PERT, en tenant compte des résultats obtenus. Dans ce cas, nous supposerons que la durée du projet est distribuée selon la loi bêta avec les paramètres (13) et (14).

Essayons les résultats obtenus dans la pratique. Considérons un projet défini par le schéma de réseau illustré à la figure 6.

Figure 6 - Exemple de schéma de réseau

Ici, les bords du graphique indiquent les emplois, les poids des bords indiquent les numéros des emplois ; sommets dans les carrés - événements qui signifient le début ou la fin du travail. Soit les œuvres données par les durées données dans le tableau 1.

Tableau 1 - Caractéristiques temporelles des travaux du projet

Travail non. min max Tapis. Etre prêt
1 5 10 9
2 3 6 4
3 6 8 7
4 4 7 6
5 4 7 7
6 2 5 3
7 4 8 6
8 4 6 5
9 6 8 7
10 2 6 4
11 9 13 12
12 2 6 3
13 5 7 6

Dans le tableau ci-dessus, min est le temps le plus court dans lequel ce travail peut être effectué ; max - temps le plus long ; Tapis. Etre prêt est l'espérance mathématique de la distribution bêta, indiquant le temps prévu pour terminer un travail donné.

Nous simulerons le processus d'exécution du projet à l'aide d'un système de modélisation de simulation spécialement développé. Il est décrit plus en détail dans. En sortie, vous devez obtenir :

Histogrammes du projet ;

Évaluation des probabilités d'exécution du projet dans un intervalle donné à partir des données statistiques du système de simulation ;

Estimation des probabilités à l'aide des distributions normale et bêta.

Au cours de la simulation de l'exécution du projet 10 000 fois, un échantillon de la durée de service a été obtenu, dont l'histogramme est illustré à la figure 7.

Figure 7 - Histogramme de la durée du projet

Il est évident que l'apparence de l'histogramme représenté sur la figure 7 diffère du graphique de densité de la loi de distribution normale.

Nous utiliserons les formules (8) et (9) pour trouver l'espérance mathématique finale et la variance. On a:

`M eta = 27 ; D eta = 1,3889.`

La probabilité d'atteindre un intervalle donné sera calculée à l'aide de la formule bien connue :

`P (je (18)

où `f_ (eta) (x)` est la loi de distribution de la variable aléatoire `eta`, je et r- les limites de l'intervalle d'intérêt.

Calculons les paramètres de la distribution bêta finale. Pour cela, nous utilisons les formules (13) et (14). On a:

p = 13,83 ; q = 4,61.

Les limites de la distribution bêta sont déterminées par les formules (10) et (11). Aura:

Les résultats de l'étude sont donnés dans le tableau 2. Sans perte de généralité, choisissons le nombre d'exécutions du modèle égal à 10000. Dans la colonne "Statistiques", la probabilité obtenue à partir de données statistiques est calculée. La colonne "Normal" montre la probabilité calculée selon la loi de distribution normale, qui est maintenant utilisée pour résoudre le problème. La colonne Bêta contient la valeur de probabilité calculée à partir de la distribution bêta.

Tableau 2 - Résultats des estimations probabilistes

Sur la base des résultats présentés dans le tableau 2, ainsi que des résultats similaires obtenus au cours de la modélisation du processus de réalisation d'autres projets, on peut conclure que les estimations obtenues de l'approximation de la somme des variables aléatoires (2) par le bêta distribution permettent d'obtenir une solution à ce problème avec une plus grande précision par rapport aux homologues existants.

Le but de ce travail était de trouver une telle approximation de la loi de distribution de la somme des valeurs bêta, qui différerait par la plus petite erreur par rapport à d'autres analogues. Les résultats suivants ont été obtenus.

1. Expérimentalement, une hypothèse a été avancée sur la possibilité d'approximer la somme des valeurs bêta en utilisant la distribution bêta.

2. Un outil logiciel a été développé qui permet d'obtenir la valeur numérique de l'erreur résultant de l'approximation de la densité souhaitée par la loi de distribution normale et la loi bêta. Ce programme est basé sur un algorithme récursif qui vous permet de déterminer numériquement la densité de la somme des valeurs bêta avec une densité donnée, qui est décrite plus en détail dans.

3. Une expérience informatique a été mise en place, dont le but était de déterminer la meilleure approximation par analyse comparative des erreurs dans différentes conditions. Les résultats expérimentaux ont montré la faisabilité d'utiliser la distribution bêta comme la meilleure approximation de la densité de distribution de la somme des valeurs bêta.

4. Un exemple est présenté dans lequel les résultats obtenus ont une importance pratique. Il s'agit de tâches de gestion de projet avec des temps d'exécution aléatoires pour des tâches individuelles. Un problème important pour de telles tâches est l'évaluation des risques associés à l'achèvement tardif du projet. Les résultats obtenus permettent d'obtenir des estimations plus précises des probabilités recherchées et, par conséquent, de réduire la probabilité d'erreurs de planification.

Bibliographie

.
2021 wisemotors.ru. Comment ça fonctionne. Le fer. Exploitation minière. Crypto-monnaie.