ΣΥΜΒΟΥΛΗ, ΠΑΡΑΣΚΕΥΗ ΤΩΝ Αθροισμάτων και 5 ΣΗΜΑΝΤΙΚΕΣ ΙΔΙΟΤΗΤΕΣ

ΣΥΜΒΟΥΛΗ, ΠΑΡΑΣΚΕΥΗ ΤΩΝ Αθροίσματος, και ΣΧΕΣΕΙΣ ΤΩΝ ΜΕΤΑΒΛΗΤΩΝ ΡΑΝΤΟΜ

  Οι στατιστικές παράμετροι των τυχαίων μεταβλητών διαφορετικής φύσης χρησιμοποιώντας τον ορισμό της προσδοκίας της τυχαίας μεταβλητής είναι εύκολο να ληφθούν και να κατανοηθούν, στη συνέχεια θα βρούμε μερικές παραμέτρους με τη βοήθεια της μαθηματικής προσδοκίας της τυχαίας μεταβλητής.

Στιγμές του αριθμού των συμβάντων που συμβαίνουν

    Μέχρι στιγμής γνωρίζουμε ότι η προσδοκία των διαφορετικών δυνάμεων της τυχαίας μεταβλητής είναι οι στιγμές των τυχαίων μεταβλητών και πώς να βρούμε την προσδοκία της τυχαίας μεταβλητής από τα γεγονότα εάν ο αριθμός των συμβάντων έχει ήδη συμβεί, τώρα μας ενδιαφέρει η προσδοκία εάν ζεύγος αριθμού συμβάντων έχει ήδη συμβεί, τώρα αν το X αντιπροσωπεύει τον αριθμό του συμβάντος, τότε για τα συμβάντα Α1, ΛΑ2, ….,ΕΝΑn ορίστε τη μεταβλητή δείκτη Ii as

I_ {i} = \ begin {cases} 1, & \ text {if} A_ {i} \ \ εμφανίζεται \\ 0, & \ text {διαφορετικά} \ τέλος {περιπτώσεις}

η προσδοκία του Χ με διακριτή έννοια θα είναι

E [X] = E \ αριστερά [\ sum_ {i = 1} ^ {n} I_ {i} \ right] = \ sum_ {i = 1} ^ {n} E [I_ {i}] = \ sum_ { i = 1} ^ {n} P \ αριστερά (A_ {i} \ δεξιά)

επειδή η τυχαία μεταβλητή X είναι

E = \ sum_ {i = 1} ^ {n} E I_ {i}

τώρα για να βρούμε προσδοκία εάν ο αριθμός του ζεύγους συμβάντων έχει ήδη συμβεί πρέπει να χρησιμοποιήσουμε το συνδυασμό ως

\ binom {X} {2} = \ sum_ {i <j} I_ {i} J_ {i}

Αυτό δίνει προσδοκία ως

E \ αριστερά [\ binom {X} {2} \ δεξιά] = \ sum_ {i <j} E [I_ {i} I_ {j}] = \ sum_ {i <j} P (A_ {i} A_ { ι})

E \ αριστερά [\ frac {X (X-1)} {2} \ δεξιά] = \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

E [X ^ {2}] -E [X] = 2 \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

από αυτό έχουμε την προσδοκία του τετραγώνου x και της τιμής της διακύμανσης επίσης κατά

Var (X) = E [X ^ {2}] - (E [X]) ^ {2}

Χρησιμοποιώντας αυτήν τη συζήτηση εστιάζουμε διαφορετικά είδη τυχαίων μεταβλητών για να βρούμε τέτοιες στιγμές.

Στιγμές διωνυμικών τυχαίων μεταβλητών

   Εάν το p είναι η πιθανότητα επιτυχίας από ανεξάρτητες δοκιμές, τότε ας υποδηλώσουμε το Αi για τη δοκιμή, ως επιτυχία

Όταν \ \ i \ neq j, P (A_ {i} A_ {j}) = p ^ {2}

E \ αριστερά [\ binom {X} {2} \ δεξιά] = \ sum_ {i <j} ^ {} p ^ {2} = \ binom {n} {2} p ^ {2}

E [X (X-1)] = n (n-1) p ^ {2}

E [X ^ {2}] -E [X] = n (n-1) p ^ {2}

και ως εκ τούτου η διακύμανση της διωνυμικής τυχαίας μεταβλητής θα είναι

Var (X) = E [X ^ {2}] - (E [X]) ^ {2} = n (n-1) p ^ {2} + np - (np) ^ {2} = np (1 -Π)

επειδή

E [X] = \ sum_ {i = 1} ^ {n} P (A_ {i}) = np

εάν γενικευόμαστε για εκδηλώσεις k

P (A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}}) = p ^ {k}

E [X (X-1) \ cdot \ cdot \ cdot \ cdot (X-k + 1)] = n (n-1) \ cdot \ cdot \ cdot (n-k + 1) p ^ {k}

Αυτή η προσδοκία μπορούμε να αποκτήσουμε διαδοχικά για την τιμή k μεγαλύτερη από 3 ας βρούμε για 3

E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}

E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}

E [X ^ {3}] = 3E [X ^ {2}] -2E [X] + n (n-1) (n-2) p ^ {3}

= 3n (n-1) p ^ {2} + np + n (n-1) (n-2) p ^ {3}

χρησιμοποιώντας αυτήν την επανάληψη μπορούμε να πάρουμε

E [X ^ {k}], k \ geq 3,

Στιγμές υπεργεωμετρικών τυχαίων μεταβλητών

  Οι στιγμές αυτής της τυχαίας μεταβλητής που θα καταλάβουμε με τη βοήθεια ενός παραδείγματος υποθέτουμε ότι τα στυλό επιλέγονται τυχαία από ένα κουτί που περιέχει Ν στυλό των οποίων είναι μπλε,i δηλώστε τα συμβάντα που η πένα i-th είναι μπλε, τώρα το X είναι ο αριθμός της μπλε πένας που επιλέγεται είναι ίσος με τον αριθμό των συμβάντων A1,A2,…..,ΕΝΑn που συμβαίνει επειδή το στυλό ith που έχει επιλεγεί είναι εξίσου πιθανό με οποιοδήποτε από τα στυλό N των οποίων το m είναι μπλε

P (A_ {i}) = \ frac {m} {N} \ \, E [X] = \ sum_ {i = 1} ^ {n} P (A_ {i})

και έτσι

P (A_ {i} A_ {j}) = P (A_ {i}) P (A_ {j} / A_ {i}) = \ frac {m} {N} \ frac {m-1} {N- 1}

E \ αριστερά [\ binom {X} {2} \ δεξιά] = \ sum_ {i <j} ^ {} \ frac {m (m-1)} {n (n-1)} = \ binom {n} {2} \ frac {m (m-1)} {n (n-1)}

X [X (X-1)] = n (n-1) \ frac {m (m-1)} {N (N-1)}

αυτό δίνει

E [X ^ {2}] = n (n-1) \ frac {m (m-1)} {N (N-1)} + E [X]

οπότε θα είναι η διακύμανση της υπεργεωμετρικής τυχαίας μεταβλητής

Var (X) = E [X ^ {2}] - (E [X]) ^ {2}

= n (n-1) \ frac {m (m-1)} {N (N-1)} + \ frac {nm} {N} - \ frac {n ^ {2} m ^ {2}} { Ν ^ {2}}

= \ frac {nm} {N} \ αριστερά [\ frac {(n-1) (m-1)} {N-1} +1 + - \ frac {mn} {N} \ δεξιά]

με παρόμοιο τρόπο για τις υψηλότερες στιγμές

P (A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot A_ {i_ {k}}) = \ frac {m (m-1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} {N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

E \ αριστερά [\ binom {X} {k} \ δεξιά] = \ binom {n} {k} \ frac {m (m-1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} { N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

ως εκ τούτου

E [X (X-1) \ cdot \ cdot \ cdot (X-k + 1)] = n (n-1) \ cdot \ cdot \ cdot \ cdot (n-k + 1) \ frac {m (m -1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} {N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

Στιγμές των αρνητικών υπεργεωμετρικών τυχαίων μεταβλητών

  Εξετάστε το παράδειγμα μιας συσκευασίας που περιέχει εμβόλια n + m εκ των οποίων τα n είναι ειδικά και τα m είναι συνηθισμένα, αυτά τα εμβόλια απομακρύνονται ένα κάθε φορά, με κάθε νέα αφαίρεση εξίσου πιθανό να είναι οποιοδήποτε από τα εμβόλια που παραμένουν στη συσκευασία. Τώρα αφήστε την τυχαία μεταβλητή Y να υποδηλώσει τον αριθμό των εμβολίων που πρέπει να αποσυρθούν έως ότου αφαιρεθεί ένα σύνολο ειδικών εμβολίων, η οποία είναι αρνητική υπεργομετρική κατανομή, κάτι παρόμοιο είναι παρόμοιο με το αρνητικό διωνυμικό με το διωνυμικό με την υπεργομετρική κατανομή. για να βρείτε το πιθανότητα λειτουργία μάζας εάν το kth draw δίνει το ειδικό εμβόλιο μετά το k-1 draw δίνει r-1 ειδικό και kr συνηθισμένο εμβόλιο

P (X = k) = \ frac {\ binom {n} {r-1} \ binom {m} {kr}} {\ binom {n + m} {k-1}} \ frac {n-r + 1} {n + m-k + 1}

τώρα η τυχαία μεταβλητή Y

Y = r + X

για τις εκδηλώσεις Αi

E [Y] = r + E [X] = r + \ sum_ {i = 1} ^ {m} P (A_ {i})

E [Y] = r + m \ frac {r} {n + 1} = \ frac {r (n + m + 1)} {n + 1}

as

P (A_ {i}) = \ frac {r} {n + 1}

Ως εκ τούτου, για να βρούμε τη διακύμανση του Υ πρέπει να γνωρίζουμε τη διακύμανση του Χ έτσι

E (X (X-1)) = 2 \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

\ sum_ {i <j} ^ {} P (A_ {i} A_ {j}) = \ frac {\ binom {2} {2} \ binom {n} {r-1}} {\ binom {n + 2} {r + 1}} = \ frac {r (r + 1)} {(n + 1) (n + 2)}

E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}

E [X ^ {2}] = m (m-1) \ frac {r (r + 1)} {(n + 1) (n + 2)} + E [X]

Var (Y) = Var (X) = m (m-1) \ frac {r (r + 1)} {(n + 1) (n + 2)} m \ frac {r} {n + 1} - \ αριστερά (m \ frac {r} {n + 1} \ δεξιά) ^ {2}

ως εκ τούτου

Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}

ΣΥΜΒΟΥΛΗ             

Η σχέση μεταξύ δύο τυχαίων μεταβλητών μπορεί να αναπαρασταθεί από τη στατιστική παράμετρος συνδιακύμανσης, πριν από τον ορισμό της συνδιακύμανσης δύο τυχαίων μεταβλητών X και Y υπενθυμίζει ότι η προσδοκία δύο συναρτήσεων g και h των τυχαίων μεταβλητών X και Y αντίστοιχα δίνει

E [g (X) h (Y)] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x) h (y) f (x, y) dx dy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x) h (y) f_ {X} (x) f_ {Y} (x) dx dy

= \ int _ {- \ infty} ^ {\ infty} h (y) f_ {Y} (x) dy \ int _ {- \ infty} ^ {\ infty} g (x) f_ {X} (x) dx

= E [h (Y)] E [g (X)]

E [g (X) h (Y)] = E [h (Y)] E [g (X)]

χρησιμοποιώντας αυτήν τη σχέση προσδοκίας μπορούμε να ορίσουμε τη συνδιακύμανση ως

   «Η συνδιακύμανση μεταξύ της τυχαίας μεταβλητής X και της τυχαίας μεταβλητής Y που υποδηλώνεται από cov (X, Y) ορίζεται ως

Cov (X, Y) = E [(XE [X]) (YE [Y])]

χρησιμοποιώντας τον ορισμό της προσδοκίας και την επέκταση που έχουμε

Cov (X, Y) = E [XY-E [X] Y-XE [Y] + E [Y] E [X]]

= E [XY] - E [X] E [Y] - E [X] E [Y] + E [X] E [Y]

= E [XY] - E [X] E [Y]

είναι σαφές ότι εάν οι τυχαίες μεταβλητές X και Y είναι ανεξάρτητες τότε

Cov (X, Y) = 0

αλλά το αντίστροφο δεν ισχύει για παράδειγμα εάν

P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}

και ορίζοντας την τυχαία μεταβλητή Y ως

Y = \ start {cases} 0 & \ text {if} X \ neq 0 \\ 1 & \ text {if} X = 0 \ τέλος {περιπτώσεις}

so

Cov (X, Y) = E [XY] -E [X] E [Y] = 0

Εδώ ξεκάθαρα τα Χ και Υ δεν είναι ανεξάρτητα, αλλά η συνδιακύμανση είναι μηδέν.

Ιδιότητες συνδιακύμανσης

  Η διακύμανση μεταξύ των τυχαίων μεταβλητών X και Y έχει ορισμένες ιδιότητες ως εξής

\ \ (i) \ \ Cov (X, Y) = Cov (Y, X)

\ \ (ii) \ \ Cov (X, X) = Var (X)

\ \ (iii) \ \ Cov (aX, Y) = aCov (X, Y)

\ \ (iv) \ \ Cov \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i}, \ sum_ {j = 1} ^ {m} Y_ {j} \ δεξιά) = \ sum_ {i = 1} ^ {n} \ sum_ {j = 1} ^ {m} Cov (X_ {i}, Y_ {j})

Χρησιμοποιώντας τον ορισμό από τη συνδιακύμανση, οι τρεις πρώτες ιδιότητες είναι άμεσες και η τέταρτη ιδιότητα ακολουθεί εξετάζοντας

E \ αριστερά [\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά] = \ sum_ {i = 1} ^ {n} \ mu {i}, \ \ E \ αριστερά [\ άθροισμα {j = 1} ^ {m} Y_ {j} \ δεξιά] = \ sum_ {j = 1} ^ {m} v_ {j}

τώρα εξ ορισμού

συνδιακύμανση

Διακύμανση των ποσών

Το σημαντικό αποτέλεσμα από αυτές τις ιδιότητες είναι

var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

as

var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά) = Cov \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ sum_ {j = 1} ^ {n} X_ {j} \ δεξιά)

= \ sum_ {i = 1} ^ {n} \ sum_ {j = 1} ^ {n} X_ {i} X_ {j}

= \ sum_ {i = 1} ^ {n} Var (X_ {i}) \ sum \ sum_ {i \ neq j} ^ {} Cov (X_ {i}, X_ {j})

Var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά) = \ sum_ {i = 1} ^ {n} Var (X_ {i}) +2 \ sum \ sum_ {i < j} ^ {} Cov (X_ {i}, X_ {j})

Εάν Χi Είναι ανεξάρτητα κατά ζεύγη τότε

Var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

Παράδειγμα: Διακύμανση μιας διωνυμίας τυχαίας μεταβλητής

  Εάν το X είναι η τυχαία μεταβλητή

X = X_ {1} + \ cdot \ cdot \ cdot \ cdot + X_ {n}

όπου Χi είναι οι ανεξάρτητες τυχαίες μεταβλητές Bernoulli έτσι

X_ {i} = \ begin {cases} 1 & \ text {αν το ί-i μονοπάτι έχει επιτυχία} \\ 0 & \ text {αλλιώς} \ τέλος {περιπτώσεις}

 στη συνέχεια βρείτε τη διακύμανση μιας διωνυμίας τυχαίας μεταβλητής X με τις παραμέτρους n και p.

Λύση:

αφού

Var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

Var (X) = Var (X_ {1}) + \ cdot \ cdot \ cdot \ cdot + Var (X_ {n})

έτσι για μία μεταβλητή έχουμε

Var (X_ {i}) = E [X_ {i} ^ {2}] - (E [X_ {i}]) ^ {2}

= E [X_ {i}] - (E [X_ {i}]) ^ {2} \ \ Από \ \ X_ {i} ^ {2} = X_ {i}

= σελ ^ {2}

έτσι η διακύμανση είναι

Var (X) = np (1-p)

Παράδειγμα

  Για τις ανεξάρτητες τυχαίες μεταβλητές Xi με τα αντίστοιχα μέσα και διακύμανση και μια νέα τυχαία μεταβλητή με απόκλιση ως

S ^ {2} = \ sum_ {i = 1} ^ {n} \ frac {(X_ {i} - \ overline {X}) ^ {2}} {n-1}

μετά υπολογισμός

\ \ (a) \ \ Var (\ overline {X}) \ \ και \ \ (b) \ \ E [S ^ {2}]

λύση:

Χρησιμοποιώντας την παραπάνω ιδιότητα και τον ορισμό που έχουμε

\ \ (a) \ \ Var (\ overline {X}) = \ αριστερά (\ frac {1} {n} \ δεξιά) ^ {2} Var \ αριστερά (\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά)

= \ αριστερά (\ frac {1} {n} \ δεξιά) ^ {2} \ sum_ {i = 1} ^ {n} Var (X_ {i}) \ \ by \ \ ανεξαρτησία

= \ frac {\ sigma ^ {2}} {n}

τώρα για την τυχαία μεταβλητή S

ΣΥΜΒΟΥΛΗ

πάρτε την προσδοκία

(n-1) E [S ^ {2}] = \ sum_ {i = 1} ^ {n} E [(X_ {i} - \ mu) ^ {2}] -nE [(\ overline {X} - \ mu) ^ {2}]

Παράδειγμα:

Βρείτε τη συνδιακύμανση των λειτουργιών του δείκτη για τα συμβάντα A και B.

Λύση:

για τα συμβάντα Α και Β οι λειτουργίες της ένδειξης είναι

I_ {A} = \ έναρξη {περιπτώσεις} 1 & \ κείμενο {εάν συμβεί A} \\ 0 & \ text {διαφορετικά} \ τέλος {περιπτώσεις}

I_ {B} = \ begin {cases} 1 & \ text {if B εμφανίζεται} \\ 0 & \ text {διαφορετικά} \ τέλος {περιπτώσεις}

έτσι η προσδοκία αυτών είναι

E [I_ {A}] = P (A)

E [I_ {B}] = P (Β)

E [I_ {A} I_ {B}] = P (AB)

έτσι η συνδιακύμανση είναι

Cov (I_ {A}, I_ {B}) = P (AB) - P (A) P (B)

= P (B) [P (A / B) - P (A)]

Παράδειγμα:

     Δείξε αυτό

Cov (X_ {i} - \ overline {X}, \ overline {X}) = 0

όπου Χi είναι ανεξάρτητες τυχαίες μεταβλητές με διακύμανση.

Λύση:

Η συνδιακύμανση που χρησιμοποιεί τις ιδιότητες και τον ορισμό θα είναι

Cov (X_ {i} - \ overline {X}, \ overline {X}) = Cov (X_ {i}, \ overline {X}) - Cov (\ overline {X}, \ overline {X})

Cov \ αριστερά (X_ {i}, \ frac {1} {n} \ sum_ {j = 1} ^ {n} X_ {j} \ δεξιά) - Var (\ overline {X})

= \ frac {1} {n} \ sum_ {j = 1} ^ {n} Cov (X_ {i}, X_ {j}) - \ frac {\ sigma ^ {2}} {n}

= \ frac {\ sigma ^ {2}} {n} - \ frac {\ sigma ^ {2}} {n} = 0

Παράδειγμα:

  Υπολογίστε τη μέση τιμή και τη διακύμανση της τυχαίας μεταβλητής S που είναι το άθροισμα των τιμών n δειγματοληψίας, εάν το σύνολο των ατόμων N καθένα από τα οποία έχει μια γνώμη για ένα συγκεκριμένο θέμα που μετράται από έναν πραγματικό αριθμό v που αντιπροσωπεύει τη «δύναμη του συναισθήματος» του ατόμου για το θέμα. Αφήνω  αντιπροσωπεύουν τη δύναμη του συναισθήματος του ατόμου  που είναι άγνωστο, για τη συλλογή πληροφοριών ένα δείγμα του n από το Ν λαμβάνεται τυχαία, αυτοί οι άνθρωποι αμφισβητούνται και το συναίσθημά τους αποκτάται για τον υπολογισμό vi

Λύση

ας ορίσουμε τη λειτουργία του δείκτη ως

I_ {i} = \ begin {cases} 1 & \ text {αν το άτομο i είναι στο τυχαίο δείγμα} \\ 0 & \ text {διαφορετικά} \ τέλος {περιπτώσεις}

έτσι μπορούμε να εκφράσουμε το S ως

S = \ sum_ {i = 1} ^ {N} v_ {i} I_ {i}

και η προσδοκία του ως

E [S] = \ sum_ {i = 1} ^ {N} v_ {i} E [I_ {i}]

Αυτό δίνει τη διακύμανση ως

Var (S) = \ sum_ {i = 1} ^ {N} Var (v_ {i} I_ {i}) +2 \ άθροισμα _ {} ^ {} \ sum_ {i <j} ^ {} Cov (v_ { i} I_ {i}, v_ {j} I_ {j})

= \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} Var (I_ {i}) +2 \ sum _ {} ^ {} \ sum_ {i <j} ^ {} v_ {i} v_ {j} Cov (I_ {i}, I_ {j})

αφού

E [I_ {i}] = \ frac {n} {N}

E [I_ {i} I_ {j}] = \ frac {n} {N} \ frac {n-1} {N-1}

έχουμε

Var (I_ {i}) = \ frac {n} {N} \ αριστερά (1- \ frac {n} {N} \ δεξιά)

Cov (I_ {i}, I_ {j}) = \ frac {n (n-1)} {N (N-1)} - \ αριστερά (\ frac {n} {N} \ δεξιά) ^ {2}

= \ frac {-n (N-1)} {N ^ {2} (N-1)}

E [s] = n \ sum_ {i = 1} ^ {N} \ frac {v_ {i}} {N} = n \ overline {v}

Var (S) = \ frac {n} {N} \ frac {Nn} {N} \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} - \ frac {2n (Nn)} { N ^ {2} (N-1)} \ sum \ sum_ {i <j} ^ {} v_ {i} v_ {j}

ξέρουμε την ταυτότητα

(v_ {1} + \ cdot \ cdot \ cdot + v_ {N}) ^ {2} = \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} +2 \ sum \ sum_ {i <j} ^ {} v_ {i} v_ {j}

so

Var (S) = \ frac {n (N-1)} {(N-1)} \ αριστερά (\ frac {\ sum_ {i = 1} ^ {N} v_ {i} ^ {2}} {N } - \ overline {v} ^ {2} \ δεξιά)

E [S] = n \ overline {v} = np \ \ since \ \ n \ overline {v} = \ frac {Np} {N} = p

Var (S) = \ frac {n (Nn)} {N-1} \ αριστερά (\ frac {Np} {N} -p ^ {2} \ δεξιά)

= \ frac {n (Nn)} {N-1} p (1-p)

έτσι η μέση τιμή και η διακύμανση για την εν λόγω τυχαία μεταβλητή θα είναι

E \ αριστερά [\ frac {S} {n} \ δεξιά] = σελ

Var \ αριστερά (\ frac {S} {n} \ δεξιά) = \ frac {Nn} {n (N-1)} p (1-p)

Συμπέρασμα:

Η συσχέτιση μεταξύ δύο τυχαίων μεταβλητών ορίζεται ως συνδιακύμανση και χρησιμοποιώντας τη συνδιακύμανση λαμβάνεται το άθροισμα της διακύμανσης για διαφορετικές τυχαίες μεταβλητές, επιτυγχάνεται η συνδιακύμανση και διαφορετικές στιγμές με τη βοήθεια του ορισμού της προσδοκίας, εάν χρειάζεστε περαιτέρω ανάγνωση

https://en.wikipedia.org/wiki/Expectation

Ένα πρώτο μάθημα πιθανότατα από τον Sheldon Ross

Περιγράμματα Πιθανότητας και Στατιστικής του Schaum

Εισαγωγή στις πιθανότητες και στα στατιστικά στοιχεία από τους ROHATGI και SALEH.

Για περισσότερες δημοσιεύσεις σχετικά με τα μαθηματικά, ακολουθήστε μας Σελίδα μαθηματικών

Σχετικά με τον DR. MOHAMMED MAZHAR UL HAQUE

Είμαι DR. Mohammed Mazhar Ul Haque, Επίκουρος καθηγητής Μαθηματικών. Έχοντας 12 χρόνια εμπειρίας στη διδασκαλία. Έχοντας τεράστια γνώση στα Καθαρά Μαθηματικά, ακριβώς στην Άλγεβρα. Έχοντας την τεράστια ικανότητα σχεδιασμού και επίλυσης προβλημάτων. Δυνατότητα παρακίνησης των υποψηφίων για βελτίωση της απόδοσής τους.
Μου αρέσει να συνεισφέρω στο Lambdageeks για να κάνω τα Μαθηματικά Απλά, Ενδιαφέρον και Αυτοεξήγηση τόσο για αρχάριους όσο και για ειδικούς.
Ας συνδεθούμε μέσω του LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Lambda Geeks