Μαθηματική προσδοκία και τυχαία μεταβλητή | Οι 5 σημαντικές του ιδιότητες

Μαθηματική προσδοκία και τυχαία μεταβλητή    

     Η μαθηματική προσδοκία παίζει πολύ σημαντικό ρόλο στη θεωρία πιθανοτήτων, τον βασικό ορισμό και τις βασικές ιδιότητες της μαθηματικής προσδοκίας που έχουμε ήδη συζητήσει σε προηγούμενα άρθρα τώρα αφού συζητήσαμε τις διάφορες κατανομές και τους τύπους των κατανομών, στο επόμενο άρθρο θα εξοικειωθούμε με μερικά περισσότερα προηγμένες ιδιότητες της μαθηματικής προσδοκίας.

Προσδοκία αθροίσματος τυχαίων μεταβλητών | Προσδοκία συνάρτησης τυχαίων μεταβλητών | Προσδοκία κοινής κατανομής πιθανότητας

     Γνωρίζουμε ότι η μαθηματική προσδοκία της τυχαίας μεταβλητής διακριτής φύσης είναι

E [X] = \ άθροισμα {x} xp (x)

και για το συνεχές είναι

E [X] = \ int _ {- \ infty} ^ {\ infty} xf (x) dx

τώρα για την τυχαία μεταβλητή X και Y εάν διακριτή τότε με τη συνάρτηση μάζας πιθανότητας άρθρωσης p (x, y)

Η προσδοκία της συνάρτησης της τυχαίας μεταβλητής X και Y θα είναι

E \ αριστερά [g (X, Y) \ right] = \ sum_ {y} \ sum_ {x} g (x, y) p (x, y)

και εάν είναι συνεχής τότε με τη συνάρτηση πυκνότητας πιθανότητας άρθρωσης f (x, y) η προσδοκία της συνάρτησης της τυχαίας μεταβλητής X και Y θα είναι

E \ αριστερά [g (X, Y) \ right] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x, y) f (x, y) dxdy

εάν g είναι προσθήκη αυτών των δύο τυχαίων μεταβλητών σε συνεχή μορφή το

E \ αριστερά [X + Y \ δεξιά] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} (x + y) f (x, y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} xf (x, y) dydx + \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} yf (x, y) dxdy

= \ int _ {- \ infty} ^ {\ infty} x f_ {X} (x) dx + \ int _ {- \ infty} ^ {\ infty} yf_ {Y} (y) dy

= E [X] + E [Y]

και αν για τις τυχαίες μεταβλητές X και Y έχουμε

X \ geq Υ

τότε η προσδοκία επίσης

E [X] \ geq E [Y]

Παράδειγμα

Ένα νοσοκομείο Covid-19 κατανέμεται ομοιόμορφα στο δρόμο του μήκους L στο σημείο X, ένα όχημα που μεταφέρει οξυγόνο για τους ασθενείς βρίσκεται σε μια τοποθεσία Y που επίσης διανέμεται ομοιόμορφα στο δρόμο. Βρείτε την αναμενόμενη απόσταση μεταξύ του νοσοκομείου Covid-19 και όχημα μεταφοράς οξυγόνου εάν είναι ανεξάρτητα.

Λύση:

Για να βρούμε την αναμενόμενη απόσταση μεταξύ Χ και Υ πρέπει να υπολογίσουμε το E {| XY | }

Τώρα θα είναι η συνάρτηση πυκνότητας αρθρώσεων των Χ και Υ

f (x, y) = \ frac {1} {L ^ {2}}, \ \ 0 <x <L, \ \ 0 <y <L

αφού

E \ αριστερά [g (X, Y) \ right] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x, y) f (x, y) dxdy

ακολουθώντας αυτό έχουμε

E \ αριστερά [\ αριστερά | X -Y \ δεξιά | \ right] = \ frac {1} {L ^ {2}} \ int_ {0} ^ {L} \ int_ {0} ^ {L} \ αριστερά | xy \ δεξιά | dy dx

Τώρα η τιμή του ολοκληρωμένου θα είναι

\ int_ {0} ^ {L} \ αριστερά | xy \ δεξιά | dy = \ int_ {0} ^ {x} (xy) dy + \ int_ {x} ^ {L} (yx) dy

= \ frac {x ^ {2}} {2} + \ frac {L ^ {2}} {2} - \ frac {x ^ {2}} {2} -x (Lx)

= \ frac {L ^ {2}} {2} + x ^ {2} -xL

Έτσι, η αναμενόμενη απόσταση μεταξύ αυτών των δύο σημείων θα είναι

E \ αριστερά [\ αριστερά | X -Y \ δεξιά | \ δεξιά] = \ frac {1} {L ^ {2}} \ int_ {0} ^ {L} \ αριστερά (\ frac {L ^ {2}} {2} + x ^ {2} -xL \ δεξιά ) dx = \ frac {L} {3}

Προσδοκία μέσου δείγματος

  Ως δείγμα μέσος όρος της ακολουθίας τυχαίων μεταβλητών X1, Χ2, ………, Χn με συνάρτηση κατανομής F και αναμενόμενη τιμή καθενός ως μ

\ overline {X} = \ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n}

έτσι η προσδοκία αυτού του μέσου δείγματος θα είναι

E \ αριστερά [\ overline {X} \ right] = E \ αριστερά [\ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n} \ δεξιά]

= \ frac {1} {n} E \ αριστερά [\ sum_ {i = 1} ^ {n} X_ {i} \ δεξιά]

= \ frac {1} {n} \ sum_ {i = 1} ^ {n} E [X_ {i}]

= \ mu \ \ από \ \ E [X_ {i}] \ equiv \ mu

που δείχνει την αναμενόμενη τιμή του μέσου δείγματος είναι επίσης μ.

Ανισότητα Boole

                Η ανισότητα του Boole μπορεί να επιτευχθεί με τη βοήθεια ιδιοτήτων προσδοκιών, ας υποθέσουμε ότι η τυχαία μεταβλητή X ορίζεται ως

X = \ sum_ {i = 1} ^ {n} X_ {i}

όπου

X_ {i} = \ έναρξη {περιπτώσεις} 1 \ \ εάν \ \ A_ {i} \ \ συμβαίνει \\ 0 \ \ \ \ διαφορετικά \ τέλος {περιπτώσεις}

εδω εναi Είναι τα τυχαία συμβάντα, αυτό σημαίνει ότι η τυχαία μεταβλητή X αντιπροσωπεύει την εμφάνιση του αριθμού των συμβάντων Αi και μια άλλη τυχαία μεταβλητή Y ως

Y = \ έναρξη {περιπτώσεις} 1 \ \ εάν \ \ X \ geq 1 \ \ \\ 0 \ \ \ διαφορετικά \ τέλος {περιπτώσεις}

σαφώς

X \ geq Υ

και έτσι είναι

E [X] \ geq E [Y]

τώρα αν λάβουμε την τιμή της τυχαίας μεταβλητής X και Y, αυτή η προσδοκία θα είναι

E [X] = \ sum_ {i = 1} ^ {n} E \ αριστερά [X_ {i} \ δεξιά] = \ sum_ {i = 1} ^ {n} P (A_ {i})

E [Y] = P \ αριστερά (\ \ στο \ \ λιγότερο \ \ ένα \ \ από \ \ το \ \ A_ {i} \ \ εμφανίζεται \ δεξιά) = P \ αριστερά (\ bigcup_ {i = 1} ^ { n} A_ {i} \ δεξιά)

Αντικαθιστώντας αυτές τις προσδοκίες στην παραπάνω ανισότητα, θα έχουμε την ανισότητα του Boole ως

P \ αριστερά (\ bigcup_ {i = 1} ^ {n} A_ {i} \ δεξιά) \ leq \ sum_ {i = 1} ^ {n} P \ αριστερά (A_ {i} \ δεξιά)

Προσδοκία διωνυμικής τυχαίας μεταβλητής | Μέσος όρος τυχαίας μεταβλητής Binomial

  Γνωρίζουμε ότι το διωνυμική τυχαία μεταβλητή είναι η τυχαία μεταβλητή που δείχνει τον αριθμό των επιτυχιών σε ανεξάρτητες δοκιμές με πιθανότητα επιτυχίας ως p και αποτυχία ως q = 1-p, έτσι εάν

X = Χ1 + Χ2+ ……n

όπου

X_ {i} = \ begin {cases} 1 \ \ if \ \ the \ \ ith \ \ trail \ \ is \ \ a \ \ success \\ 0 \ \ if \ \ the \ \ ith \ \ trail \ \ είναι \ \ a \ \ αποτυχία \ τέλος {περιπτώσεις}

εδώ αυτά τα Χi είναι το Μπερνούλι και η προσδοκία θα είναι

E (X_ {i}) = 1 (p) +0 (1-p) = p

οπότε η προσδοκία του Χ θα είναι

E [X] = E [X_ {1}] + E [X_ {2}] + \ cdot \ cdot \ cdot + E [X_ {n}]

Προσδοκία αρνητικής διωνυμικής τυχαίας μεταβλητής | Μέσος όρος αρνητικής διωνυμικής τυχαίας μεταβλητής

  Αφήστε μια τυχαία μεταβλητή X που αντιπροσωπεύει τον αριθμό των δοκιμών που απαιτούνται για τη συλλογή επιτυχιών r, τότε μια τέτοια τυχαία μεταβλητή είναι γνωστή ως αρνητική διωνυμική τυχαία μεταβλητή και μπορεί να εκφραστεί ως

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot + X_ {r}

εδώ κάθε Χi δηλώστε τον αριθμό των δοκιμών που απαιτούνται μετά την επιτυχία (i-1) για να αποκτήσετε το σύνολο των επιτυχιών i.

Δεδομένου ότι κάθε ένα από αυτά τα Xi αντιπροσωπεύουν τη γεωμετρική τυχαία μεταβλητή και γνωρίζουμε ότι η προσδοκία για τη γεωμετρική τυχαία μεταβλητή είναι

E [X_ {i}] = \ frac {1} {p}

so

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot \ cdot + E [X_ {r}] = \ frac {r} {p}

που είναι η προσδοκία της αρνητικής διωνυμικής τυχαίας μεταβλητής.

Προσδοκία υπεργεωμετρικής τυχαίας μεταβλητής | Μέσος όρος υπεργεωμετρικής τυχαίας μεταβλητής

Η προσδοκία ή ο μέσος όρος της υπεργεωμετρικής τυχαίας μεταβλητής που θα λάβουμε με τη βοήθεια ενός απλού πραγματικού παραδείγματος, εάν n αριθμός βιβλίων επιλέγεται τυχαία από ένα ράφι που περιέχει Ν βιβλία των οποίων είναι μαθηματικά, τότε για να βρούμε τον αναμενόμενο αριθμό Τα βιβλία μαθηματικών επιτρέπουν στο Χ να υποδηλώνει τον αριθμό των επιλεγμένων βιβλίων μαθηματικών, τότε μπορούμε να γράψουμε το Χ ως

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot + X_ {m}

όπου

X_ {i} = \ begin {cases} 1, \ \ if \ \ ith \ \ mathematics \ \ book \ \ is \ \ select \\ 0, \ \ \ \ othewise \ end {case}

so

E [X_ {i}] = P \ αριστερά \ {X_ {i} = 1 \ δεξιά. \ Αριστερά. \σωστά \}

= \ frac {\ binom {1} {1} \ binom {N-1} {n-1}} {\ binom {N} {n}}

= \ frac {n} {N}

που δίνει

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot + E [X_ {m}] = \ frac {mn} {N}

που είναι ο μέσος όρος μιας τέτοιας υπεργεωμετρικής τυχαίας μεταβλητής.

Αναμενόμενος αριθμός αγώνων

   Αυτό είναι πολύ δημοφιλές πρόβλημα που σχετίζεται με την προσδοκία, ας υποθέσουμε ότι σε ένα δωμάτιο υπάρχει Ν αριθμός ατόμων που ρίχνουν τα καπέλα τους στη μέση του δωματίου και όλα τα καπέλα αναμιγνύονται μετά από αυτό κάθε άτομο επιλέγει τυχαία ένα καπέλο και στη συνέχεια τον αναμενόμενο αριθμό ατόμων που επιλέγουν το δικό τους καπέλο που μπορούμε να αποκτήσουμε αφήνοντας το X να είναι ο αριθμός των αγώνων έτσι

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot \ cdot + X_ {N}

όπου

X_ {i} = \ begin {cases} 1, \ \ if \ \ the \ \ with \ \ person \ \ select \ \ his \ \ own \ \ hat \\ 0, \ \ \ \ othewise \ end {case}

δεδομένου ότι κάθε άτομο έχει την ίδια ευκαιρία να επιλέξει οποιοδήποτε από τα καπέλο από τα καπέλα Ν τότε

E [X_ {i}] = P \ αριστερά {X_ {i} = 1 \ δεξιά. \ Αριστερά. \ right} = \ frac {1} {N}

so

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot \ cdot + E [X_ {n}] = \ αριστερά (\ frac {1} {N} \ δεξιά) N = 1

που σημαίνει ότι ένα άτομο επιλέγει κατά μέσο όρο το δικό του καπέλο.

Η πιθανότητα ένωσης γεγονότων

     Ας αποκτήσουμε την πιθανότητα ένωσης των γεγονότων με τη βοήθεια της προσδοκίας, έτσι ώστε για τα γεγονότα Αi

X_ {i} = \ begin {cases} 1, \ \ if \ \ A_ {i} \ \ εμφανίζεται \\ 0, \ \ othewise \ end {case}

με αυτό παίρνουμε

1- \ prod_ {i = 1} ^ {n} (1-X_ {i}) = \ begin {cases} 1, \ \ if \ \ A_ {i} \ \ εμφανίζεται \\ 0, \ \ othewise \ end {περιπτώσεις}

έτσι η προσδοκία αυτού θα είναι

E \ αριστερά [1- \ prod_ {i = 1} ^ {n} (1-X_ {i}) \ δεξιά] = P \ αριστερά (\ bigcup_ {i = 1} ^ {n} A_ {i} \ δεξιά )

και επέκταση χρησιμοποιώντας την ιδιότητα προσδοκίας ως

P \ αριστερά (\ bigcup_ {i = 1} ^ {n} A_ {i} \ right) = E \ αριστερά [\ sum_ {i = 1} ^ {n} X_ {i} - \ sum \ sum_ {i < j} X_ {i} X_ {j} + \ sum \ sum_ {i <j <k} \ sum X_ {i} X_ {j} X_ {k} - \ cdot \ cdot \ cdot \ cdot \ cdot \ cdot \ cdot + (-) ^ {n + 1} X_ {1} \ cdot \ cdot \ cdot X_ {n} \ δεξιά]

αφού έχουμε

Μαθηματική προσδοκία
Μαθηματική προσδοκία: Η πιθανότητα ένωσης γεγονότων

X_ {i_ {1}} X_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot X_ {i_ {k}} = \ έναρξη {περιπτώσεις} 1, \ \ εάν \ \ A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}} \ \ εμφανίζεται \\ 0, \ \ othewise \ end {περιπτώσεις}

so

E \ αριστερά [X_ {i_ {1}} X_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot X_ {i_ {k}} \ δεξιά] = P \ αριστερά (A_ {i_ {1}} A_ { i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}} \ δεξιά)

Αυτό συνεπάγεται την πιθανότητα ένωσης ως

P \ αριστερά (\ κύπελλο A_ {i} \ δεξιά) = \ sum_ {i} P (A_ {i}) - \ sum \ sum_ {i <j} P \ αριστερά (A_ {i} A_ {j} \ δεξιά ) + \ sum \ sum_ {i <j <k} \ sum P \ αριστερά (A_ {i} A_ {j} A_ {k} \ δεξιά) - \ cdot \ cdot \ cdot + (-1) ^ {n + 1} P \ αριστερά (A_ {1} \ cdot \ cdot \ cdot A_ {n} \ δεξιά)

Όρια από την προσδοκία χρησιμοποιώντας πιθανοτική μέθοδο

    Ας υποθέσουμε ότι το S είναι ένα πεπερασμένο σετ και το f είναι η συνάρτηση στα στοιχεία των S και

m = \ underset {s \ in \ mathfrak {s}} {max} f (s)

εδώ μπορούμε να αποκτήσουμε το κατώτερο όριο για αυτό το m με προσδοκία f (s) όπου το "s" είναι οποιοδήποτε τυχαίο στοιχείο του S του οποίου η προσδοκία μπορούμε να υπολογίσουμε έτσι

m \ geq f (S)

m \ geq E \ αριστερά [f (S) \ δεξιά]

εδώ έχουμε την προσδοκία ως το κατώτερο όριο για τη μέγιστη τιμή

Μέγιστη-Ελάχιστη ταυτότητα

 Μέγιστη Ελάχιστη ταυτότητα είναι το μέγιστο του συνόλου των αριθμών στο ελάχιστο των υποσύνολων αυτών των αριθμών που είναι για οποιονδήποτε αριθμόi

\ underset {i} {max} \ \ x_ {i} = \ sum_ {i} x_ {i} - \ sum_ {i <j} min (x_ {i}, x_ {j}) + \ sum_ {i < j <k} λεπτά (x_ {i}, x_ {j}, x_ {k}) + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} λεπτό \ αριστερά (x_ {1}, \ cdot \ cdot \ cdot, x_ {n} \ δεξιά)

Για να το δείξουμε, ας περιορίσουμε το xi εντός του διαστήματος [0,1], ας υποθέσουμε μια ομοιόμορφη τυχαία μεταβλητή U στο διάστημα (0,1) και τα συμβάντα Αi καθώς η ομοιόμορφη μεταβλητή U είναι μικρότερη από xi αυτό είναι

A_ {i} = \ αριστερά {U <x_ {i} \ δεξιά. \ Αριστερά. \σωστά }

δεδομένου ότι τουλάχιστον ένα από τα παραπάνω συμβάντα συμβαίνει καθώς το U είναι μικρότερο από ένα, η τιμή του xi

U_ {i} A_ {i} = \ αριστερά {U <\ underset {i} {max} \ \ x_ {i} \ δεξιά. \ Αριστερά. \σωστά }

P \ αριστερά (U_ {i} A_ {i} \ δεξιά) = P \ αριστερά (U <\ underset {i} {max} x_ {i} \ right) = \ underset {i} {max} x_ {i}

Σαφώς ξέρουμε

<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U

P (A_ {i}) = P \ αριστερά (U <x_ {i} \ δεξιά) = x_ {i}

και όλα τα συμβάντα θα συμβούν εάν το U είναι μικρότερο από όλες τις μεταβλητές και

A_ {i_ {1}} \ cdot \ cdot \ cdot A_ {i_ {r}} = \ αριστερά (U <\ underset {j = 1 \ cdot \ cdot \ cdot r} {min} x_ {i_ {j}} \σωστά )

η πιθανότητα δίνει

P \ αριστερά (A_ {i_ {1}} \ cdot \ cdot \ cdot A_ {i_ {r}} \ δεξιά) = P \ αριστερά (U <\ underset {j = 1 \ cdot \ cdot \ cdot r} {λεπτό } x_ {i_ {j}} \ δεξιά) = \ underset {j = 1 \ cdot \ cdot \ cdot r} {min} x_ {i_ {j}}

έχουμε το αποτέλεσμα πιθανότητας ένωσης ως

P \ αριστερά (U_ {i} A_ {i} \ δεξιά) \ sum_ {i} P \ αριστερά (A_ {i} \ δεξιά) - \ sum_ {i <j} P (A_ {i} A_ {j}) + \ sum_ {i <j <k} P (A_ {i} A_ {j} A_ {k}) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1} P (A_ {1 } \ cdot \ cdot \ cdot \ cdot A_ {n})

ακολουθώντας αυτόν τον τύπο αποκλεισμού συμπερίληψης για την πιθανότητα

\ underset {i} {max} (x_ {i} + b) = \ sum_ {i} (x_ {i} + b) - \ sum_ {i <j} λεπτά (x_ {i} + b, x_ {j } + b) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1} λεπτό (x_ {1} + b, \ cdot \ cdot \ cdot, x_ {n} + b)

σκεφτείτε

M = \ sum_ {i} x_ {i} - \ sum_ {i <j} λεπτά (x_ {i}, x_ {j}) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1 } λεπτά (x_ {1}, \ cdot \ cdot \ cdot \ cdot x_ {n})

αυτό δίνει

\ underset {i} {max} \ \ x_ {i} + b = M + b \ αριστερά (n- \ binom {n} {2} + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} \ binom {n} {n} \ δεξιά)

αφού

0 = (1-n) ^ {n} = 1-n + \ binom {n} {2} + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} \ binom {n} {n}

που σημαίνει

\ underset {i} {max} \ \ x_ {i} = Μ

  • ως εκ τούτου μπορούμε να το γράψουμε ως

\ underset {i} {max} \ \ x_ {i} = \ sum_ {i} x_ {i} - \ sum_ {i <j} min (x_ {i}, x_ {j}) \ sum_ {i <j <k} λεπτά (x_ {i}, x_ {j}, x_ {k}) + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} λεπτά (x_ {1}, \ cdot \ cdot \ cdot, x_ {n})

λαμβάνοντας την προσδοκία μπορούμε να βρούμε αναμενόμενες τιμές μέγιστων και μερικών ελάχιστων ως

E \ αριστερά [\ underset {i} {max} \ \ X_ {i} \ right] = \ sum_ {i} E \ αριστερά [X_ {i} \ δεξιά] - \ sum_ {i <j} E \ αριστερά [ ελάχ. (X_ {i}, X_ {j}) \ δεξιά] + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} E \ αριστερά [min \ αριστερά (X_ {1}, \ cdot \ cdot \ cdot \ cdot \ cdot, X_ {n} \ δεξιά) \ δεξιά])

Συμπέρασμα:

Η προσδοκία όσον αφορά τη διαφορετική κατανομή και τη συσχέτιση της προσδοκίας με μερικές από τις έννοιες της θεωρίας πιθανότητας ήταν το επίκεντρο αυτού του άρθρου που δείχνει τη χρήση της προσδοκίας ως εργαλείο για τη λήψη αναμενόμενων τιμών διαφορετικών τύπων τυχαίων μεταβλητών, εάν χρειάζεστε περαιτέρω ανάγνωση μέχρι τα παρακάτω βιβλία.

Για περισσότερα άρθρα σχετικά με τα Μαθηματικά, ανατρέξτε στο Σελίδα μαθηματικών.

https://en.wikipedia.org/wiki/Expectation

Ένα πρώτο μάθημα πιθανότατα από τον Sheldon Ross

Περιγράμματα Πιθανότητας και Στατιστικής του Schaum

Εισαγωγή στις πιθανότητες και στα στατιστικά στοιχεία από τους ROHATGI και SALEH

Σχετικά με τον DR. MOHAMMED MAZHAR UL HAQUE

Είμαι DR. Mohammed Mazhar Ul Haque, Επίκουρος καθηγητής Μαθηματικών. Έχοντας 12 χρόνια εμπειρίας στη διδασκαλία. Έχοντας τεράστια γνώση στα Καθαρά Μαθηματικά, ακριβώς στην Άλγεβρα. Έχοντας την τεράστια ικανότητα σχεδιασμού και επίλυσης προβλημάτων. Δυνατότητα παρακίνησης των υποψηφίων για βελτίωση της απόδοσής τους.
Μου αρέσει να συνεισφέρω στο Lambdageeks για να κάνω τα Μαθηματικά Απλά, Ενδιαφέρον και Αυτοεξήγηση τόσο για αρχάριους όσο και για ειδικούς.
Ας συνδεθούμε μέσω του LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Lambda Geeks