משתנים רנדומיים-בדיד

מהו משתנה אקראי

ברוב המודלים ההסתברותיים שנבנה התוצאות הדרושות יהיו ערך מספרי של ממש (כמו קריאה של מנייה). למרות זאת ישנם ניסויים, שבהם התוצאה היא לא משהו מספרי אבל נוכל לשייך את התוצאה של הניסוי לערך מספרי שמעניין אותנו. דוגמה טובה לכך תהיה אם הניסוי הוא בחירה של סטודנטים מאוכלוסייה מסויימת. אולי נרצה להתייחס לממוצע שלהם למשל. כנרצה להתייחס לערכים כאלה אנחנו נותנים להסתברויות שמייצגות מאורעות כלשהו את הערך המתאים הנ״ל. זה נעשה באמצעות משתנים רנדומיים.

הגדרה : בהינתן ניסוי ומרחב מדגם, משתנה רנדומי משייך מספר עם תוצאה. באופן מתמטי ,
משתנה רנדומי X הוא פונקצייה מתמטית מ Ω ל R . שתקיים X(A)=x .

נשים לב שהסימון הוא X עבור המשתנה הרנדומי ו x עבור ערך אפשרי שלו.

דוגמאות :

  1. ניסוי שיש 5 הטלות של מטבע. נוכל להגיד משתנה רנדומי שקובע את מספר הפעמים שקיבלנו ערך כלשהו .
  2. ניסוי שבו מטילים קובייה נוכל להגדיר משתנה רנדומי שקובע את סכום שתי ההטלות, מספר הפעמים שהיה 6 בשתי ההטלות וכו.

Pasted image 20221117010630.png|450

ישנם מספר קונספטים בסיסיים שצריך להכיר כשעבודים עם משתנים רנדומיים

משתנה רנדומי בדיד

משתנה רנדומי ייקרא בדיד אם הטווח של הפונקצייה שלו הוא סופי אם בן מנייה. למשל משתנה רנדומי שהטווח שלו הוא {1,2,3,4} או N הוא בדיד. משתנה רנדומי שהטווח שלו הוא [0,1] הוא רציף כי זאת קבוצה עם עוצמה החזקה מ 0 .

ישנם מספר קונספטים חשובים בכל הקשור למשתנה רנדומי בדיד

PMF

הדרך הטובה ביותר לאפיין משתנה רנדומי היא דרך ההסתברויות שכל ערך מקבל. יהי משתנה רנדומי X, נשיג את ההסתברויות האלה על ידי PMF פונקציית מסת ההסתברות של X . הסימון לפונקצייה זו היא pX(x). וההגדרה המתמטית שלה היא

pX(x)=P({X=x})=P({wΩ | X(w)=x})

ניתן גם לסמן P(X=x)

כלומר פונקציית מסת ההתסברות לערך x של משתנה רנדומי X תחזיר את ההסתברות של המאורע המייצג את כל התוצאות האפשריות שx הוא הערך שלהן ביחס למשתנה הרנדומי X.
לדוגמה, נסתכל על ניסוי שמכיל שתי הטלות בלתי תלויות של מטבע הוגן ונגדיר את X להיות מספר הפעמים שיצא head. פונקציית ה PMF תהיה:

pX(x)={14x=0x=212x=10else

תכונות ל PMF

  1. xpX(x)=1 זה נובע מאקסיומות ההסתברות והעובדה ש X היא פונקצייה שהתמונה ההפוכה שלה היא מרחב המדגם ולכן ישנו מיפוי של כל התוצאות האפשריות והחלק היחסי שלהן מקבל הסתברות באמצעות pmf.
  2. לכל קבוצה S של ערכים אפשריים של ערכים אפשריים של X יתקיים P(XS)=xSpX(x)

חשוב להסביר רגע את הסימון, הוא מייצג את ההסתברות ש x כלשהו שייך לקבוצה S.
למשל אם נסתכל על ניסוי מהדוגמה למעלה, ההסתברות שיהיה לפחות head אחד הוא :

P(X>0)=P({xX  |  x>0})=12+14=34

חישוב PMF של משתנה רנדומי X

לכל ערך x ששייך ל X נעשה את הדבר הבא

  1. נאסוף את כל התוצאות האפשריות לניסוי שמקיימות את המאורע {X=x}.
  2. נסכום את ההסברויות שלהם כדי לקבל pX(x)

Pasted image 20221117195222.png|450

סוגים של משתנים רנדומים בדידים

משתנה ברנולי

נניח שמטילים מטבע שבהסתברות p ייתן לנו head וב 1p ייתן tail. משתנה ברנולי לוקח שתי ערכים : 1,0 ומשייך אותם לאחת התוצאות בהתאם

X={1head0tail

ה pmf שלו זה

pX(k)={pk=11pk=0

המשתנה הזה אומנם פשוט אבל הוא חשוב מאוד. בפרקטיקה, משתמשים בו למידול תרחישים הסתברותיים גנרים עם שתי תוצאות בלבד. למשל:

יתרה מכך, שילוב של מספר משתני ברנולי מאפשר בנייה של משתנה רנדומי מורכב יותר למשל משתנה בינומי.

משתנה אינדיקטור

משתנה מקרי אינדיקטור הוא מקרה פרטי של ברנולי , אפשר להגיד שהוא גם משתנה שעוזר לתאר התפלגות ברנולי. הוא מוגדר על מאורע A ומסומן IA ומקבל את הערכים 0,1 כאשר

P(IA=1)=P(A)  ,  P(IA=0)=P(Ac)

באמצעות משפטים שקשורים לתוחלת עליה נדבר בהמשך נוכל להוכיח שעבור מאורעות תלויים, אם נוכל להפריד אותם לרצף של אינדיקטורים, אזי נוכל לחשב כל מיני סוגים של מידע על המאורעות באמצעות תכונות של אינדיקטורים.

משתנה/התפלגות בינומי

זורקים מטבע n פעמים. בכל הטלה נקבל head בהסתברות p ו tail בהסתברות 1p . ההטלות הן בלתי תלויות. נגדיר את X להיות מספר ה heads בסדרה של n הטלות.
מתייחסים ל X כמשתנה בינומי אקראי עם פרמטרים n,p . פונקציית ה PMF של X מכילה את ההסתברות הבינומית שחישבנו במבחני אי תלות .

pX(k)=P(X=k)=(nk)pk(1p)nk

כאשר k מייצג את המספר אותו נרצה למצוא. נשים לב שהתכונה שרצינו מתקיימת שהסכום של כל הקלטים האפשריים בפונקציית הpmf תיתן 1 (הוכחנו את זה על הנוסחה הזאת).

Pasted image 20221117200351.png
כאן ניתן לראות שתי מצבים מעניינים של pmf . הראשון הוא כאשר p=0.5 שבו ניתן לראות שההתפלגות של הערכים היא סימטרית ביחס ל n2. בכל מצב אחר היא מוטת ל0 אם p<12 או ביחס ל n אם p>12 ( כפי שניתן לראות בתמונה).

אינטואיציה

הסיבה שפונקציית מסת ההסתברות ממודלת ככה היא הגיונית למדי, שכן אם נדמיין את הדוגמה של הטלת המטבע כמודל הסתברותי סדרתי (למשל עץ) אנחנו נראה שתמיד שלקראת הערכים באמצע של n (תלוי בהסתברות במקרה הזה המטבע הוגן) יהיו יותר ענפים שהסדר שלהם יקיים שקרה k פעמים מה שנרצה ו nk מה שלא רצינו.

משתנה גיאומטרי

נניח שיש לנו באופן חוזר ובלתי תלוי הטלת מטבע באופן בלתי תלוי, עם הסתברות לקבל head שהיא p כאשר אנחנו יודעים בוודאות ש 0<p<1 . המשתנה הגיאומטרי הרנדומי הוא X ומייצג את מספר ההטלות עד שיוצא head פעם ראשונה. נוסחת ה pmf תהיה:

pX(k)=P(X=k)=P(  TTTTTk-1 times  H )=(1p)k1p

הנוסחה הזאת מאוד הגיונית כי היא מתארת רצף של הטלות בלתי תלויות כאשר k1 פעמים יצא tail ובפעם שרצינו יצא head (יש רק ענף אחד כזה עבור k הטלות).

k=1pX(k)=k=1(1p)k1p=pk=1(1p)k1=pk=0(1p)k=p11(1p)=1

המעבר האחרון נובע בגלל שנתון ש p מספר קטן בין 0 ל 1 ולכן 1p גם מספר בטווח הזה כלומר יש לנו סכום סדרה הנדסית מתכנת ל 1 (לפי סכום סדרה הנדסית אינסופית S=a11p).
השתמשנו בדוגמה של הטלת מטבע כי היא מתארת את המשתנה הזה באופן די טבעי. באופן כללי, נוכל לפרש משתנה גיאומטרי במונחים של חזרה בלתי תלויה של ״מבחנים״ עד ל״הצלחה״ ראשונה. כל מבחן יהיה עם הסתברות להצלחה p והמידול של המשתנה נעשה על ידי כמות המבחנים שעשינו עד להצלחה (ההצלחה נספרת בכמות). נשים לב שהצלחה זה תלוי בהקשר שאנחנו מדברים עליו.
Pasted image 20221117204049.png|450
ככל ש k גבוה יותר נקבל תוצאה נמוכה יותר עבור pmf.

משתנה פואסון

למשתנה פואסון יש PMF שמיוצג על ידי

pX(k)=eλλkk!

כאשר λ זה פרמטר חיובי שמתאר את ה PMF. אפשר להתייחס אליו גם כ ״קצב״ כלומר מספר המאורעות בכל זמן דגימה.
נשים לב ש X מייצג את מספר המאורעות שמתרחשים בפרק זמן כלשהו. ו λ זה הקצב הממוצע כלומר כמה מצופה שיקרה. (בגלל זה כפי שנראה מרכז המסה של פונקציית מסת ההסתברות תמיד יהיה כאשר x=λ).

זה משתנה PMF לגיטימי בגלל ש

k=0eλλkk!=eλ(1+λ+λ22!+λ33!+λ44!+)=eλeλ=1

זה נובע מ טורי טיילור ידועים (הטור של הפונקצייה ex).
פונקציית מסת ההסתברות עבור קלט k מהווה את ההסתברות לקבל k מאורעות בתוך זמן הדגימה.

כדי לקבל אינטואיציה למשתנה פואסון. נחשוב על משתנה בינומי עם מספר p ממש קטן ו n ממש גדול. למשל: עבור X שמייצג את מספר שגיאות הכתיב בספר בספר עם n מילים. אזי X הוא בינומי בגלל שאנחנו רוצים לבחור x מילים מתוך n שלהן יהיה שגיאת כתיב. אבל ההסתברות של p שמילה אחת שתבחר תהיה עם שגיאת כתיב הוא כל כך קטן, שנוכל למדל את X גם באמצעות ה pmf של פואסון. באופן מדוייק יותר,פונקציית pmf של משתנה פואסון עם פרמטר λ מהווה קירוב טוב ל pmf של המשתנה הבינומי.

eλλkk!n!k!(nk)!pk(1p)nk

Pasted image 20221118100432.png

נשים לב, λ=np כאשר n מספר גדול מאוד ו p מספר קטן מאוד. במקרה הזה להשתמש במשתנה פואסון יכול לתת לנו תוצאה פשוטה יותר ומודל ברור יותר. לדוגמה, עבור n=100 ו p=0.01 ההסתברות לקבל 5 הצלחות ב 100 מבחנים תהיה

100!95!5!0.0150.9995=0.00290

מאוד מעצבן לחשב, אבל על ידי שימוש במשתנה פואסון עם λ=np=1 נקבל

e115!=0.00306

הקשר בין פואסון לבינומי
בדומה:

  1. המאורעות בלתי תלויים - התרחשות של מאורע אחד באינטרוול כלשהו לא משפיע על כך שהוא יקרה מאוחר יותר.
  2. בשתיהם יש מידול של סיכוי להצלחה והסתברות לכשלון
  3. גם במקרה הזה אנחנו מעוניינים בהסתברות למספר הצלחות כלשהו.

בשונה:

  1. מספר הניסויים במשתנה פואסון לא מוגדר
  2. ההסתברות להתרחשות של מאורע בודד אינה ידועה אך ברוב המקרים בקטנה מאוד.
מה המשמעות של פואסון?

משתמשים במשתנה פואסון במצבים בהם מאורע יכול לקרות בכל רגע ולכן אין לנו הסתברות על המאורע. אם האירועים מתרחשים באופן בלתי תלוי ובקצב (ממוצע) קבוע λ, אזי מספר האירועים שהתרחשו בפרק זמן נתון מתפלג פואסונית.
דוגמה לכך היא מספר השיחות המתקבלות במרכזיית טלפונים במשך דקה.
ניתן לראות את התפלגות פואסון בתור גבול של סדרת התפלגויות בינומיות שבה מספר הניסויים שואף לאינסוף, ותוחלת מספר ההצלחות נשארת קבועה.
Pasted image 20230129013019.png|300

משתנה בדיד אחיד uniform

משתנה רדנומי X הוא משתנה אחיד עם פרמטרים a ו-b כאשר a ≤ b אם ערכו של המשתנה הוא מספר מ a,a+1,…,b כאשר לכל מספר ההסתברות זהה.
כלומר מרחב המדגם הוא Ω={a,a+1,a+2,,b} המשתנה הרנדומי X יקיים X(w)=w . מצב זה מתאים עבור מודל שאנחנו לא יודעים מי התוצאה הרצוייה.

נשים לב ההסתברות למאורע שהתוצאה תהיה w היא 1ba+1 (זה בעצם התוצאה האפשרית במונה חלקי מספר התוצאות במרחב המדגם). לכן זאת גם פונקציית ה PMF של משתנה כזה

pX(x)=P(X=x)=P(x)=1ba+1

כלומר מרחב המדגם הוא מרחב שווה הסתברות.

פונקציות של משתנים רנדומיים בדידים

בהינתם משתנה רנדומי X, נוכל לייצ רמשתנה רנדומי אחר על ידי הפעלת טרנספורמציות על X .
לדוגמה, בהינתן משתנה רנדומי X שמייצג את הטמפרטורה היומית במעלות, ונגדיר Y=1.8X+32 המשתנה שממיר את X ממעלות לפרנהייט. במצב זה Y הוא פונקצייה ליניארי של X:

Y=g(X)=aX+b

כאשר a,b הם סקלרים.
כמו כן נוכל להגדיר את Y להיות פונקצייה לא ליניארית כלשהי. בכל מקרה, מה שחשוב להבין כאן הוא ש אם Y=g(X) הוא פונקצייה של משתנה רנדומי X אז Y הוא בעצמו משתנה רנדומי שכן הוא מספק ערך מספרי לכל תוצאה אפשרית במרחב המדגם. זה נכון, בגלל שלכל xX נוכל להפעיל את הפונקצייה g ולקבל yY . כמו כן, כמובן שאם X הוא משתנה רנדומי בדיד, בהכרח גם Y מהגדרה של פונקציות. נוכל לחשבת את פונקציית מסת ההסתברות של Y באמצעות pX .

pY(y)={x |  g(x)=y}pX(x)

כלומר, עבור קלט y ההסתברות תהיה סכום כל ההסתברויות שנקבל מפונקציית מסת ההתסברות באשר ximgg1(y).

דוגמה : עבור Y=|X| ו

pX(x)={19x[4,4],N0else

נקבל את pY(y) הבא:
Pasted image 20221118132604.png

בגלל שלכל שתי ערכים בX בפרט ל 0 נקבל ערך אחד ב Y יתקיים שפונקציית מסת ההתסברות של Y תהיה

pY(y)={29y[4]19y=00else

תוחלת ו variance (שונות)

תוחלת

פונקציית מסת ההסתברות ששל משתנה רנדומי X נותנת לנו את ההסתברויות של כל הערכים של X . הרבה פעמים נרצה את זה, אבל נרצה לעתים לכמת את המידע הזה למספר יחיד. המספר הזה הנקרא התוחלת של X .שזה ממוצע משוקלל ביחס להסתברויות של כל הערכים האפשריים ב X.
כדי לקבל אינטואיצייה נניח שאנחנו מסובבים גלגל מזל מספר רב של פעמים. על כל מספר שמתקבל m1,m2,m3,,mn עם הסתברויות מתאימות p1,p2,p3,pn אתה מקבל את הערך של mi אם הוא יצא לך.
נרצה לדעת מה כמות הכסף שאני מצפה להשיג עבור סיבוב. ״מצפה״ ו״עבור סיבוב״ הם קצת מונחים עם מספר משמעויות אבל פרשנות סבירה להן תהיה:
אם נסובב את את הגלגל k פעמים, ן ki הוא מספר הפעמים שקיבלת mi. אז הכסף שקיבלת פר סיבוב בממוצע יהיה

M=i=1nmikik

אם k הוא מספר גבוה ממש ונפרש התסברות כיחס. זה סביר להניח ש mi מגיע בתדירות מסויימת של פעמים שהיא בערך שקולה ל pi

kikpi

לפיכך, כמות הכסף פר סיבוב שאני מצפה להשיג היא

M=i=1nmikik=i=1nmipi

ומכאן נוכל להגדיר באופן ברור יותר את ה תוחלת : נגדיר את התוחלת של משתנה רנדומי X עם פונקציית מסת הסתברות pX על ידי:

E[X]=xxpX(x)

אינטואיטיבית זה עוזר להסתכל על התוחלת של X כ״נציג״ של הערכים שלו, שנמצא איפהשהו באמצע של טווח הערכים הללו. אפשר לקרוא לזה ״מרכז כוח המשיכה״ של פונקציית מסת ההסתברות.
Pasted image 20221118220441.png|450
הגרף מראה מה המשמעות של מרכז כוח המשיכה. נניח שהגרף למעלה מתאר לכל נקודה x את p(x)>0 המתאים לה, מרכז המשיכה c יהיה הנקודה שבה סכום כל האיברים משמאל יהיה שווה לסכום כל האיברים מימין כלומר

x(xc)pX(x)=0

אם נפתח את זה נקבל

xxpX(x)xcpX(x)=xxpX(x)cxpX(x)=xxpX(x)c

כלומר כדי שההפרש יהיה 0 נרצה ש c=xxpX(x)=E[X]

מומנט

חוץ מהתוחלת ישנם תכונות נוספות שנרצה לשייך את פונקציית מסת ההסתברות אליהם. לדוגמה מגדירים את המומנט ה2 של משתנה רנדומי X כ תוחלת של המשתנה הרנדומי X2 . באופן כללי מגדירים את ה מומנט ה nי כ E[Xn], התוחלת של המשתנה הרנדומי Xn . נשים לב שהתוחלת היא פשוט המומנט ה1.

variance- שונות

התכונה החשובה ביותר של משתנה רנדומי X חוץ מהתוחלת נקראת השונות שלה. זאת מסומנת כ var(X) ומוגדרת ע״י

var(X)=E[(XE[X])2]

כלומר היא מוגדרת להיות התוחלת של המשתנה הרנדומי (XE[X])2 (כלומר השונות היא תמיד חיובית).
השונות מספקת דרך למדוד את ההתפזרות של X סביב התוחלת שלו. נוכל למדוד התפזרות זאת גם על ידי סטיית התקן של X שמוגדרת כך

σX=var(X)

נשים לב שבאופן אינטואיטיבי , השונות מייצגת את ממוצע המרחקים של כל הערכים מהמשתנה הרדנומי למרכז הכבידה שלו E[X] . יותר קל לפעמים לעבוד עם סטיית התקן בגלל שהיא מחזירה אותנו לאותם יחידות מידה כמו של X. למשל אם X מודד מרחק במטרים אז השונות מיוצגת על ידי מטרים ריבועיים, אבל סטיית התקן מחזירה את זה למטרים.

דרך אחת לחשב את השונות היא לפי ההגדרה של תוחלת של משתנה רנדומי. זאת בהינתן שכבר יש לנו את פונקציית מסת ההסתברות של X . השאלה היא כיצד
מחלצים את פונקציית מסת ההסתברות של g(X) כלשהו? (במקרה הזה g(X)=(XE[X])2)

נסתכל על הדוגמה הבאה כדי להתחיל לענות על השאלה הזאת
עבור המשתנה הרדנומי X עם פונקצית מסת ההסתברות

pX(x)={19if x is an integer in the range [4,4]0else

נשים לב שיתקיים במקרה הזה שהתוחלת היא 0 . עבור המשתנה הרנדומי Z=(XE[X])2=X2 יתקיים

pZ(z)={29if z = 1,4,9,16 19z=00else

כעת אם נחשב לפי הגדרה נקבל

var(x)=E[Z]=zzpZ(z)=019+129+429+929+1629=609

מסתבר, שיש דרך קלה יותר לחשב את ה שונות של X על ידי שימוש בפונקציית מסת ההסתברות של X בלי שיש צורך לחשב את פונקציית מסת ההסתברות של (XE[X])2 . השיטה הזאת מבוססת על החוק הבא:

E[g(X)]=xg(x)pX(x)

כדי להוכיח את זה נשים לב שמתקיים עבור Y=g(x)

pY(y)={x | g(x)=y}pX(x)

כלומר לוקחים את כל האיברים ב X שהפעלת g עליהם ייתן y וסוכמים את ההתסברויות שלהם זה מסתדר גם אינטואיטיבית שכן אנחנו לוקחים פשוט איברים מ X ועושים עליהם שינוי כלשהו הגיוני שכל האיברים יהיו שייכים לתמונה ההפוכה של Y.
Pasted image 20221125105939.png|350

סך הכל יתקיים

E[g(X)]=E[Y]=yypY(y)=yy{x | g(x)=y}pX(x)=y{x | g(x)=y}ypX(x)=y{x | g(x)=y}g(x)pX(x)=xg(x)pX(x)

לפיכך אם נציב את הנ״ל בשונות של X נקבל

var(X)=E[(XE[X])2]=x(xE[x])2pX(x)

באופן דומה ה מומנט ה n-י ניתן על ידי

E[Xn]=xxnpX(x)

וכך אין צורך לחשב את פונקציית מסת ההסתברות של Xn .

אז כמו שניתן לראות , השונות היא תמיד אי שלילית, נשאלת השאלה מתי היא 0 ? מהגדרת הסכום אנחנו יודעים שסכום של מספרים אי שליליים הוא 0 אמ״מ כל אחד מהגורמים הוא 0 והמצב הזה יתרחש רק כאשר x=E[X] ואז המשתנה לא באמת ״רנדומי״ . הערכים שלו שווים לתוחלת ופונקצייה מסת ההסתברות תחזיר 1 לכל ערך.

תכונות חשובות של תוחלת ושונות

  1. ליניאריות התוחלת: נשתמש בחוק התוחלת של פונקציה שהוכחנו למעלה כדי לפתח כמה תכונות חשובות מאוד של התוחלת והשונות. נתחיל ממשתנה רנדומי Y שמוגדר באופן הבא
Y=aX+b

כאשר a,b הם סקלרים כלומר Y הוא פונקצייה ליניארית על X , יתקיים:

E[Y]=x(ax+b)pX(x)=axxpX(x)+bxpX(x)=aE[X]+b
  1. מסקנה מליניאריות התוחלת על השונות
var(Y)=x(ax+bE[aX+b])2pX(x)=x(ax+baE[X]b)2pX(x)=a2x(xE[X])2pX(x)=a2var(X)

אם כן נקבל שתי מסקנות חשובות

var[X+b]=var[X]var[aX]=a2var[X]
  1. נסתכל על דרך נוספת לחישוב השונות של משתנה רנדומי X
var(X)=E[X2](E[X])2

ההוכחה לכך פשוטה:

var(X)=x(xE[X])2pX(x)=x(x22xE[X]+(E[X])2)pX(x)=xx2pX(x)2E[X]xxpX(x)+(E[X])2xpX(x)=E[X2]2(E[X])2+(E[X])2=E[X2](E[X])2

המעבר השלישי נובע מהוצאת סקלר של הסכום x2xE[X]pX(x)

נשים לב שאם פונקצייה g אינה ליניארית, אין בהכרח מתקיים ש E[g(X)]=g(E[x]) וההוכחה למעלה היא הסבר מצויין ללמה זה לא תמיד נכון אחרת השונות תמיד הייתה 0 .

  1. X0E[X]0
  2. עבור c קבוע יתקיים E[c]=c

תוחלת ושונות של משתנים רנדומים נפוצים

תוחלת ושונות של ברנולי

נזכיר שפונקציית מסת ההסתברות של ברנולי נראת כך

pX(k)={pk=11pk=0

כלומר יתקיים ש

E[X]=1p+0(1p)=p

כמו כן

E[X2]=12p+0(1p)=p

ולכן

var(X)=E[X2](E[X])2=pp2=p(1p)

תוחלת ושונות של משתנה אחיד

נדגים את זה על הטלה של קובייה הוגנת. ה PMF ייראה כך

pX(k)={16k[1,6]0else

פונקציית מסת ההתסתברות סימטרית סביב 3.5 ולכן זה התוחלת ועבור ה שונות נקבל בהצבה פשוטה לפי הגדרה את התשובה.
סך הכל באופן כללי
ִPasted image 20221126002954.png|400
ה PMF של משתנה רנדומי אחיד בקטע [a,b] כך שההתסברות של כל תוצאה היא 1ba+1 יקיים ש

E[X]=a+b2   ,   var(X)=(ba)(ba+2)12

נשים לב שפונקציית מסת ההסתברות תיראה ככה

pX(k)={1ba+1k[a,b]0else

תוחלת ושונות של משתנה פואסון

נזכיר שפונקציית מסת ההסתברות של פואסון היא

pX(k)=eλλkk!

עבור התוחלת נקבל

E[X]=k=0keλλkk!=k=1eλλk(k1)!=λk=1eλλk1(k1)!=m=k1λm=0eλλmm!=λ

המעבר האחרון נובע בגלל ש

m=0eλλmm!=m=0pX(m)=1

זאת תכונת הנרמלות של פונקציית מסת ההסתברות. חישוב דומה יראה שגם השונות של משתנה פואסון היא λ אבל זה בהרחבה ב שונות של משתנה פואסון

תוחלת ושונות של משתנה בינומי

התוחלת של משתנה בינומי
השונות של משתנה בינומי

תוחלת ושונות של משתנה גיאומטרי

תוחלת ושונות של משתנה גיאומטרי

קבלת החלטות על ידי שימוש בתוחלת

נסתכל על בעיה הסתברותית בשם the quiz problem . בהינתן משחק חידות שבו בן אדם מקבל שתי שאלות וחייב להחליט לאיזה שאלה הוא יענה ראשון. (הבחירה היא לא מקרית).
שאלה 1 תיענה נכונה בהסתברות של 0.8 והעונה נכונה יקבל פרס בשווי 100 דולר.
שאלה 2 תיענה נכונה בהסתברות 0.5 והעונה נכונה יקבל פרס של 200 דולר.
אם השאלה הראשונה שנבחר נענית לא נכונה , המתמודד לא יכול להמשיך לשאלה השנייה. אם השאלה הראשונה נענתה נכונה, המתמודד יכול ללכת לשאלה השנייה.

השאלה המתבקשת היא, איזה מהשאלות עלינו לענות ראשונה על מנת למקסם את הרווח שלנו.
השאלה לא כל כך אינטואיטיבית בגלל ההשלכות של בחירת השאלה , במידה ואטעה לא אוכל להמשיך.
כדי לענות על השאלה ששאלנו, נסמן את הפרס הכולל שנזכה בו כשמשתנה רנדומי X . ונרצה לחשב את התוחלת E[X] תחת שתי הבחירות לאיזה שאלה נענה קודם.

Pasted image 20221205204620.png|450

א) נענה על שאלה אחת קודם, במצב זה ה PMF של X יהיה

px(0)=0.2px(100)=0.80.5px(300)=0.50.8

במצב זה התוחלת תצא E[X]=160.

ב) נענה על שאלה שתיים קודם, במצב זה ה PMF של X יהיה

px(0)=0.5px(200)=0.20.5px(300)=0.50.8

ובמצב זה התוחלת תהיה E[X]=140
אם כן, נראה כי בחירה של השאלה הראשונה עדיפה שכן התוחלת או מרכז המסה של הסכומים שבהם נזכה יהיה יותר גדול.

נוכל להכליל את המסקנות מהתרגיל הזה באופן הבא:
בהנתן p1,p2 ההסתברויות לענות נכונה על שאלות 1,2 בהתאמה, ונסמן v1,v2 את הפרסמים המתקבלים מזכייה.
אם שאלה אחת נענית קודם נקבל

E[X]=p1(1p2)v1+p1p2(v1+v2)=p1v1+p1p2v2

אם השאלה השנייה נענית ראשונה נקבל

E[X]=p2(1p1)v2+p2p1(v2+v1)=p2v2+p2p1v1

כלומר נקבל סך הכל שבחירה של שאלה אחת היא אופטימלית אם ורק אם

p1v11p1p2v21p2

כלומר הבחירה האופטימלית היא סידור השאלות בסדר יורד של הביטוי הזה. (ניתן להכליל את זה אף יותר למקרה של n שאלות אבל באופן כללי עדיין נקבל שהאופטימלי הוא הביטוי הנ״ל בעל הערך הגבוה ביותר).