מודלים הסתברותיים

א) מרחב מדגם Ω קבוצת כל התוצאות האפשריות של הניסוי.

ב) חוק הסתברות שמצמיד בין מאורע A להסתברות שלו P(A) שהיא אי שלילית ומייצגת את הסיכוי להתרחשות האיברים בתוך A .

ג) תוצאות הן תמיד זרות אחת לשנייה

אקסיומות ההסתברות

א) P(A)0

ב) אדטיביות- בהינתן שA,B הן קבוצות זרות : P(AB)=P(A)+P(B) (עובד גם על n מאורעות זרים).

ג) נורמליזציה P(Ω)=1

ד) חוק ההסתברות הבדיד- אם מרחב המדגם מכיל מספר סופי או בן מנייה של תוצאות אז ההסתברות של כל מאורע {s1sn} יהיה

P({s1,,sn})=P(s1)++P(sn)

ה) אם כל n התוצאות הן בסבירות שווה לקרות אזי

P(A)=|A|n

תכונות נוספות

ABP(A)P(B)P(AB)=P(A)+P(B)P(AB)P(AB)P(A)+P(B)P(ABB)=P(A)+P(AcB)+P(AcBcC)

התסברות מותנת

א)

P(A|B)=P(AB)P(B)

התנייה זה הסתברות לכל דבר תחת עולם חדש שהוא במקרה הנ״ל B .

ב) במרחב מדגם שווה הסתברות

P(A|B)=|AB||B|

ג)

P(A|B)=1P(Ac|B)

חוק הכפל

P(i=1nAi)=P(A1)P(A1A2)P(A1)P(i=1nAi)P(i=1n1Ai)

Pasted image 20221106144043.png

התמונה מקלה לראות את החוק עבור 2 מאורעות למשל ,

P(A1A2)=P(A1)P(A2|A1)

משפט ההסתברות השלמה וחוק בייס

משפט ההסתברות השלמה

P(B)=i=1nP(AiB)=i=1nP(Ai)P(B|Ai)

חוק בייס

P(Ai|B)=P(Ai)P(B|Ai)P(B)=P(Ai)P(B|Ai)i=1nP(Ai)P(B|Ai)

Pasted image 20221106160256.png|450

אי תלות

הגדרה:

P(A|B)=P(A)

או

P(AB)=P(A)P(B)
  1. מאורעות זרים הם תמיד בלתי תלויים.
  2. אם A,B בלתי תלויים כלומר ההתרחשות של B לא משפיע על A אז גם אי ההתרחשות ולכן אם A,B בלתי תלויים אז גם A,Bc בלתי תלויים.

אי תלות מותנת

הגדרה:

P(AB|C)=P(A|C)P(B|C)

או

P(B|C)P(A|BC)

אי תלות של n מאורעות

נאמר שהמאורעות A1,A2,A3,,An בלתי תלויים אם מתקיים

P(iSAi)=iSP(Ai)   for every subset S of {1,2,3,4,,n}

למשל עבור A1,2,3 אי תלות בין שלושתם תתקיים אם :

P(A1A2)=P(A1)P(A2),P(A1A3)=P(A1)P(A3),P(A2A3)=P(A2)P(A3),P(A1A2A3)=P(A1)P(A2)P(A3)

שלושת התנאים הראשונים מבטיחים לנו שכל שתי מאורעות הם בלתי תלויים, התכונה הזאת נקראת pairwise independent כלומר אי תלות בזוגות. אי תלות בזוגות לא מראה על אי תלות

מנייה, צירופים וחלוקות

מספר תרחישים בהם אנחנו משתמשים בספירה כדי לחשב הסתברות.

  1. כאשר מרחב המדגם Ω הוא מרחב מדגם שווה הסתברות בדיד. כלומר יש בו מספר סופי של תוצאות שלכל אחת הסתברות זהה. במצב זה ההסתברות של מאורע A תהיה
P(A)=|A||Ω|
  1. כאשר נרצה לחשב התסברות של מאורע A עם מספר סופי של תוצאות אפשריות כאשר לכל אחד יש הסתברות p . במצב זה ההסתברות של מאורע A תהיה
p|A|

עקרונות ספירה

Pasted image 20221113215020.png|350
נכליל את עקרונות הספירה כך:
נניח שיש תהליך שמכיל r שלבים

  1. בשלב הראשון יש n1 תוצאות אפשריות.
  2. לכל תוצאה אפשרית בשלב הראשון יש n2 , תוצאות אפשריות בשלב השני.
  3. באופן כללי, לכל רצף של תוצאות אפשריות ב i1 השלבים הראשונים יש ni אפשרויות בשלב הi .

דוגמאות

  1. מספר הסוגים האפשריים למספר טלפון - מספר טלפון הוא בעל 7 ספרות כאשר הספרה הראשונה חייבת להיות שונה מ 0,1. נוכל לתאר את הבעיה הזאת כתיאור של עץ סדרתי כאשר הרמה ה i מייצגת את הספרה הi ואפשרותיה. כלומר באופן הזה עבור הספרה הראשונה יש לנו 8 אפשרויות וכל השאר עם 10 ולכן נקבל
81010106 times=8106
  1. מספר תתי הקבוצות לקבוצה בגודל n . נוכל להסתכל על זה כבחירה על כל איבר בקבוצה של האם להכניס אותו לתת הקבוצה או לא. כלומר שישנן 2n אפשרויות לבניית תת קבוצה מn איברים.

פרמוטציה מסדר k

נרצה לבחור k אובייקטים מתוך אוסף המכיל n אובייקטים שונים ולסדר אותם איכשהו.

n(n1)(n2)(nk+1)=i=1kni+1(nk)21(nk)21=n!(nk)!

במקרה הפרטי ש k=n זה פשוט נקרא פרמוטצייה ונקבל n! אפשרויות.

צירופים

רצה לבנות ועדה של k חברי צוות מקבוצה של n אנשים.

n!k!(nk)!

זה שקול ל מקדם בינומי שזה בעצם בחירה של k מתוך n איברים. כלומר

(nk)=n!k!(nk)!

משתנים מקריים בדידים

pX(x)=P({X=x})=P({wΩ | X(w)=x})

ניתן גם לסמן P(X=x)

נורמליות:

xpX(x)=1

פונקציות של משתנים רנדומיים בדידים

pY(y)={x |  g(x)=y}pX(x)

תוחלת ושונות

תוחלת:

E[X]=xxpX(x)E[g(X)]=xg(x)pX(x)

שונות:

var(X)=E[(XE[X])2]

סטיית תקן:

σX=var(X)

תכונות חשובות של תוחלת ושונות

  1. ליניאריות התוחלת:
Y=aX+b

כאשר a,b הם סקלרים כלומר Y הוא פונקצייה ליניארית על X , יתקיים:

E[Y]=x(ax+b)pX(x)=axxpX(x)+bxpX(x)=aE[X]+b
var(X)=E[X2](E[X])2
  1. X0E[X]0
  2. עבור c קבוע יתקיים E[c]=c
var(aX+b)=a2var(X)

אחיד

ב [a,b] :

pX(k)={1ba+1k{a,a+1,,b}0elseE[X]=a+b2var(X)=(ba)(ba+2)12

ברנולי

עבור פרמטר p המייצג הסתברות להתרחשות של מאורע או הצלחה של ניסוי.

pX(k)={pk=11pk=0E[X]=pvar(X)=p(1p)

בינומי

עבור p ו n

pX(k)=(nk)pk(1p)nk    k=0,1,,nE[X]=npvar(X)=np(1p)

גיאומטרי

עבור פרמטר p ההסתברות להצלחה בניסוי

pX(k)=(1p)k1p     kNE[X]=1pvar(X)=1pp2

CDF:

Fgeo(n)=1(1p)n

חוסר זכרון של גיאומטרי:

pXn|X>n(k)=pX(k)

או

P(X=n+k|X>n)=P(X=k)
משתנה מתפלג גיאומטרי שסופר את הכשלונות בלבד

עד כה מידלנו את ההתפלגות הגיאומטרית ככזאת שסופרת את מספר הניסיונות כולל ההצלחה הראשונה, נוכל בקלות למדל אותו כך שיספור רק את הכשלונות . למשל נוכל פשוט להחסיר מהתוחלת את 1 כדי לקבל את התוחלת הרצוייה. כלומר ה pmf יהיה פשוט

pX(k)=(1p)kp

כלומר ספרנו את כל הכשלונות לא כולל ההצלחה. ההשפעה של זה על התוחלת תהיה :

E[X]=1p1=1pp

ההחסרה נובעת מכך שפשוט הורדנו ספירה אחת בניסוי.
כמו כן- השונות נשארת אותו דבר כלומר:

1pp2

פואסון

עם פרמטר λ (כאשר n גדול ממש וp קטן ממש נקבל λ=np)

kN:pX(k)=eλλkk!E[X]=var(X)=λ

איחוד PMF של מספר משתנים רנדומיים

pX,Y(x,y)=P(X=x,Y=y)

עבור Z=g(X,Y):

pZ(z)=(x,y) | g(x,y)=zpX,Y(x,y)E[g(X,Y)]=(x,y)g(x,y)pX,Y(x,y)=xyg(x,y)pX,Y(x,y)

במקרה הליניארי :

E[g(X,Y)]=E[aX+bY+c]=aE[X]+bE[Y]+c

הפונקציות השוליות

pX(x)=ypX,Y(x,y)   pY(y)=xpX,Y(x,y)E[i=1naiXi]=i=1naiE[Xi]

הכללה למספר משתנים אקראיים

pX,Y,Z(x,y,z)=P(X=x,Y=y,Z=z)pX,Y(x,y)=zpX,Y,Z(x,y,z)pX(x)=yzpX,Y,Z(x,y,z)E[g(X,Y,Z)]=xyzg(x,y,z)pX,Y,Z(x,y,z)E[aX+bY+cZ+d]=aE[x]+bE[Y]+cE[Z]+d

התניות על משתנה רנדומי בדיד

התנייה של משתנה רנדומי עם מאורע

pX|A(x)=P(X=x|A)=P({X=x}A)P(A)P(A)=xP({X=x}A)

התנייה של משתנה רנדומי עם משתנה רנדומי אחר

pX|Y(x|y)=P(X=x,Y=y)P(Y=y)=pX,Y(x,y)pY(y)pX,Y(x,y)=pX|Y(x|y)pY(y)pX,Y(x,y)=pX(x)pY|X(y|x)

תוחלת מותנת

E[X|A]=xxpX|A(x)E[g(x)|A]=xg(x)pX|A(x)E[X|Y=y]=xxpX|Y(x|y)

התוחלת השלמה :
אם A1,A2,A3,,An הן מאורעות זרים שמהווים חלוקה של מרחב המדגם וכל אחד מהם עם התסברות גדולה מ0 אזי

E[X]=i=1nP(Ai)E[X|Ai]

יתרה מכך, לכל מאורע B שיקיים 1in:P(AiB)>0 אזי

E[X|B]=i=1nP(Ai|B)E[X|AiB]E[X]=ypY(y)E[X|Y=y]

אי תלות על משתנה רנדומי בדיד

אי תלות של משתנה רנדומי עם מאורע

P(X=xA)=P(X=x)P(A)=pX(x)P(A)

כל עוד P(A)>0 , אי תלות היא זהה לתנאי

x:pX|A(x)=pX(x)

אי תלות בין משתנים רנדומים

x,y:pX,Y(x,y)=pX(x)pY(y)

אי תלות מותנת

x,y:P(X=x,Y=y|A)=P(X=x|A)P(Y=y|A)

תוחלת ואי תלות

E[g(X)h(Y)]=E[g(X)]E[h(Y)]

מסקנה

E[XY]=E[X]E[Y]

שונות ואי תלות

var(X+Y)=var(X)+var(Y)

אי תלות של מספר משתנים רנדומים

x,y,z:pX,Y,Z(x,y,z)=pX(x)pY(y)pZ(z)

משפט אם X1,,Xn הם משתנים בלתי תלויים אזי

var(i=1nXi)=i=1nvar(Xi)

תוחלת ושונות של sample mean

נגדיר את ה sample mean Sn להיות

Mn=i=1nXinE[Mn]=i=1n1nE[Xi]=1nnp=p

נשים לב שזה משתנה רנדומי שמהווה אסטימצייה טובה לשיעורי ההצבעה בגלל שהתוחלת שלו היא עדיין p שמייצג את שיעור ההצבעה ״האמיתי״ של ביידן. נשים לב שכל עוד Xi בלתי תלויים אחד בשני ויש להם תוחלת ושונות שווים אז יתקיים

var(Mn)=var(X)n

משתנים רנדומיים - רציף

PDF

P(XB)=BfX(x)dxP(aXb)=abfX(x)dx

התכונות שfX צריכה לקיים כדי להיות PDF תקין הן:

  1. fX(x)0 כלומר פונקצייה אי שלילית לכל ערכיה
  2. נורמליזציה הסכום של כל ערכי התמונה האפשריים צריך להיות 1
±fX(x)dx=P(<X<)=1

תוחלת

E[X]=xfX(x)dx

משתנה רנדומי אחיד רציף

fX(x)={1bax[a,b]0elseE[X]=a+b2var(X)=(ba)212

ה CDF של התפלגות אחידה:

axfX(t)dt=xaba

משתנה מקרי מעריכי

fX(x)={λeλxx00else

נשים לב שההסתברות של X לעלות על ערך מסויים קטנה באופן מעריכי. עבור a0 נקבל

P(Xa)=eλx|a=eλa

Pasted image 20221218014805.png|350

E[X]=1λvar(X)=1λ2

CDF:

Fexp(x)=1eλx

משתנה מקרי נורמלי

fX(x)=12πσe(xμ)22σ2E[X]=μ   var(X)=σ2

נהוג לסמן משתנה נורמלי X כ N(μ,σ2)

משתנה נורמלי ופונקצייה ליניארית

אם X הוא משתנה נורמלי עם תוחלת μ ושונות σ2 נגדיר עבור a0 ו b סקלרים:

Y=aX+b

אזי, Y הוא משתנה נורמלי ומקיים

E[Y]=aμ+b    var(Y)=a2σ2

משתנה נורמלי סטנדרטי

משתנה נורמלי Y עם תוחלת 0 ושונות באורך 1 מוגדרת כ נורמלי סטנדרטי . ה CDF שלה מסומן כ Φ והיא מקיימת

Φ(Y)=P(Yy)=P(Y<y)=12πyey22dtΦ(y)=1Φ(y)

Pasted image 20230104022924.png|600

נירמול משתנה נורמלי:
בהינתן משתנה מקרי X עם תוחלת μ ושונות σ2, נבצע תהליך בין 2 שלבים:
א) ״נירמול״ X והגדרת משתנה נורמלי סטנדרטי Y=xμσ
ב) חישוב ה CDF באופן הבא

P(Xx)=P(Xμσxμσ)=P(Yxμσ)=Φ(xμσ)

CDF פונקציית ההתפלגות המצטברת

FX(x)=P(Xx)={kxpX(k)if X is discretexfX(t)dtif X is continuous

Pasted image 20221218025342.png|350

תכונות

  1. FX היא מונוטונית עולה כלומר xyFX(x)FX(y)
  2. FX(x) שואפת ל 0 כאשר x ושואפת ל 1 כאשר x .
  3. אם X הוא משתנה רציף אז FX(x) היא פונקצייה רציפה של x כלומר רציפה מימין. ויתקיים
ddxFX(x)=fX(x)
  1. אם X הוא בדיד ומקבל ערכים טבעיים, נוכל לחלץ את ה CDF וה PMF על ידי סכימת ההפרשים כלומר
pX(k)=P(Xk)P(Xk1)=FX(k)FX(k1)
  1. אם X הוא רציף, ה PDF וה CDF מתקבלים אחד מהשני על ידי גזירה ואינטגרצייה.
  2. P(aXb)=FX(b)FX(a)

הרבה פעמים נרצה להשתמש ב CDF כדי לחשב את ה PMF או ה PDF, את ה PDF נוכל לחשב על ידי חישוב CDF וגזירה ובאופן דומה על ה PMF על ידי הנוסחה הנ״ל

משתנה מקרי מעורב

מודלים הסתברותיים לרוב מערבים משתנים רנדומים שמערבים בתוכם מעין מיקס של בדיד Y ורציף כלשהו Z בכך אנחנו מתכוונים שהערך של X מורכב מהחוקים ההסתברותיים הפועלים תחת Y עם הסתברות p ומהחוקים ההסתברותיים הפועלים תחת Z עם הסתברות משלימה של 1p
הרעיון הוא שיש אזורים נקודתיים במרחב שלנו שיש בהם נקודות אי רציפות ואז במקום שההסתברות של ערך בודד תהיה 0 במקרה רציף יהיה שם ערך מסויים וסכום כל ההסתברויות של הנקודות האלה יהיה המשלים של שאר השטח.

במצב זה X ייקרא משתנה מקרי מעורב. וה CDF שלו ניתן לחישוב באמצעות נוסחת ההסתברות השלמה

FX(x)=P(Xx)=pP(Yx)+(1p)P(Zx)=pFY(x)+(1p)FZ(x)

באמצעות משפט התוחלת השלמה נקבל

E[X]=pE[Y]+(1p)E[Z]

איחוד PDF ו CDF של מספר משתנים רנדומיים

JOINT PDF

P((X,Y)B)=(x,y)BfXY(x,y)dxdyP(aXbcYd)=cdabfX,Y(x,y)dxdy

השוליות:

fX(x)=fX,Y(x,y)dy

באופן דומה נקבל

fY(y)=fX,Y(x,y)dx

PDF משותף אחיד

לכל תת קבוצה S במישור הדו מימדי, הPDF המשותף האחיד על S יהיה

fXY(x,y)={1area(S)(x,y)S0else

ולכל AS ההסתברות ש(X,Y) נמצא ב A תהיה

P((X,Y)A)=area(A)area(S)

CDF משותף

FX,Y(x,y)=P(Xx,Yy)=xyfX,Y(s,t)dtds

תוחלת משותפת

E[g(X,Y)]=g(x,y)fX,Y(x,y)dxdyE[aX+bY+c]=aE[X]+bE[Y]+c

הכללה למספר משתנים מקריים

ה PDF המשותף של שלושה משתנים מקריים X,Y,Z מוגדר באופן דומה למקרה של שתי משתנים מקריים רציפים:

P((X,Y,Z)B)=(x,y,z)BfX,Y,Z(x,y,z)dxdydz

באופן דומה למקרה של שתי משנים נוכל לחלץ את הפונקציות השוליות

fX,Y(x,y)=fX,Y,Z(x,y,z)dzfX(x)=fX,Y,Z(x,y,z)dydz

התוחלת תקיים:

E[g(X,Y,Z)]=g(x,y,z)fX,Y,Z(x,y,z)dxdydz

והמקרה הפרטי הליניארי:

E[g(X,Y,Z)]=E[aX+bY+cZ]=aE[X]+bE[Y]+cE[x]

כמובן שנוכל להכליל את הנוסחה של התוחלת הנ״ל באופן ברור עבור X1,X2,,Xn משתנים מקריים רציפים:

E[i=1naiXi]=i=1naiE[Xi]

אי תלות בין משתנים מקריים רציפים

fX,Y(x,y)=fX(x)fY(y)FX,Y(x,y)=P(Xx,Yy)=P(Xx)P(Yy)=FX(x)FY(y)E[g(X)h(Y)]=E[g(X)]E[h(Y)]

אם X,Y,Z בלתי תלויים אז גם כל f(X),g(Y),h(Z) שנבחר יהיו בלתי תלויים. באופן דומה , כל 2 משתנים מקריים מהצורה g(X,Y),h(Z) הם בלתי תלויים.
למרות זאת ברוב המקרים שתי פונקציות g(X,Y),h(Y,Z) כן יהיו תלויות אחד בשני בגלל ששתיהן מושפעות מ Y .

קונבולוצייה

pZ(z)=P(X+Y=z)=xpX(x)pY(zx)fZ(z)=fX,Z(x,z)dx=fX(x)fY(zx)dx

שונות משותפת ומתאם

cov(X,Y)=E[(XE[X])(YE[Y])]cov(X,Y)=E[XY]E[X]E[Y]

תכונות השונות המשותפת

cov(X,Y)=cov(Y,X)cov(X,X)=var(X)cov(X,aY+b)=acov(X,Y)cov(X,Y+Z)=cov(X,Y)+cov(X,Z)cov(X+Y,Z)=cov(X,Z)+cov(Y,Z)cov(X,a)=0cov(X,aX+b)=avar(X)

כמו כן בהינתן ש X,Y בלתי תלויים אנחנו יודעים ש E[XY]=E[X]E[Y] ולכן יתקיים cov(X,Y)=0 .

מקדם המתאם של פירסון

ρ(X,Y)=cov(X,Y)var(X)var(Y)

השונות של סכום של משתנים מקריים

var(X1+X2)=var(X1)+var(X2)+2cov(X1+X2)var(i=1nXi)=i=1nvar(Xi)+{(i,j) | ij}cov(Xi,Xj)

משפטי גבול

אי שוויון מרקוב (Markov inequality)

P(Xa)E[X]a    for all a>0

אי שוויון צבישב (Chebyshev inequality)

יהי X משתנה מקרי עם תוחלת μ ושונות σ2 אזי

P(|Xμ|c)σ2c2    for all c>0

משלים של אי שיוויון צ׳בישב

P(|XE[X]|c)=1P(|XE[X]|c)1var(X)c2

החוק החלש של המספרים הגדולים

Mn=X1++Xnn=SnnE[Mn]=μ   var(Mn)=σ2n

הגדרה

הי X1,X2 סדרה של משתנים בלתי תלויים שמתפלגים באופן זהה עם תוחלת μ . אזי לכל ϵ>0 נקבל

P(|Mnμ|ϵ)=P(|X1++Xnnμ|ϵ)n0

משפט הגבול המרכזי

Sn=X1++Xn=nMnE[Sn]=nE[Mn]=nμvar(Sn)=var(X1)+var(X2)++var(Xn)=nσ2

נגדיר:

Zn=Snnμσn=X1++Xnnμσn

הוא בעל תוחלת 0 ושונות 1

נגדיר את משפט הגבול המרכזי באופן הבא:

limnP(Znz)=ϕ(z)

קירובים מבוססים משפט הגבול המרכזי

משפט קירוב נורמלי מבוסס משפט הגבול המרכזי:
יהי Sn=X1+X2++Xn נוכל להתייחס להסתברות P(Snc) בקירוב נורמלי באופן הבא:

  1. חשב את nμ והשונות nσ2 של Sn .
  2. חשב את הערך המנורמל z=cnμσn .
  3. תשתמש בקירוב:
P(Sc)Φ(z)