משפטי גבול

נרצה לדון ולהבין בבעיות מרכזיות שעוסקות בחסמים של סדרות של משתנים רציפים.
עיקר הדיון יעשה סביב רצף X1,X2,X3 של משתנים מקריים בלתי תלויים שמתפלגים באופן זהה עם תוחלת μ ושונות σ2 .

כעת, יהי

Sn=X1++Xn

מליניאריות התוחלת אנחנו יודעים ש E[Sn]=nμ .

הסכום של n המשתנים הראשונים. משפטי הגבול עוסקים בעיקר בתכונות של Sn ומשתנים מקריים נוספים כאשר n הוא מספר גדול מאוד. בגלל אי תלות נקבל

var(Sn)=var(X1)+var(X2)++var(Xn)=nσ2

כלומר ככל ש n גדל ההתפזרות של הערכים סביב התוחלת המשותפת גדלה ואין לה גבול שנותן לנו משמעות. הסיטואציה משתנה אם מסתכלים על הערך הממוצע

Mn=X1++Xnn=Snn

אם נחשב אנחנו נראה ש

E[Mn]=μ   var(Mn)=σ2n

כלומר עבור Mn מתקיים שהשונות שלה קרבה ל 0 ככל ש n גדל כלומר התפזרות הערכים יותר שואפת ל μ ככל שכמות הערכים שמוסיפים גדלה. אם כן הצלחנו ליצור משתנה מקרי Mn שמתכנס לתוחלת האמיתית μ באופן די מדויק.
החוקים האלה מהווים בסיס מתמטי לפרשנות של התוחלת E[X]=μ כממוצע של מספר גדול מאוד של דגימות בלתי תלויות שנלקחות מההתפזרות של X .

נסתכל גם על משתנה כמותי שמשמש כערך ביניים בין Sn ל Mn . ראשית נחסר מ Sn את nμ כדי לקבל משתנה חדש עם תוחלת 0 : Snμ . לאחר מכן נחלק אותו ב σn כדי לקבל את המשתנה המקרי

Zn=Snnμσn

אפשר לראות שמתקיים

E[Zn]=0     var(Zn)=1

זה משתנה שערכו לא משתנה לא משנה כמה פעמים נגדיל את n . משפט הגבול המכרזי בודק ושואל על ההתפזרות של Zn ועל האופן שבו הוא חוסם ומבטיח שזוהי תהיה התפלגות נורמלית.

משפטי הגבול עוזרים לנו במספר סיבות:

  1. קונספטואלית, הם נותנים לנו אינטרפטצייה לתוחלת (בנוסף להסתברויות) במונחים של רצף ארוך של משתנים מקריים זהים ובלתי תלויים , למשל לשאול המון המון אנשים את הגובה שלהם יכול להביא לנו את הגובה הממוצע באזור שבו שאלנו.
  2. הם מאפשרים לנו ניתוח מוערך של תכונות של משתנים מקריים כמו Sn . זה בניגוד לניתוח מדויק שהיה דורש נוסחה של PMF ו PDF עבור Sn שזו מטלה מאתגרת כאשר n הוא גדול מאוד
  3. יש להם תפקיד מרכזי בניתוחים סטטיסטיים כאשר יש מספר גדול מאוד של מידע.

לפני שנכנס לכל החוקים שדיברנו עליהם למעלה, שנקרא גם החוק החלש של המספרים הגדולים (WLLN), נרצה לפתח מספר אי שיוויונות שיעזרו לנו לנתח הסתברויות קצה. האי שיוויונות שנציג יהיו יעילים כאשר נוכל לחשב את הערכים המדוייקים או החסמים של התוחלת והשונות של משתנה מקרי X אבל ההתפלגות של X לא ברורה או קשה לחישוב.

אי שוויון מרקוב (Markov inequality)

האי שיוויון הראשון שנתמקד בו הוא אי שיוויון מרקוב באופן מופשט, הוא מבטיח ש אם משתנה מקרי אי שלילי הוא עם תוחלת מאוד קטנה, אז ההסתברות שיהיה לו ערך גבוה חייב להיות קטן.

יהי X משתנה מקרי אי שלילי אזי :

P(Xa)E[X]a    for all a>0

הוכחה:
יהי a>0 נגדיר משתנה מקרי Ya שמוגדר כך

Ya={0X<aaXa

מההגדרה מתקיים ש YaX תמיד ולכן

E[Ya]E[X]

מצד שני

E[Ya]=aP(Ya=a)=aP(Xa)E[X]

Pasted image 20230127221516.png|450
בתמונה ניתן לראות דוגמה לאי שיוויון זה. למעלה זה ה PDF של X משתנה מקרי אי שלילי ולמטה ה PMF של Ya . ההרכבה של Ya נעשה על ידי הפרדה בין הצפיפות של ה PDF של X בין 0 ל a על ידי שיוך ל 0 בפונקציית מסת ההסתברות, וכל מי שגדול או שווה ל a בפונקציית הצפיפות משוייך ל a. כלומר אנחנו מקטינים את המסה על ידי הזזה שמאלה ל 0 או ל a ולכן תמיד יתקיים

E[X]E[Ya]=aP(Ya=a)=aP(Xa)

דוגמה:
יהי X משתנה מתפלג אחיד באינטרוול [0,4] ונניח ש E[X]=2 . אי שיוויון מרקוב מבטיח ש

P(X2)22=1P(X3)23=0.67P(X4)24=0.5

במקרה הזה אנחנו יודעים כיצד X מתפלג ולכן נוכל לחשב ישירות ולאמת את האי שיווין

P(X2)=0.5P(X3)=0.25P(X4)=0

אם כן , האי שיווינים נכונים אבל הם יכולים להיות בטווחים גדולים מדי לעתים.

אי שוויון צבישב (Chebyshev inequality)

אי שיוויון זה, באופן מופשט, מבטיח שאם משתנה מקרי הוא עם תוחלת נמוכה, אז ההסתברות שהוא ייקח ערך שרחוק מהתוחלת שלו היא גם כן נמוכה. אי שיוויון זה לא מצריך שהמשתנה המקרי יהיה אי שלילי

יהי X משתנה מקרי עם תוחלת μ ושונות σ2 אזי

P(|Xμ|c)σ2c2    for all c>0

אפשר לראות שבאופן מתמטי זה הוא מקרה פרטי של אי שיוויון מרקוב. ובמילים המשמעות היא
אם השונות קטנה , אז X באופן סביר לא יהיה רחוק מהתוחלת . שזה מסר קצת אחר מאי שיוויון מרקוב.

הוכחה:
נגדיר משתנה מקרי (Xμ)2 ונפעיל את אי שיוויון מרקוב על a=c2 , נקבל :

P((Xμ)2c2)E[(Xμ)2]c2=σ2c2

האי שיוויון (Xμ)2c2 שקול למאורע |Xμ|c ולכן נוכל פשוט להחליף את הנ״ל בהסתברות הדרושה.

מקרה פרטי של אי שוויון צבישב יהיה מהצורה c=kσ כאשר k>0 . זה יקיים

P(|Xμ|kσ)σ2k2σ2=1k2

כלומר ההסתברות שהמרחק של X מהתוחלת להיות k פעמים השונות שלו היא לכל היותר 1k2 .

אי שיוויון צבישב נוטה להיות חזק יותר מאי שיוויון מרקוב (החסמים שהוא נותן מדוייקים יותר), בגלל שהוא משתמש במידע מהשונות של X. עדיין, השונות והתוחלת של משתנה הן רק חלק קטן מהמידע שיש לנו על משתנה מקרי ולכן אין לצפות לחסמים מדוייקים למדי.

חסם עליון של אי שיוויון צבישב

כאשר X נצמא בטווח ערכים [a,b] נאמר ש

σ2(ba)24$$כלומראם$σ2$לאיודע,נוכללהשתמשבחסםזהבמקומובאישיוויוןצבישבונקבל$$P(|Xμ|c)(ba)24c2

נוכיח את הטענה שהבאנו על החסם של σ2 , ניקח s קבוע כלשהו ונשים לב שמתקיים

E[(Xs)2]=E[X2]2E[X]s+s2

אם s=E[X] אז זה ערך מינימלי כיווון שנוכל להסתכל על הנ״ל כפונקצייה ריבועית של s ונקבל

(sE[X])2+E(X2)E(X)2

קל לראות שהמינימום של הפונקצייה הזאת מתקבל כאשר (sE[X])2=0 כלומר כאשר s=E[X]. אם כן,

σ2=E[(XE[X])2]E[(Xs)2]

אם נציב s=a+b2 נקבל

σ2E[(Xa+b2)2]=E[(Xa)(Xb)]+(ba)24(ba)24

המעבר האחרון נכון כי מהטווח ערכים של x נקבל

(xa)(xb)0

משלים של אי שיוויון צ׳בישב

נשים לב שבעזרת אי שיוויון צ׳בישב אפשר לחשב חסם תחתון להסתברות עבור מקרי האמצע בעזרת אותה נוסחה:

P(|XE[X]|c)=1P(|XE[X]|c)1var(X)c2

הוכחה:

P(|XE[X]|c)var(X)c2P(|XE[X]|c)var(X)c21P(|XE[X]|c)1var(X)c2P(|XE[X]|c)1var(X)c2

החוק החלש של המספרים הגדולים

החוק החלש של המספרים הגדולים מבטיח שממוצע המדגם של מספר גבוה של משתנים בלתי תלויים שמתפלגים באופן זהה הוא מאוד קרוב לתוחלת בסבירות גבוהה.
כפי שהראנו כבר בתחילת ההסבר

Mn=X1++Xnn=Snn

וגם

E[Mn]=μ   var(Mn)=σ2n

אם נפעיל את אי שיוויון צבישב על Mn נקבל

P(|Mnμ|ϵ)σ2nϵ2

נשים לב שלכל אפסילון חיובי צד ימי שואף ל 0 ככל שמגדילים את n. ההשלכה של זה, נותנת לנו את החוק החלש של המספרים הגדולים. נשים לב שהדרישה היחידה שצריך עבור זה היא ש E[Xi] יהיה מוגדר היטב

יהי X1,X2 סדרה של משתנים בלתי תלויים שמתפלגים באופן זהה עם תוחלת μ . אזי לכל ϵ>0 נקבל

P(|Mnμ|ϵ)=P(|X1++Xnnμ|ϵ)n0

המשמעות של זה היא שלא משנה כמה גדול n יהיה וכמה קטן ϵ יהיה ההתפלגות של Mn מרוכזת סביב התוחלת μ . בעצם זה אומר שלכל אינטרוול [μϵ,μ+ϵ] מסביב לμ , אזי יש הסתברות גבוהה ש Mn יתפלג בתוך האינטרוול הזה וככל ש n ההסתברות הזאת הולכת וקרבה ל 1.
כמובן שאם אפסילון קטן יותר ככה נצטרך יותר ערכי n כדי להגיע לתוצאה הזאת, אבל עדיין זה מובטח שזה יקרה מתישהו.

שימוש של חוק זה:

אם נבצע ניסוי שמורכב מניסויים קטנים Xi=μ+Wi כאשר Wi זוהי איזשהי הפרעה עם תוחלת של 0 כלומר E[Wi]=0 . הרעיון הוא שלמרות ההפרעות האלה עדיין נקבל ש Mn , ממוצע המדגם, ייתן בסבירות גבוהה שמרחקו יהיה קרוב ל μ . כלומר נוכל לעשות ניסויים חוזרים ורבים של אותו ניסוי ולמדל את Mn ונוכל לקבל בקירוב טוב את התוחלת

הסתברויות של תדרים:
נניח מאורע A שמוגדר בניסוי הסתברותי כלשהו ונסמן p=P(A) .
נבנה n חזרות בלתי תלויות של אותו הניסוי ונגדיר Mn להיות הממוצע של מספר הפעמים ש A התרחש בסדרת הניסויים האלה , במצב זה מגדירים את Mn להיות empirical frequency של A . אם כן,

Mn=X1++Xnn

כאשר Xi הוא משתנה אינדיקטור שמקבל 1 כאשר A קרה ו 0 אם לא. יתקיים, E[Xi]=p . המשמעות היא שככל ש n גבוה יותר ככה Mn שואף להיות בסביבה אפסילונית של p . זה אומר שיש קשר הדוק בין כמות הניסויים שנעשה לבין ההסתברות להצליח בניסוי. כלומר נוכל לפרש את ההסתברות p כ״תדירות ההתרחשות של מאורע A״.

חוק החזק של המספרים הגדולים

ישנו חוק נוסף שלא אפרט עליו כאן שנקרא, החוק החזק של המספרים הגדולים שמהדק את החוק החלש על ידי כך שהוא אומר שההסתברות שMn יהיה שווה ל μ כאשר n היא שווה ל 1. כלומר

P(limnMn=μ)=1

polling - דגימות:
יהי p שמייצג את החלק של המצביעים שתומכים שמועמד מסויים לרשות המשרד. אנחנו מראיינים n מצביעים ״שנבחרו באקראיות״ ובודקים את Mn ואת החלק ממנו שתומך במועמד הנ״ל. נרצה להסתכל על Mn כהערכה של p ונרצה לחקור את תכונותיו. נשים לב ש n המצביעין שבחרנו נבחרים באופן בלתי תלוי ואחיד ביחס לשאר האוכלוסייה. כלומר נוכל למדל כל בן אדם שעונה האם הוא מצביע למועמד או לא כמשתנה ברנולי בלתי תלוי Xi עם הסתברות להצלחה של p ושונות σ2=p(1p) .
אי שיוויון צבישב מעיד על כך ש

P(|Mnp|ϵ)p(1p)nϵ2

אומנם אנחנו לא יודעים מיהו p אבל אנחנו יודעים שלכל Xi טווח הערכים הוא בין 0 ל 1 ולכן כפי שכבר אמרנו נוכל לחסום :

p(1p)14

כלומר

P(|Mnp|ϵ)14nϵ2

כך למשל יתקיים שבהצבת ϵ=0.1 ו n=100 יתקיים

P(|M100p|0.1)141000.01=0.25

כלומר עבור דגימה של 100 אנשים ההסתברות שההערכה שלנו לא נכונה ביותר מ 0.1 היא לא יותר גבוהה מ14 . זה כבר נותן לנו מידע די אמין ומקורב להסתברות שהמועמד ייבחר , שכן בהתסברות של 0.75 שההערכה שלנו כן תהיה בדיוק של 0.1 סביב ההסתברות. נוכל להדק את ההסתברות להיות לפחות 0.95 שהערכה שלנו תהיה נכונה בסביבה אפסילונית של 0.1 סביב p . אם כן

P(|Mnp|0.01)14n(0.01)2

נרצה שיתקיים

14n(0.01)210.95=0.05

אם נחשב נקבל שהדרישה היא ל n50000 . הבחירה של n הזאת תספק אותנו אבל עדיין מוטלת בספק בגלל שהיא מובססת על אי שיוויון צבישב שהוא לא הדוק במיוחד..

משפט הגבול המרכזי

בתחילת ההסבר הגדרנו את

Sn=X1++Xn=nMn

כמובן שמתקיים

E[Sn]=nE[Mn]=nμ

נראה כי בניגוד לMn , שבה השונות שואפת ל0 , כאן השונות

var(Sn)=var(X1)+var(X2)++var(Xn)=nσ2

שואפת ל ביחס לn . ביצענו נורמליזצייה והזזה של המשתנה הזה כדי לקבל משתנה עם תוחלת 0 ושונות 1. נזכר:

Zn=Snnμσn=X1++Xnnμσn

נקבל

E[Zn]=E[X1++Xn]nμσn=0var(Zn)=var(X1++Xn)σ2n=var(X1)++var(Xn)σ2n=nσ2nσ2=1

נגדיר את משפט הגבול המרכזי באופן הבא:
יהי X1,X2, סדרה של משתנים בלתי תלויים וזהים בהתפלגותם עם תוחלת μ ושונות σ2 אזי הCDF של Zn שואף ל CDF של המשתנה הנורמלי הסטנדרטי

ϕ(z)=12πzex22dx

כלומר

limnP(Znz)=ϕ(z)

המשפט הזה חזק מאוד, כי הוא כללי מאוד. חוץ מאי תלות והעובדה שהתוחלת והשונות מוגדרים היטב וסופיים, אין שום דרישות נוספות על המשתנים האלו. הם יכולים להיות בדידים, רציפים, מעורבים וכו.
למשפט זה יש חשיבות רבה ממספר סיבות , גם תיאורתית וגם פרקטית. בצד התיאורתי , זה מעיד על כך שהסכום של מספר רב של משתנים בלתי תלויים הוא בקירוב מתפלג נורמלית וניתן להשתמש בזה בכל מצב שבו יש אפקט מקרי כלשהו שהוא הסכום של מספר גבוה של גורמים בלתי תלויים. דוגמה טובה לזה היא מידוש של רעשים והפרעות במערכות מיחשוב ובעוד מגוון רחב של תרחישים נוספים. באופן כללי, הסטטיסטיקה של רעשין והפרעות הן ממודלות היטב על ידי התפלגות נורמלית בידיוק מהסיבה הזאת.
בצד הפרקטי, משפט הגבול המרכזי מוריד את הצורך במודלים הסתברותיים מפורטים ובמניפולציות מורכבות על פונקציות הצפיפות או המסה. כל שצריך לעשות הוא לגשת לטבלת ה CDF המוכרת של ההתפלגות הנורמלית.

קירובים מבוססים משפט הגבול המרכזי

משפט הגבול המרכזי מאפשר לנו לחשב הסתברויות שקשורות ל Zn כאילו הוא היה נורמלי.
כיוון שנורמליות נשמרת תחת טרנספורמציות ליניאריות נוכל באופן שקול להסתכל על Sn כמשתנה נורמלי עם תוחלת nμ ושונות nσ2

משפט קירוב נורמלי מבוסס משפט הגבול המרכזי:
יהי Sn=X1+X2++Xn נוכל להתייחס להסתברות P(Snc) בקירוב נורמלי באופן הבא:

  1. חשב את nμ והשונות nσ2 של Sn .
  2. חשב את הערך המנורמל z=cnμσn .
  3. תשתמש בקירוב:
P(Sc)Φ(z)

דוגמה 1:
טוענים למטוס 100 חבילות שמשקלם הוא משתנה מקרי בלתי תלוי שמתפלג באחידות בין 5 ל 50 קילוגרם.
מהי ההסתברות שהמשקל הכולל של החבילות יעבור את 3000 קילוגרם?
זאת לא תהיה משימה קלה לחשב אתה CDF של כל המשקלים וההסתברות הרצויה, אבל נוכל להשיג קירוב טוב על ידי משפט הגבול המרכזי. נרצה אם כן, לחשב

S100>3000

כאשר S100 זה משקל של 100 חבילות. התוחלת והשונות של כל חבילה מחושבת לפי התוחלת והשונות של משתנה אחיד

μ=5+502=27.5    σ2=(505)212=168.75

כעת נחשב את הערך המנורמל

z=300010027.5168.75100=1.92

כעת נוכל להשתמש בCDF של משתנה מקרי נורמלי

P(S1003000)Φ(1.92)=0.9726

וההסתברות הרצויה תהיה

P(S1003000)=1P(S1003000)10.9726=0.0274

דוגמה 2:
מכונה מעבדת חלקים של מידע , חלק אחד כל פרק זמן. זמן העיבוד של החלקים השוני הם בלתי תלויים שמתפלגים באיחודים ב [1,5].
נרצה לאמוד את ההסתברות שמספר החלקים המעובדים ב320 יחידות זמן יהיה לכל הפחות 100.
באותו אופן, נשאף לחשב את N320 , יהיה קשה לחשב אותו כסכום של משתנים בלתי תלויים אבל נוכל להסתכל על הבעיה מזוויצ אחרת של סכימת פיסות המידע המעובד. אם כן כמו מקודם , נחשב את S100 שזה זמן העיבוד של 100 חתיכות המידע הראשונות, ונחליף את המאורע {N320100} במאורע השקול
{S100320} , כעת נוכל להשתמש בקירוב הנורמלי כמו מקודים כאשר התוחלת של כל Xi היא 3 והשונות היא 43 . יתקיים

z=320nμσn=32030010043=1.73

כעת נוכל לחשב את הקירוב:

P(S100320)Φ(1.73)=0.9582

polling:
נחזור לבעייתה הדגימות ממקודם. אנחנו מעוניינים בהתסברות

P(|Mnp|ϵ)

בגלל הסימטריה של התפלגות נורמלית סביב התוחלת אנחנו יודעים שאפשר להוריד את הערך המוחלט אם פשוט נכפיל פעמיים את ההסתברות בלי הערך המוחלט כלומר

P(|Mnp|ϵ)2P(Mnpϵ)

נזכיר של Mn יש תוחלת p ושונות של p(1p) . נשים לב שבמצב זה יש לנו בעיה שהשונות לא ידועה לנו כי היא תלויה ב p. אם כן, ניקח חסם עליון כלשהו על Mnp באמצעות חסם העליון על התוחלת שראינו כבר ולכן הוא יהיה 14n הסיבה בכלל שלקחנו חסם עליון היא שראינו שההסתברות הכי גדולה שהתפזרות הערכים תהיה רחוקה מהתוחלת באה לידי ביטוי כשהשונות היא הגדולה ביותר אז לקחנו את המקרה הגרוע אבל נראה שזה ייתן קירוב טוב יותר משימוש באי שיוויון צבישב. כמו כן, אם נציב בנוסחה נקבל שזה יקרה כשp=12 .

אם כן נחשב את הערך המנורמל

z=ϵ12n

ובהצבה נקבל

P(Mnpϵ)1Φ(z)=1Φ(2ϵn)

כלומר יש לנו תלות במספר האנשים שאנחנו דוגמים. למשל אם נשאל 100 אנשים ונרצה סביבה אפסילונית של 0.1 כמו בדוגמה הקודמת אזי

P(|M100p|0.1)2P(Mnp0.1)22Φ(20.1100)=22Φ(2)=220.977=0.046

זה הרבה יותר קטן ומדויק מההערכה של 0.25 שקיבלנו על ידי שימוש באי שיוויון צבישב.

כמו כן נשים לב שגם חישוב הבעיה ההפוכה הופך להיות פשוט, אם נרצה לדעת מה n צריך להיות כדי לקבל את p בקירוב של 0.95 פשוט מציבים את הגורמים הרלוונטים במשוואה ומחשבים

Warning

הקירוב הנ״ל הוא מדוייק ככל ש n שואף ל אבל בפועל אנחנו תמיד עובדים עם n סופי, והתשובה למהו הn הטוב ביותר שנוכל לקחת משתנה בין התפלגויות שונות ובעיקר כמה הההתפלגות הזאת קרובה להתפלגות נורמלית או שהיא סימטרית. למשל, עבור התפלגות אחידה כבר S8 יתאים לנו וייתן קירוב מדויק מאוד לנורמלי. אבל אם Xi הוא מעריכי נצטרך n גדול בהרבה.
למשל עבור המשתנה הבדיד שמתפלג אחיד הבא
Pasted image 20230128181215.png|350
נקבל שעבור n=2 כלומר הקונבולוצייה עם עצמו תיתן
Pasted image 20230128181323.png|350
וככל שנגדיל את n הקונבולוצייה תקבל צורה שיותר קרובה לגרף הפעמון המוכר מהנורמלי
Pasted image 20230128181511.png|500

קירוב נורמלי של משתנה בינומי

משתנה מקרי בינומי Sn עם פרמטר n ו p הוא בעצם הסכום של n משתני ברנולי בלתי תלויים X1Xn עם פרמטר משותף p. נזכר ש

μ=E[Xi]=p   σ=var(Xi)=p(1p)

נראה מה קורה כאשר משתמשים בקירוב שמשפט הגבול המרכזי נותן לנו כדי לספק קירוב טוב של ההסתברות למאורע {kSnl} , כאשר k,l הם מספרים כלשהם. אם כן אם ננרמל כפי שעשינו עד כה

kSnlknpnp(1p)Snnpnp(1p)lnpnp(1p)

לפי משפט הגבול המרכזי נקבל ש Snnpnp(1p) מקורב להפלגות נורמלית ולכן

P(kSnl)=P(knpnp(1p)Snnpnp(1p)lnpnp(1p))Φ(lnpnp(1p))Φ(knpnp(1p))

הקירוב הזה שקול ללהתייחס ל Sn כמשתנה מתפלג נורמלית עם תוחלת np ושונות np(1p)

Pasted image 20230128191331.png

התמונה למעלה מראה לנו PMF של התפלגות בינומית עם הPDF הנורמלי. אפשר לראות שהקירוב של מציאת ההסתברות בא לידי ביטוי על ידי אינטגרצייה של השטח מתחת לPDF הנורמלי , בטווח שבין k ל l שזה השטח האפור בתמונה. מצב בעייתי יכול להיות במקרה זה שאם k=l נקבל שההסתברות היא 0 ולכן תיקון של זה יהיה להשתמש בטווח k12 ל k+12 כדי לקבל קירוב של P(Sn=k) . בתמונה הימנית אפשר לראות הרחבה של הרעיון הזה באופן כללי שלוקח את הטווח [k12,l+12] כדי שיהיה אפשר לקבל קירוב טוב של הסתברות של כמו במקרה למעלה.

Info

הקירוב הטוב ביותר יהיה כאשר p12 ובמצב זה ההתפלגות הבינומית הי די סימטרית, אפשר במצב זה להגיע לקירוב מצויין כאשר n יהיה באזור ה 40 עד 50. ככל שההסתברות מתחזקת לכיוון אחד הערכים הקיצוניים, כלומר 1 או 0 ככה איכות הקירוב יורדת

De Moivre-Laplace Approximation to the Binomial

אם כן אחרי שרשמנו באופן מופשט נגדיר את הקירוב הנ״ל. אם Sn הוא משתנה המתפלג בינומית אזי

P(kSnl)Φ(l+12npnp(1p))Φ(k12npnp(1p))

דוגמה:
יהי Sn משתנה המתפלג בינומית עם פרמטר n=36 ו p=0.5 החישוב המדוייק יהיה

P(Sn21)=k=021(36k)(0.5)36=0.8785

אם נחשב את הקירוב לפי התפלגות נורמלית נקבל

P(Sn21)Φ(21npnp(1p))=Φ(21183)=Φ(1)=0.8413

אם נחשב לפי הקירוב שאמרנו למעלה (להוריד את הטווח בחצי)

P(Sn21)Φ(21.5npnp(1p))=Φ(21.5183)=Φ(1.17)=0.879

ניתן לראות שזה קירוב הרבה יותר טוב והוא גם מאפשר לנו לחשב לאמוד הסתברות לערך יחיד למשל

P(Sn=19)Φ(19.5183)Φ(18.5183)=0.68150.5675=0.124

וזה מאוד קרוב לערך המדוייק

(3619)(0.5)36=0.1251