מבוא לסטטיסטיקה היסקית

כפי שדיברנו ב סטטיסטיקה תיאורית , אנחנו אוספים מידע על מדגם מתוך אוכלוסייה. כיוון שהמידע הוא רק על מדגם ולא על האוכלוסייה כולה, צריך לבצע הסקת מסקנות כלשהי באמצעות כלים הסתברותיים.
בעצם סטטיסטיקה היסקית היא הקשר בין תורת ההסתברות לבין תהליך ההסקה.

דגימה , אוכלוסייה , מדגם הם שלושת המרכיבים העיקריים של כל בעיית הסקה.
כאשר המדגם נעשה בצורה מקרית יש בידינו כלים מתמטיים שמאפשרים לנו לקבוע את מידת הדיוק של אומדן כזה.

דגימה מקרית

דגימה מקרית של מדגם בגודל n מאוכלוסייה בגודל N היא בחירה של n איברים מתוך האוכלוסייה כך שלכל איבר באוכלוסייה יש הסתברות שווה להיכלל במדגם.

לדוגמה: פיקוד העורף מעוניין לבדוק את כשירותם של המקלטים באזור גוש דן.
האוכלוסייה תהיה כלל המקלטים בגוש דן ומתוכם יבחר פיקוד העורף מדגם יחסית קטן של 200 מקלטים בשיטת דגימה מקרית.

דוגמה נוספת: משרד התחבורה מעוניין לבדוק מהו אחוז כלי הרכב הבלתי תקינים הנעים בכבישי הארץ ולכן הוא עורף בדיקות פתח ל 1000 מכוניות שנבחרות באופן מקרי בכבישים שונים.

זאת דוגמה יחסית פשוטה. נסתכל על דוגמה מעט מבלבלת יותר,
מכון התקנים מעוניין לבדוק את איכות נורות החשמל המיוצרות במפעל מסויים, כלומר מה אחזור הנורות התקינות היוצאות מקו הייצור של המפעל.

נשאלת כאן השאלה, מי היא בכלל האוכלוסייה שכן מכון התקנים מעוניין להעריך את איכות הנורות שיווצרו בעתיד בנוסף לאלה שכבר נוצרו.

ניעזר ב משתנה מקרי ופונקציות ההסתברויות שלו, כדי לענות על השאלה הזאת.
אם כן, נוכל להגדיר משתנה מקרי אינדיקטור X ונרצה לבדוק מהי ההסתברות p=P(X=1) .
בדיקה שכזו נקראת תצפית מתוך המ״מ X.
כמובן שתצפית אחת לא תספיק ולכן יש צורך לערוך תצפיות רבות

X1,X2,,Xn

כאשר Xi מסמן את התצפית הi.
כלומר קיבלנו כאן סדרה של משתני אינדיקטור בלתי תלויים עם אותה פונקציית הסתברות ולכן

P(Xi=xi)=i=1nP(Xi=xi)

כלומר לקחנו סדרת תצפיות בלתי תלויות שהניבו ערך כלשהו בהסתברות כלשהי וביצענו חישוב מתמטי על ההסתברות של כל אחת מהתצפיות שנתנה לנו את ההסתברות הכוללת.

הגדרה

מדגם מקרי בגודל n מתוך מ״מ X הוא סדרה של n משתנים מקריים (תצפיות) X1,,Xn , בלתי תלויים, שלכל אחד מהם פונקציית הסתברות השווה לפונקציית ההסתברות של X

משפט
דגימה מקרית עם החזרה של n איברים מתוך אותה אוכלוסייה שקולה למדגם מקרי בגודל n מתוך משתנה מקרי מתאים.

נסתכל למשל על הדוגמה הראשונה עם המכוניות
נסמן את התקינות של כלי רכב כמשתנה מקרי אינדיקטור T .
נשים לב שמתקיים

P(T=0)=N(0)N

כאשר N זה מספר כלי הרכב בישראל ו N(0) זה מספר כלי הרכב הלא תקינים.
באותו אופן :

P(T=1)=N(1)N

וכמובן ש N(1)=NN(0) ולכן פונקציית ההסתברות היא

P(T=i)={1N(0)Ni=1N(0)Ni=0

כלומר היחס בין כלי הרכב הבלתי תקינים לבין כלי הרכב בישראל שקולה לפונקציית ההסתברות הרצויה.
אם כן מה שיקרה בניסוי הוא :
נדגום רכב כלשהו-->נחזיר אותו לאוכלוסיית כלי הרכב-->נדגום כלי רכב נוסף
כל דגימה תהיה Ti כאשר הדגימה האחרונה תהיה T1000 .
כיוון שמחזירים את הרכב לאוכלוסייה הרי שפונקציית ההסתברות שקולה בין כל דגימה והם בלתי תלויים זה לזה ולכן קיבלנו את השקילות שרצינו.

הערה

ההחזרה נועדה להבטיח שהאוכלוסייה הנדגמת לא תשתנה מדגימה לדגימה. אי החזרת איבר משנה את האוכלוסייה ואז התצפיות הופכות להיות תלויות.
רק כאשר הדגימה קטנה מאוד ביחס לאוכלוסייה ניתן להזניח את ההבדל הזה.

הבחנה

גם דגימה מקרית מתוך מ״מ X היא בעצם דגימה מקרית מתוך אוכלוסייה. שכן ההסתברות מתארת באיזשהו מקום שכיחות יחסית ולכן תמיד נוכל לתאר משתנה מקרי עם פונקציית הסתברות כאוכלוסייה עם N כדורים וכל ערך בפונקציית ההסתברות, הסתברותו תומר ביחס pN כאשר p זו ההסתברות המתאימה לערך x כלשהו בפונקציית ההסתברות

התפלגות דגימה

השאלה העיקרית לאחר שהבנו מהו מדגם מקרי תהיה
מה וכיצד ניתן ללמוד מהמדגם על האוכלוסייה או על המ״מ שממנו נלקח?

נדגיש כי תהליך הדגימה הוא ניסוי מקרי וכל אחת מהתוצאות Xi היא משתנה מקרי.
המשמעות היא, חזרות על תהליך הדגימה יניבו מדגמים שונים.
נרצה להסיק מתוך מדד כלשהו במדגם כל מה שניתן על המדד המתאים באוכלוסוייה.

הגדרה

למדד באוכלוסייה או במ״מ קוראים פרמטר
הפרמטר הוא גודל קבוע המאפיין את האוכלוסייה או את התפלגות המ״מ.

התוחלת למשל היא פרמטר של משתנה מקרי X בידיוק כמו שאחוז כלי הרכב הבלתי תקינים הוא פרמטר של אוכלוסיית כלי הרכב.

נעזר במה שנקרא התפלגות דגימה כדי ללמוד ממדדי המדגם (הסטטיסטים) על תכונות האוכלוסייה (הפרמטרים).

אם כן, התפלגות הדגימה של סטטיסטי מסויים (סטטיסטי יכול להיות שונות של מדגם, ממוצע של מדגם וכו׳) היא פונקציית ההסתברות שלו. התפלגות זו תלויה בצורתו המתמטית של הסטטיסטי, בגודל המדגם ובתכונות האוכלוסייה שממנה נדגם.

נגדיר מספר מונחים:

במה תלויה צורת ההתפלגות הדגימה?
א. בהתפלגות האוכלוסייה שדוגמים ממנה.
ב. בגודל המדגם. למשל אם המדגם הוא בגודל 1 אז התפלגותו תהיה זהה להתפלגות האוכלוסייה ולמדגמים בגודל כל האוכלוסייה אין כלל התפלגות דגימה.
ג. בסוג הסטטיסטי שאותו מחשבים במדגמים השונים.

לכן מקפידים לומר:
״התפלגות הדגימה של סטטיסטי מסוים, למדגמים בגודל n שנלקחו מאוכלוסייה מתוארת מסוימת״

נסתכל על דוגמה:
יש לנו אוכלוסייה של 10000 תלמידים והתפלגות הציונים כי כך
Screenshot 2023-08-02 at 18.15.13.png|400
זוהי ההתפלגות באוכלוסייה של מ״מ X המייצג את הציון באוכלוסייה. ההתפלגות ההסתברות של מ״מ X נקבעת על ידי השכיחות היחסית של כל ציון.

אם נדגום מהאוכלוסייה 10 תלמידים בדימה מקרית נקבל למשל את הנתונים הללו:

Screenshot 2023-08-02 at 18.19.02.png|250
זוהי התפלגות השכיחויות במדגם , ואף עבורה אפשר לחשב מדדים למשל x=6.9 .

אם נסתכל על מדגם בגודל 2 נקבל שהממוצע יכול לקבל רק אחד מהערכים

5,5.5,6,6.5,7,7.5,8,8.5,9

מהתפלגות האוכלוסייה אפשר לראות שבמדגם בין שני תלמידים הממוצע 9 יהיה פחות סביר מהממוצע 7.
ישנם דרכים לחשב את ההסתברות של כל ממוצע אפשרי במדגמים הללו בגודל 2 מתוך האוכלוסייה שתוארה. מה שנקבל הוא התפלגות הדגימה של הממוצע למדגמים בגודל 2 .
Screenshot 2023-08-02 at 18.22.21.png

דוגמה 2:
התוצאות של הטלת קובייה תקינה הן מ״מ X שפונקציית ההסתברות שלו היא
Pasted image 20230802224701.png|350
דגימה בגודל n מהתפלגות זו פירושה הטלת הקובייה n פעמים.
נניח שהקובייה מוטלה פעמיים ונתעניין בסטטיסטי שהוא ממוצע התוצאות של שתי ההטלות.

נגדיר n=2 ונרשום בה את ממוצעי התוצאות האפשריות של כל שתי הטלות
Screenshot 2023-08-02 at 22.51.20.png
ההסתברות לקבל כל אחד מזוגות אלו היא זהה, כיוון שיש 36 זוגות, ההסתברות לקבלת כל זוג היא 136 . לפיכך אנו יכולים לרשום את ההסתברות של כל ממוצע ולקבל את ההתפלגות של הדגימה X למדגמים בגודל 2.
Screenshot 2023-08-02 at 22.52.49.png
אם כן, זוהי התפלגות הדגימה של X עבור מדגמים בגודל 2 שנלקחו מהתפלגות התוצאות של קובייה תקינה

נסתכל על התוחלת והשונות של המ״מ של התפלגות הדגימה הנ״ל
Screenshot 2023-08-02 at 23.18.06.png
תחילה חישבנו את התוחלת של התפלגות הדגימה. לשם כך הכפלנו כל ממוצע בהסתברותו, קיבלנו מכך את הטור השלישי. סכום הטור השלישי מבטא את התוחלת, על פי הנוסחה שאנחנו מכירים

E[X]=xxP(x)=3.5

נוכל גם לחשב את השונות של המ״מ של התפלגות הדגימה עם הטבלה הנ״ל

σx2=E[XE(X)]2=P(x)[xE(X)]2

התפלגות הדגימה של הממוצע

כאמור, ממוצע המדגם X הוא מ״מ בעל פונקציית הסתברות. פונקציה זו תלויה בגודל המדגם ובמ״מ שממנו נלקח. למרות תלות זו אפשר לציין תכונות כלליות מסוימות של פונקציית ההסתברות של ממוצע המדגם.
תוחלת

E[X]=E(X1+X2++Xnn)=E(i=1n1nXi)=1ni=1nE(Xi)

נזכיר שלכל Xi יש פונקציית הסתברות זהה לזו של המשתנה X שעליו נערכות התצפיות. ולכן E(Xi)=E(X) כלומר מתקיים ש

E(X)=1ni=1nE(X)=nE(X)1n=E(X)

ובמילים: תוחלת הסטטיסטי ״ממוצע המדגם״ שווה לתוחלת המ״מ שממנו דוגמים.

אם X הוא מ״מ המתאים להתפלגות של גודל מסוים, X, באוכלוסייה נתונה (גובה, גיל, משקל וכו׳), הרי E(X) הוא בידיוק ממוצע האוכלוסייה והשוויון הנ״ל אומר ש בדגימה מקרית מאוכלוסייה, תוחלת ממוצע המדגם שווה לממוצע באוכלוסייה.
אם נחשב את התוחלת של דוגמת הקוביות ממקודם נקבל E(X)=3.5 שזה בידיוק התוחלת של הטלה בודדת E(X) , שזה גם בידיוק הממוצע של ההטלות השונות 1+2+3+4+5+66=3.5 .

נשים לב, במדגמים שונים מאותה אוכלוסייה יכולים להתקבל ממוצעי מדגם שונים, אך אם נדגום הרבה מאוד מדגמים ובכל אחד מהם נחשב את הממוצע, אזי ממוצע הממוצעים יהיה קרוב מאוד לממוצע האוכלוסייה.
אנחנו רוצים להבין אם כן, מהי הסבירות שממוצע המדגם שלנו סטה בהרבה מממוצע האוכלוסייה.
מכיוון שממוצע האוכלוסייה זהה לממוצע הממוצעים (E(X)) אז אנחנו שואלים מהי הסבירות שממוצע המדגם שלנו יהיה רחוק מהתוחלת שלו שהיא E(X) .

אם כן, שואלים על מידת הפיזור של התפלגות הדגימה של הממוצע.
מדד הפיזור המקובל ביותר הוא השונות ולכן נחשב את השונות על התפלגות הדגימה של הממוצע

σX2=V(X)=V[1ni=1nXi]=1n2V(i=1nXi)

המעבר האחרון נובע מכך ש V(aX)=a2V(X)

אנחנו יודעים ש השונות של סכום משתנים בלתי תלויים שווה לסכום של השונויות שלהם . כיוון שכל Xi בלתי תלויים אחד בשני ובפרט הם מקיים שיש להם את אותה פונקציית הסתברות ותוחלת למשתנה המקרי שממנו הם נדגמו אזי גם את אותה השונות ולכן

V(X)=1n2[nV(X)]=V(X)n

ובעצם נקבל סך הכל ש

σX2=1σX2σX=1nσX

ובמילים: סטיית התקן של ממוצע המדגם שווה לסטיית התקן של המ״מ שממנו דגמנו, מחולקת בשורש הרובעי של גודל המדגם.

המסקנה העיקרית היא שכככל שהמדגם גדול יותר כך שונות ממוצע המדגם קטנה יותר, ושעל ידי בחירת מדגם גדול נוכל להקטין שונות זו כרצוננו.
בתצורה גרפית ניתן לראות שפונקציית הצפיפיות של X תהיה מרוכזת יותר ויותר בקרבת הממוצע ככל שגודל המדגם עולה.

למשל עבור n3>n2>n1 :
Screenshot 2023-08-02 at 23.36.31.png|450

לגודל סטיית התקן יש השפעה ישירה על ההסתברות שהמשתנה המקרי יקבל ערכים רחוקים מהתוחלת. למשל ההסתברות שממוצע המדגם X יקבל ערך גדול או שווה ל a , P(Xa) , שווה לשטח המקווקו מתחת לפונקציית הצפיפות שבתרשים הנ״ל.
הסתברות זו הולכת וקטנה ככל שסטיית התקן קטנה. כלומר ממוצע המדגם בתרשים השלישי יהיה בסבירות גבוה הרבה יותר קרוב לתוחלת E(X)

המסקנה הזו מכונה חוק המספרים הגדולים וביטויה הכמותי מבוסס על מה שמכונה אי שיוויון צ׳בישב .

אי-שיוויון צ׳בישב

לכל משתנה מקרי X בעל תוחלת μ ושונות σ2 ולכל מספר חיובי k מתקיים:

P(μkσ<X<μ+kσ)11k2

ביטוי שקול יכול להיות:

P(|Xμ|<kσ)11k2

והמשלים:

P(|Xμ|kσ)1k2

למשל עבור k=2 נקבל P(X(μ2σ,μ+2σ))114=34 ומשמעות הדבר היא שבהתסברות 34 לפחות יקבל X ערך המרוחק מן התוחלת μ בפחות משתי סטיות תקן.
Screenshot 2023-08-03 at 0.58.55.png|350

ככל ש k גדול יותר הסביבה סביב התוחלת גדול יותר. כלומר הרווח מתרחב וההסתברות להיות בשטח הזה גדלה יותר. הגדולה של אי שיוויון צ׳בישב היא בכך שישנה הערכה כמותית לקצב הגידול של ההסתברות זו עם גידול k של: הסתברות זו היא לפחות 11k2 .

דוגמה:
התפלגות מנות המשכל של סטודנטים הלומדים בבר אילן היא בעלת ממוצע μ=120 וסטית תקן σ=8 . נשתמש באש״צ כדי למצוא תחום שבו נמצאות מנות המשכל של לפחות 34 מהסטודנטים. נסמן ב Y את מנת המשכל של סטודנט הנבחר באופן מקרי. Y הוא מ״מ בעל תוחלת μ=120 וסטיית תקן σ=8. אנו מעוניינים בתחום שעבורו קיים 11k2=34 כלומר k=2
אם נציב k=2 נקבל

P(Y(104,136))34

כלומר מנת המשכל של לפחות 34 מהסטודנטים נמצאת בתחום שבין 104 ל 136.

הבחנה

אי שיוויון צ׳בישב נכון לכל מ״מ בעל שונות סופית, ללא כל קשר לפונקציית ההסתברות שלו. מכאן נובע יתרונו הגדול- אפשר להפעילו מבלי לדעת את פונקציית ההסתברות שלו. מכאן נובע יתרונו הגדול- אפשר להפעילו מבלי לדעת את פונקציית ההסתברות. נשים לב שבגלל שהוא כל כך כללי הוא לא מפורט במידה מספקת. למשל, הוא לא נותן לנו הערכה משמעותית לגבי ההסתברות בקירוב של פחות מסטיית תקן אחת.

כעת, נפעיל את אי שיוויון צ׳בישב כדי ללמוד על ההתנהגות של ממוצע המדגם

X=1n(X1++Xn)

מהכלים שלמדנו על ההתנהגות של השונות והתוחלת של ממוצע המדגם נקבל כי

P(μkσn<X<μ+kσn)11k2

חוק המספרים הגדולים

נשים לב שאת k נוכל לבחור כרצוננו.
עבור כל גודל חיובי קטן כרצוננו, ε , נבחר את k כך kεnσ . נציב בנוסחה למעלה ונקבל

P(με<X<μ+ε)1σ2ε2n

כעת נוכל לקרב את גודל האגף בימין ל 1 כרצוננו על ידי הגדלת n שזה גודל המדגם. כלומר, נוכל לגרום לכך שבהסתברות קרובה ל 1 יימצא ממוצע המדגם קרוב ל μ עד כדי ε לכל היותר.
חוק זה נקרא חוק המספרים הגדולים שמבטיח לנו שעל ידי בחירת מדגם גדול כל צורכו נוכל להיות כמעט בטוחים שהממוצע שלו יהיה קרוב מאוד לממוצע האולכוסייה.

באופן מתמטי מדוייק יותר מתקיים

limnP(με<X<μ+ε)1

אבל הסתברות היא תמיד קטנה מ1 ולכן

limnP(με<X<μ+ε)1

וסך הכל מכללי אי שיוויון מתקיים

limnP(με<X<μ+ε)=1

מסקנה חשובה
נתבונן בניסוי מקרי כלשהו, יהי A מאורע הקשור בו בעל הסתברות p וערכו 0 אם תוצאת הניסוי אינה ב A בהסתברות 1p כלומר נוכל למדל את פונקציית ההסתברות באמצעות משתנה אינדיקטור X. התוחלת שלו היא p ושונותו היא p(1p) .

נסתכל על ממוצע המדגם X :
Xi=1 פירושו שבחזרה ה i התקבלה תוצאה הכלולה ב A. לפיכך, הסכום i=1nXi הוא מספר הפעמים שבהן התקבלה תוצאה הכלולה בA. מספר זה הוא השכיחות של A שמסומן גם ב f(A) לכן ממוצע המדגם הוא

X=f(A)n=1ni=1nXi

וזוהי בידיוק השכיחות היחסית של A ב n החזרות.
עתה, נתבונן במדגם של n תצפיות מתוך X. כלומר, n משתנים מקריים X1++Xn בלתי תלויים ולכל אחד התפלגות זהה לזו של X.
לפי אי שיוויון צבישב יתקיים על ממוצע המדגם:

P(X(pε,p+ε))1p(1p)ε2n

נוכל גם לרשום את זה כך

P(|Xp|<ε)1p(1p)ε2n

ולגבי המאורע המשלים

P(|Xp|ε)p(1p)ε2n

נשים לב כי לכל 0p1 מתקיים p(1p)14 ולכן

P(|Xp|ε)p(1p)ε2n14ε2n

ואם נציב במקום X את מה שקיבלנו נקבע

P(|1nf(A)p|ε)p(1p)ε2n14ε2n

במילים: אם מבצעים n חזרות בלתי תלויות על אותו ניסוי, ההסתברות שהשכיחות היחסית של הופעת מאורע מסויים A תהיה שונה מהסתברותו p ביותר מאשר ε קטנה מהביטוי שבאגף ימין. ביטוי זה קטן ככל שמגדילים את n.

אפשר לומר שעם עליית מספר החזרות, שואפת השכיחות היחסית של הופעת מאורע להסתברותו. עובדה זו נקראת התופעה האמפירית אשר שימשה לנו השראה לבניית המודל של תורת ההסתברות

דגימה מתוך התפלגות נורמלית

ציינו שאי-שיוויון צ׳בישב הוא גס למדי ובדרך כלל אינו מעניק מידע מספיק. נרצה להעזר בכלים מתמטיים חזקים יותר כדי לקבל מידע מפורט יותר על האוכלוסייה ממדגם בודד.

כמו כן, חסרון נוסף של הערכות לפי אש״צ היא בכך שאלו הערכות הסתברותיות בטווחים סימטרים סביב התוחלת. לעתים נתעניין בהסתברות מאורעות שאינם מן הצורה הזו דווקא. למשל, נרצה לדעת מהי ההסתברות שממוצע המדגם יהיה במרחק שבין סטיית תקן אחת לבין שתי סטיות תקן מעל לתוחלת האוכלוסייה.

למעשה, היינו רוצים לדעת בנוסף לתוחלת ולסטיית התקן של ממוצע המדגם , גם את פונקציית ההסתברות שלו. באמצעות פונקציית הצפיפות ניתן לחשב בידיוק את ההסתברות של כל מאורע על ממוצע המדגם.
Screenshot 2023-08-03 at 13.11.46.png|350

השטח המקווקו הוא הסתברות כפי שאנחנו מכירים ממשתנים מקריים רציפים והשטח המקווקו בתמונה למעלה אינו ניתן להערכה באמצעות אש״צ.

קשה מאוד לחשב את פונקציית ההתפלגות אבל במקרה מיוחד של התפלגות נורמלית הדבר אכן אפשרי.

תזכורת: התפלגות נורמלית
זאת פונקציה דמויית פעמון שיש לה שני פרמטרים: תוחלת μ וסטיית תקן σ. היא סימטרית סביב התוחלת וככל שסטיית התקן גדלה, העקומה נעשית נמוכה ושטוחה יותר.
Pasted image 20230104022744.png|300
מכל התפלגות נורמלית של משתנה מקרי X בעלת תוחלת μ וסטיית תקן σ אפשר לעבור להתפלגות נורמלית סטנדרטית (תוחלת 0 וסטיית תקן 1).
נוכל לעשות זאת באמצעות ציון תקן ZX=Xμσ.
נזכיר גם שמסמנים ב Φ(z) את ההתפלגות המצטברת של התפלגות נורמלית סטנדרטית. וישנה טבלת ערכים שמאפשרת לנו לחשב זאת

Pasted image 20230104022924.png|600
כמו כן, נזכיר את התכונה ש ϕ(z)=1ϕ(z) .

משפט

בדגימת מדגם שגודלו n מתוך מ״מ נורמלי X בעל תוחלת μ ושונות σ יהיה ממוצע המדגם X גם הוא מ״מ נורמלי, בעל תוחלת μ ושונות σ2n
כלומר: XN(μ,σ2)XN(μ,σ2n)

כלומר נוכל לקחת פרמטר מתפלג נורמלי מהאוכלוסייה ויתקיים עבור ממוצע המדגם שלו XN(μ,σ2n) ואת זה נוכל לנרמל ולקבל ZX=XμσnN(0,1)

Screenshot 2023-08-03 at 13.33.05.png|450

משפט הגבול המרכזי

ראינו כמה דברים שאפשר לומר על התפלגות הדגימה של X:
א. תוחלת התפלגות זו שווה לתוחלת X, כלומר E(X)=E(X)
ב. שונות התפלגות זו שווה לשונות X חלקי גודל המדגם n
ג. ממוצע המדגם מתפלג נורמלית אם X מתפלג נורמלית.

מסתבר, שגם אם X אינו מתפלג נורמלית עדיין ההתפלגות של X קרובה עד מאוד להתפלגות נורמלית בתנאי שנבחר גודל מדגם n גדול במידה מספקת.

הרעיון זה שאם נבחר מדגם גדול ונחזור על הדגימה פעמים רבות מאוד ונרשום בכל פעם את X, אזי כאשר נערוך את כל התוצאות X בהיסטורגמה, היא תהיה קרובה מאוד להתפלגות נורמלית.

משפט הגבול המרכזי

יהי X מ״מ כלשהו בעל תוחלת μ וסטיית תקן σ , ויהיו X1,X2,,Xn מ״מ בלתי תלויים בעלי התפלגות זהה ל X . אזי ההתפלגות של הממוצע X=1n(X1++Xn) שואפת ל N(μ,σn) כאשר n שואף ל .

במונחים של גבולות נקבל

limnP(Xμσn<α)=Φ(α)

זהו אחד המשפטים ההסתברותיים החשוב ביותר לסטטיסטיקה.
הוא מאפשר לנו לחשב הסתברויות הנוגעות לממוצע המדגם הלקוח מתוך מ״מ או מאוכלוסייה כלשהי, גם כאשר המשתנה הנחקר אינו בעל התפלגות נורמלית דווקא, כפי שקורה ברוב המקרים המעשיים. באופן מעשי מתברר שגודל מספיק הוא יותר מ 30.