Mời các bạn cùng tham khảo nội dung bài giảng Bài 2: Luật số lớn sau đây để tìm hiểu về luật yếu số lớn, luật mạnh số lớn.
Tóm tắt lý thuyết
1. Luật yếu số lớn
Như ta đã thấy ở các phần trước, không thể dự đoán trước một cách chắc chắn đại lượng ngẫu nhiên sẽ nhận giá trị nào trong các giá trị có thể nhận của nó khi thực hiện phép thử, vì điều đó phụ thuộc vào rất nhiều nguyên nhân mà ta không thể tính hết được. Nhưng nếu ta xét đồng thời một số lớn các đại lượng ngẫu nhiên thì tính “ngẫu nhiên“ của hiện tượng mất đi và qui luật tất nhiên của nó được thể hiện. Những điều kiện trong đó tác động của nhiều nguyên nhân ngẫu nhiên sẽ dẫn đến kết quả gần như không phụ thuộc gì vào các các yếu tố đó được nêu ra trong các định lý có tên là luật số lớn.
1.1 Định lý Chebyshev
Nếu các đại lượng ngẫu nhiên X1, X2, . . . , Xn độc lập từng đôi, có kỳ vọng toán hữu hạn và các phương sai đều bị chặn trên bởi hằng số \(C\left[ {V{\rm{ar}}\left( {{X_i}} \right) \le C;{\forall _i} = \overline {1,n} } \right]\) thì \(\forall \varepsilon > 0\) bé tùy ý cho trước ta luôn có:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i} - \frac{1}{n}\sum\limits_{i = 1}^n {E\left( {{X_i}} \right)} } } \right| < \varepsilon } \right) = 1\)
Chứng minh: Xét đại lượng ngẫu nhiên: \(\overline X = \frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} \)
Ta có:
\(E(\overline X ) = E\left( {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right) = \frac{1}{n}\sum\limits_{i = 1}^n {E\left( {{X_i}} \right)} \)
\(V{\rm{ar}}(\overline X ) = V{\rm{ar}}\left( {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right) = \frac{1}{{{n^2}}}\sum\limits_{i = 1}^n {V{\rm{ar}}\left( {{X_i}} \right)} \)
Áp dụng bất đẳng thức Chebyshev cho đại lượng ngẫu nhiên \(\overline X \) ta có:
\(P\left( {\left| {\overline X - E(\overline X )} \right| < \varepsilon } \right) \ge 1 - \frac{{V{\rm{ar}}(\overline X )}}{{{\varepsilon ^2}}} = 1 - \frac{{\sum {V{\rm{ar}}({X_i})} }}{{{n^2}.{\varepsilon ^2}}}\)
Theo giả thiết: \(V{\rm{ar}}({X_i}) \le C\,\,(\forall i = \overline {1,n} )\). Do đó, trong biểu thức trên, nếu ta thay mỗi \(V{\rm{ar}}({X_i})\,\,(i = \overline {1,n} )\) bằng C thì bất đẳng thức sẽ chỉ mạnh thêm.
\(P\left( {\left| {\overline X - E(\overline X )} \right| < \varepsilon } \right) \ge 1 - \frac{{nC}}{{{n^2}.{\varepsilon ^2}}} = 1 - \frac{C}{{n.{\varepsilon ^2}}}\)
Lấy giới hạn cả hai vế khi \(n \to \infty \) ta có:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {\overline X - E(\overline X )} \right| < \varepsilon } \right) \ge \mathop {Lim}\limits_{n \to \infty } \left( {1 - \frac{C}{{n.{\varepsilon ^2}}}} \right) = 1\)
Ta chú ý rằng, xác suất của biến cố không thể lớn hơn 1. Do đó:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {\overline X - E(\overline X )} \right| < \varepsilon } \right) = 1\)
Đó là điều cần phải chứng minh.
- Trường hợp riêng của định lý Chebyshev
Nếu X1, X2,..., Xn là các đại lượng ngẫu nhiên độc lập từng đôi, có cùng kỳ vọng toán, \(\left[ {E({X_i}) = a\left( {\forall i = \overline {1,n} } \right)} \right]\) thì \(\forall \varepsilon > 0\) bé tùy ý ta luôn có:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i} - a} } \right| < \varepsilon } \right) = 1\)
Bản chất của định lý Chebyshev
- Định lý Chebyshev đã chứng tỏ sự ổn định của trung bình số học của một số lớn các đại lượng ngẫu nhiên xung quanh trung bình số học các kỳ vọng toán của các đại lượng ngẫu nhiên ấy.
- Như vậy, mặc dù từng đại lượng ngẫu nhiên độc lập có thể nhận giá trị sai khác nhiều so với kỳ vọng toán của chúng, nhưng trung bình số học của một số lớn các đại lượng ngẫu nhiên lại nhận giá trị gần bằng trung bình số học của các kỳ vọng toán của chúng với xác suất rất lớn. Điều đó cho phép dự đoán giá trị trung bình số học của đại lượng ngẫu nhiên.
- Trong thực tế, định lý Chebyshev được ứng dụng rộng rãi trong nhiều lĩnh vực. Chẳng hạn, trường hợp riêng của nó là cơ sở cho phương pháp đo lường trong vật lý. Như chúng ta đều biết, để xác định một đại lượng nào đó, người ta thường tiến hành đo nhiều lần và lấy trung bình số học của các kết quả đo ấy làm giá trị thực của đại lượng cần đo.
- Thật vậy: ta có thể coi kết quả của n lần đo là các đại lượng ngẫu nhiên X1, X2, .... Xn. Các đại lượng này độc lập từng đôi, có cùng kỳ vọng toán (kỳ vọng toán của các đại lượng ngẫu nhiên này chính là giá trị thực của đại lượng cần đo) và phương sai của chúng đều bị chặn trên bởi chính độ chính xác của thiết bị dùng để đo. Vì thế, theo trường hợp riêng của định lý Chebyshev thì trung bình số học của các kết quả đo sẽ sai lệch rất ít so với giá trị thực của đại lượng cần đo và điều đó xảy ra với xác suất gần bằng 1.
- Định lý Chebyshev còn là cơ sở cho một phương pháp được áp dụng rộng rãi trong thống kê là phương pháp mẫu mà thực chất là dựa vào một mẫu khá nhỏ ta có thể kết luận về toàn bộ tập hợp các đối tượng cần nghiên cứu.
1.2 Định lý Bernoulli
Nếu Fn là tần suất xuất hiện biến cố A trong n phép thử độc lập và p là xác suất xuất hiện biến cố trong mỗi phép thử đó thì với mọi \(\varepsilon \) dương bé tùy ý, ta luôn luôn có:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {{F_n} - p} \right| < \varepsilon } \right) = 1\)
Chứng minh: Gọi X là số lần xuất hiện biến cố A trong n phép thử độc lập. \({X_i}(i = \overline {1,n} )\) là số lần xuất hiện biến cố A trong phép thử thứ i. Dễ thấy rằng Xi có phân phối xác suất như sau:
Xi | 0 | 1 |
P | q | p |
Trong đó:
q = 1 - p; Ta thấy \(X = \sum\limits_{i = 1}^n {{X_i}} \)
\(E({X_i}) = 0.q + 1.p = p \Rightarrow E(X) = E\left( {\sum\limits_{i = 1}^n {{X_i}} } \right) = \sum\limits_{i = 1}^n {E\left( {{X_i}} \right)} = np\)
\(V{\rm{ar(}}{{\rm{X}}_i}) = E(X_i^2) - {\left[ {E({X_i})} \right]^2} = p - {p^2} = p(1 - p) = p.q\)
\(\Rightarrow V{\rm{ar(X}}) = V{\rm{ar}}\left( {\sum\limits_{i = 1}^n {{X_i}} } \right) = \sum\limits_{i = 1}^n {V{\rm{ar}}\left( {{X_i}} \right)} = npq\)
Xét đại lượng ngẫu nhiên \({F_n} = \frac{X}{n}\).Ta thấy Fn chính là tần suất xuất hiện biến cố A trong n phép thử độc lập:
\(E({F_n}) = E\left( {\frac{X}{n}} \right) = \frac{1}{n}E(X) = \frac{1}{n}n.p = p\)
\(V{\rm{ar}}({F_n}) = V{\rm{ar}}\left( {\frac{X}{n}} \right) = \frac{1}{{{n^2}}}V{\rm{ar}}(X) = \frac{{n.p.q}}{{{n^2}}} = \frac{{p.q}}{n}\)
Áp dụng bất đẳng thức Chebyshev cho đại lượng ngẫu nhiên Fn ta có:
\(P\left( {\left| {{F_n} - p} \right| < \varepsilon } \right) \ge 1 - \frac{{p.q}}{{n.{\varepsilon ^2}}}\)
Lấy giới hạn cả 2 vế khi \(n \to \infty \) ta có:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {{F_n} - p} \right| < \varepsilon } \right) \ge \mathop {Lim}\limits_{n \to \infty } \left( {1 - \frac{{p.q}}{{n{\varepsilon ^2}}}} \right) = 1\)
Mặt khác, vì xác suất không thể lớn hơn 1, do đó:
\(\mathop {Lim}\limits_{n \to \infty } P\left( {\left| {{f_n} - p} \right| < \varepsilon } \right) = 1\)
Ý nghĩa:
Định lý Bernoulli chứng minh sự hội tụ theo xác suất của tần suất xuất hiện biến cố trong n phép thử độc lập về xác suất hiện biến cố đó trong mỗi phép thử khi số phép thử tăng lên vô hạn. Nó chứng tỏ sự ổn định của tần suất xung quanh giá trị xác suất của biến cố đó. Định lý Bernoulli là cơ sở lý thuyết cho định nghĩa thống kê của xác suất trong thực thế.
1.3 Định lý Khinchine
Nếu dãy các đại lượng ngẫu nhiên X1, X2,...,Xn... độc lập có cùng phân phối và tồn tại \(E({X_i}) = \mu \) hữu hạn thì:
\(\overline X = \frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} \mu \)
Nhận xét: Với giả thiết X1, X2,...độc lập có cùng phân phối ta không cần giả thiết về Var(Xi) như định lý Chebyshev.
2. Luật mạnh số lớn
2.1 Định lý Borel
Giả sử \(\frac{k}{n}\) là tần suất xuất hiện biến cố A trong n phép thử độc lập và p là xác suất của biến cố A.
Ý nghĩa:
Với n đủ lớn thì \(\forall \varepsilon > 0\), ta có: \(\left| {\frac{k}{n} - p} \right| < \varepsilon \) với xác suất 100%
Hay với n đủ lớn thì hầu chắc chắn tần suất xấp xỉ xác suất.
2.2 Định lý Kolmogorov
Giả sử dãy các đại lượng ngẫu nhiên X1, X2,...Xn...độc lập sao cho \(E({X_i}) = {\mu _i}\) và \(V{\rm{ar}}({X_i}) = \sigma _i^2\).
Hệ quả 1: Nếu X1, X2, ... Xn ... là dãy các đại lượng ngẫu nhiên độc lập có phương sai bị chặn bởi hằng số c thì dãy đó tuân theo luật mạnh số lớn.
Hệ quả 2: Nếu X1, X2, ... Xn ... là dãy các đại lượng ngẫu nhiên độc lập có \(E({X_i}) = \mu ,V{\rm{ar}}({X_i}) = {\sigma ^2}\) hữu hạn thì
2.3 Định lý giới hạn trung tâm
Giả sử X1, X2,..., Xn,... là các đại lượng ngẫu nhiên độc lập và có cùng phân phối xác suất. \(E({X_i}) = \mu ,V{\rm{ar}}({X_i}) = {\sigma ^2},\forall i\),
Tức là: với n khá lớn thì tổng các đại lượng ngẫu nhiên độc lập, có cùng phân phôi xác suất sẽ có phân phối chuẩn với \(E({X}) = n\mu \,và\,V{\rm{ar}}({X}) =n {\sigma ^2}\)
Rất khó nói n là bao nhiêu thì X có phân phối xấp xỉ phân phối chuẩn là tốt. Người ta thấy nếu phân phối của các đại lượng ngẫu nhiên Xi là đối xứng thì n > 20 là đủ. Trường hợp phân phối của Xi càng bất đối xứng thì n càng phải lớn thì mới cho xấp xỉ chuẩn tốt. Trong thực hành người ta thường lấy \(n \ge 30\)
Ý nghĩa:
- Xi là các đại lượng ngẫu nhiên độc lập dù rời rạc hay liên tục có cùng phân phối xác suất nào đó thì tổng của một số lớn các đại lượng ngẫu nhiên là đại lượng ngẫu nhiên \(X(X = \sum\limits_{i = 1}^n {{X_i})} \) sẽ có phân phối xấp xỉ phân phối chuẩn. Điều này giải thích tính phổ biến của phân phối chuẩn trong thực tế.
- Các định lý giới hạn địa phương và giới hạn tích phân Moivre - Laplace là trường hợp đặc biệt của định lý giới hạn trung tâm. Trong đó Xi (i = 1, 2,..n) là số lần xảy ra biến có A trong phép thử thứ i. Đối với mọi i ta đều có: \({X_i} \sim B(1,p).E({X_i}) = p,V{\rm{ar}}({X_i}) = pq\). X là số lần xảy ra biến cố A trong n phép thử độc lập thì \(X = \sum\limits_{i = 1}^n {{X_i}} \) và X có phân phối xấp xỉ N(np, npq)
- Tổng quát, người ta thấy rằng \(X = \sum\limits_{i = 1}^n {{X_i}} \) , với n đủ lớn và mỗi Xi có ảnh hưởng nhỏ đến tổng chung thì \(X \sim N(\mu ,{\sigma ^2})\), trong đó \(\mu = E(X)\) và \({\sigma ^2} = V{\rm{ar}}(X)\).
- Chẳng hạn, các sai số của phép đo trong vật lý thường do tổng ảnh hưởng của nhiều đại lượng ngẫu nhiên, mà mỗi đại lượng ngẫu nhiên ảnh hưởng không đáng kể, nên sai số trong phép đo sẽ có phân phối xấp xỉ chuẩn.
- Hoặc trong sản xuất hàng loạt, kích thước tiêu chuẩn của sản phẩm thường là kỳ vọng toán của kích thước thực tế. Kích thước thực tế thường cũng do nhiều yếu tố tác động mà mỗi yếu tố ảnh hưởng không đáng kể nên kích thước thực tế của một loại sản phẩm sẽ là đại lượng ngẫu nhiên có phân phối xấp xỉ chuẩn.