Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

$ \ beingroup $

Tôi có hai mẫu bị lệch rất nhiều và đang cố gắng sử dụng bootstrapping để so sánh phương tiện của chúng bằng cách sử dụng thống kê T.

Quy trình chính xác để làm điều đó là gì?


Quá trình tôi đang sử dụng

Tôi lo ngại về sự phù hợp của việc sử dụng sai số tiêu chuẩn của dữ liệu gốc/được quan sát trong bước cuối cùng khi tôi biết rằng điều này không được phân phối bình thường.

Đây là các bước của tôi:

  • Bootstrap - Mẫu ngẫu nhiên có thay thế (n = 1000)
  • Tính toán T-thống kê cho mỗi bootstrap để tạo ra phân phối T: $$ t (b) = \ frac {(\ Overline {x} _ {B1}-\ Overline {x} _ {B2})- X} _1- \ Overline {x} _2)} {\ sqrt {\ sigma^2_ {xb1}/n + \ sigma^2_ {xb2}/n}} $$
  • Ước tính khoảng tin cậy T bằng cách nhận $ \ alpha/2 $ và $ 1- \ alpha/2 $ phần trăm của phân phối T
  • Nhận khoảng tin cậy thông qua:

    $$ ci_l = (\ Overline {x} _1- \ Overline {x} _2)-t \ _ {ci_l} .se_ {gốc Lên

  • Hãy xem khoảng thời gian tin cậy rơi để xác định xem có sự khác biệt đáng kể về phương tiện (nghĩa là không phải

Tôi cũng đã xem xét tổng cấp bậc Wilcoxon nhưng nó không cho kết quả rất hợp lý do phân phối rất sai lệch (ví dụ: phần trăm thứ 75 == phần trăm thứ 95). Vì lý do này, tôi muốn khám phá thử nghiệm t bootstrapping hơn nữa.

Vì vậy, câu hỏi của tôi là:

  1. Đây có phải là một phương pháp thích hợp?
  2. Có thích hợp không khi sử dụng SE của dữ liệu quan sát được khi tôi biết nó bị sai lệch rất nhiều?

Có thể trùng lặp: Phương pháp nào được ưa thích, kiểm tra bootstrapping hoặc thử nghiệm dựa trên thứ hạng không theo tỷ lệ?

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Hỏi ngày 4 tháng 4 năm 2014 lúc 13:33Apr 4, 2014 at 13:33

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

$ \ endgroup $

3

$ \ beingroup $

Tôi sẽ chỉ làm một bài kiểm tra bootstrap thông thường:

  • Tính toán thống kê T trong dữ liệu của bạn và lưu trữ nó
  • Thay đổi dữ liệu sao cho null-hypothesis là đúng. Trong trường hợp này, trừ trung bình trong nhóm 1 cho nhóm 1 và thêm giá trị trung bình tổng thể và làm tương tự cho nhóm 2, theo cách đó, phương tiện trong cả hai nhóm sẽ là trung bình tổng thể.
  • Lấy các mẫu bootstrap từ bộ dữ liệu này, có thể theo thứ tự 20.000.
  • Tính toán thống kê T trong mỗi mẫu bootstrap này. Sự phân phối của các thống kê T này là ước tính bootstrap của phân phối lấy mẫu của thống kê T trong dữ liệu sai lệch của bạn nếu chất phụ lục null là đúng.
  • Tỷ lệ của các thống kê T bootstrap lớn hơn hoặc bằng với thống kê T được quan sát của bạn là ước tính của bạn về giá trị $ P $. Bạn có thể làm tốt hơn một chút bằng cách nhìn vào $ ($ số lượng thống kê T bootstrap lớn hơn hoặc bằng với thống kê T được quan sát $+1) $ chia cho $ ($ số lượng mẫu bootstrap $+1) $. Tuy nhiên, sự khác biệt sẽ nhỏ khi số lượng mẫu bootstrap lớn.$p$-value. You can do a bit better by looking at $($the number of bootstrap t-statistics that are larger than or equal to the observed t-statistic $+1)$ divided by $($the number of bootstrap samples $+1)$. However, the difference is going to be small when the number of bootstrap samples is large.

Bạn có thể đọc thêm về điều đó trong:

  • Chương 4 của A.C. Davison và D.V. Hinkley (1997) Phương pháp bootstrap và ứng dụng của chúng. Cambridge: Nhà xuất bản Đại học Cambridge.

  • Chương 16 của Bradley Efron và Robert J. Tibshirani (1993) Giới thiệu về Bootstrap. Boca Raton: Chapman & Hall/CRC.

  • Nhập cảnh Wikipedia trên thử nghiệm giả thuyết bootstrap.

dfrankow

3.0966 Huy hiệu vàng30 Huy hiệu bạc41 Huy hiệu Đồng6 gold badges30 silver badges41 bronze badges

Đã trả lời ngày 4 tháng 4 năm 2014 lúc 15:08Apr 4, 2014 at 15:08

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Maarten BuismaArten BuisMaarten Buis

Phù hiệu Huy hiệu Bạc 19.8k3131 silver badges60 bronze badges

$ \ endgroup $

3

Nội dung

  • Ví dụ về các ứng dụng của phương thức bootstrap
  • Ví dụ 1: Bootstrapping thay vì thử nghiệm t (với kích thước mẫu không đồng đều)
  • Ví dụ 2: Bootstrapping trên một 'chỉ mục'
  • Ví dụ 3: Bootstrapping về tỷ lệ phương sai
  • Ví dụ 4: Bootstrapping trên dư sau hồi quy: Ví dụ về fMRI
  • Ví dụ 5: Bootstrap về hệ số tương quan để có được khoảng tin cậy.
  • Ví dụ 6: Kiểm tra hoán vị thay vì bootstrapping

Ví dụ về các ứng dụng của phương thức bootstrap

Ví dụ 1: Bootstrapping thay vì thử nghiệm t (với kích thước mẫu không đồng đều)

Ví dụ 2: Bootstrapping trên một 'chỉ mục'

clear all

Ví dụ 1: Bootstrapping thay vì thử nghiệm t (với kích thước mẫu không đồng đều)

Ví dụ 2: Bootstrapping trên một 'chỉ mục'

Ví dụ 3: Bootstrapping về tỷ lệ phương sai

Ví dụ 4: Bootstrapping trên dư sau hồi quy: Ví dụ về fMRI

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        

Ví dụ 5: Bootstrap về hệ số tương quan để có được khoảng tin cậy.

x1 = randn(n1,1);
x2 = randn(n2,1);

Ví dụ 6: Kiểm tra hoán vị thay vì bootstrapping

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end

Áp dụng phương pháp bootstrap cơ bản thực sự đơn giản. Phần lộn xộn duy nhất là thực hiện hiệu chỉnh 'được điều chỉnh và tích lũy' (BCA) trong khoảng tin cậy. Tôi đã cung cấp một hàm gọi là 'Bootstrap' chạy thuật toán bootstrap và sau đó (theo mặc định) thực hiện hiệu chỉnh BCA. Trong nhiều trường hợp, sự điều chỉnh này không tạo ra nhiều sự khác biệt và trong một số ví dụ dưới đây tôi thậm chí không biết cách áp dụng nó, vì vậy tôi đã bỏ nó ra.

CI = prctile(bootstrapStat,[100*alpha/2,100*(1-alpha/2)]);


H = CI(1)>0 | CI(2)<0;

Các ví dụ dưới đây chạy qua một loạt các ứng dụng khá đơn giản của phương thức Bootstrap về số liệu thống kê mà chúng ta có thể hoặc không có bảng.

clf
xx = min(bootstrapStat):.01:max(bootstrapStat);
hist(bootstrapStat,xx);
hold on
ylim = get(gca,'YLim');
h2=plot(sampStat*[1,1],ylim,'y-','LineWidth',2);
h2=plot(CI(1)*[1,1],ylim,'r-','LineWidth',2);
plot(CI(2)*[1,1],ylim,'r-','LineWidth',2);
h3=plot([0,0],ylim,'b-','LineWidth',2);
xlabel('Difference between means');

decision = {'Fail to reject H0','Reject H0'};
title(decision(H+1));
legend([h2,h2,h3],{'Sample mean',sprintf('%2.0f%% CI',100*alpha),'H0 mean'},'Location','NorthWest');

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Ví dụ 2: Bootstrapping trên một 'chỉ mục'

Ví dụ 3: Bootstrapping về tỷ lệ phương sai

Ví dụ 4: Bootstrapping trên dư sau hồi quy: Ví dụ về fMRI

n=25;                   
nReps = 10000;          
CIrange = 95;           

x = ceil(15*randn(n,2).^2);      

Ví dụ 5: Bootstrap về hệ số tương quan để có được khoảng tin cậy.

myStatistic = @(x) mean((x(:,1)-x(:,2))./(x(:,1)+x(:,2)));

Ví dụ 6: Kiểm tra hoán vị thay vì bootstrapping

[CI,sampStat,bootstrapStat] = bootstrap(myStatistic,x,nReps,CIrange);

Áp dụng phương pháp bootstrap cơ bản thực sự đơn giản. Phần lộn xộn duy nhất là thực hiện hiệu chỉnh 'được điều chỉnh và tích lũy' (BCA) trong khoảng tin cậy. Tôi đã cung cấp một hàm gọi là 'Bootstrap' chạy thuật toán bootstrap và sau đó (theo mặc định) thực hiện hiệu chỉnh BCA. Trong nhiều trường hợp, sự điều chỉnh này không tạo ra nhiều sự khác biệt và trong một số ví dụ dưới đây tôi thậm chí không biết cách áp dụng nó, vì vậy tôi đã bỏ nó ra.

figure(1)
clf

xx = min(bootstrapStat):.01:max(bootstrapStat);
hist(bootstrapStat,xx);
hold on
ylim = get(gca,'YLim');
plot(sampStat*[1,1],ylim,'y-','LineWidth',2);
plot(CI(1)*[1,1],ylim,'r-','LineWidth',2);
plot(CI(2)*[1,1],ylim,'r-','LineWidth',2);
plot([0,0],ylim,'b-','LineWidth',2);
set(gca,'XTick',[-1:.25:1]);
set(gca,'XLim',[-1,1]);

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Các ví dụ dưới đây chạy qua một loạt các ứng dụng khá đơn giản của phương thức Bootstrap về số liệu thống kê mà chúng ta có thể hoặc không có bảng.

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
0

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Một bài kiểm tra t kiểm tra giả thuyết rằng hai mẫu đến từ cùng một phân phối dựa trên sự khác biệt giữa các phương tiện của các mẫu. Các bài kiểm tra T giả định các thứ thông thường về phân phối bình thường và được sử dụng phổ biến nhất khi so sánh các mẫu có kích thước bằng nhau. Khi so sánh các mẫu có kích thước khác nhau, ước tính phương sai gộp được sử dụng và mức độ tự do là trung bình của hai DF từ mỗi mẫu. Điều này có vẻ như là một chút hack đối với tôi.

Ví dụ 3: Bootstrapping về tỷ lệ phương sai

Ví dụ 4: Bootstrapping trên dư sau hồi quy: Ví dụ về fMRI

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
1

Ví dụ 5: Bootstrap về hệ số tương quan để có được khoảng tin cậy.

x1 = randn(n1,1);
x2 = randn(n2,1);

Ví dụ 6: Kiểm tra hoán vị thay vì bootstrapping

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
3

Đây là giá trị quan sát của chúng tôi (nên gần 1)

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
4

Chúng tôi sẽ thực hiện điều này theo cách thủ công, thay vì gọi chương trình boostrap vì chương trình bảo tồn mối quan hệ khôn ngoan giữa hai giá trị và không thể xử lý hai cỡ mẫu khác nhau. Điều này có nghĩa là chúng tôi sẽ không sử dụng phương thức BCA và thay vào đó sẽ sử dụng phần trăm tiêu chuẩn trên phân phối được lấy mẫu của chúng tôi để có được khoảng tin cậy.

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
5

Tính khoảng tin cậy sử dụng phần trăm.

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
6
nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
7

Vẽ một biểu đồ của phân phối được lấy mẫu và khoảng tin cậy.

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
8

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Ví dụ 4: Bootstrapping trên dư sau hồi quy: Ví dụ về fMRI

'FMRI liên quan đến sự kiện' liên quan đến sự giải mã giữa chuỗi thời gian fMRI và 'chuỗi sự kiện'. Đây thực sự là một vấn đề hồi quy tuyến tính trong đó đầu ra là phản ứng huyết động dự đoán.

Đầu ra này là các hồi quy hoặc các giá trị mà khi được ma trận sự kiện dự đoán dữ liệu fMRI với lỗi bình phương tối thiểu tối thiểu. Sự khác biệt giữa dự đoán và dữ liệu thực tế được gọi là phần dư.

Chúng ta có thể có được ước tính lỗi tiêu chuẩn cho các hồi quy này bằng cách bootsrapping trên các phần dư này. Đó là, bằng cách lặp lại lặp lại phần dư bằng sự thay thế và đánh giá lại phản ứng huyết động. Độ lệch chuẩn của các ước tính được ghép lại này cung cấp một thước đo về lỗi tiêu chuẩn của ước tính của chúng tôi.

Phần đầu tiên này tạo ra phản ứng hemodyamic giả từ một nghiên cứu được điều trị sự kiện với ba loại sự kiện (cộng với trống).

Tham số thử nghiệm

nReps = 10000;
n1 = 30;            
n2 = 15;            
alpha = .05;        
9

Các tham số mô hình được sử dụng để tạo dữ liệu giả

x1 = randn(n1,1);
x2 = randn(n2,1);
0

HDR thực sự là các hàm gamma với biên độ tăng

x1 = randn(n1,1);
x2 = randn(n2,1);
1

Trình tự sự kiện là một chuỗi m

x1 = randn(n1,1);
x2 = randn(n2,1);
2

Đây là phần thú vị. Trước tiên, chúng tôi sẽ ước tính HDR từ dữ liệu của chúng tôi bằng hồi quy tuyến tính (sử dụng hàm 'PINV').

x1 = randn(n1,1);
x2 = randn(n2,1);
3

Tiếp theo, chúng tôi sẽ tính toán lỗi còn lại giữa mô hình và dữ liệu

x1 = randn(n1,1);
x2 = randn(n2,1);
4

Sau đó, chúng tôi sẽ bootstrap bằng cách lấy mẫu lại phần dư, thêm các phần dư mới này vào dự đoán và đánh giá lại HDR. Lưu ý ở đây rằng chúng tôi không gọi chương trình 'Bootstrap' mà thay vào đó chỉ thực hiện nó theo cách thủ công. Điều này bởi vì (1) chúng tôi không sử dụng phương thức BCA và (2) 'thống kê' của chúng tôi có các giá trị n cho mỗi mẫu thay thế thay vì chỉ 1.

x1 = randn(n1,1);
x2 = randn(n2,1);
5

Độ lệch chuẩn của các HDR được ước tính lại này trên các mô hình của phần dư cung cấp ước tính SEM cho mỗi thời điểm của HDR ước tính.

x1 = randn(n1,1);
x2 = randn(n2,1);
6

Phần này chỉ định hình lại HDR ước tính thành bốn cột - một cho mỗi loại sự kiện (ước tính ban đầu xuất hiện trong một vectơ dài).

x1 = randn(n1,1);
x2 = randn(n2,1);
7

Vẽ vẽ các lỗi HDR ước tính và các lỗi tiêu chuẩn của chúng dưới dạng thanh lỗi.

x1 = randn(n1,1);
x2 = randn(n2,1);
8

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Ví dụ 5: Bootstrap về hệ số tương quan để có được khoảng tin cậy.

Bootstrapping về một mối tương quan là hữu ích vì chúng tôi biết rằng việc phân phối các mối tương quan là không bình thường vì nó bị ràng buộc giữa -1 và 1. MATLAB cung cấp một bộ dữ liệu ví dụ về điểm GPA và LSAT cho 15 sinh viên. Chúng tôi sẽ tải nó ở đây và tính toán mối tương quan.

x1 = randn(n1,1);
x2 = randn(n2,1);
9

Hiển thị biểu đồ phân tán của GPA vs LSAT và hiển thị mối tương quan trong tiêu đề.

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
0

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Bootstrap dữ liệu bằng cách rút ra các cặp với sự thay thế. Chúng tôi sẽ sử dụng phương pháp 'BCA' ở đây.

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
1

Hiển thị phân phối các giá trị bootrapping và khoảng tin cậy

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
2

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Vì phần dưới của khoảng tin cậy của chúng tôi trên không, chúng tôi kết luận rằng mối tương quan của chúng tôi có ý nghĩa ở P

Ví dụ 6: Kiểm tra hoán vị thay vì bootstrapping

'Kiểm tra hoán vị' là phương pháp lấy mẫu thứ hai nhằm giải quyết câu hỏi liệu mối tương quan có đáng kể hay không. Mặc dù phương pháp Bootstrap ước tính khoảng tin cậy xung quanh thống kê đo được của bạn, nhưng kiểm tra hoán vị ước tính xác suất có được dữ liệu của bạn một cách tình cờ.

Đối với ví dụ GPA LSAT, nó liên quan đến việc xáo trộn mối quan hệ giữa hai biến liên tục và tính toán lại mối tương quan. Nó giống như phân công lại điểm trung bình của một sinh viên với LSAT của một sinh viên khác một cách ngẫu nhiên để kiểm tra phân phối giả thuyết null rằng không có mối quan hệ nào với cặp cụ thể của hai biến.

Computatinal, nó tương tự như phương pháp bootstrap. Trên mỗi lần lặp, chúng tôi sẽ xáo trộn thứ tự các giá trị theo một trong các biến trước khi tính toán mối tương quan.

Sau nhiều lần lặp lại, chúng tôi sẽ so sánh việc phân phối các mối tương quan được cải tổ với mối tương quan được quan sát của chúng tôi. Nếu nó rơi ra khỏi đuôi thì chúng tôi quyết định rằng chúng tôi có một mối tương quan đáng kể.

Lưu ý, một thử nghiệm hoán vị thực sự sử dụng mọi cách cải tổ có thể của dữ liệu. Đối với 15 quan sát của chúng tôi, có 15 giai thừa, hoặc khoảng một nghìn tỷ kết hợp. Để hợp lý, chúng tôi sẽ chỉ phụ 20.000 mẫu từ các kết hợp nghìn tỷ này. Việc lấy mẫu này được gọi là mô phỏng Monte Carlo.

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
3

Xác định số lượng tương quan được chia sẻ lại vượt quá giá trị quan sát của chúng tôi.

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
4

Hiển thị một biểu đồ của các mối tương quan được cải tổ và giá trị quan sát của chúng tôi.

myStatistic = @(x1,x2) mean(x1)-mean(x2);

sampStat = myStatistic(x1,x2);
bootstrapStat = zeros(nReps,1);
for i=1:nReps
    sampX1 = x1(ceil(rand(n1,1)*n1));
    sampX2 = x2(ceil(rand(n2,1)*n2));
    bootstrapStat(i) = myStatistic(sampX1,sampX2);
end
5

Hướng dẫn a two sample bootstrap hypothesis test for difference of means - một bài kiểm tra giả thuyết hai mẫu bootstrap cho sự khác biệt của các phương tiện

Thử nghiệm thống kê tiêu chuẩn cho các mối tương quan là giả định phân phối T với mức độ tự do N-2. Thử nghiệm này sẽ kết luận rằng chúng tôi có mối tương quan đáng kể với giá trị p là 0,000665.

Thật thú vị khi lưu ý những điểm tương đồng và khác biệt giữa bootstrap và thử nghiệm hoán vị ở đây.

Bootstrap sử dụng lấy mẫu mà không cần thay thế trong khi các mẫu thử nghiệm hoán vị với sự thay thế (reshuffles).

Bootstrap bảo tồn mối quan hệ theo cặp giữa hai biến và do đó tạo ra sự phân phối các giá trị tập trung vào giá trị quan sát của chúng tôi. Thử nghiệm hoán vị thực hiện ngược lại - xáo trộn các mối quan hệ theo cặp và do đó tạo ra một phân phối tập trung ở mức 0.

Quyết định trong phương pháp bootstrap được đưa ra bằng cách xác định số lượng đuôi của phân phối giảm xuống dưới 0. Quyết định trong thử nghiệm perumation được đưa ra bằng cách xác định số lượng phân phối nằm trên giá trị quan sát của chúng tôi.

Tôi không biết bài kiểm tra nào phù hợp hơn, hoặc liệu họ có đưa ra quyết định tương tự hay không.

Từ Wikepedia:

Good (2000) giải thích sự khác biệt giữa các thử nghiệm hoán vị và các thử nghiệm bootstrap theo cách sau: "Các giả thuyết kiểm tra hoán vị liên quan đến phân phối; Bootstraps kiểm tra các giả thuyết liên quan đến các tham số. Do đó, bootstrap đòi hỏi các giả định ít chuỗi hơn."

Vì vậy, bạn đi.

Tốt, P. (2002) Phần mở rộng của khái niệm trao đổi và các ứng dụng của họ, J. Modern Appl. Thống kê. Phương pháp, 1: 243-247.

Bài kiểm tra giả thuyết bootstrap là gì?

Bootstrapping là một quy trình thống kê ghép lại một bộ dữ liệu duy nhất để tạo ra nhiều mẫu mô phỏng. Quá trình này cho phép bạn tính toán các lỗi tiêu chuẩn, xây dựng khoảng tin cậy và thực hiện kiểm tra giả thuyết cho nhiều loại thống kê mẫu.a statistical procedure that resamples a single dataset to create many simulated samples. This process allows you to calculate standard errors, construct confidence intervals, and perform hypothesis testing for numerous types of sample statistics.

Hai bài kiểm tra chênh lệch mẫu là gì?

Trong thử nghiệm giả thuyết thống kê, một thử nghiệm hai mẫu là một thử nghiệm được thực hiện trên dữ liệu của hai mẫu ngẫu nhiên, mỗi mẫu được lấy độc lập từ một quần thể cho khác nhau. Mục đích của thử nghiệm là để xác định xem sự khác biệt giữa hai quần thể này có ý nghĩa thống kê hay không.a test performed on the data of two random samples, each independently obtained from a different given population. The purpose of the test is to determine whether the difference between these two populations is statistically significant.

Phương pháp bootstrap trong thống kê là gì?

Phương pháp bootstrap là một kỹ thuật thống kê để ước tính số lượng về dân số bằng cách tính trung bình các ước tính từ nhiều mẫu dữ liệu nhỏ. Điều quan trọng, các mẫu được xây dựng bằng cách vẽ các quan sát từ một mẫu dữ liệu lớn một lần và đưa chúng trở lại mẫu dữ liệu sau khi chúng được chọn.a statistical technique for estimating quantities about a population by averaging estimates from multiple small data samples. Importantly, samples are constructed by drawing observations from a large data sample one at a time and returning them to the data sample after they have been chosen.

Làm thế nào để bạn bootstrap trong Python?

Làm thế nào để thực hiện lấy mẫu bootstrap trong Python ?..
Nhập các mô -đun cần thiết.Các mô -đun chúng ta cần là: Numpy.....
Tạo dữ liệu ngẫu nhiên.Hãy tạo phân phối bình thường với giá trị trung bình 300 và với 1000 mục.....
Sử dụng lấy mẫu bootstrap để ước tính giá trị trung bình.Hãy tạo 50 mẫu có kích thước 4 mỗi mẫu để ước tính giá trị trung bình ..