Testy statystyczne

Istnieją dwa rodzaje testów w testowaniu hipotez: parametryczne i nieparametryczne. Tradycyjne testy nazywane są parametryczne, ponieważ potrzebują mieć określony bazowy rozkład prawdopodobieństwa (z wyjątkiem wolnych parametrów). Oznacza to, że typ rozkładu parametrów powinien być precyzyjnie określone. Testy nieparametryczne nie wymaga żadnych założeń dotyczących rozkładów.

dla prawidłowego testowania hipotez następujące warunki muszą być spełnione:

  1. Zestaw danych jest próbą losową.

  2. Obserwacje są od siebie niezależne.

Użycie testów statystycznych

Wymagania w stosunku do danych: reprezentacja danych i wartości

Testy statystyczne wykorzystują numeryczne zbiory danych, które mogą mieć dwa typy reprezentacji:

  • standardowa: to odpowiada ustawieniu STANDARD_REPRESENTATION

  • za pomocą słowa kluczowego (key-type): to odpowiada ustawieniu SAMPLE_KEY_REPRESENTATION

Dla standardowej reprezentacji oddzielne zestawy danych są przechowywane w tabeli danych w poszczególnych kolumnach. Dla reprezentacji za pomocą słowa kluczowego(key-type) dwa zestawy danych są przechowywane w jednej kolumnie (połączone), podczas gdy dodatkowa kolumna-klucz jednoznacznie wskazuje z którego zestawu pochodzi dana obserwacja. Kolumna-klucz zawiera zmienną z tylko dwoma możliwymi wartościami (zarówno kategorycznymi jak i numerycznymi).

Brakujące wartości (Null) w zbiorach danych są obsługiwane i brakujące obserwacje są pominięte.

Składnia

Wszystkie testy statystyczne są dostępne z poziomu skryptu. W celu zastosowania określonego testu statystycznego do przykładowych danych skrypt powinien zostać utworzony.

Następujące polecenia są używane do implementacji testów:

runStatTest(test, table)  lub
runStatTest(test, table, col1)  lub
runStatTest(test, table, col1, col2)
                

Ogólną postać polecenia jest

runStatTest(test, alias.table, col1, col2)
                

gdzie

  • test jest nazwą obiektu reprezentującego test statystyczny,

  • alias aliasem skierowanie do bazy danych. Parametr jest opcjonalny, jeśli wartość pominięta to użyty alias domyślny,

  • table jest nazwą tabeli w bazie danych określoną przez alias, gdzie składowane są próbki danych do testów,

  • col1 nazwa pierwszej kolumny, która ma być użyta do testu,

  • col2 nazwa drugiej kolumny, która ma być użyta do testu.

Jeśli nie ma podanej żadnej nazwy kolumn, procedura testowania bierze pierwsze kolumny dla wskazanej tabeli i próbuje wykonać procedurę testowania.

Obiekt test jest tworzony w dwóch krokach:

1) tworząc dla odpowiednich testów settings

2) tworząc zaznaczony obiekt test używając poleceń:

settings = TestNameSettings()
test = TestName(settings)
                

gdzie settings i test są nazwami odpowiednich testów.

Lista wszystkich elementów/opcji settings dla każdego testu statystycznego może być znaleziona w sekcji Settings dla odpowiednich testów. TestName /TestNameSettings mogą być ustawione jako dowolny z następujących:

Wyniki testu są przechowywane jako obiekt o wybranej nazwie:

res = runStatTest(test, alias.table, col1, col2)
                

Tutaj res jest nazwą wynikowego obiektu testu zaimplementowanego testu dla ustawień (test, alias.table, col1, col2). Wynik testu składa się z czterech elementów: wartość statystyki testowej, wartość krytyczna(nych) dla danego poziomu istotności, wartości p-value obliczonej wartość statystyki testowej i rezultatu testowania hipotezy (hipoteza zerowa jest przyjmowana lub odrzucana), które mogą być wyświetlane w oknie widokowym używając następujących poleceń:

                    res.printResults()
                

do wyświetlania wszystkich rezultatów lub:

                    res.getHypothesis()
                    res.getStatistic()
                    res.getCriticalValue()
                    res.getPValue()
                

aby wyodrębnić poszczególne elementy osobno.

Komenda getHypothesis() wyświetla wynik testowania hipotezy jako 0/1, co odpowiada hipotezie zerowej/alternatywnej.

Poniżej znajduje się lista wszystkich poleceń do zdefiniowania poszczególnych elementów wybranego obiektu settings (domyślne wartości parametrów można znaleźć w tabeli ustawień dla każdego testu):

Tabela 7.1. Ustawienia Testów Statystycznych: Zestaw Poleceń

NazwaPolecenie
alpha

settings.setAlpha(value)

choice

settings.setChoice(StatcisticalTestsSettings.value)

distribution

settings.setDistributionType(StatisticalTestsSettings.value)

location

settings.setLocation(value)

low

settings.setLowerBound(value)

mZero

settings.setMZero(value)

meanZero

settings.setMeanZero(value)

pair

settings.setPair(StatisticalTestsSettings.value)

representation

settings.setRepresentation(StatisticalTestsSettings.value)

scale

settings.setScale(value)

shape

settings.setShape(value)

shape2

settings.setShape2(value)

side

settings.setSide(StatisticalTestsSettings.value)

sigmaZero

settings.setSigmaZero(value)

up

settings.setUpperBound(value)

varEqual

settings.setVarEqual(StatisticalTestsSettings.value)

Dopuszczalne wartości dla każdego elementu ustawień można znaleźć w opisie każdego z testów w sekcji Settings. Do oglądania ustawionych wartości następujące polecenia mogą być stosowane:

Tabela 7.2. Ustawienia Testów Statystycznych: Oglądanie ustawień

NazwaKomenda
alpha

settings.getAlpha()

choice

settings.getChoice()

distribution

settings.getDistributionType()

location

settings.getLocation()

low

settings.getLowerBound()

meanZero

settings.getMeanZero()

mZero

settings.getAlpha()

pair

settings.getPair()

representation

settings.getRepresentation()

scale

settings.getScale()

shape

settings.getShape()

shape2

settings.getShape2()

side

settings.getSide()

sigmaZero

settings.getSigmaZero()

up

settings.getUpperBound()

varEqual

settings.getVarEqual()

Przykład 7.4. Test Manna-Whitneya

table 'statTest':
    a b

    1 2
    5 6
    1 7
    2 4
    5 8


settingsMW = MannWhitneyTestSettings()
settingsMW.setAlpha(0.1)
testMW = MannWhitneyTest(settingsMW)
resMW = runStatTest(testMW, 'statTest', 'a', 'b')
resMW.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         1.6448536269514715        
        2) Statistic:        -1.6711454971746993
        3) p-value:        0.09469293918766253
        4) Hypothesis:        null hypotesis is rejected

Dystrybuanta empiryczna

Niektóre testy opisane poniżej oparte są na dystrybuancie empirycznej (empirical distribution function EDF) , która jest zdefiniowana w następujący sposób:

gdzie są posortowanymi unikalnymi obserwacjami.

Test Andersona-Darlinga (The Anderson-Darling test)

Test Andersona-Darlinga (Anderson i Darling 1954, Stephens 1974) jest modyfikacją testu Kołmogorowa-Smirnowa (KS) i służy do sprawdzania, czy próbka danych pochodzi z populacji o określonym rozkładzie. Test KS jest wolny od rozkładu w tym sensie, że wartości krytyczne nie zależą od specyficznego rozkładu, który jest testowany. Natomiast wartości krytyczne dla testu Andersona-Darlinga zależą od konkretnego, który jest testowany. Ma to tę zaletę, że test jest bardziej wrażliwy gdyż krytyczne wartości muszą być obliczono dla każdego rozkładu.

Opis

Test Andersona-Darlinga jest zdefiniowany jako:

Hipotezy:

Próbka danych pochodzi z populacji o określonym rozkładzie.

Próbka danych pochodzi z populacji o innym rozkładzie.

Statystyka testowa: Statystyka testu Andersona-Darlinga jest zdefiniowana jako

i jest obliczana jako , gdzie

Tutaj są posortowanymi danymi i jest rozmiarem próby, jest dystrybuantą z określonego rozkładu, jest dystrybuantą empiryczną, która przybliża rozkład funkcji .

Dla każdego wartość jest udziałem obserwacji mniejszych lub równych , podczas gdy jest prawdopodobieństwem, że obserwacja jest mniejsza lub równa .

Poziom ufności:

Obszar krytyczny:

Dla testu jednostronnego hipoteza, że próba pochodzi z określonego rozkładu zostanie odrzucona, jeśli statystyka testowa jest większa od wartości krytycznej.

Wartości krytyczne dla testu Andersona-Darlinga są zależne od rozkładu, z którego pochodzenie jest testowane. Tabelarycznych wartości i wzory zostały opublikowane (Stephens 1974, 1976, 1977, 1979) dla kilku specyficznych rozkładów (normalnego, log-normalnego, wykładniczego, Weibulla, logistycznego, Gumbela).

Notatka

Statystyka Andersona-Darlinga może być pomnożona przez stałą (co zazwyczaj zależy od wielkości próby). Stałe te są podane w różnych dokumentach przez Stephens.

Rozkład normalny i log-normalny wymagają następujących modyfikacji dla małych próbek:

Następnie statystyka testowa musi być porównana do odpowiedniej wartości krytycznej.

Dla rozkładu Weibulla and Gumbela statystyka testowa dla małych próbek oblicza się w następujący sposób:

Jeśli chodzi o rozkładzie wykładniczy to jest szczególnym przypadkiem rozkładu Weibulla z parametrem skali równym średniej parametru rozkładu wykładniczego i parametrem kształtu równym 1.

Prawdopodobieństwo większej statystyki testowej otrzymano przez interpolację liniową w zakresie symulowanych wartości krytycznych (patrz D'Agostino and Stephens 1986).

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienną losową o rozkładzie Andesona-Darlinga jest większa lub równa od zaobserwowanej wartość statystyki AD zgodnie z hipotezą zerową.

Wymagania dotyczące danych:

Test Andersona-Darlinga jest oparty na jednej próbce z danymi numerycznymi, które mogą być przechowywyane w jednej kolumnie (standardowa reprezentacja) lub w dwóch kolumnach (reprezentacja ze słowem kluczowym).

Ustawienia parametrów dla testu Andersona-Darlinga

Tabela 7.3. Test Andersona-Darlinga - Ustawienia (Settings)

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.25)0.05
distributiontyp rozkładu DISTRIBUTION_NORMAL, DISTRIBUTION_EXPONENTIAL, DISTRIBUTION_BETA, DISTRIBUTION_GAMMA, DISTRIBUTION_LOGISTIC DISTRIBUTION_NORMAL
location location parametr dla wybranego rozkładu wartość rzeczywista0
low dolna granica parametru dla rozkładu Beta wartości rzeczywiste0
representationtyp reprezentacji próby STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
scaleparametr skali dla wybranego rozkładudodatnie wartości rzeczywiste1
shapeparametr kształtu dla wybranego rozkładudodatnie wartości rzeczywiste1
shape2 drugi parametr kształtu dla wybranego rozkładu dodatnie wartości rzeczywiste1
up górna granica parametru dla rozkładu Beta wartości rzeczywiste1

Tabela 7.4. Test Andersona-Darlinga - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
distribution

settings.setDistributionType(StatisticalTestsSettings.value)

settings.getDistributionType()
location

settings.setLocation(value)

settings.getLocation()
low

settings.setLowerBound(value)

settings.getLowerBound()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
scale

settings.setScale(value)

settings.getScale()
shape

settings.setShape(value)

settings.getShape()
shape2

settings.setShape2(value)

settings.getShape2()
up

settings.setUpperBound(value)

settings.getUpperBound()

Przykład 7.5. Test Andersona-Darlinga

#  Przykład użycia testu Andersona-Darlinga


table 'Anderson_Darling':
    a

    1.3
    1.5
    1.2
    1.2
    1.5
    1.3
    1.4
    1.3
    1.5

settings = AndersonDarlingTestSettings()
settings.setAlpha(0.1)
settings.setLocation(0.2)
test = AndersonDarlingTest(settings)

res = runStatTest(test, 'Anderson_Darling')

res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         1.933        
        2) Statistic:        9.962506280437683
        3) p-value:        Could not calculate p-Value, exact message is: Not implemented for Anderson-Darling test.
        4) Hypothesis:        null hypotesis is rejected

Powyższy przykład wykonuje test Andersona-Darlinga dla próbki 'a'. Hipotezą zerową jest to, że przykładowe dane 'a' pochodzą z rozkładu normalnego ze średnią 0,2 i jednostkowym odchyleniem. Na poziomie 0,1 hipoteza zerowa jest odrzucana.

Test Chi-kwadrat (The Chi-square test)

Test Chi-kwadrat może być użyty do testowania czy wariancja populacji jest równa z góry ustalonej wartości.

Wymagania dotyczące danych dla testu chi-kwadrat zaimplementowanego w AdvancedMiner to: zbiór danych jest próbą z rozkładu normalnego ze znaną wartością średnią i nieznaną wariancją.

Opis

Test ten może być zarówno dwustronny jak i jednostronny. Dla testu dwustronnego hipoteza alternatywna dla hipotezy zerowej jest że wariancja nie jest równa ustalonej wartości. Wersja testu jednostronnego testuje tylko jeden kierunek: rzeczywista wartość wariancji jest mniejsza niż testowana wartość (test lewostronny) lub rzeczywista wartość wariancji jest większa niż testowana wartość (test prawostronny). Wybór rodzaju testu zależy od rozważanego problemu.

Hipotezy:

Wariancja populacji jest równa to .

Test dwustronny: Wariancja populacji nie jest równa .

Test lewostronny: Wariancja populacji nie jest mniejsza niż .

Test prawostronny: Wariancja populacji nie jest większa niż.

Statystyka testowa:

Statystyka testowa ma postać

gdzie jest rozmiarem próby jest wariancją próby. Można zauważyć, że wzór na statystykę porównuje stosunek wariancji próbki do wariancji docelowej. Im bardziej stosunek ten różni się od 1, tym częściej mamy sytuację odrzucenia hipotezy zerowej.

W ramach hipotezy zerowej statystyka testowa ma rozkład chi-kwadrat z stopniami swobody.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana jeśli:

Test dwustronny :

Test lewostronny :

Test prawostronny :

Tutaj i są odpowiednio dolnym i górnym kwantylem z rozkładu chi-kwadrat z stopniami swobody.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że losowa zmienna z rozkładu chi-kwadrat z stopniami swobody będzie większa lub równa z obliczaną wartością statystyki testowej w ramach hipotezy zerowej.

Wymagania dotyczące danych:

Chi-square test może być wykonany na próbce danych numerycznych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu Chi-kwadrat

Tabela 7.5. Test Chi-kwadrat - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED
sigmaZero wartość wariancji dla hipotezy zerowej wartości rzeczywiste1

Tabela 7.6. Test Chi-kwadrat: Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()
sigmaZerosettings.setSigmaZero(value)settings.getSigmaZero(value)

Przykład 7.6. Test Chi-kwadrat

# Przykład użycia testu Chi-kwadrat


table 'chi_square':
    s1 s2

    1  3
    5  3
    1  3
    2  3
    5  3
    3  3
    4  3
    5  3
    2  3
    1  3

settings = ChiSquareTestSettings()
settings.setAlpha(0.1)
settings.setSigmaZero(2)
test = ChiSquareTest(settings)

settings.setSide(StatisticalTestsSettings.LEFT_SIDED)

res = runStatTest(test, 'chi_square', 's1')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         4.168159042550835        
        2) Statistic:        6.724999999999999
        3) p-value:        0.3342739213749686
        4) Hypothesis:        null hypotesis is accepted

Powyższy przykład wykonuje test chi-kwadrat na próbce danych "s1" i sprawdza, czy poprawne jest założenie, że wariancja populacji jest równa 2. Hipoteza ta jest odrzucona na poziomie istotności 0,1.

F-test

F-test (Snedecor i Cochran 1989) służy do sprawdzenia, czy odchylenia standardowe dwóch populacji są równe.

Poniższe założenia powinny być spełnione:

1. Dwie próbki danych pochodzą z tego samego rozkładu normalnego (tj. dla każdej próbki wartości są niezależne i mają identyczny rozkład normalny).

2. Próbki są niezależne od siebie.

Opis

Istnieją dwie wersje tego testu: dwustronny i jednostronny. Dwustronny test jest stosowany w celu sprawdzenia, czy są odchylenia standardowe równe. W przypadku testów jednostronnych mamy: lewostronne - sprawdza czy odchylenie standardowe dla populacji pierwszej jest mniejsza od drugiej populacji i prawostronne - sprawdza, czy odchylenie standardowe dla populacji pierwszej jest większe od odchylenia z drugiej populacji. Wybór zależy od problemu.

F-test sprawdza stosunek wariancji dwóch próbek. Im bardziej jest on różny od 1, tym bardziej prawdopodobne odrzucenie hipotezy zerowej.

Hipotezy:

Dwie populacje mają równą wariancję.

Test dwustronny: Dwie populacje nie mają równej wariancji.

Test lewostronny: Odchylenie standardowe pierwszej populacji jest mniejsze niż odchylenie standardowe drugiej populacji.

Test prawostronny: Odchylenie standardowe pierwszej populacji jest większe niż odchylenie standardowe drugiej populacji.

Statystyka testowa:

Statystyka testowa dla testu F-test ma następującą postać:

gdzie jest wariancją pierwszej próby i jest wariancją drugiej próby.

Jak widać z tego wzoru F-test sprawdza stosunek wariancji z dwóch próbek. Im bardziej stosunek ten różni się od 1, tym bardziej prawdopodobne odrzucenie hipotezy zerowej.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana jeśli:

Test dwustronny :

Test lewostronny :

Test prawostronny:

gdzie są kwantylami rozkładu F z stopniami swobody, jest rozmiarem pierwszej próby jest rozmiarem drugiej próby.

P-Value:

Dla hipotezy zerowej wartości p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładem F (Fisher-Snedecor) z stopniami swobody będzie większa lub równa od policzonej wartości statystyki testowej.

Wymagania dotyczące danych:

F-test może być wykonany na dwóch próbkach danych numerycznych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla F-test

Tabela 7.7. F-test - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
siderodzaj testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED

Tabela 7.8. F-Test - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()

Przykład 7.7. F-test

# Przykład użycia testu F-test
table 'FTest':
    f1 f2

    1 2
    5 1
    1 5
    2 1
    5 5
    3 4
    2 3
    4 2

settings = FTestSettings()
test = FTest(settings)

res = runStatTest(test, 'FTest', 'f1', 'f2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         0.2002038387771814                4.994909219063272        
        2) Statistic:        1.0
        3) p-value:        0.9999999940600666
        4) Hypothesis:        null hypotesis is accepted

Test Kołmogorowa-Smirnowa (Kolmogorov-Smirnov test)

Częstym problemem jest to, aby sprawdzić, czy zdefiniowany rozkład prawdopodobieństwa reprezentuje populację danych. W 1930s Kołmogorow i Smirnow opracowali test zgodności dla ciągłych danych służący do testowania, czy próbka pochodzi z danego rozkładu prawdopodobieństwa opisanego hipotezą zerową. Dziś nadal jest on jednym z najbardziej znanych i najczęściej używanych testów zgodności. Wynika to z jego prostoty i dlatego, że opiera się na dystrybuancie empirycznej (empirical distribution function EDF), która jest zbieżna do skumulowanego rozkładu populacji (cumulative distribution function CDF) (twierdzenie Glivenko-Cantelli). Chociaż mnóstwo różnych testów zgodności zostało opracowane w ostatnich dziesięcioleciach (patrz na przykład, D'Agostino i Stephens 1986), wiele z większa moc statystyczna niż test Kołmogorowa - Smirnowa (KS), to KS pozostaje popularny, ponieważ jest prosty i intuicyjny. Celem testu Kołmogorowa - Smirnowa jest sprawdzenie czy próba zbudowana ze zmiennych losowych pochodzi z określonego rozkładu. Dlatego też hipoteza zerowa musi określać zarówno typ rozkładu jak i jego parametry. Hipoteza alternatywna zakłada, że funkcja rozkładu prawdopodobieństwa nie pasuje do tej opisanej w hipotezie zerowej. Idea testu Kołmogorowa-Smirnowa jest dość prosta: maksymalna różnica między przyjętym CDF i EDF próby losowej jest używana do decydowania, czy losowa należy do zadanego rozkładu czy nie. Dla pojedynczej próbki danych test Kołmogorowa-Smirnowa stosuje się w celu sprawdzenia, czy próbka danych jest czy nie jest zgodna z określonym rozkładem. Jeśli istnieją dwie próbki danych, to można sprawdzać, czy te dwie próbki pochodzą z tego samego rozkładu prawdopodobieństwa.

Opis

Test Kołmogorowa-Smirnowa (KS) jest oparty na dystrybuancie empirycznej (empirical distribution function - EDF).

Hipotezy: Test dla jednej próby danych

Dane pochodzą z określonego rozkładu.

Dane nie pochodzą z określonego rozkładu.

Test dla dwóch prób:

Oba rozkłady empiryczne się pokrywają.

Dwa rozkłady empiryczne są różne.

Następujące rozkłady są zaimplementowane: Normalny, Wykładniczy, Logistyczny, Beta-rozkład, Gamma-rozkład.

Statystyka testowa:

Statystyka testowa testu KS jest zdefiniowana jako:

Dla testu dla jednej próby:

gdzie jest teoretyczną dystrybuantą badanego rozkładu, który musi być ciągły (tj. nie może być dyskretnym rozkładem jak dwumianowy i Poissona) i w pełni określony (tzn. wszystkie parametry rozkładu powinny zostać określone, jak w procedurze testowej parametry rozkładu nie mogą być określone na podstawie danych), oraz jest EDF dla próby.

Notatka

Ze względu na właściwości EDF jedna statystyka testowa dla próbki jest obliczana zgodnie z następującym wzorem:

gdzie jest rozmiarem próby, są posortowanymi unikalnymi wartościami, i jest założone, że .

Asymptotyczną wartość statystyki otrzymuje się ze wzoru

Dla testu dla dwóch prób:

gdzie są wyciągniętymi posortowanymi obserwacjami z dwóch prób, jest całkowitym rozmiarem próby, jest rozmiarem pierwszej próby, jest rozmiarem drugiej próby i i EDF odpowiednio dla pierwszej i drugiej próby.

Asymptotyczną wartość statystyki otrzymuje się z równania

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana, jeśli obliczona wartość statystyki KS dla próby jest większa niż wartości krytyczne rozkładu Kołmogorowa-Smirnowa. Rozkład ten zależy od wielkości próby i poziomu istotności.

P-Value:

Wartość P-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładem Kołmogorowa-Smirnowa jest większa lub równa obserwowanej wielkości statystyki testowej KS w ramach hipotezy zerowej. Wartość p-value jest zaimplementowana tylko dla Asymptotycznego Rozkładu Kołmogorowa-Smirnowa. CDF dla tego rozkładu jest dane za pomocą:

Wymagania dotyczące danych:

Test Kołmogorowa-Smirnowa może być wykonany dla jednej lub dwóch prób danych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu Kołmogorowa-Smirnowa

Tabela 7.9. Test Kołmogorowa-Smirnowa - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
distributiontyp rozkładu DISTRIBUTION_NORMAL, DISTRIBUTION_EXPONENTIAL, DISTRIBUTION_BETA, DISTRIBUTION_GAMMA, DISTRIBUTION_LOGISTIC DISTRIBUTION_NORMAL
location location parametr dla wybranego rozkładu wartości rzeczywiste0
low dolna granica parametru dla rozkładu Beta wartości rzeczywiste0
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
scale parametr skali dla wybranego rozkładu dodatnie wartości rzeczywiste1
shape parametr kształtu dla wybranego rozkładu dodatnie wartości rzeczywiste1
shape2 drugi parametr kształtu dla wybranego rozkładu dodatnie wartości rzeczywiste1
up górna granica parametru dla rozkładu Beta wartości rzeczywiste1

Tabela 7.10. Test Kołmogorowa-Smirnowa - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaSPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
distribution

settings.setDistributionType(StatisticalTestsSettings.value)

settings.getDistributionType()
location

settings.setLocation(value)

settings.getLocation()
low

settings.setLowerBound(value)

settings.getLowerBound()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
scale

settings.setScale(value)

settings.getScale()
shape

settings.setShape(value)

settings.getShape()
shape2

settings.setShape2(value)

settings.getShape2()
up

settings.setUpperBound(value)

settings.getUpperBound()

Przykład 7.8. Test Kołmogorowa-Smirnowa

# Przykład użycia testu Kołmogorowa-Smirnowa (Kolmogorov-Smirnov test)


table 'KolmogorovSmirnov':
    ks1 ks2

    1 a
    5 b
    1 b
    2 b
    5 a
    3 a
    2 b
    4 a
    1 a
    5 b
    1 b
    2 b
    5 a
    3 a
    2 b
    4 a


settings = KolmogorovSmirnovTestSettings()
settings.setAlpha(0.01)

settings.setRepresentation(StatisticalTestsSettings.SAMPLE_KEY_REPRESENTATION)
test = KolmogorovSmirnovTest(settings)

res = runStatTest(test, 'KolmogorovSmirnov', 'ks1', 'ks2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         0.875        
        2) Statistic:        0.5
        3) p-value:        Could not calculate p-Value, exact message is: Not implemented for Kolmogorov-Smirnov test.
        4) Hypothesis:        null hypotesis is accepted

Ten przykład wykonania testu Kołmogorowa-Smirnowa dla dwóch próbek danych z tabeli "KolmogorovSmirnov", które są reprezentowane w postaci danych z kolumną ze słowem kluczowym: wartość próby jest zapisana w pierwszej kolumnie, druga kolumna zawiera klucze wskazujące do której próbki dana obserwacja należy. Pierwsze słowo kluczowe 'a' określa pierwszą próbkę, elementy drugiej próbki są określane przez klucz 'b'. Hipoteza zerowa jest taka, że obie próbki pochodzą z tego samego rozkładu. Na poziomie istotności 0,01 hipoteza zerowa jest zaakceptowana.

Kuiper test

Test ten został opracowany przez holenderskiego matematyka Nicolaas Kuipera w 1960 roku (patrz Kuiper, 1962). Kuiper test służy do sprawdzenia, czy zdefiniowany rozkład prawdopodobieństwa reprezentuje populację tych danych które są analizowane. W związku z tym jest on podobny do testu Kołmogorowa-Smirnowa. Kuiper test jednak równie wrażliwy dla wartości średniej jak i dla ogonów rozkładu. Występuje on także w wariancie dla cyklicznych przemianach zmiennej niezależnej. W związku z tym test ten jest przydatny do badania cyklicznych zmian w danych (np. przez miesiąc, dzień tygodnia, itp.).

Opis

Kuiper test jest oparty na dystrybuancie empirycznej (empirical distribution function EDF).

Hipotezy: Test dla jednej próby:

Dane pochodzą z określonego rozkładu.

Dane nie pochodzą z określonego rozkładu.

Test dla dwóch prób:

Dane pochodzą z tego samego rozkładu.

Dane nie pochodzą z tego samego rozkładu.

Następujące rozkłady są zaimplementowane: Normalny, Wykładniczy, Logistyczny, Beta-rozkład, Gamma-rozkład.

Statystyka testowa:

Statystyka testowa testu Kuipera dla jednej próby jest obliczana za pomocą formuły:

gdzie są posortowanymi unikalnymi obserwacjami, jest rozmiarem próby, jest teoretyczną dystrybuantą jest EDF dla próby.

Asymptotyczną wartość statystyki otrzymuje się ze wzoru

Statystyka testowa testu Kuipera dla dwóch prób jest obliczana za pomocą formuły:

gdzie jest rozmiarem pierwszej próby, jest rozmiarem drugiej próby, , i i EDF odpowiednio dla pierwszej i drugiej próby.

Asymptotyczną wartość statystyki otrzymuje się ze wzoru

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana jeśli wartość statystyki testowej dla testu Kuipera obliczana dla próbki jest większa od odpowiedniej wartości krytycznej rozkładu określonego w Kuiper test. Rozkład ten zależy od wielkości próby i poziomu istotności.

P-value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładu Kuipera będzie większa lub równa z obliczaną wartością statystyki testowej w ramach hipotezy zerowej. P-value jest zaimplementowane jedynie dla asymptotycznego rozkładu Kuipera. CDF dla rozkładu jest dane za pomocą formuły

.

Wymagania dotyczące danych:

Test Kuipera F-test może być wykonany na jednej lub dwóch próbkach danych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu Kuipera

Tabela 7.11. Test Kuipera - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
distributiontyp rozkładu DISTRIBUTION_NORMAL, DISTRIBUTION_EXPONENTIAL, DISTRIBUTION_BETA, DISTRIBUTION_GAMMA, DISTRIBUTION_LOGISTIC DISTRIBUTION_NORMAL
location location parametr dla wybranego rozkładu wartości rzeczywiste0
low dolna granica parametru dla rozkładu Beta wartości rzeczywiste0
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
scale parametr skali dla wybranego rozkładu dodatnie wartości rzeczywiste1
shape parametr kształtu dla wybranego rozkładu dodatnie wartości rzeczywiste1
shape2 drugi parametr kształtu dla wybranego rozkładu dodatnie wartości rzeczywiste1
up górna granica parametru dla rozkładu Beta wartości rzeczywiste1

Tabela 7.12. Test Kuipera - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
distribution

settings.setDistributionType(StatisticalTestsSettings.value)

settings.getDistributionType()
location

settings.setLocation(value)

settings.getLocation()
low

settings.setLowerBound(value)

settings.getLowerBound()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
scale

settings.setScale(value)

settings.getScale()
shape

settings.setShape(value)

settings.getShape()
shape2

settings.setShape2(value)

settings.getShape2()
up

settings.setUpperBound(value)

settings.getUpperBound()

Test Levene'a

Test Levene'a (Levene 1960) jest używany do sprawdzania czy dwie próby mają równe wariancje. Występowanie równych wariancji całej próbki nazywa się homogeneity of variance . Niektóre testy statystyczne, np. analiza wariancji, zakładają, że wariancje są równe całej grupie próbek. Test Levene'a można wykorzystać do weryfikacji tego założenia. Oryginalny wariant testu Levene'a używa bezwzględnych odchyleń od średniej próbki. Brown i Forsythe w 1974 zaproponowali użycie bezwzględnych odchyleń od mediany lub od średniej obciętej zwykłej wartości średniej.

Opis

Są trzy warianty testu Levene'a: oparty na średniej, oparty na medianie i oparty na 10%obciętej średniej. W każdym z przypadków testowane jest odchylenie bezwzględne od używanych wartości.

Pierwotnie zaproponowany test używał wartości średniej z próbki. Brown i Forsythe, 1974 wykonali symulacje Monte Carlo i pokazali, że: użycie średniej-obciętej daje najlepsze rezultaty jeśli dane pochodzą z rozkładu Cauchy'ego, użycie mediany daje najlepsze rezultaty jeśli dane pochodzą z rozkładu chi-kwadrat. Użycie średniej zaś daje najlepsze rezultaty dla symetrycznych rozkładów bez dużych ogonów. Chociaż optymalny wybór jest uzależniony od rodzaju podstawowego rozkładu, to zaleca się wybór, który zapewnia dobra odporność na wiele rodzajów danych nie-standardowych. Znajomość podstawowych rozkładów danych może zasugerować użycie jednego z pozostałych wariantów.

Hipotezy:

Dwie próbki danych mają równą wariancję.

Dwie próbki danych nie mają równej wariancji.

Statystyka testowa:

Statystyka testowa dla testu Levene'a jest obliczana następująco:

z obliczanymi następująco:

1. Dla testu opartego na średniej :

gdzie oznacza wartość średniej w próbce i.

2. Dla testu opartego na medianie :

gdzie oznacza wartość mediany w próbce i.

3. Dla testu opartego na 10%-obciętej średniej :

gdzie oznacza wartość średniej po 10%obcięciu obserwacji odstających w próbce i.

W powyższym w próbie (ponad j) średnią wartość i oznacza ogólną średnią z .

Te trzy możliwości obliczania określają najbardziej czuły i silny test Levene'a.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana jeśli wartość statystyki testowej jest większa od odpowiedniej wartości krytycznej rozkładu:

gdzie górną wartością krytyczną rozkładu F z stopniami swobody.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładu F z stopniami swobody będzie większa lub równa od obserwowanej wartości statystyki testowej dla testu Levene'a określonego w hipotezie zerowej.

Wymagania dotyczące danych:

Test Levene'a może być wykonany dla dwóch próbek danych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów testu Levene'a

Tabela 7.13. Test Levene'a - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
choicerodzaj wariantu testu Levene'a, który ma być użytyMEAN_BASED, MEDIAN_BASED, TRIMMED_MEAN_BASEDMEAN_BASED
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION

Tabela 7.14. Test Levene'a - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
choicesettings.setChoice(StatisticalTestsSettings.value)settings.getChoice()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()

Przykład 7.9. Test Levene'a

# Przykład użycia testu Levene'a


table 'Levene':
    l1 l2

    1 2
    3 3
    1 4
    2 2
    3 3
    3 2
    2 3
    3 2
    1 4
    2 1
    1 2
    2 3
    2 4
    3 2
    2 2
    4 2

settings = LeveneTestSettings()
settings.setAlpha(0.2)
test = LeveneTest(settings)

res = runStatTest(test, 'Levene', 'l1', 'l2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         0.06533410259213834        
        2) Statistic:        0.020104244229337303
        3) p-value:        0.8881942426257567
        4) Hypothesis:        null hypotesis is accepted

Powyższy przykład dotyczy testu Levene, który sprawdza, czy dwie próbki danych pochodzą z populacji o równych wariancji. Na poziomie istotności 0,2 hipoteza zerowa o równości wariancji jest zaakceptowana.

Test Manna-Whitneya (Mann-Whitney test)

Test Manna-Whitneya jest testem nieparametrycznym (niezależnym od rozkładu), który stosuje się do porównywania dwóch niezależnych próbek danych

Test Manna-Whitneya jest alternatywą dla prób niezależnych dla testu t-Studenta używaną gdy założenia o rozkładzie normalnym lub równości wariancji nie jest spełnione. Wiele nieparametrycznych testów wykorzystuje rangi danych częściej niż ich surowe wartości. Test Manna-Whitneya nie ma żadnego założenia o rozkładzie, zatem nie jest tak silny jak t-test.

Test Manna-Whitneya polega na rangowaniu wyników zmiennej zależnej i jest często nazywany 'Mann-Whitney rank sum test' lub 'rank sum test'. Mimo, że test ten jest powszechnie nazywany testem Manna-Whitneya był w rzeczywistości stworzony przez Wilcoxona i czasami jest też nazywany Wilcoxon test.

Opis

Test t-Studenta jest standardową metodą dla testowania, czy średnia w dwóch próbach jest równa. Jeśli próby nie pochodzą z populacji o rozkładzie normalnym, szczególnie dla małych prób, wynik testu t-Studenta może być niewłaściwy. Test Manna-Whitneya jest alternatywnym rozwiązaniem, które może być stosowane gdy założenia o rozkładzie nie są do końca spełnione/podejrzane. Jednak test Manna-Whitneya ma słabszą moc interpretacyjną uzyskanych danych niż test t-Studenta. Aby wykonać test Manna-Whitneya pierwszym krokiem jest rangowanie próbek, następnie suma rang dla próbki pierwszej i drugiej są szeregowane i trzy rangi są wykorzystywane do liczenia statystyki testowej. Więcej szczegółów można znaleźć w na przykład Lehmann 1975.

Hipotezy:

Dwie próbki danych mają równą średnią.

Test dwustronny: Dwie próbki danych nie mają równej średniej.

Test lewostronny: Średnia wartość pierwszej populacji jest mniejsza niż średnia wartość drugiej populacji.

Test prawostronny: Średnia wartość pierwszej populacji jest większa niż średnia wartość drugiej populacji.

Statystyka testowa:

Aby wykonać test Manna-Whitneya pierwszym krokiem jest uszeregowanie połączonych próbek, następnie policzenie sumy rang dla pierwszej próbki ( ). Liczone są następujące statystyki:

gdzie i są rozmiarami prób.

Test dwustronny :

Jeśli rozmiary próbek są równe, statystyka testowa Manna-Whitneya jest równa minimum z dwóch wartości:

Test lewostronny :

Test prawostronny :

Dla dostatecznie dużych próbek (rozmiar próbki większy niż 20), następujące przybliżenie rozkładem normalnym jest używane:

gdzie

W przypadku małych rozmiarów próbek konieczne jest stosowanie specjalnych tabel z wartościami krytycznymi.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucana jeśli:

Test dwustronny : obliczana wartość statystyki testowej jest większa niż wartość krytyczna

Testy jednostronne : obliczana wartość statystyki testowej jest większa niż wartość krytyczna , gdzie jest kwantylem standardowego rozkładu normalnego.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa ze standardowego rozkładu normalnego będzie większa lub równa od obserwowanej wartości statystyki testowej testu dla Manna-Whitneya określonego w hipotezie zerowej.

Data Requirements:

Test Manna-Whitneya może być wykonany na dwóch próbkach danych numerycznych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla dla testu Manna-Whitneya

Tabela 7.15. Test Manna-Whitneya - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED

Tabela 7.16. Test Manna-Whitneya: Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()

Przykład 7.10. Test Manna-Whitneya

# Przykład użycia testu Manna-Whitneya


table 'MannWhitney':
    mw1 mw2

    43   99
    97   98
    102  94
    101  86
    12   56
    97   103
    103  99
    104  89
    109  102
    59   104
    90   103
    98   96
    86   67
    92   90
    95   105
    101  79
    89   87

settings = MannWhitneyTestSettings()
test = MannWhitneyTest(settings)

res = runStatTest(test, 'MannWhitney', 'mw1', 'mw2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         1.9599639845400536        
        2) Statistic:        -0.08610882996604705
        3) p-value:        0.9313798362985003
        4) Hypothesis:        null hypotesis is accepted

Powyższy przykład wykonuje test Manna-Whitneya dla danych pochodzących z próbek 'mw1' i 'mw2' i sprawdza, czy te próbki pochodzą z populacji o równych średnich i na domyślnym poziomie istotności 0.05 założenie to jest potwierdzone.

Test Pearsona

Test Pearsona jest to t-test do sprawdzania istotności współczynnika korelacji liniowej Pearsona. Współczynnik korelacji liniowej Pearsona jest wykorzystywany do badania siły związku liniowego pomiędzy dwoma zmiennymi. Mierzona jest liniowa zależność oraz kierunek liniowej zależności. Jeśli nie ma liniowej zależności pomiędzy dwoma zmiennymi, korelacja jest równa 0. Jeśli zmienne mają rozkład normalny z zerową korelacją to są niezależne. Jednakże, korelacja nie oznacza związku przyczynowego, ponieważ w niektórych przypadkach, bazowy związek przyczynowy może nie istnieć.

Opis

Wynik korelacji liniowej Pearsona jest przykładem współczynnika korelacji. Jest to miara liniowego powiązania pomiędzy dwoma zmiennymi, które zostały zmierzone w przedziałach lub skali. Należy jednak pamiętać, że może to być wartość zaniżona gdy istnieje zależność między zmiennymi, ale nie jest ona liniowa.

Dla dwóch zmiennych i współczynnik korelacji Pearsona jest liczony jako:

Dla dwóch próbek sparowanych współczynnik korelacji Pearsona jest obliczany jako:

gdzie

i jest rozmiarem próby.

Współczynnik korelacji Pearsona dla próby ma następujące właściwości:

  • jest mierzona tylko siła zależności liniowej,

  • jest zawsze pomiędzy -1 i 1, gdzie: -1 oznacza idealnie negatywną (ujemną, odwrotną) zależność i +1 oznacza idealnie dodatnią zależność pomiędzy zmiennymi,

  • ma ten sam znak, jak nachylenie regresji (najlepsze dopasowanie),

  • nie zmienia się, jeśli skala obu zmiennych zostanie zmieniona,

  • ma rozkład t-Studenta.

Hipotezy:

Dwie zmienne nie są skorelowane.

Test dwustronny: dwie zmienne są skorelowane.

Test lewostronny: dwie zmienne są ujemnie skorelowane.

Test prawostronny: dwie zmienne są dodatnio skorelowane.

Notatka

Test jednostronny może być błędny jeśli dwustronny test odrzucił hipotezę zerową. Poprawny wynik da jednostronny test, który również odrzuci hipotezę zerową.

Statystyka testowa:

Test Pearsona dla współczynnika korelacji jest oparty na statystyce:

gdzie jest współczynnikiem Pearsona dla próby i jest rozmiarem próby, która ma rozkład t-Studenta z stopniami swobody.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny : obliczona wartość bezwzględna statystyki testowej jest większa niż odpowiadająca jej wartość krytyczna:

i

Test lewostronny : obliczona wartość statystyki testowej jest mniejsza niż odpowiadająca jej wartość krytyczna

Test prawostronny : obliczona wartość statystyki testowej jest większa niż odpowiadająca jej wartość krytyczna

gdzie są górnymi kwantylami rozkładu t-Studenta z stopniami swobody.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładu t-Studenta z stopniami swobody będzie większa lub równa od obliczonej wartości statystyki testowej określonej dla hipotezy zerowej.

Wymagania dotyczące danych:

Test Pearsona może być wykonany na dwóch próbkach danych równej wielkości reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu Pearsona

Tabela 7.17. Test Pearsona - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED

Tabela 7.18. Test Pearsona: Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()

Przykład 7.11. Test Pearsona

# Przykład użycia testu Pearsona

table 'Pearson':
    p1 p2

    1    0.99
    0.97 0.98
    1    0.99
    1.1  1
    1.2  1.1
    1.2  1.3
    1.3  1.2
    1.4  1.23
    1.4  1.25
    1.5  1.4
    1.4  1.3
    2.3  1.6
    2.4  1.67
    3.2  2
    3.5  2.2
    4.2  2.7

settings = PearsonTestSettings()
test = PearsonTest(settings)

res = runStatTest(test, 'Pearson', 'p1', 'p2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         2.144786686484972        
        2) Statistic:        22.99605651079155
        3) p-value:        1.6084911180769268E-12
        4) Hypothesis:        null hypotesis is rejected

Powyższy przykład testuje hipotezy o braku korelacji pomiędzy próbkami 'p1' i 'p2' i odrzuca tę hipotezę. Oznacza to, że istnieje silna korelacja między tymi dwoma zmiennymi na poziomie istotności 0,05.

Test proporcji

Test proporcji służy do określenia, czy poziom danej cechy w populacji jest równy wstępnie określonej wartości (jedna próbka) lub czy poziom danej cechy w dwóch populacjach jest równy (test dla dwóch próbek)

Opis

Test proporcji dla jednej próby

Test proporcji może być stosowane do zmiennych liczbowych, które przejmują dwie różne wartości. Przyjmuje się, że badana wartość ma rozkład Bernoulliego z parametrem . Niech oznacza rzeczywisty poziom danej kategorii w próbie, , gdzie jest rozmiarem próby i jest liczbą wystąpień danej kategorii.

Wyniki testów są wiarygodne warunkiem po warunkiem, że i są spełnione.

Hipotezy:

Test dwustronny:

Test prawostronny:

Test lewostronny:

Statystyka testowa:

Statystyka testowa dla testu proporcji dla jednej próby jest obliczana jako

W ramach hipotezy zerowej ta statystyka ma rozkład normalny.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny:

Test prawostronny:

Test lewostronny:

gdzie jest odwrotnością dystrybuanty rozkładu.

P-value: W ramach hipotezy zerowej wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładu jest większa lub równa obliczonej wartości statystyki testowej. Dla jednostronnego testu hipoteza zerowa jest odrzucana jeśli wartość p-value jest mniejsza niż . Dla dwustronnego testu hipoteza zerowa jest odrzucana jeśli wartość p-value jest mniejsza niż .

Wymagania dotyczące danych: Test proporcji dla jednej próby może być wykonany na próbie danych numerycznych, która zakłada dwie różne wartości Zarówno sposób standardowy reprezentacji danych jak i za pomocą kolumny ze słowem kluczowym są akceptowane.

Test proporcji dla dwóch prób

Przyjmuje się, że badane wartości mają rozkład Bernoulliego z parametrem w pierwszej próbie i w drugiej próbie. Niech i oznaczają odpowiednio liczności pierwszej i drugiej próby i i odpowiednio liczności występowania danej kategorii w pierwszej i drugiej próbie.

Wyniki testów są wiarygodne pod warunkiem, że sa spełnione.

Hipotezy:

Test dwustronny:

Test prawostronny:

Test lewostronny:

Statystyka testowa:

Statystyka testowa dla testu proporcji dla dwóch prób jest obliczana jako

W ramach hipotezy zerowej ta statystyka ma rozkład normalny.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny:

Test prawostronny:

Test lewostronny:

gdzie jest odwrotnością dystrybuanty dla rozkładu.

P-value: W ramach hipotezy zerowej wartość p-value jest równa prawdopodobieństwu że zmienna losowa z rozkładu jest większa lub równa niż obliczona wartość statystyki testowej. Dla jednostronnego testu hipoteza zerowa jest odrzucana jeśli wartość p-value jest mniejsza niż . Dla dwustronnego testu hipoteza zerowa jest odrzucana jeśli wartość p-value jest mniejsza niż .

Wymagania dotyczące danych: Test proporcji dla dwóch prób można przeprowadzić za pomocą pary próbek danych numerycznych (zmiennych), które przyjmują co najwyżej dwie różne wartości. Zarówno sposób standardowy reprezentacji danych jak i za pomocą kolumny ze słowem kluczowym są akceptowane.

Ustawienia parametrów dla testu proporcji

Tabela 7.19. Test proporcji - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED
distinctValue wartość/kategoria proporcji, która jest testowana wartość rzeczywista0.0
expectedProportion parametr Bernoulliego dla jednej próby wartości rzeczywiste z przedziału [0, 1] 

Tabela 7.20. Test proporcji - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha
settings.setAlpha(value)
settings.getAlpha()
representation
settings.setRepresentation(StatisticalTestsSettings.value)
settings.getRepresentation()
side
settings.setSide(StatisticalTestsSettings.value)
settings.getSide()
distinctValue
settings.setDistinctValue(value)
settings.getDistinctValue()
expectedProportion
settings.setExpectedProportion(value)
settings.getExpectedProportion()

Przykład

Ten przykład testuje poziom good dłużników w zbiorze danych german_credit. Należy pamiętać, zmienna kategoryczna 'Class' musi być przekształcona w binarną zmienną numeryczną przed wykonaniem testu.

Przykład 7.12. Test proporcji dla jednej próby

# prepare data sample for testing: add a binary
# numerical variable 'Class_num' based on the
# categorical variable "Class". 
trans 'german_credit_1' <- 'german_credit':
    if Class == 'good':
        Class_num = 1
    else:
        Class_num = 0

# prepare ProportionTestSettings and the test object
settings = ProportionTestSettings()
settings.setAlpha(0.05)
settings.setExpectedProportion(0.75)
settings.setDistinctValue(1)
settings.setSide(StatisticalTestsSettings.RIGHT_SIDED)

test = ProportionTest(settings)

# execute the test and print the results
res = runStatTest(test, 'german_credit_1', 'Class_num')
res.printResults()        
    

Wynik:

        StatTestResult: 

        1) Critical value:         1.6448536269514715        
        2) Statistic:        -3.6514837167011107
        3) p-value:        0.9998696351720902
        4) Hypothesis:        null hypotesis is rejected
    

Test znaków

W 1710 Dr. John Arbuthnott opublikował materiały, w których próbował udowodnić istnienie Boga. Tytuł artykułu był "An Argument for Divine Providence, Taken from the Constant Regularity Observ'd in the Birth of Both Sexes". Nie jest jasne, czy doktor Arbuthnott udowodnił 'Divine Providence', ale powszechnie uważa się, że metoda naukowa reprezentowana w tym artykule była początkiem najstarszego typu testów statystycznych, a mianowicie Testu Znaków.

Test znaków jest specjalnie zaprojektowany do testowania hipotez dotyczących mediany ciągłej populacji. Mediana jest miarą miejsca (lokalizacji) środka rozkładu, w związku z tym test znaku jest czasami określany jako test dla lokalizacji..

Test znaków jest generalnie słabszy niż test Manna-Whitneya (Wilcoxona). Jest on jednak prosty i łatwy w użyciu. Dla małych próbki poziom istotności może być określona bez pomocy kalkulatora lub tabeli. Jeśli test znaku wskazuje na istotną różnicę a inne badania nie należy poważnie brać pod uwagę, czy ten inny test jest ważny.

Opis

Test znaków jest specjalnie zaprojektowany do testowania hipotez dotyczących mediany ciągłej populacji

Test znaków używa następującej statystyki:

Należy pamiętać, że wartość tej statystyki zależy tylko od znaku (dodatni lub ujemny) różnicy pomiędzy wartościami próbek i testowanej wartości mediany. Oznacza to, że po prostu zlicza liczbę dodatnich (lub ujemnych) znaków spośród powyższych różnic. Jeśli jest za duże, hipoteza zerowa będzie odrzucona na korzyść hipotezy alternatywnej. Odkąd obserwacje są niezależne o właściwościach rozkładu dwumianowego to statystyka ma rozkład dwumianowy z parametrami {liczba elementów w próbie} i p = 0.5. Dla próbek z więcej niż 10 elementami można stosować przybliżenie rozkładem normalnym. Więcej przykładów patrz w przykładzie Conover 1980, Hollander and Wolfe 1973.

Hipotezy:

Mediana populacji jest równa

Test dwustronny: mediana populacji nie jest równa

Test lewostronny: mediana populacji jest mniejsza niż

Test prawostronny: mediana populacji jest większa niż

Statystyka testowa:

Dla próby , statystyka testowa dla testu znaków jest obliczana zgodnie z następującą regułą:

jest obliczana dla dwustronnego testu jako

gdzie

(tutaj oznacza liczność zbioru )

Dla lewostronnego testu

i prawostronnego testu , gdzie jest testowaną wartością mediany.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny : bezwzględna wartość obliczonej statystyki testowej jest większa niż odpowiadająca jej wartość krytyczna:

Test lewostronny : wartość obliczonej statystyki testowej jest mniejsza niż odpowiadająca jej wartość krytyczna:

Test prawostronny : wartość obliczonej statystyki testowej jest większa niż odpowiadająca jej wartość krytyczna:

Tutaj oznacza górną percentyl standardowego rozkładu normalnego.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa ze standardowego rozkładu normalnego będzie większa lub równa od obserwowanej wartości statystyki testowej dla testu znaków określonego w hipotezie zerowej.

Wymagania dotyczące danych:

Test znaków może być wykonany na dwóch próbkach danych numerycznych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu znaków

Tabela 7.21. Test znaków - Ustawienia

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
mZero wartość testowanej mediany w hipotezie zerowej wartości rzeczywiste0
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED

Tabela 7.22. Test znaków - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
mZerosettings.setMZero(value)settings.getMZero()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()

Przykład 7.13. Test znaków (Sign test)

#  Przykład użycia testu znaków

table 'Sign':
    s

    739
    978
    1094
    1086
    856
    803
    399
    489
    902
    904
    903
    996
    867
    990
    955
    1079
    897

settings = SignTestSettings()
settings.setAlpha(0.1)
settings.setMZero(900)

test = SignTest(settings)

res = runStatTest(test, 'Sign', 's')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         1.6448536269514715        
        2) Statistic:        0.48507125007266594
        3) p-value:        0.6276257639467913
        4) Hypothesis:        null hypotesis is accepted

Powyższy przykład wykonuje test znaków aby sprawdzić, czy próbka 's' pochodzi z populacji o wartości mediany 900 i na poziomie ufności 0,1 hipoteza ta jest akceptowana.

Test Spearmana

Różne nieparametryczne statystyki zostały wymyślone w celu pomiaru i testowania korelacji dwóch zmiennych losowych. Współczynnik korelacji rang Spearmana jest jednym z przykładów współczynnika korelacji. Zazwyczaj jest on obliczany gdy z jakichś powodów rzeczywiste wartości lub zmienne nie są podane, ale tylko ranga jest przypisany do instancji każdej zmiennej. Współczynnik korelacji rang Spearmana może być również lepszą miarą zależności pomiędzy dwiema zmiennymi, gdy stosunek między nimi jest nieliniowy. Współczynnik korelacji rang Spearmana jest nieparametryczną miarą zależności między dwoma parami próbek i jest oparta na szeregach par danych.

Opis

Korelacja rang Spearmana jest nieparametryczną miarą zależności między dwoma parami próbek i jest oparta na rangach par danych. Test Spearmana jest używany do sprawdzenia znaczenia współczynnika korelacji rang.

Dla par obserwacji współczynnik korelacji rang Spearmana jest obliczany jako

gdzie

i

Tutaj i są rangami dla par obserwacji. Jeżeli nie istnieją powiązania powyższy wzór jest zredukowany do

gdzie jest różnicą pomiędzy parami rang.

Hipotezy:

Dane nie są skorelowane

Test dwustronny: dane są skorelowane;

Test lewostronny: dane są ujemnie (negatywnie) skorelowane;

Test prawostronny: dane są dodatnio (pozytywnie) skorelowane.

Notatka

Test jednostronny może być mylący jeśli test dwustronny odrzucił hipotezę zerową. Poprawny wynik da test jednostronny, który również odrzucił hipotezę zerową.

Statystyka testowa: Statystyka testowa dla testu Spearmana jest zdefiniowana jako

Statystyka ma rozkład t-Studenta z stopniami swobody.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny : bezwzględna wartość statystyki testowej jest większa od wartości krytycznej; krytyczna wartość jest równa percentyl z rozkładu t-Studenta z stopniami swobody;

Test lewostronny : wartość statystyki testowej jest mniejsza od ujemnej wartości krytycznej;

Test prawostronny : wartość statystyki testowej jest większa od wartości krytycznej.

Wartość krytyczna dla testu jednostronnego jest równa percentyl z rozkładu t-Studenta z stopniami swobody.

P-Value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z rozkładu t-Studenta z stopniami swobody będzie większa lub równa od policzonej wartości statystyki testowej.

Wymagania dotyczące danych:

Test korelacji rang Spearmana może być wykonany na dwóch próbkach danych numerycznych równej wielkości reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu korelacji rang Spearmana -

Tabela 7.23. Test Spearmana - Ustawienia (Settings)

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
typ testu - hipoteza alternatywnatyp testuTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED

Tabela 7.24. Test Spearmana - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()

Przykład 7.14. Test Spearmana

#  Przykład użycia testu Spearmana

table 'Spearman':
    p1 p2

    1    0.99
    0.97 0.98
    1    0.99
    1.1  1
    1.2  1.1
    1.2  1.3
    1.3  1.2
    1.4  1.23
    1.4  1.25
    1.5  1.4
    1.4  1.3
    2.3  1.6
    2.4  1.67
    3.2  2
    3.5  2.2
    4.2  2.7

settings = SpearmanTestSettings()
settings.setSide(StatisticalTestsSettings.RIGHT_SIDED)
test = SpearmanTest(settings)

res = runStatTest(test, 'Spearman', 'p1', 'p2')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         1.7613101352742437        
        2) Statistic:        14.138496161073997
        3) p-value:        5.551056281305478E-10
        4) Hypothesis:        null hypotesis is rejected

Powyższy przykład wykonuje test korelacji Spearmana dla tych samych danych co test korelacji Pearsona, który sprawdzał, czy dwie próbki nie są skorelowane lub pozytywnie skorelowane. W rzeczywistości te próbki danych są pozytywnie skorelowane.

Test t-Studenta

Test t-Studenta jest stosowany do określenia, czy istnieje znacząca różnica między średnimi z dwóch populacji (test dla dwóch próbek) lub czy średnia z populacji różni się znacznie od określonej wartości.

Przyjmuje się, że zestawy danych są pobierane z populacji o rozkładzie normalnym i w przypadku badania dwóch próbek dodatkowo wymaga się, aby te populacje miały równe wariancje.

Co zrobić, jeśli warunki wymagane dla użycia testu t-Studenta nie są spełnione? W tej sytuacji najlepszym rozwiązaniem jest przekształcenie danych do skali, w których warunki są spełnione. To będzie prawie zawsze obejmować transformację logarytmiczną. Czasami pierwiastek kwadratowy, odwrotny pierwiastek kwadratowy może być używany. Dla proporcji arcsin(sqrt(p)) lub log(p/(1-p)) mogą być stosowane. Jeżeli nie można znaleźć zadowalającej transformacji można użyć nieparametryczny test mediany lub test Manna-Whitneya.

Uwaga: obie wersje równej i nierównej wariancji testu są zaimplementowane dla testowania dwóch próbek niezależnych (niesparowanych) a wersja o równych wariancjach jest zaimplementowana dla testowania dwóch badanych próbek zależnych (powiązanych).

"Student" był pseudonimem William Sealey Gosset (1876-1937), pracownika browaru Irish Guinness. W 1908 opublikował pracę pokazującą, że pewien rozkład prawdopodobieństwa, teraz nazywany rozkładem t-Studenta lub rozkładem t- , powstaje podczas problemu szacowania średniej z populacji o rozkładzie normalnym kiedy rozmiar próby jest mały. Zapewne t byłby znany jako "rozkład Gosseta" gdyby nie było sytuacji umownych, które tego uniemożliwiły WS Gossetowi. Z powodu wcześniejszych problemów z innym pracownikiem w przeszłości, który wyjawił tajemnice spółki, browar zakazał pracownikom publikowania czegokolwiek. Guinness zgodził się jednak, by Gosset opublikował swoje badania statystyczne pod warunkiem, że użyje pseudonimu (użył "Student") oraz że żadna z danych firmy nie pojawi się w publikacji. Zatem Gosset wypracował rozkład t empirycznie.

Opis

Test t-Studenta dla prób niezależnych jest stosowany do określenia, czy dwie pobrane próbki pochodzą z populacji z różną średnią lub czy średnia populacji różni się od wcześniej zdefiniowanej wartości. Test t-Studenta, często znany jako test t, jest jednym z najczęściej stosowanych testów statystycznych. Występuje w dwóch wersjach: t-test dla próbek niezależnych i t-test dla prób zależnych. Oba typy są stosowane do sprawdzenia hipotezy, że średnie wartości są różne dla dwóch populacji, ale test dla prób zależnych jest szczególnie przydatny, gdy każdej obserwacji w próbce odpowiada dopasowana obserwacja w drugiej próbce. Niesparowany test t-jest bardziej ogólną techniką, która może być stosowane do sprawdzenia, czy średnia wartość różni się dla dwóch populacji i nie wymaga, aby obie próbki były połączone w dowolny sposób, a nawet aby miały takie same rozmiary.

Dla dwóch niezależnych próbek, jeśli obie są wystarczająco duże, wersja testu t-Studenta ma wiele atrakcyjnych funkcji. Mianownik statystyki testowej prawidłowo ocenia odchylenie standardowe, podczas gdy Centralne Twierdzenie Graniczne gwarantuje ważność testu, nawet jeżeli populacje nie są normalne. "Wystarczająco duży" rozmiar próbki może być 30 jeżeli obie populacje o rozkładzie prawie normalnym. Im bardziej populacje odbiegają od normalności tym większy rozmiar próbki jest potrzebny aby Centralne Twierdzenie Graniczne wsparło wynik testu. Należy pamiętać, że 100 obserwacji jest często zupełnie wystarczającą wielkością próbki. Dla małych i umiarkowanych rozmiarów próbek, wersja testu z równą wariancją zapewnia dokładny test równości dwóch średnich populacji. W tym przypadku wymaga się, aby próbki pobierane były populacji z rozkładu normalnego o równych wariancjach.

Hipotezy:

Test dla jednej próbki :

średnia w populacji jest równa .

Test dwustronny: średnia w populacji nie jest równa

Test lewostronny: średnia w populacji jest mniejsza niż

Test prawostronny: średnia w populacji jest większa niż

Test dla dwóch próbek niezależnych (niesparowanych) :

Dwie populacje mają równą średnią.

Test dwustronny: dwie populacje nie mają równej średniej;

Test lewostronny: średnia wartość w pierwszej populacji jest mniejsza niż średnia wartość w drugiej populacji;

Test prawostronny: średnia wartość w pierwszej populacji jest większa niż średnia wartość w drugiej populacji;

Test dla dwóch próbek zależnych (sparowanych) :

Średnia różnica pomiędzy dwoma populacjami jest równa .

Test dwustronny: średnia różnica pomiędzy dwoma populacjami nie jest równa ;

Test lewostronny: średnia różnica pomiędzy dwoma populacjami jest mniejsza niż ;

Test prawostronny: średnia różnica pomiędzy dwoma populacjami jest większa niż .

Statystyka testowa:

Dla próbki statystyka testowa dla testu t-Studenta jest liczona jako:

gdzie jest średnią próby i jest odchyleniem standardowym próby, jest rozmiarem próby.

Dla dwóch prób zależnych (sparowanych) statystyka testowa jest obliczana jako:

gdzie jest średnią wartością różnic i jest odchyleniem standardowym różnic, jest rozmiarem próby.

Dla dwóch prób niezależnych w ramach założenia o nierównej wariancji statystyka testowa jest obliczana jako:

gdzie i są średnimi wartościami próbek , i są odchyleniami standardowymi próbek, i

są rozmiarami prób.

Dla dwóch prób niezależnych under w ramach założenia o równej wariancji statystyka testowa jest obliczana jako:

gdzie i są średnimi wartościami próbek , i są odchyleniami standardowymi próbek, i są rozmiarami prób.

Poziom istotności:

Obszar krytyczny:

Hipoteza zerowa jest odrzucona jeśli:

Test dwustronny : bezwzględna wartość statystyki testowej jest większa od wartości krytycznej, krytyczna wartość jest równa: percentyl rozkładu t-Studenta z stopniami swobody;

Test lewostronny : wartość statystyki testowej jest mniejsza od ujemnej (negatywnej) wartości krytycznej;

Test prawostronny : wartość statystyki testowej jest większa od wartości krytycznej.

Wartość krytyczna dla jednostronnego testu jest równa percentyl rozkładu t-Studenta z stopniami swobody.

Stopnie swobody są zdefiniowane w następujący sposób:

  • dla testu dla jednej próbki i dla testu dla zmiennych zależnych jako: ,

  • dla testu dla dwóch niezależnych próbek w ramach założenia o równej wariancji:

  • dla testu dla dwóch niezależnych próbek w ramach założenia o nierównej wariancji:

P-value:

Wartość p-value jest równa prawdopodobieństwu, że zmienna losowa z t-Studenta z stopniami swobody będzie większa lub równa od policzonej bezwzględnej wartości statystyki testowej określonej w hipotezie zerowej.

Wymagania dotyczące danych:

Test t-Studenta może być wykonany dla jednej lub dwóch próbkach danych numerycznych reprezentowanych w sposób standardowy lub za pomocą kolumny ze słowem kluczowym.

Ustawienia parametrów dla testu t-Studenta

Tabela 7.25. Test t-Studenta - Ustawienia (Settings)

NazwaOpisMożliwe wartościDomyślna wartość
alphapoziom istotnościwartości rzeczywiste z przedziału (0,0.5)0.05
meanZerośrednia z populacji, która jest testowanawartości rzeczywiste0
pair typ testu t-Studenta dla dwóch próbek (0 dla niezależnych i 1 dla zależnych-sparowanych) NON_PAIRED, PAIREDNON_PAIRED
representationtyp reprezentacji próbki danych STANDARD_REPRESENTATION, SAMPLE_KEY_REPRESENTATION STANDARD_REPRESENTATION
sidetyp testu - hipoteza alternatywnaTWO_SIDED, LEFT_SIDED, RIGHT_SIDEDTWO_SIDED
varEqual określa, czy założenie o równe lub nierównych odchyleniach powinno być stosowane EQUAL_VARIANCES, UNEQUAL_VARIANCESEQUAL_VARIANCES

Tabela 7.26. Test t-Studenta - Zestaw Poleceń do ustawiania i oglądania ustawień paramentów

NazwaPolecenia do ustawianiaPolecenia do oglądania ustawień
alpha

settings.setAlpha(value)

settings.getAlpha()
meanZero

settings.setMeanZero(value)

settings.getMeanZero()
pair

settings.setPair(StatisticalTestsSettings.value)

settings.getPair()
representation

settings.setRepresentation(StatisticalTestsSettings.value)

settings.getRepresentation()
side

settings.setSide(StatisticalTestsSettings.value)

settings.getSide()
varEqual

settings.setVarEqual(StatisticalTestsSettings.value)

settings.getVarEqual()

Przykład 7.15. Test t-Studenta

# Przykład użycia testu t-Studenta


table 'Student':
    s

    2.1
    3.1
    1.5
    1.1
    1.2
    1.2
    1.3
    1.4
    1.4
    1.5
    1.4
    2.4
    3.2
    3.5
    4.2

settings = StudentTTestSettings()
settings.setMeanZero(2)
test = StudentTTest(settings)

res = runStatTest(test, 'Student', 's')
res.printResults()

Wynik:

        StatTestResult: 

        1) Critical value:         2.144786686484972        
        2) Statistic:        0.12885424152806213
        3) p-value:        0.8993058080007479
        4) Hypothesis:        null hypotesis is accepted

Powyższy przykład dotyczy testu t-Studenta, aby sprawdzić, czy próbka danych 's' pochodzi z rozkładu o średniej wartości równej 2. Badanie wykazało, że hipoteza ta może zostać przyjęta na domyślnym poziomie ufności.

Bibliografia

[1] D'Agostino R. i Stephens M. (1986) Goodness-of-Fit Techniques, Marcel Dekker, Inc., New York.

[2] Anderson T.W. i Darling D.A. (1954) A Test of Goodness-of-Fit, Journal of the American Statistical Association, 49, 765-769.

[3] Brown M.B. i Forsythe A.B. (1974) Robust Tests for Equality of Variances, Journal of the American Statistical Association, 69, 364 - 367.

[4] Cox D.R. i Hinkley D.V. (1974) Theoretical Statistics, Chapman & Hall, London.

[5] Conover W.J., (1980) Practical Nonparametric Statistics. Second Edition, John Wiley & Sons Inc., New York.

[6] Hollander M. i Wolfe D.A. (1973) Nonparametric Statistical Methods, John Wiley & Sons Inc., New York.

[7] Kuiper N. H., (1962) Tests concerning random points on a circle , Proceedings of the Koninklijke Nederlandse Akademie van Wetenschappen, Series A , 63, 38-47.

[8] Lehmann E.L., (1975) Nonparametrics: Statistical Methods Based on Ranks, Holden-Day, San Francisco.

[9] Levene H., (1960) In: Contributions to Probability and Statistics: Essays in Honor of Harold Hotelling , , Stanford University Press, Palo Alto.

[10] Lewis P.A. (1961) Distribution of Anderson-Darling Statistic , Annals of Mathematical Statistics, 32, 1118-1124.

[11] Snedecor G.W. i Cochran W.G. (1989) Statistical Methods, Eighth Edition, Iowa State University Press, Ames.

[12] Stephens M.A. (1974) EDF Statistics for Goodness of Fit and Some Comparisons , Journal of the American Statistical Association, 69, 730-737.

[13] Stephens M.A. (1976) Asymptotic Results for Goodness-of-Fit Statistics with Unknown Parameters , Annals of Statistics, 4, 357-369.

[14] Stephens M.A. (1977) Goodness of Fit for the Extreme Value Distribution , Biometrika, 64, 583-588.

[15] Stephens M.A. (1979) Tests of Fit for the Logistic Distribution Based on the Empirical Distribution Function , Biometrika, 66, 591-595.

[16] "Student" (W.S.Gosset) (1908) The probable error of a mean, Biometrika, 6(1), 1-25.