Narysuj dwa wzory dyfrakcyjne zaobserwowane podczas badania. Obserwacja interferencji i dyfrakcji światła

09.04.2019

Omówiona powyżej ogólna strategia oceny hipotez statystycznych determinuje przede wszystkim stosowanie tzw. metod parametrycznych statystyki matematycznej.

Metody parametryczne opierają się na pewnych, z reguły dość prawdopodobnych założeniach co do natury rozkładu zmiennej losowej. Zazwyczaj metody parametryczne stosowane w analizie danych eksperymentalnych opierają się na założeniu o rozkładzie normalnym tych danych. Konsekwencją tego założenia jest konieczność oszacowania badanych parametrów rozkładu. Tak więc w przypadku rozważanym poniżej T -Test t-Studenta, takimi oszacowanymi parametrami są matematyczne oczekiwanie i wariancja. W wielu przypadkach przyjmuje się dodatkowe założenia dotyczące wzajemnego związku parametrów charakteryzujących rozkład zmiennej losowej w różnych próbach. Zatem w teście Studenta, który często służy do porównywania wartości średnich ( oczekiwanie matematyczne) dwóch serii danych ze względu na ich jednorodność lub niejednorodność, przyjmuje się dodatkowe założenie o jednorodności wariancji rozkładu zmiennych losowych w dwóch populacjach ogólnych, z których dane te zostały wyekstrahowane.

Zaletą metod parametrycznej analizy danych jest to, że mają one dość dużą moc. Pod moc testowa oznaczają one jego zdolność do unikania błędów drugiego rodzaju, czyli błędu β. Im mniejszy błąd β, tym większa moc testu. Inaczej mówiąc, moc testowa = 1 – β.

Duża moc testów parametrycznych, czyli kryteriów, wynika z faktu, że metody te wymagają opisu dostępnych danych skala metryczna. Jak wiadomo, skale metryczne obejmują skalę interwałową i skalę ilorazową, zwaną czasami także skalą absolutną. Skala interwałowa pozwala badaczowi poznać nie tylko relacje równości lub nierówności elementów próbki (tak jak to pozwala skala nazw ), a nie tylko porządkować relacje (na co pozwala to zrobić skala zamówienia ), ale także do oceny równoważności przedziałów. Absolutna skala ponadto pozwala ocenić równoważność relacji pomiędzy elementami zbioru uzyskanych podczas pomiaru. Dlatego wagi metryczne uważane są za mocne skale pomiarowe. Dzięki tej mocy metody parametryczne pozwalają na dokładniejsze wyrażenie różnic w rozkładzie zmiennej losowej pod warunkiem, że hipotezy punktorowe lub alternatywne są prawdziwe.

Należy również zauważyć, że generalnie parametryczne metody statystyki są bardziej rozwinięte w teorii statystyki matematycznej i dlatego są stosowane znacznie szerzej. Prawie każdy wynik eksperymentu można ocenić za pomocą dowolnej z tych metod. To właśnie te metody są omawiane przede wszystkim w podręcznikach i podręcznikach dot Analiza statystyczna dane.

Jednocześnie trudności związane ze stosowaniem metod analizy parametrycznej w statystyce polegają na tym, że w wielu przypadkach założenia aprioryczne dotyczące charakteru rozkładu badanych zmiennych losowych mogą okazać się błędne. A te przypadki są bardzo typowe, szczególnie dla badania psychologiczne w pewnych sytuacjach.

Jeśli więc porównasz dwie próbki za pomocą T - Testem t-Studenta możemy stwierdzić, że rozkład naszych danych różni się od normalnego, a wariancje w obu próbach różnią się znacząco. W takim przypadku zastosowanie parametrycznego testu t może w pewnym stopniu wpłynąć na wnioski, jakie badacz chce wyciągnąć. Niebezpieczeństwo to wzrasta, jeśli wartości obliczonych statystyk zbliżają się do wartości kwantyli odcięcia, które służą do akceptowania lub odrzucania hipotez. W większości przypadków jednak, na przykład podczas używania T -test, pewne odchylenia od teoretycznie określonych założeń okazują się niekrytyczne dla wiarygodnego wnioskowania statystycznego. W innych przypadkach takie odstępstwa mogą stanowić poważne zagrożenie dla takiego wniosku. Badacze mogą następnie opracować specjalne procedury, które mogą dostosować procedurę podejmowania decyzji pod kątem prawdziwości hipotez statystycznych. Celem tych procedur jest obejście lub złagodzenie zbyt rygorystycznych wymagań stawianych parametrycznym modelom stosowanych statystyk.

Jedną z możliwości takiego działania badacza, gdy odkryje, że uzyskane przez niego dane w jego parametrach odbiegają od tego, co określono w modelu strukturalnym zastosowanego testu parametrycznego, może być próba przekształcenia tych danych do postaci właściwy typ. Na przykład, jak zauważono w rozdz. 1, mierząc czas reakcji, można uniknąć wysoka wartość asymetrię jego rozkładu, jeśli do analizy wykorzystamy logarytmy uzyskanych wartości, a nie same wartości czasu reakcji.

Inną opcją jest odmowa stosowania jakichkolwiek założeń apriorycznych dotyczących charakteru rozkładu zmiennej losowej w populacji. A to oznacza porzucenie metod parametrycznych statystyki matematycznej na rzecz metod nieparametrycznych.

Nieparametryczny nazywane są metodami statystyki matematycznej, w których nie przyjmuje się żadnych założeń apriorycznych co do charakteru rozkładu badanych danych ani nie przyjmuje się żadnych założeń co do zależności pomiędzy parametrami rozkładu analizowanych wielkości. To jest główna zaleta tych metod.

Przewaga statystyki nieparametrycznej ujawnia się w pełni, gdy wyniki uzyskane w eksperymencie zostaną przedstawione w słabszej formie. skala niemetryczna, reprezentujących wyniki rankingu. Ta skala nazywa się skala zamówienia. Oczywiście w niektórych przypadkach badacz może przekonwertować te dane na silniejszą skalę przedziałową, stosując procedury normalizacji danych, ale z reguły najlepszą opcją w tej sytuacji jest zastosowanie testów nieparametrycznych zaprojektowanych specjalnie do analizy statystycznej.

Z reguły badania statystyki nieparametrycznej polegają na oszacowaniu istniejących stosunków sum rang w dwóch lub większej liczbie prób i na tej podstawie formułuje się wniosek o zależności między tymi próbami. Przykładami takich testów są test znaków, test rang podpisanych Wilcoxona, I Test U Manna Whitney, które są używane jako analogi parametrów parametrycznych T -Test t-Studenta.

Jednocześnie, jeżeli wyniki pomiarów prezentowane są w większej liczbie mocna skala wykorzystanie statystyki nieparametrycznej oznacza odrzucenie części informacji zawartych w danych. Konsekwencją tego jest niebezpieczeństwo zwiększenia błędu II rodzaju, nieodłącznie związanego z tymi metodami.

Tym samym metody statystyki nieparametrycznej okazują się bardziej konserwatywne w porównaniu do metod statystyki parametrycznej. Ich użycie grozi w większym stopniu błędem drugiego rodzaju, tj. sytuacja, w której badacz na przykład nie jest w stanie wykryć różnic między dwiema próbkami, gdy takie różnice faktycznie występują. Innymi słowy, metody takie okazują się mniej wydajne w porównaniu do metod parametrycznych. Dlatego też w analizie danych eksperymentalnych zwykle preferowane jest zastosowanie statystyki parametrycznej innej niż proste rankingowanie.

Skale statystyczne

Statystyczne przetwarzanie danych badawczych

Dane statystyczne wykorzystuje się przy przetwarzaniu materiałów z badań psychologicznych, aby z danych ilościowych uzyskanych w eksperymencie wydobyć jak najwięcej przydatnych informacji.

Stosowanie określonych metod statystycznych określa, do jakiej skali statystycznej należy uzyskany materiał.

Skala nazw. Skala ta obejmuje materiały, w których badane obiekty różnią się od siebie jakością, a kolejność nie jest istotna. Na przykład rozmieszczenie uczestników konferencji. Przetwarzając statystycznie takie materiały, należy wziąć pod uwagę liczbę jednostek, którymi reprezentuje się każdy obiekt.

Skala zamówienia. Kolejność obiektów jest w centrum uwagi. Ta skala w statystyce obejmuje takie materiały badawcze, w których uwzględnia się obiekty należące do jednej lub więcej klas, ale różniące się między sobą: więcej - mniej, więcej - mniej itp.

Najłatwiejszym sposobem pokazania typowych cech skali zamówień jest przyjrzenie się wynikom dowolnej skali zawody sportowe. Kolejno wymieniają uczestników, którzy zajęli odpowiednio pierwsze, drugie, trzecie i kolejne miejsca.

według miejsca, a informacje o faktycznych osiągnięciach sportowców schodzą na dalszy plan lub ich brak.

Skala interwałowa. Obejmuje to materiały, które umożliwiają ilościową ocenę badanego obiektu w ustalonych jednostkach. Materiały odpowiadające skali interwałowej muszą mieć jednostkę miary identyczną dla wszystkich powtarzanych pomiarów.

Skala relacji. Skala ta obejmuje materiały, które uwzględniają nie tylko liczbę stałych jednostek , jak w skali przedziałowej, ale także związek uzyskanych wyników całkowitych ze sobą. Aby pracować z takimi relacjami, trzeba mieć jakiś bezwzględny punkt, od którego można liczyć.

Jeżeli dane, którymi dysponuje badacz, po dokładnym zbadaniu, tylko nieznacznie odbiegają od krzywej rozkładu normalnego Gaussa, daje to badaczowi prawo do stosowania w przetwarzaniu statystycznym metod parametrycznych, których punkt wyjścia opiera się na krzywej rozkładu normalnego Gaussa . Rozkład normalny nazywa się parametrycznym, ponieważ do skonstruowania i przeanalizowania krzywej Gaussa wystarczą tylko dwa parametry: średnia arytmetyczna, której wartość musi odpowiadać wysokości prostopadłej odtworzonej w środku krzywej oraz tzw. -zwana średnią kwadratową, czyli odchylenie standardowe, wartość charakteryzująca zakres oscylacji tej krzywej.

Jeżeli nie ma możliwości zastosowania metod parametrycznych, warto sięgnąć po metody nieparametryczne.

Metody estymacji parametrycznej

Stosowanie metod parametrycznych zakłada znajomość a priori teoretycznego prawa rozkładu badanej wartości lub jego wyznaczenie na podstawie danych empirycznych, co wiąże się z koniecznością sprawdzenia zgodności ED z wybranym prawem teoretycznym. Oszacowanie parametryczne na podstawie ocenzurowanych próbek opiera się na tradycyjne metody statystyka matematyczna (wiarygodność maksymalna, momenty, kwantyle), metody estymacji liniowej i szereg innych.

Przetwarzanie wielu ocenzurowanych próbek metoda największej wiarygodności dozwolone pod następującymi warunkami:

6 < N<10, 10 < = N<20, 20 < = N<50, 50 < = N<100, R /N> = 0,5; R/ N> = 0,3; R/ N> = 0,2; R/ N>= 0,1.

Jeżeli te ograniczenia nie są spełnione, można obliczyć jedynie dolną granicę ufności parametrów rozkładu.

Oszacowania uzyskane metodą największej wiarygodności przy stosunkowo luźnych ograniczeniach są asymptotycznie efektywne, bezstronne i mają asymptotyczny rozkład normalny. Jeśli zmienna ciągła z funkcją gęstości F(X, T) w niektórych miejscach ocenzurowane A I B(A<B), wówczas funkcję gęstości rozkładu dla cenzury definiuje się jako

Funkcja wiarygodności przy N obserwacje

.

Jeśli zmienna jest podwójnie cenzurowana w stałych punktach A I B, aby nie były przestrzegane k 1 najmniejszy i k 2 największe elementy próbki, następnie funkcja wiarygodności

Gdzie k 1 i k 2 to zmienne losowe.

Podczas cenzurowania ze stałymi wartościami k =R 1 i k 2=R 2 funkcja wiarygodności jest równa

gdzie v1= XR 1+1, v2 = XNr 2

Rozwiązanie równania prawdopodobieństwa dla różnych schematów cenzury jest zadaniem dość trudnym. Takie rozwiązania można uzyskać jawnie tylko dla praw dystrybucji jednoparametrowej. Równania służą do znajdowania parametrów typowych praw rozkładu wskaźników niezawodności dla próbek cenzurowanych lewostronnie.

Rozkład wykładniczy. Oszacowania punktowe parametru rozkładu l dla różnych planów obserwacji:

gdzie Ф( X) – rozkład normalny, F(X) – funkcja gęstości rozkładu normalnego.

Układ równań (8.7) pozwala jedynie na rozwiązanie numeryczne. Przy rozwiązywaniu równań w ten sposób szacunki oczekiwań matematycznych i odchylenia standardowego obliczone na podstawie połączonej próbki są zwykle traktowane jako wstępne przybliżenia nieznanych parametrów.

Rozkład lognormalny. Oszacowania parametrów obliczane są przy użyciu wzorów na prawo rozkładu normalnego, przy czym wartości czasu pracy są zastępowane ich logarytmami naturalnymi.

RDystrybucja Weibula. Oszacowania parametrów d i b dla planu [ NUz] obliczane są na podstawie układu równań

Gdzie TM = TR dla planu [ NUr], TM = T dla planu [ ORZECH].

Układy równań (8.8) – (8.9) nie mają rozwiązania analitycznego i wymagają zastosowania metod numerycznych: najpierw znajduje się pierwiastek pierwszego równania (oszacowanie parametru b), następnie poprzez bezpośrednie podstawienie wartość oszacowanie parametru d. Dla dwuparametrowego rozkładu Weibulla duży (b>4) lub mały (b<0,5) значения параметра свидетельствуют о том, что ЭД не подчиняются этому закону или отношение R/N kilka. W takich przypadkach należy zastosować nieparametryczne metody estymacji lub przejść na trójparametrowe prawo rozkładu Weibulla.

Trudności w stosowaniu metody największej wiarygodności powodują rozwój innych metod. Metoda momentów prowadzi zwykle do prostych procedur obliczeniowych, pozwala na otrzymanie estymatorów asymptotycznie efektywnych, bezstronnych i o rozkładzie normalnym, wymaga jednak uwzględnienia rodzaju cenzury i ma zastosowanie do stosunkowo dużej próby (co najmniej 30). Stosowanie metody kwantylowej do estymacji parametrów praw rozkładu jest mniej istotne w przypadku rodzaju cenzury. Wysoką dokładność oszacowań osiąga się poprzez optymalny dobór kwantyli, chociaż taki dobór nie zawsze jest możliwy.

Metodę estymacji liniowej stosuje się przy małej liczebności próby, co zapewnia wysoką efektywność, spójność i bezstronność oszacowań parametrów rozkładu. Metoda ta polega na znalezieniu funkcji liniowej statystyki rzędu (uporządkowanych elementów próby), która byłaby obiektywnym oszacowaniem pożądanego parametru. Aplikacja wiąże się z koniecznością stosowania specjalnych typów rozkładów, co powoduje pewne niedogodności i komplikuje automatyzację obliczeń.

Test t-Studenta dla niezależnych i
próbki zależne.
Test F Fishera.
Test U Manna-Whitneya.
Test T Wilcoxona i in.

Kryteria statystyczne są
ZASADA zapewniająca akceptację
prawdziwe i odrzucenie fałszywej hipotezy
wysokie prawdopodobieństwo.
Kryteria statystyczne to METODA
obliczenie określonej liczby.
Kryteria statystyczne to LICZBY.

Kryteria parametryczne to
kryteria zawarte we wzorze obliczeniowym
parametry rozkładu (średnia i
dyspersja).
Testy nieparametryczne są
kryteria nieujęte we wzorze
obliczenia parametrów rozkładu i
oparte na częstotliwości
lub rangi.

Umożliwia bezpośrednią ocenę różnic w średnich,
otrzymane w dwóch próbkach (test t
test studenta)
Umożliwia bezpośrednią ocenę różnic w wariancjach
(test F Fishera)
Pozwala na identyfikację trendów zmian cechy
podczas przechodzenia od stanu do stanu (dyspersja
W analizie jednoczynnikowej)
Pozwala ocenić interakcję dwóch lub więcej
czynniki i ich wpływ na zmiany cech
(dwuczynnikowa analiza wariancji)

Możliwości i ograniczenia kryteriów parametrycznych

Dane eksperymentalne muszą odpowiadać dwóm i
czasami trzy warunki:
a) wartości charakterystyczne mierzone są przedziałowo
skala;
b) rozkład cechy jest normalny;
c) w analizie wariancji należy przestrzegać
wymóg równości wariancji w komórce kompleksu.
Jeżeli zostaną spełnione powyższe warunki to
kryteria parametryczne okazują się większe
potężniejsze niż nieparametryczne.

Pozwala ocenić jedynie średnie trendy, np.
odpowiedzieć na pytanie, czy w próbie A występują one częściej
wyższe, a w próbie B – niższe wartości
znak (Rosenbaum, Mann-Whitney,
Transformacja kątowa Fishera itp.).
Umożliwia ocenę jedynie różnic w zakresach
zmienność cechy (kryterium kątowe
transformacja Fishera).
Umożliwia identyfikację tendencji zmian w charakterystyce, gdy
przejście od warunku do warunku dla dowolnego
rozkład cechy (kryteria trendów
Page, Jonkier).

Możliwości i ograniczenia testów nieparametrycznych

Nie ma sposobu, aby ocenić interakcję
dwa lub więcej czynników.
Dane eksperymentalne mogą nie odpowiedzieć
żaden z warunków statystyki parametrycznej:
a) charakterystyczne wartości można przedstawić w
dowolna skala, począwszy od skali nazw;
b) rozkład cechy może być dowolny i
jego zbieżność z dowolnym prawem teoretycznym
dystrybucja jest opcjonalna i nie wymaga
weryfikacja;
c) nie ma wymogu równości wariancji.

Kryterium statystyczne ma charakter empiryczny i
Krytyczna wartość.
Wartością empiryczną kryterium jest uzyskana liczba
zgodnie z zasadą obliczania kryterium.
Wartością krytyczną kryterium jest liczba, która
wyznaczane dla danego kryterium przy danych zmiennych
(na przykład liczba osób w próbie), podkreślenie
strefa znaczenia i nieistotności dla cechy. Cm.
Tabele krytycznych wartości kryteriów.
Według stosunku wartości empirycznych i krytycznych
kryterium, ujawnia się poziom istotności statystycznej i
wyciąga się wniosek, czy jest on potwierdzony, czy obalony
Hipoteza zerowa.

Zasada akceptowania wnioskowania statystycznego

1) na podstawie uzyskanego doświadczenia
dane obliczają wartość empiryczną
Kryteria obozowe
2) według tabel odpowiadających kryteriom
znajdź wartości krytyczne K1cr i K2cr, które
spełniają poziomy istotności 5% i 1%
3) wpisz wartość krytyczną w postaci:
К1кр dla p ≤ 0 05 i К2кр dla p ≤ 0 01

10. 4) umieścić wartość empiryczną kryterium Camp oraz wartości krytyczne K1cr i K2cr na osi istotności (oś x Ox

Kartezjański układ współrzędnych, wł
który ma trzy strefy: lewą (nieistotność),
środek (niepewność, p ≤ 0,05), prawy
(istotność, p ≤ 0,01)

11. Zasada akceptowania wnioskowania statystycznego

5) sformułować decyzję:
jeśli Camp znajduje się w strefie nieistotności, to
przyjęto hipotezę H0 o braku różnic;
jeśli Camp znajduje się w strefie niepewności, to
istnieje możliwość podjęcia błędnej decyzji
(konieczne jest zwiększenie próbki lub użycie
inne kryterium);
jeśli Camp znajduje się w strefie znaczenia, to hipoteza
o braku różnic H0 zostaje odrzucony i
przyjęto hipotezę H1 o występowaniu różnic

12. Zasada rozpoznawania znaczenia różnic

W większości przypadków, aby rozpoznać różnice
znaczący EMPIRYCZNY (uzyskany)
WARTOŚĆ KRYTERIA MUSI PRZEKRACZAĆ
KRYTYCZNY (tabelarniczy) zgodnie z
liczba stopni swobody dla dwóch niezależnych
próbki df = (n1 + n2) – 2, dla dwóch zależnych
próbki df = (n1 + n2) – 1 lub wielkość próbki
(N).
Wyjątek: test U Manna-Whitneya, test
Znaki G, test T Wilcoxona, w którym potrzebujesz
trzymaj się odwrotnej zasady.

13. Próby zależne i niezależne

Próbki zależne to takie próbki, które
co dla każdego respondenta z jednej próby
zgodny z konkretnym
cecha respondenta z innej próby.
Próbki niezależne to próbki, które
które oznacza prawdopodobieństwo wyboru dowolnego
respondent jednej próby nie zależy od
wybór któregokolwiek z respondentów innego
próbki.

14. Wybór kryterium porównywania dwóch próbek

Korespondencja
dystrybucje
normalne prawo
(parametryczny)
Niezgodność
dystrybucja (y)
normalne prawo
(nieparametryczny)
Niezależny
próbki
t – kryterium
Test studenta
Dla
niezależny
próbki
Test U
Manna-Whitney;
Ludzie
próbki
t – kryterium
Test studencki dot
zależny
próbki
Kryterium
seria
Kryterium znaku
Test T
Wilcoxona;

15. Test t-Studenta dla prób niezależnych


populacji ogólnej, z której zostały wyodrębnione
próbki niezależne różnią się od siebie.
Wstępne założenia:
1.
Z jednej populacji pobierana jest jedna próbka
całość, inna od drugiej (znaczenia
mierzone cechy hipotetycznie nie powinny
korelują ze sobą).
2.
W obu próbach rozkład jest w przybliżeniu
odpowiada prawu normalnemu.
3.
Wariancje cech w dwóch próbach są w przybliżeniu
są takie same.

16. Test t-Studenta dla prób niezależnych

Struktura danych źródłowych: zbadana
cecha(-y) mierzona u respondentów, każda
z których należy do jednego z
porównane próbki.
Ograniczenia:
1. Rozkłady nie różnią się znacząco
od prawa normalnego w obu próbkach.
2. Przy różnej liczbie próbek wariancja
nie różnią się istotnie statystycznie
(testowany testem F Fishera lub
kryterium Levene’a).

17. Wzór do obliczeń

Gdzie,
– wartość średnia z pierwszej próbki
– wartość średnia drugiej próbki
odchylenie standardowe według pierwszej próbki
– odchylenie standardowe dla drugiej próbki

18. Test t-Studenta dla prób zależnych

Testuje hipotezę, że średnie z dwóch
populacje ogólne, z których wyodrębniono
porównywane próbki zależne różnią się od siebie
przyjaciel.
Wstępne założenia:
1.
Przydzielany jest każdy przedstawiciel jednej próbki
korespondencja reprezentatywna dla innej próbki.
2.
Dane z obu próbek są ze sobą dodatnio skorelowane.
3.
Rozkład w obu próbach odpowiada
normalne prawo.
Struktura danych źródłowych: istnieją dwie wartości
badana cecha(y).

19. Test F Fishera

Służy do testowania hipotezy równości
wariancji dwóch próbek. Jest to uwzględnione w kryteriach
rozpraszanie.
*Ma sens przed użyciem testu t-Studenta
wstępne sprawdzenie hipotezy równości wariancji.
Jeśli jest poprawny, możesz porównać średnie
użyj testu t-Studenta (hipoteza równości
wartości średnie w dwóch próbkach).
Kryterium Fishera opiera się na dodatkowych
założenia niezależności i normalności
próbki danych. Przed użyciem
Zaleca się wykonanie kontroli normalności
rozkłady charakterystyczne.

20. Test F Fishera

W analizie regresji test Fishera
pozwala ocenić znaczenie liniowe
modele regresji.
W szczególności jest stosowany w stepperze
regresje w celu sprawdzenia wykonalności
włączenie lub wyłączenie niezależnych
zmiennych (cech) do modelu regresji.
W ANOVA, test Fishera
pozwala ocenić znaczenie czynników i ich znaczenie
interakcje.

21. Test U Manna-Whitneya dla próbek niezależnych

Pokazuje, jak bardzo dwa wiersze pokrywają się (przecinają)
wartości mierzonych cech.
Warunki stosowania:
1.
Rozkład w co najmniej jednej próbce różni się od
normalnie wyglądający.
2.
Mała próba (ponad 100 osób –
użyj kryteriów parametrycznych, mniej niż 10
osoba – nieparametryczna, ale wyniki
uważane są za wstępne).
3.
Porównując średnie, nie ma jednorodności wariancji
wartości.

22. Test T Wilcoxona dla próbek zależnych

Podstawą jest zamówienie ilości
różnice (przesunięcia) wartości atrybutów w
każda para jej wymiarów.
Ideą kryterium jest liczenie
prawdopodobieństwo osiągnięcia minimum
pozytywny i negatywny
różnice pod warunkiem, że dystrybucja
pozytywny lub negatywny
różnice są jednakowo prawdopodobne i równe

23. Test Kruskala-Wallisa H dla 3 lub więcej niezależnych próbek

Służy do oceny różnic w stopniach
nasilenie analizowanej cechy
jednocześnie pomiędzy trzema, czterema i
więcej próbek.
Pozwala określić stopień zmian
charakterystyczny w próbkach, bez wskazania
kierunek tych zmian.

24. Test Kruskala-Wallisa H

Warunki stosowania:
1. Pomiaru należy dokonać w skali
porządek, przedziały lub relacje.
2. Próbki muszą być niezależne.
3. Dopuszczalna jest inna liczba respondentów na 1
porównywalne próbki.
4. Dopuszcza się porównanie trzech próbek
tak, że jeden z nich ma n=3, a drugi dwa
n=2. Ale w tym przypadku mogą wystąpić różnice
odnotowano jedynie na poziomie średnim
znaczenie.

25. Kryterium Fishera φ* (phi) (transformacja kątowa Fishera)

Kryterium φ (phi) ma na celu
porównanie dwóch serii próbek
wartości w oparciu o częstotliwość występowania dowolnej cechy.
Kryterium to można zastosować do każdego
próbki – zależne i niezależne. A
można również oszacować częstotliwość
występowanie cech charakterystycznych i ilościowych,
i zmienną jakościową.

26. Kryterium Fishera φ*

Warunki stosowania:
1. Pomiar można przeprowadzić w dowolnym miejscu
skala.
2. Charakterystyka próbek może być dowolna.
3. Dolna granica – w jednej z próbek może
powinny być tylko 2 obserwacje, natomiast w drugiej
musi być co najmniej 30 obserwacji. Górny
granica nie jest określona.
4. W przypadku małych próbek – dolne granice
próbki muszą zawierać co najmniej 5
obserwacje każdy.

27. Klasyfikacja problemów i metody ich rozwiązywania

Zadania
Warunki
Metody
1. Identyfikacja
a) 2 próbki
Q – kryterium Rosenbauma;
różnice w poziomie przedmiotów
U – test Manna-Whitneya;
temat
φ* - kryterium (kątowe
podpisać
transformacja Fishera)
b) 3 lub więcej wyborów – kryterium tendencji Jonkeera;
obiekty testów skał
H - test Kruskala-Wallisa.
2. Ocena przesunięcia a) 2 pomiary na jednym
T – test Wilcoxona;
wartości
i ta sama próbka
G - kryterium znaku;
temat
tematy
φ* - kryterium (kątowe
podpisać
transformacja Fishera).
b) 3 lub więcej pomiarów
χл2 – kryterium Friedmana;
na takim samym
L - Test tendencji Page'a.
próbka tematów

28. Klasyfikacja problemów i metody ich rozwiązywania

Zadania
3. Identyfikacja
różnice w
dystrybucja
4.Identyfikacja
stopni
konsystencja
zmiany
Warunki
Metody
a) w porównaniu
empiryczny
znak dystrybucji
teoretyczny
χ2 – test Pearsona;

m - test dwumianowy
b) przy porównywaniu
dwa empiryczne
dystrybucje
χ2 – test Pearsona;
λ – kryterium Kołmogorowa-Smirnowa;
φ* - kryterium (kątowe
transformacja Fishera).
rs - współczynnik rankingowy
Korelacje Spearmana.
rs - współczynnik rankingowy
Korelacje Spearmana
a) dwa znaki
b) dwie hierarchie lub
profile

29. Klasyfikacja problemów i metody ich rozwiązywania

Zadania
Warunki
5. Analiza
a) pod wpływem
zmiany
jeden czynnik
podpisz się
wpływ
kontrolowane
warunki
b) pod wpływem
dwa czynniki
jednocześnie
Metody
S - kryterium trendu
Jonkyra;
L - test tendencji Page'a;
wariancja jednokierunkowa
Analiza Fishera.
Wariancja dwuczynnikowa
Analiza Fishera.

Podobne artykuły