Informacija

Korištenje medijane za neparametarske (Likert) podatke kada vam daje decimalno mjesto

Korištenje medijane za neparametarske (Likert) podatke kada vam daje decimalno mjesto


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Moj kolega i ja radimo s neparametarskim Likertovim podacima.

Uzeli smo medijanu, ali tek smo shvatili da još uvijek dobivamo vrijednosti od recimo 2,5 ili 1,5. Naše opravdanje za korištenje medijane u odnosu na srednju vrijednost bilo je da vrijednosti koje leže između naših Likertovih podataka nemaju jako značenje.

Nismo sigurni bismo li trebali ponovno pokrenuti svoju analizu, uvijek uzimajući minimalnu vrijednost ili ...?

Hvala vam.


Upotrebljavate pogrešno opravdanje za korištenje medijane. Jedini razlog zbog kojeg možete razmisliti o upotrebi medijane ili srednjeg učinka s Likertovim podacima je taj što postoji je značenje vrijednosti između Likert stavki. Ako imate "Slažem se" i "Potpuno se slažem", definitivno postoji mogućnost neke vrijednosti u kojoj se netko slaže snažnije nego što se slaže, ali manje snažno nego snažno.

Međutim, gubite gomilu informacija kada izračunate medijanu stavke slične Likert-u, a to može biti opasno ako se razlikuju oblici distribucije odgovora. Razmotrimo slučaj u kojem imate 5 razina. Ova dva vektora brojanja daju vam isti medijan '3':

A = [5 5 50 20 20]

B = [20 20 50 5 5]

ali raspodjele su prilično različite i medijan nije jako informativan o toj razlici.

Možete razmisliti o upotrebi "interpolirane medijane" koja Likertovu stavku tretira kao označavanje intervala između susjednih stavki, na primjer "3" doista znači "negdje na intervalu [2.5 3.5]."

Za gore navedene slučajeve A i B, interpolirane medijane su:

mintA = 3.3

mintB = 2.7


Bryanov odgovor je sasvim u redu, samo želim dodati neke osnove na medijanu. Brzi pogled na wiki stranicu odmah bi vam rekao da medijani cijelih brojeva ne moraju nužno biti cijeli brojevi ako postoji paran broj opažanja. Uzmite u obzir skup podataka [0 1] - medijana i srednja vrijednost su iste, naime 0,5. Neravan broj cijelih brojeva uvijek će dati medijan cijelog broja.

Ako se osjećate neugodno spominjući decimale Likertove ljestvice, razmislite o zaokruživanju ishoda na najbliži cijeli broj.


Sadržaj

Uzmite u obzir podatke (1, 1, 2, 2, 4, 6, 9). Ima srednju vrijednost 2. Apsolutna odstupanja oko 2 su (1, 1, 0, 0, 2, 4, 7) koja pak imaju srednju vrijednost 1 (jer su razvrstana apsolutna odstupanja (0, 0, 1, 1, 2, 4, 7)). Dakle, medijan apsolutnog odstupanja za ove podatke je 1.

Medijan apsolutnog odstupanja mjera je statističke disperzije. Štoviše, MAD je robusna statistika, otpornija na vanjske vrijednosti u skupu podataka od standardne devijacije. U standardnom odstupanju, udaljenosti od srednje vrijednosti su na kvadrat, pa se velika odstupanja teže ponderiraju, pa izvanredni učinci mogu na to uvelike utjecati. U MAD -u su odstupanja malog broja izdvajanja irelevantna.

Budući da je MAD robusniji procjenjivač mjerila od varijance uzorka ili standardne devijacije, bolje radi s distribucijama bez srednje vrijednosti ili varijance, poput Cauchyjeve distribucije.

MAD se može koristiti slično kao što bi se odstupanje koristilo za prosjek. Kako bi se MAD koristio kao dosljedan procjenitelj za procjenu standardne devijacije σ < displaystyle sigma>, potrebno je uzeti

Stoga to moramo imati

Drugi način uspostavljanja odnosa je napomena da je MAD jednak polu normalnoj medijani distribucije:

Ovaj se oblik koristi u npr. Vjerojatnoj pogrešci.

Slično kako se medijana generalizira na geometrijsku medijanu u multivarijantnim podacima, može se konstruirati geometrijska MAD koja generalizira MAD. S obzirom na dvodimenzionalni upareni skup podataka (X1,Y1), (X2,Y2). (Xn,Yn) i odgovarajuće izračunate geometrijske medijane (X

To daje identičan rezultat kao univarijantna MAD u 1 dimenziji i lako se proširuje na veće dimenzije. U slučaju složenih vrijednosti (x+iY), odnos MAD -a prema standardnoj devijaciji je nepromijenjen za normalno distribuirane podatke.

Populacija MAD definirana je analogno uzorku MAD, ali se temelji na potpunoj raspodjeli, a ne na uzorku. Za simetričnu distribuciju s nultom sredinom, populacijska MAD je 75. percentil distribucije.

Za razliku od varijance, koja može biti beskonačna ili nedefinirana, populacijski MAD uvijek je konačan broj. Na primjer, standardna Cauchyjeva distribucija ima nedefiniranu varijancu, ali je njena MAD 1.

Najranije poznato spominjanje koncepta MAD -a dogodilo se 1816. godine u radu Carla Friedricha Gaussa o određivanju točnosti numeričkih opažanja. [4] [5]


Prosjek je obično najbolja mjera središnje tendencije korištenja kada je vaša distribucija podataka kontinuirana i simetrična, na primjer kada se vaši podaci normalno distribuiraju. Međutim, sve ovisi o tome što pokušavate prikazati iz svojih podataka.

Način se najmanje koristi od mjera središnje tendencije i može se koristiti samo kada se radi o nominalnim podacima. Iz tog razloga, način rada bit će najbolja mjera središnje tendencije (budući da je jedini prikladan za korištenje) pri obradi nominalnih podataka. Prosječna vrijednost i/ili medijana obično se preferiraju kada se radi sa svim drugim vrstama podataka, ali to ne znači da se nikada ne koristi s tim vrstama podataka.


Parametarski i neparametarski testovi za usporedbu dviju ili više skupina

Statistika: Parametarski i neparametarski testovi

Odabir testa

U pogledu odabira statističkog testa, najvažnije pitanje je "koja je glavna hipoteza istraživanja?" U nekim slučajevima nema hipoteze da istražitelj samo želi "vidjeti što ima". Na primjer, u studiji o prevalenciji ne postoji hipoteza za provjeru, a veličina studije određena je time koliko točno istraživač želi utvrditi prevalenciju. Ako nema hipoteze, nema ni statističkog testa. Važno je odlučiti se apriorno koje su hipoteze potvrdne (odnosno provjeravaju neki pretpostavljeni odnos), a koje su istraživačke (sugeriraju podaci). Nijedna studija ne može podržati čitav niz hipoteza. Razumni plan je strogo ograničiti broj potvrdnih hipoteza. Iako je valjano koristiti statističke testove na hipotezama koje sugeriraju podaci, vrijednosti P trebale bi se koristiti samo kao smjernice, a rezultate tretirati kao probne dok ih ne potvrde naknadne studije. Korisni vodič je korištenje Bonferronijeve korekcije koja jednostavno navodi da ako netko testira n neovisne hipoteze, treba koristiti razinu značajnosti 0,05/n. Stoga bi, ako postoje dvije neovisne hipoteze, rezultat bio proglašen značajnim samo ako je P <0,025. Imajte na umu da, budući da su testovi rijetko neovisni, ovo je vrlo konzervativan postupak - tj. Postupak za koji je vjerojatno da neće odbaciti nultu hipotezu. Istražitelj bi se tada trebao upitati "jesu li podaci neovisni?" To može biti teško odlučiti, ali u pravilu opći rezultati o istoj osobi ili osobama koje se podudaraju nisu neovisni. Stoga rezultati unakrsnog ispitivanja ili studije slučaja-kontrole u kojoj su kontrole usklađene sa slučajevima prema dobi, spolu i društvenoj klasi nisu neovisni.

  • Analiza bi trebala odražavati dizajn, pa bi usklađeni dizajn trebao slijediti usklađena analiza.
  • Vremenski mjereni rezultati zahtijevaju posebnu njegu. Jedna od najčešćih pogrešaka u statističkoj analizi jest tretiranje koreliranih varijabli kao da jesu
    neovisna. Na primjer, pretpostavimo da smo gledali liječenje čireva na nogama, gdje su neki ljudi imali čir na svakoj nozi. Možda imamo 20 ispitanika
    30 čireva, ali broj neovisnih podataka je 20 jer na stanje čira na svakoj nozi za jednu osobu može utjecati stanje
    zdravlje osobe i analiza koja smatra da su čirevi neovisna opažanja bila bi netočna. Za ispravnu analizu mješovitih uparenih i nesparenih
    podatke obratite se statističaru.

Sljedeće pitanje je "koje se vrste podataka mjere?" Korišteni test treba odrediti prema podacima. Izbor testa za uparene ili uparene podatke opisan je u tablici 1, a za neovisne podatke u tablici 2.

Tablica 1 Izbor statističkog testa iz uparenog ili usklađenog promatranja

Korisno je odlučiti o ulaznim i izlaznim varijablama. Na primjer, u kliničkom ispitivanju ulazna varijabla je vrsta liječenja - nominalna varijabla - a ishod može biti neka klinička mjera koja je možda normalno distribuirana. Potrebni test tada je t-test (Tablica 2). Međutim, ako je ulazna varijabla kontinuirana, recimo klinički rezultat, a ishod je nominalni, recimo izliječen ili neizliječen, potrebna je analiza logističke regresije. A t-test u ovom slučaju može pomoći, ali neće dati ono što nam je potrebno, naime vjerojatnost izlječenja za datu vrijednost kliničkog rezultata. Kao još jedan primjer, pretpostavimo da imamo presjek u kojemu slučajni uzorak ljudi pitamo misle li da njihov liječnik opće prakse radi dobar posao, na ljestvici od pet stupnjeva, i želimo utvrditi imaju li žene više mišljenje liječnika opće prakse nego muškarci. Ulazna varijabla je spol, koji je nominalni. Varijabla ishoda je redna ljestvica od pet točaka. Mišljenje svake osobe neovisno je o drugima, pa imamo neovisne podatke. Iz tablice 2 trebali bismo upotrijebiti χ 2 test za trend ili Mann-Whitneyjev U test s korekcijom veza (NB: do izjednačenja dolazi kada su dvije ili više vrijednosti iste, pa ne postoji strogo rastući redoslijed redova-gdje to se događa, može se izračunati prosjek rangova za vezane vrijednosti). Međutim, imajte na umu da ako neki ljudi dijele liječnika opće prakse, a drugi ne, podaci nisu neovisni i potrebna je sofisticiranija analiza. Imajte na umu da se ove tablice trebaju smatrati samo vodičima, a svaki slučaj valja razmotriti u meritumu.

Tablica 2 Izbor statističkog testa za neovisna opažanja

a Ako su podaci cenzurirani. b Kruskal-Wallisov test koristi se za usporedbu ordinalnih ili nenormalnih varijabli za više od dvije skupine, a generalizacija je Mann-Whitneyjevog U testa. c Analiza varijance opća je tehnika, a jedna verzija (jednosmjerna analiza varijance) koristi se za usporedbu normalno distribuiranih varijabli za više od dvije skupine i parametarski je ekvivalent Kruskal-Wallistesta. d Ako je varijabla ishoda ovisna varijabla, tada pod uvjetom da su zaostaci (razlike između promatranih vrijednosti i predviđenih odgovora iz regresije) vjerovatno normalno raspodijeljeni, tada raspodjela neovisne varijable nije važna. e Postoji niz naprednijih tehnika, poput Poissonove regresije, za rješavanje ovih situacija. Međutim, one zahtijevaju određene pretpostavke i često je lakše dihotomizirati varijablu ishoda ili je tretirati kao kontinuiranu.

Parametarski testovi su oni koji donose pretpostavke o parametrima distribucije populacije iz kojih se uzima uzorak. To je često pretpostavka da se podaci o stanovništvu normalno distribuiraju. Neparametarski testovi su "bez distribucije" i, kao takvi, mogu se koristiti za ne-normalne varijable. Tablica 3 prikazuje neparametarski ekvivalent brojnih parametarskih testova.

Tablica 3 Parametarski i neparametarski testovi za usporedbu dviju ili više skupina

Neparametarski testovi vrijede i za podatke koji nisu normalno distribuirani i za normalno distribuirane podatke, pa zašto ih ne biste koristili cijelo vrijeme?

Čini se da je pametno koristiti neparametarske testove u svim slučajevima, što bi uštedjelo gnjavažu s testiranjem na normalnost. Parametrijska ispitivanja su ipak poželjna iz sljedećih razloga:

1. Rijetko nas zanima samo test važnosti, htjeli bismo reći nešto o populaciji iz koje su uzorci došli, a to je najbolje učiniti
procjene parametara i intervala pouzdanosti.

2. Teško je napraviti fleksibilno modeliranje s neparametarskim testovima, na primjer dopuštajući zbunjujuće faktore pomoću višestruke regresije.

3. Parametarski testovi obično imaju veću statističku snagu od njihovih neparametarskih ekvivalenata. Drugim riječima, veća je vjerojatnost da će se otkriti značajne razlike kada
oni uistinu postoje.

Uspoređuju li neparametrijski testovi medijane?

Uvriježeno je mišljenje da je Mann-Whitneyjev U test zapravo test za razlike u medijanama. Međutim, dvije skupine mogle bi imati istu medijanu, a opet imati značajan Mann-Whitneyjev U test. Uzmite u obzir sljedeće podatke za dvije skupine, svaka sa 100 opažanja. Skupina 1: 98 (0), 1, 2 Skupina 2: 51 (0), 1, 48 (2). Medijana u oba slučaja je 0, ali iz Mann-Whitneyjevog testa P & lt0.0001. Samo ako smo spremni donijeti dodatnu pretpostavku da je razlika u dvije skupine jednostavno pomak u mjestu (to jest, raspodjela podataka u jednoj skupini jednostavno je pomaknuta za fiksni iznos iz druge), možemo reći da test je test razlike u medijanama. Međutim, ako skupine imaju jednaku raspodjelu, tada će pomak u mjestu pomaknuti medijane i sredstva za isti iznos, pa je razlika u medijanama ista kao i razlika u sredinama. Tako je Mann-Whitneyjev U test također test za razliku u srednjim vrijednostima. Kako je Mann-Whitney U test povezan s t-test? Ako bismo u dva uzorka unijeli redove podataka, a ne same podatke t-testni program, dobivena vrijednost P bila bi vrlo blizu onoj proizvedenoj Mann-Whitneyjevim U testom.


Mjere lokacije i disperzije i njihova odgovarajuća uporaba

Statistika: Mjere lokacije i disperzije

  • Srednje
  • Medijan
  • Način rada
  • Domet
  • Interkvartilni Raspon
  • Standardna devijacija

Mjere lokacije

Mjere lokacije opisuju središnju tendenciju podataka. Oni uključuju srednju vrijednost, medijanu i način rada.

Prosječno ili prosječno

(Aritmetička) sredina ili prosjek n opažanja (izgovara se "x bar") jednostavno je zbroj opažanja podijeljen s brojem opažanja tako:

U ovoj jednadžbi xi predstavlja pojedinačne vrijednosti uzorka, a Σxi njihov zbroj. Grčko slovo 'Σ' (sigma) grčki je prijevod 'S' i znači 'zbroj'. Njihov izračun opisan je u dolje navedenom primjeru 1.

Medijana je definirana kao srednja točka poredanih podataka. Procjenjuje se tako da se podaci prvo poredaju od najmanjeg do najvećeg, a zatim se prebroji prema gore za polovicu promatranja. Procjena medijane je ili promatranje u središtu redoslijeda u slučaju neparnog broja opažanja, ili jednostavan prosjek srednja dva opažanja ako je ukupan broj opažanja paran. Točnije, ako postoji neparan broj opažanja, to je [(n+1)/2] -to opažanje, a ako postoji paran broj opažanja, to je prosjek [n/2] -tog i [(n/2) +1]. zapažanja.

Primjer 1 Izračun srednje i medijane

Uzmite u obzir sljedećih 5 porođajnih težina, u kilogramima, zabilježenih na 1 decimalno mjesto:

Srednja vrijednost definirana je kao zbroj opažanja podijeljen s brojem opažanja. Prema tome, srednja vrijednost = (1,2+1,3+...+2,1)/5 = 1,50 kg. Uobičajeno je za prosjek navesti 1 decimalno mjesto više od zabilježenih podataka.

Postoji 5 opažanja, što je neparan broj, pa je medijalna vrijednost (5+1)/2 = 3. promatranje, što je 1,4 kg. Upamtite da ako je broj opažanja paran, tada je medijana definirana kao prosjek [n/2] -ta i [(n/2) +1] -tog. Dakle, da smo u uzorku porođajnih težina promatrali dodatnu vrijednost od 3,5 kg, medijana bi bila prosjek 3. i 4. opažanja na ljestvici, naime prosjek 1,4 i 1,5, što je 1,45 kg.

Prednosti i nedostaci srednje vrijednosti i medijane

Glavna prednost srednje vrijednosti je ta što koristi sve vrijednosti podataka i u statističkom smislu je učinkovita.

Glavni nedostatak srednje vrijednosti je to što je osjetljiva na vanjske vrijednosti. Izobličenja su pojedinačna opažanja koja, ako se isključe iz izračuna, imaju značajan utjecaj na rezultate. Na primjer, da smo u izračun srednje vrijednosti u Primjeru 1 unijeli '21' umjesto '2,1', utvrdili bismo da se srednja vrijednost promijenila s 1,50 kg na 7,98 kg. Međutim, ne mora nužno slijediti da se odstupanja trebaju isključiti iz konačnog sažetka podataka ili da uvijek proizlaze iz pogrešnog mjerenja.

Medijan ima prednost u tome što na njega ne utječu isticanja pa, na primjer, na medijan u primjeru ne bi utjecala zamjena '2.1' sa '21'. Međutim, nije statistički učinkovit jer ne koristi sve pojedinačne vrijednosti podataka.

Treća mjera lokacije je način rada. To je vrijednost koja se najčešće javlja ili, ako su podaci grupirani, grupiranje s najvećom učestalošću. Ne koristi se puno u statističkim analizama, jer njegova vrijednost ovisi o točnosti kojom se podaci mjere, iako bi moglo biti korisno za kategorijske podatke za opisivanje najčešće kategorije. Izraz 'bimodalna' distribucija koristi se za opis distribucije s dva vrha u njoj. To može biti uzrokovano miješanjem populacija. Na primjer, visina bi se mogla činiti bimodalnom ako u populaciji ima muškaraca i žena. Neke bolesti mogu povisiti biokemijske mjere, pa se u populaciji koja sadrži zdrave i bolesne osobe može očekivati ​​bimodalnu raspodjelu. Međutim, neke bolesti definirane su mjerom (npr. Pretilost ili visoki krvni tlak) i u ovom su slučaju raspodjele obično unimodalne.

Mjere disperzije ili varijabilnosti

Mjere disperzije opisuju širenje podataka. Oni uključuju raspon, međukvartilni raspon, standardnu ​​devijaciju i varijancu.

Raspon i međukvartilni raspon

Raspon je dan kao najmanje i najveće opažanje. Ovo je najjednostavnije mjerilo varijabilnosti. Napomena u statistikama (za razliku od fizike) raspon je dan s dva broja, a ne razlikom između najmanjeg i najvećeg. Za neke podatke to je vrlo korisno jer bi se htjeli znati ti brojevi, na primjer znajući na uzorku dob najmlađeg i najstarijeg sudionika. Ako su prisutni odstupanja, to može dati iskrivljen dojam o promjenjivosti podataka, budući da su samo dva opažanja uključena u procjenu.

Kvartili i međukvartilni raspon

Kvartili, naime donji kvartil, medijan i gornji kvartil, dijele podatke na četiri jednaka dijela, odnosno bit će približno jednak broj opažanja u četiri odjeljka (i potpuno jednaki ako je veličina uzorka djeljiva s četiri i sve su mjere različite). Imajte na umu da zapravo postoje samo tri kvartila i to su točke, a ne proporcije. Uobičajena je zloupotreba jezika kada se misli na to da se nalazi 'u gornjem kvartilu'. Umjesto toga treba se odnositi na to da se nalazimo u „gornjoj četvrtini“ ili „iznad gornje četvrtine“. Međutim, značenje prve izjave je jasno pa je razlika doista korisna samo za prikaz superiornog znanja o statistici! Kvartili se izračunavaju na sličan način kao i medijana, prvo se podaci raspoređuju po veličini i određuje medijana, pomoću gore opisane metode. Sada podijelite podatke na dva dijela (donja polovica i gornja polovica, na temelju medijane). Prvi kvartil je srednje promatranje donje polovice, a treći kvartil srednje promatranje gornje polovice. Taj je postupak prikazan u primjeru 2, ispod.

Interkvartilni raspon korisna je mjera varijabilnosti, a daju ga donji i gornji kvartil. Interkvartilni raspon nije osjetljiv na isticanje i, bez obzira na distribuciju podataka, znamo da 50% opažanja leži unutar interkvartilnog raspona.

Primjer 2 Izračun kvartila

Pretpostavimo da imamo 18 porođajnih težina raspoređenih po rastućem redoslijedu.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

Medijan je prosjek 9. i 10. opažanja (2,18+2,22)/2 = 2,20 kg. Prva polovica podataka ima 9 opažanja pa je prvi kvartil 5. opažanje, naime 1,79 kg. Slično bi treći kvartil bio peto promatranje u gornjoj polovici podataka ili 14. promatranje, naime 2,40 kg. Stoga je međukvartilni raspon od 1,79 do 2,40 kg.

Standardna devijacija i varijacija

Standardna devijacija uzorka (s) izračunava se na sljedeći način:

Izraz ∑ (xi -) 2 se tumači kao: iz svakog pojedinačnog promatranja (xi) oduzeti srednju vrijednost (), a zatim ovu razliku uokviriti. Zatim dodajte svaki od n kvadratne razlike. Taj se zbroj tada dijeli sa (n-1). Ovaj izraz je poznat kao varijansa uzorka (s 2). Varijansa je izražena u kvadratnim jedinicama, pa uzimamo kvadratni korijen za povratak na izvorne jedinice, što daje standardnu ​​devijaciju, s. Ispitujući ovaj izraz može se vidjeti da su sva zapažanja ista (tj. X1 = x2 = x3 . = xn), onda bi izjednačili srednju vrijednost, i tako s bilo bi nula. Ako je x -ovi bili su tada jako razbacani s bila bi velika. Na ovaj način, s odražava varijabilnost podataka. Izračun standardne devijacije opisan je u primjeru 3. Standardna devijacija je osjetljiva na izvanredne vrijednosti, pa bismo, ako bismo 2.1 zamijenili s 21 u primjeru 3, dobili vrlo različit rezultat.

Primjer 3 Izračun standardne devijacije

Razmotrimo podatke iz primjera 1. Izračuni potrebni za određivanje zbroja kvadrata razlika od srednje vrijednosti dati su u donjoj tablici 1. Utvrdili smo da je prosjek 1,5 kg. To oduzimamo od svakog opažanja. Imajte na umu da je srednja vrijednost ovog stupca nula. To će uvijek biti slučaj: pozitivna odstupanja od srednje poništavaju negativna. Prikladna metoda za uklanjanje negativnih predznaka je kvadratura odstupanja koja je navedena u sljedećem stupcu. Te se vrijednosti zatim zbrajaju kako bi se dobila vrijednost od 0,50 kg 2. Moramo pronaći prosječno kvadratno odstupanje. Zdrav razum predlaže dijeljenje sa n, no pokazalo se da to zapravo daje procjenu varijance populacije koja je premala. To je zato što u izračunu koristimo procijenjenu srednju vrijednost i zaista bismo trebali koristiti pravu prosječnu populaciju. Može se pokazati da je bolje podijeliti po stupnjevima slobode, što je n minus broj procijenjenih parametara, u ovom slučaju n-1. Intuitivan način gledanja na ovo je pretpostaviti da je netko imao n telefonski stupovi udaljeni svakih 100 metara. Koliko je žica potrebno za njihovo povezivanje? Kao i kod varijacija, ovdje nas ne zanima gdje su telegrafski stupovi, već jednostavno koliko su udaljeni. Trenutak razmišljanja trebao bi nekoga uvjeriti u to nZa povezivanje je potrebno 1 duljina žice n telegrafske stupove.

Tablica 1 Izračun srednjeg kvadratnog odstupanja

Iz do sada izračunatih rezultata možemo odrediti varijansu i standardnu ​​devijaciju, kako slijedi:

Varijanta = 0,50/(5-1) = 0,125 kg 2

Standardna devijacija = √ (0,125) = 0,35 kg

Zašto je standardna devijacija korisna?

U mnogim se situacijama ispostavlja da će oko 95% promatranja biti unutar dva standardna odstupanja od srednje vrijednosti, poznate kao referentni interval. Ta ga karakteristika standardne devijacije čini toliko korisnom. Vrijedi za veliki broj mjerenja koja se uobičajeno rade u medicini. Konkretno, vrijedi za podatke koji slijede normalnu distribuciju. Standardna odstupanja ne smiju se koristiti za podatke s velikim iskrivljenjem, poput broja ili ograničenih podataka, jer ne ilustriraju značajnu mjeru varijacije, već se umjesto toga treba koristiti IQR ili raspon. Konkretno, ako je standardna devijacija slične veličine kao i srednja vrijednost, onda SD nije informativna zbirna mjera, osim ako označava da su podaci iskrivljeni.


OCR psihologija A razine: Metode istraživanja

Primjer:
Riječi koje se odnose na vas rangirajte kao najvažnije, a one koje se ne odnose na najmanje važne.

-& gt Pouzdanost ponovnim testiranjem: ponovno intervjuirajte sudionike kasnije i usporedite njihov prethodni odgovor s trenutnim odgovorom ako nije bilo tretmana, trebao bi biti isti.

-& gt Pouzdanost sugovornika: intervju koji su ponovila dva različita ispitivača, kako bi se smanjio učinak pristranosti ispitivača i provjerila dosljednost.

- Usporedite ocjene ili više promatrača i provjerite slažu li se njihovi podaci. Ako se slažu u velikom postotku snimki promatranja, tada je pouzdanost velika. To se naziva pouzdanost među ocjenjivačima.

Poboljšanje valjanosti zapažanja:
- Provedite isto promatranje u različitim okruženjima s različitim sudionicima.

- Dvostrana hipoteza: ne spominje smjer korelacije.

- Jednostrana hipoteza: treba uključiti smjer korelacije npr. pozitivan ili negativan.

- Nulta hipoteza: Neće postojati značajna povezanost između _____ i _____.

- ponekad se može pretvoriti u kvantitativne podatke, a zatim analizirati. (to se vrši analizom sadržaja koja uključuje kategorizaciju pisanih podataka u temeljne teme)

- daje istraživaču potpuniju sliku dotičnog ponašanja

- intervalni podaci: koristite srednju vrijednost
- redni podaci: upotrijebite medijanu
- nominalni podaci: način rada

- Raspon: najveće vrijednosti minus najniža vrijednost.

- Standardna devijacija:
1. Odredite srednju vrijednost
2. Nađi (x -x)^2 - minus rezultat iz srednje kvadrature.
3. Zbrojite ove brojeve i podijelite s ukupnim brojem vrijednosti minus 1.
4. Uzmi kvadratni korijen odgovora.

(ZA BOLJE OBJAŠNJENJE -
https://www.mathsisfun.com/data/standard-deviation-formulas.html)

- Standardno odstupanje je bolja mjera varijacije od raspona budući da na njega manje utječu ekstremne vrijednosti, ali za izračun je potrebno više vremena.

- Nominalni podaci
- Dizajn neovisnih mjera

1. Vježbajte (O-E)^2 / E za svaku mogućnost-& gt E = ukupni red x ukupni ukupni stupac / ukupni ukupni iznos

2. Zbrojite četiri izračuna.
-nakon što je x^2 izračunato -& gt izračunajte stupnjeve slobode (df) = (broj redaka -1) x (broj stupaca -1)

- Barem redni podaci
- Nezavisne mjere

N = broj sudionika u grupi
N^1 = broj u skupini 1
N^2 = broj u skupini 2.

TREBA RANGIRATI SVE BODOVANE OD NAJMANJIH DO NAJVIŠIH. (za identične bodove -& gt zbrojite redove koje bi zauzeli i podijelite s brojem identičnih bodova)
R^1 - ukupan zbroj činova za grupu 1
R^2 - ukupan zbroj rangova za grupu 2

Korak 1: Podaci su kategorizirani u tablicu rezultata.
Korak 2: Potrebno je dodati pozitivne i negativne znakove.

(PRIMJER PITANJE O KNJIGI 24 METODA ISTRAŽIVANJA) Ako je uvjet A da, a uvjet B nije, dodaje se plus (jer to podržava smjer hipoteze), a suprotno bi bilo minus.

Korak 3: Zahtijeva brojanje svakog pozitivnog i negativnog znaka dodijeljenog bodovima svakog sudionika.
Korak 4: Uočena vrijednost S u najmanjoj ukupnoj ocjeni smjera.


Kontroverza

U literaturi o medicinskom obrazovanju postoji dugotrajna kontroverza u pogledu toga mogu li se redni podaci, pretvoreni u brojeve, tretirati kao intervalni podaci.2 Odnosno, moguća sredstva, standardna odstupanja i parametarska statistika, koji ovise o podacima koji su normalno distribuirani (slika 2), koristiti za analizu rednih podataka?

Prilikom provođenja istraživanja mjerimo podatke iz uzorka ukupne interesne populacije, a ne od svih članova populacije. Parametarski testovi donose pretpostavke o temeljnoj populaciji iz koje su dobiveni podaci istraživanja - obično da se ti podaci o populaciji normalno distribuiraju. Neparametarski testovi ne čine ovu pretpostavku o "obliku" populacije iz koje su izvučeni podaci studije. Neparametarski testovi su manje moćni od parametarskih testova i obično zahtijevaju veću veličinu uzorka (n vrijednost) kako bi imali istu snagu kao i parametarski testovi za pronalaženje razlike među skupinama kad razlika doista postoji. Opisni statistički podaci, poput srednjih vrijednosti i standardnih odstupanja, imaju nejasno značenje kada se primjenjuju na odgovore Likertove ljestvice. Na primjer, što zapravo znači prosjek "nikad" i "rijetko"? Ima li "rijetko i pol" korisno značenje? 3 Nadalje, ako su odgovori grupisani na visokim i niskim ekstremima, može se činiti da je srednja vrijednost neutralni ili srednji odgovor, ali to možda ne karakterizira podatke. Ovo nakupljanje ekstrema uobičajeno je, na primjer, u procjenama pripravnika o iskustvima koja bi mogla biti vrlo popularna kod jedne skupine, a druga ih doživljavaju kao nepotrebne (npr. Tečaj epidemiologije na medicinskom fakultetu). Druge neuobičajene distribucije podataka o odgovoru mogu na sličan način rezultirati srednjim rezultatom koji nije korisna mjera središnje tendencije podataka.

Zbog ovih zapažanja stručnjaci su godinama tvrdili da bi se medijana trebala koristiti kao mjera središnje tendencije za podatke Likertove ljestvice.3 Slično, stručnjaci su tvrdili da su učestalosti (postoci odgovora u svakoj kategoriji), tablice nepredviđenih situacija, χ 2 testove, Spearmanovu rho procjenu ili Mann-Whitney U test bi se trebao koristiti za analizu umjesto parametarskih testova koji, strogo govoreći, zahtijevaju podatke o intervalima (npr. t testovi, analiza varijance, Pearsonove korelacije, regresija) .3 Međutim, drugi stručnjaci tvrde da ako postoji odgovarajuća veličina uzorka (najmanje 5-10 opažanja po skupini) i ako su podaci normalno raspoređeni (ili gotovo normalni), parametarski testovi se mogu koristiti s rednim podacima Likertove ljestvice.3

Srećom, dr. Geoff Norman, jedan od svjetskih lidera u metodologiji istraživanja medicinskog obrazovanja, opsežno je pregledao ovu kontroverzu. On pruža uvjerljive dokaze, sa stvarnim primjerima koji koriste stvarne i simulirane podatke, da se parametarski testovi ne mogu koristiti samo s rednim podacima, poput podataka s Likertovih ljestvica, već i da su parametarski testovi općenito robusniji od neparametarskih testova. Odnosno, parametarski testovi imaju tendenciju da daju "pravi odgovor" čak i kada su statističke pretpostavke - kao što je normalna raspodjela podataka - prekršene, čak i u ekstremnom stupnju.4 Dakle, parametarski testovi dovoljno su čvrsti da daju uglavnom nepristrane odgovore koji su prihvatljivo blizu "istine" pri analizi odgovora Likertove ljestvice.4

Pedagozi i istraživači također obično stvaraju nekoliko stavki tipa Likert, grupiraju ih u "anketnu ljestvicu", a zatim izračunavaju ukupnu ocjenu ili srednju ocjenu za stavke ljestvice. Često se ova praksa preporučuje, osobito kada istraživači pokušavaju mjeriti manje konkretne pojmove, poput motivacije pripravnika, zadovoljstva pacijenata i povjerenja liječnika - gdje je malo vjerojatno da jedna stavka ankete može u potpunosti obuhvatiti koncept koji se ocjenjuje.5 U ovim U tim slučajevima stručnjaci predlažu korištenje Cronbachovog alfa ili Kappa testa ili tehnike faktorske analize kako bi se dokazali da su komponente ljestvice dovoljno međusobno povezane i da grupirane stavke mjere temeljnu varijablu.


Uvod

Tri modula o testiranju hipoteza predstavila su niz testova hipoteze za kontinuirane, dihotomne i diskretne ishode. Testovi za kontinuirane ishode usredotočeni su na usporedbu sredstava, dok su testovi za dihotomne i diskretne ishode usredotočeni na usporedbu proporcija. Svi testovi predstavljeni u modulima o testiranju hipoteza se zovu parametarska ispitivanja a temelje se na određenim pretpostavkama. Na primjer, kada se izvode testovi hipoteza za kontinuirane ishode, svi parametarski testovi pretpostavljaju da je ishod približno normalno raspoređen u populaciji. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Measures of Location and Dispersion and their appropriate uses

Statistics: Measures of location and dispersion

  • Srednje
  • Median
  • Mode
  • Range
  • Interquartile Range
  • Standardna devijacija

Measures of Location

Measures of location describe the central tendency of the data. They include the mean, median and mode.

Mean or Average

The (arithmetic) mean, or average, of n observations (pronounced “x bar”) is simply the sum of the observations divided by the number of observations thus:

In this equation, xi represents the individual sample values and Σxi their sum. The Greek letter 'Σ' (sigma) is the Greek capital 'S' and stands for 'sum'. Their calculation is described in example 1, below.

The median is defined as the middle point of the ordered data. It is estimated by first ordering the data from smallest to largest, and then counting upwards for half the observations. The estimate of the median is either the observation at the centre of the ordering in the case of an odd number of observations, or the simple average of the middle two observations if the total number of observations is even. More specifically, if there are an odd number of observations, it is the [(n+1)/2]th observation, and if there are an even number of observations, it is the average of the [n/2]th and the [(n/2)+1]th observations.

Example 1 Calculation of mean and median

Consider the following 5 birth weights, in kilograms, recorded to 1 decimal place:

The mean is defined as the sum of the observations divided by the number of observations. Thus mean = (1.2+1.3+…+2.1)/5 = 1.50kg. It is usual to quote 1 more decimal place for the mean than the data recorded.

There are 5 observations, which is an odd number, so the median value is the (5+1)/2 = 3rd observation, which is 1.4kg. Remember that if the number of observations was even, then the median is defined as the average of the [n/2]th and the [(n/2)+1]th. Thus, if we had observed an additional value of 3.5kg in the birth weights sample, the median would be the average of the 3rd and the 4th observation in the ranking, namely the average of 1.4 and 1.5, which is 1.45kg.

Advantages and disadvantages of the mean and median

The major advantage of the mean is that it uses all the data values, and is, in a statistical sense, efficient.

The main disadvantage of the mean is that it is vulnerable to outliers. Outliers are single observations which, if excluded from the calculations, have noticeable influence on the results. For example, if we had entered '21' instead of '2.1' in the calculation of the mean in Example 1, we would find the mean changed from 1.50kg to 7.98kg. It does not necessarily follow, however, that outliers should be excluded from the final data summary, or that they always result from an erroneous measurement.

The median has the advantage that it is not affected by outliers, so for example the median in the example would be unaffected by replacing '2.1' with '21'. However, it is not statistically efficient, as it does not make use of all the individual data values.

A third measure of location is the mode. This is the value that occurs most frequently, or, if the data are grouped, the grouping with the highest frequency. It is not used much in statistical analysis, since its value depends on the accuracy with which the data are measured although it may be useful for categorical data to describe the most frequent category. The expression 'bimodal' distribution is used to describe a distribution with two peaks in it. This can be caused by mixing populations. For example, height might appear bimodal if one had men and women on the population. Some illnesses may raise a biochemical measure, so in a population containing healthy and ill people one might expect a bimodal distribution. However, some illnesses are defined by the measure (e.g. obesity or high blood pressure) and in this case the distributions are usually unimodal.

Measures of Dispersion or Variability

Measures of dispersion describe the spread of the data. They include the range, interquartile range, standard deviation and variance.

Range and Interquartile Range

The range is given as the smallest and largest observations. This is the simplest measure of variability. Note in statistics (unlike physics) a range is given by two numbers, not the difference between the smallest and largest. For some data it is very useful, because one would want to know these numbers, for example knowing in a sample the ages of youngest and oldest participant. If outliers are present it may give a distorted impression of the variability of the data, since only two observations are included in the estimate.

Quartiles and Interquartile Range

The quartiles, namely the lower quartile, the median and the upper quartile, divide the data into four equal parts that is there will be approximately equal numbers of observations in the four sections (and exactly equal if the sample size is divisible by four and the measures are all distinct). Note that there are in fact only three quartiles and these are points not proportions. It is a common misuse of language to refer to being ‘in the top quartile’. Instead one should refer to being ‘in the top quarter or ‘above the top quartile’. However, the meaning of the first statement is clear and so the distinction is really only useful to display a superior knowledge of statistics! The quartiles are calculated in a similar way to the median first arrange the data in size order and determine the median, using the method described above. Now split the data in two (the lower half and upper half, based on the median). The first quartile is the middle observation of the lower half, and the third quartile is the middle observation of the upper half. This process is demonstrated in Example 2, below.

The interquartile range is a useful measure of variability and is given by the lower and upper quartiles. The interquartile range is not vulnerable to outliers and, whatever the distribution of the data, we know that 50% of observations lie within the interquartile range.

Example 2 Calculation of the quartiles

Suppose we had 18 birth weights arranged in increasing order.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

The median is the average of the 9th and 10th observations (2.18+2.22)/2 = 2.20 kg. The first half of the data has 9 observations so the first quartile is the 5th observation, namely 1.79kg. Similarly the 3rd quartile would be the 5th observation in the upper half of the data, or the 14th observation, namely 2.40 kg. Hence the interquartile range is 1.79 to 2.40 kg.

Standard Deviation and Variance

The standard deviation of a sample (s) is calculated as follows:

The expression ∑(xi - ) 2 is interpreted as: from each individual observation (xi) subtract the mean (), then square this difference. Next add each of the n squared differences. This sum is then divided by (n-1). This expression is known as the sample variance (s 2 ). The variance is expressed in square units, so we take the square root to return to the original units, which gives the standard deviation, s. Examining this expression it can be seen that if all the observations were the same (i.e. x1 = x2 = x3 . = xn), then they would equal the mean, and so s would be zero. If the x's were widely scattered about, then s would be large. Na ovaj način, s reflects the variability in the data. The calculation of the standard deviation is described in Example 3. The standard deviation is vulnerable to outliers, so if the 2.1 was replace by 21 in Example 3 we would get a very different result.

Example 3 Calculation of the standard deviation

Consider the data from example 1. The calculations required to determine the sum of the squared differences from the mean are given in Table 1, below. We found the mean to be 1.5kg. We subtract this from each of the observations. Note the mean of this column is zero. This will always be the case: the positive deviations from the mean cancel the negative ones. A convenient method for removing the negative signs is squaring the deviations, which is given in the next column. These values are then summed to get a value of 0.50 kg 2 . We need to find the average squared deviation. Common-sense would suggest dividing by n, but it turns out that this actually gives an estimate of the population variance, which is too small. This is because we are using the estimated mean in the calculation and we should really be using the true population mean. It can be shown that it is better to divide by the degrees of freedom, which is n minus the number of estimated parameters, in this case n-1. An intuitive way of looking at this is to suppose one had n telephone poles each 100 meters apart. How much wire would one need to link them? As with variation, here we are not interested in where the telegraph poles are, but simply how far apart they are. A moment's thought should convince one that n-1 lengths of wire are required to link n telegraph poles.

Table 1 Calculation of the mean squared deviation

From the results calculated thus far, we can determine the variance and standard deviation, as follows:

Variance = 0.50/(5-1) = 0.125 kg 2

Standard deviation = √(0.125) = 0.35 kg

Why is the standard deviation useful?

It turns out in many situations that about 95% of observations will be within two standard deviations of the mean, known as a reference interval. It is this characteristic of the standard deviation which makes it so useful. It holds for a large number of measurements commonly made in medicine. In particular, it holds for data that follow a Normal distribution. Standard deviations should not be used for highly skewed data, such as counts or bounded data, since they do not illustrate a meaningful measure of variation, and instead an IQR or range should be used. In particular, if the standard deviation is of a similar size to the mean, then the SD is not an informative summary measure, save to indicate that the data are skewed.


Uvod

The three modules on hypothesis testing presented a number of tests of hypothesis for continuous, dichotomous and discrete outcomes. Tests for continuous outcomes focused on comparing means, while tests for dichotomous and discrete outcomes focused on comparing proportions. All of the tests presented in the modules on hypothesis testing are called parametric tests and are based on certain assumptions. For example, when running tests of hypothesis for means of continuous outcomes, all parametric tests assume that the outcome is approximately normally distributed in the population. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


The Controversy

In the medical education literature, there has been a long-standing controversy regarding whether ordinal data, converted to numbers, can be treated as interval data.2 That is, can means, standard deviations, and parametric statistics, which depend upon data that are normally distributed (figure 2), be used to analyze ordinal data?

When conducting research, we measure data from a sample of the total population of interest, not from all members of the population. Parametric tests make assumptions about the underlying population from which the research data have been obtained—usually that these population data are normally distributed. Nonparametric tests do not make this assumption about the “shape” of the population from which the study data have been drawn. Nonparametric tests are less powerful than parametric tests and usually require a larger sample size (n value) to have the same power as parametric tests to find a difference between groups when a difference actually exists. Descriptive statistics, such as means and standard deviations, have unclear meanings when applied to Likert scale responses. For example, what does the average of “never” and “rarely” really mean? Does “rarely and a half” have a useful meaning?3 Furthermore, if responses are clustered at the high and low extremes, the mean may appear to be the neutral or middle response, but this may not fairly characterize the data. This clustering of extremes is common, for example, in trainee evaluations of experiences that may be very popular with one group and perceived as unnecessary by others (eg, an epidemiology course in medical school). Other non-normal distributions of response data can similarly result in a mean score that is not a helpful measure of the data's central tendency.

Because of these observations, experts over the years have argued that the median should be used as the measure of central tendency for Likert scale data.3 Similarly, experts have contended that frequencies (percentages of responses in each category), contingency tables, χ 2 tests, the Spearman rho assessment, or the Mann-Whitney U test should be used for analysis instead of parametric tests, which, strictly speaking, require interval data (eg, t tests, analysis of variance, Pearson correlations, regression).3 However, other experts assert that if there is an adequate sample size (at least 5–10 observations per group) and if the data are normally distributed (or nearly normal), parametric tests can be used with Likert scale ordinal data.3

Fortunately, Dr. Geoff Norman, one of world's leaders in medical education research methodology, has comprehensively reviewed this controversy. He provides compelling evidence, with actual examples using real and simulated data, that parametric tests not only can be used with ordinal data, such as data from Likert scales, but also that parametric tests are generally more robust than nonparametric tests. That is, parametric tests tend to give “the right answer” even when statistical assumptions—such as a normal distribution of data—are violated, even to an extreme degree.4 Thus, parametric tests are sufficiently robust to yield largely unbiased answers that are acceptably close to “the truth” when analyzing Likert scale responses.4

Educators and researchers also commonly create several Likert-type items, group them into a “survey scale,” and then calculate a total score or mean score for the scale items. Often this practice is recommended, particularly when researchers are attempting to measure less concrete concepts, such as trainee motivation, patient satisfaction, and physician confidence—where a single survey item is unlikely to be capable of fully capturing the concept being assessed.5 In these cases, experts suggest using the Cronbach alpha or Kappa test or factor analysis technique to provide evidence that the components of the scale are sufficiently intercorrelated and that the grouped items measure the underlying variable.


OCR A-level Psychology: Research Methods

Primjer:
Rank the words that apply to you as most important and those that don't as least.

-> Test-restest reliability: interview the participants at a later date again and compare their previous response to their current response if no treatment was given it should be the same.

-> Inter-interviewer reliability: interview repeated by two different interviewers, to reduce the effect of interviewer bias and check consistency.

- Compare the ratings of or more observers and check for agreement in their data. If they agree on a high percentage of observational recordings, then the reliability is high. This is called inter-rater reliability.

Improving the validity of observations:
- Conduct the same observation in varied settings with varied participants.

- Two-tailed hypothesis: does not mention the direction of the correlation.

- One-tailed hypothesis: needs to include the direction of the correlation e.g. positive or negative.

- Null hypothesis: There will be no significant correlation between _____ and _____.

- sometimes it can be converted to quantitative data and then analysed. (this is done through content analysis which involves the categorising written data into core themes)

- gives the researcher a fuller picture of the behaviour in question

- interval data: use mean
- ordinal data: use median
- nominal data: use mode

- Range: highest values minus lowest value.

- Standard deviation:
1. Work out the mean
2. Find (x-x)^2 - minus the score from the mean squared.
3. Add these numbers together and divide by the total number of values minus 1.
4. Take the squared root of the answer.

( FOR A BETTER EXPLANATION -
https://www.mathsisfun.com/data/standard-deviation-formulas.html )

- Standard deviation is a better measure of variation than range since it is less affected by extreme values, but it takes longer to calculate.

- Nominal Data
- Independent Measures Design

1. Work out (O-E)^2 / E for each possibility --> E = row total x column total / overall total

2. Add together the four calculations.
- once x^2 has been calculated --> work out the degrees of freedom (df) = (number of rows -1 ) x (number of columns - 1)

- At least ordinal data
- Independent measures

N= number of participants in a group
N^1 = number in group 1
N^2 = number in group 2.

NEED TO RANK ALL SCORED FROM SMALLEST TO HIGHEST. (for identical scores -> add up the ranks they would have taken and divide by the number of identical scores)
R^1 - total sum of ranks for group 1
R^2 - total sum of ranks for group 2

Step 1: Data is categorised into a table of results.
Step 2: Positive and negative signs need to be added.

(EXAMPLE QUESTION ON 24 OF RESEARCH METHODS BOOKLET)If condition A is yes and condition B is no a plus is added (because this supports the direction of the hypothesis) and the opposite would be a minus.

Step 3: Requires the counting of each positive and negative sign assigned to each participant's scores.
Step 4: The observed value of S in the smallest total direction score.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Sadržaj

Consider the data (1, 1, 2, 2, 4, 6, 9). It has a median value of 2. The absolute deviations about 2 are (1, 1, 0, 0, 2, 4, 7) which in turn have a median value of 1 (because the sorted absolute deviations are (0, 0, 1, 1, 2, 4, 7)). So the median absolute deviation for this data is 1.

The median absolute deviation is a measure of statistical dispersion. Moreover, the MAD is a robust statistic, being more resilient to outliers in a data set than the standard deviation. In the standard deviation, the distances from the mean are squared, so large deviations are weighted more heavily, and thus outliers can heavily influence it. In the MAD, the deviations of a small number of outliers are irrelevant.

Because the MAD is a more robust estimator of scale than the sample variance or standard deviation, it works better with distributions without a mean or variance, such as the Cauchy distribution.

The MAD may be used similarly to how one would use the deviation for the average. In order to use the MAD as a consistent estimator for the estimation of the standard deviation σ , one takes

Therefore, we must have that

Another way of establishing the relationship is noting that MAD equals the half-normal distribution median:

This form is used in, e.g., the probable error.

Similarly to how the median generalizes to the geometric median in multivariate data, a geometric MAD can be constructed that generalizes the MAD. Given a 2 dimensional paired set of data (X1,Y1), (X2,Y2). (Xn,Yn) and a suitably calculated geometric median ( X

This gives the identical result as the univariate MAD in 1 dimension and extends easily to higher dimensions. In the case of complex values (x+iY), the relation of MAD to the standard deviation is unchanged for normally distributed data.

The population MAD is defined analogously to the sample MAD, but is based on the complete distribution rather than on a sample. For a symmetric distribution with zero mean, the population MAD is the 75th percentile of the distribution.

Unlike the variance, which may be infinite or undefined, the population MAD is always a finite number. For example, the standard Cauchy distribution has undefined variance, but its MAD is 1.

The earliest known mention of the concept of the MAD occurred in 1816, in a paper by Carl Friedrich Gauss on the determination of the accuracy of numerical observations. [4] [5]


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


The mean is usually the best measure of central tendency to use when your data distribution is continuous and symmetrical, such as when your data is normally distributed. However, it all depends on what you are trying to show from your data.

The mode is the least used of the measures of central tendency and can only be used when dealing with nominal data. For this reason, the mode will be the best measure of central tendency (as it is the only one appropriate to use) when dealing with nominal data. The mean and/or median are usually preferred when dealing with all other types of data, but this does not mean it is never used with these data types.


Parametric and Non-parametric tests for comparing two or more groups

Statistics: Parametric and non-parametric tests

Choosing a Test

In terms of selecting a statistical test, the most important question is "what is the main study hypothesis?" In some cases there is no hypothesis the investigator just wants to "see what is there". For example, in a prevalence study there is no hypothesis to test, and the size of the study is determined by how accurately the investigator wants to determine the prevalence. If there is no hypothesis, then there is no statistical test. It is important to decide apriorno which hypotheses are confirmatory (that is, are testing some presupposed relationship), and which are exploratory (are suggested by the data). No single study can support a whole series of hypotheses. A sensible plan is to limit severely the number of confirmatory hypotheses. Although it is valid to use statistical tests on hypotheses suggested by the data, the P values should be used only as guidelines, and the results treated as tentative until confirmed by subsequent studies. A useful guide is to use a Bonferroni correction, which states simply that if one is testing n independent hypotheses, one should use a significance level of 0.05/n. Thus if there were two independent hypotheses a result would be declared significant only if P<0.025. Note that, since tests are rarely independent, this is a very conservative procedure – i.e. one that is unlikely to reject the null hypothesis. The investigator should then ask "are the data independent?" This can be difficult to decide but as a rule of thumb results on the same individual, or from matched individuals, are not independent. Thus results from a crossover trial, or from a case-control study in which the controls were matched to the cases by age, sex and social class, are not independent.

  • Analysis should reflect the design, and so a matched design should be followed by a matched analysis.
  • Results measured over time require special care. One of the most common mistakes in statistical analysis is to treat correlated variables as if they were
    independent. For example, suppose we were looking at treatment of leg ulcers, in which some people had an ulcer on each leg. We might have 20 subjects with
    30 ulcers but the number of independent pieces of information is 20 because the state of ulcers on each leg for one person may be influenced by the state of
    health of the person and an analysis that considered ulcers as independent observations would be incorrect. For a correct analysis of mixed paired and unpaired
    data consult a statistician.

The next question is "what types of data are being measured?" The test used should be determined by the data. The choice of test for matched or paired data is described in Table 1 and for independent data in Table 2.

Table 1 Choice of statistical test from paired or matched observation

It is helpful to decide the input variables and the outcome variables. For example, in a clinical trial the input variable is the type of treatment - a nominal variable - and the outcome may be some clinical measure perhaps Normally distributed. The required test is then the t-test (Table 2). However, if the input variable is continuous, say a clinical score, and the outcome is nominal, say cured or not cured, logistic regression is the required analysis. A t-test in this case may help but would not give us what we require, namely the probability of a cure for a given value of the clinical score. As another example, suppose we have a cross-sectional study in which we ask a random sample of people whether they think their general practitioner is doing a good job, on a five point scale, and we wish to ascertain whether women have a higher opinion of general practitioners than men have. The input variable is gender, which is nominal. The outcome variable is the five point ordinal scale. Each person's opinion is independent of the others, so we have independent data. From Table 2 we should use a χ 2 test for trend, or a Mann-Whitney U test with a correction for ties (N.B. a tie occurs where two or more values are the same, so there is no strictly increasing order of ranks – where this happens, one can average the ranks for tied values). Note, however, if some people share a general practitioner and others do not, then the data are not independent and a more sophisticated analysis is called for. Note that these tables should be considered as guides only, and each case should be considered on its merits.

Table 2 Choice of statistical test for independent observations

a If data are censored. b The Kruskal-Wallis test is used for comparing ordinal or non-Normal variables for more than two groups, and is a generalisation of the Mann-Whitney U test. c Analysis of variance is a general technique, and one version (one way analysis of variance) is used to compare Normally distributed variables for more than two groups, and is the parametric equivalent of the Kruskal-Wallistest. d If the outcome variable is the dependent variable, then provided the residuals (the differences between the observed values and the predicted responses from regression) are plausibly Normally distributed, then the distribution of the independent variable is not important. e There are a number of more advanced techniques, such as Poisson regression, for dealing with these situations. However, they require certain assumptions and it is often easier to either dichotomise the outcome variable or treat it as continuous.

Parametric tests are those that make assumptions about the parameters of the population distribution from which the sample is drawn. This is often the assumption that the population data are normally distributed. Non-parametric tests are “distribution-free” and, as such, can be used for non-Normal variables. Table 3 shows the non-parametric equivalent of a number of parametric tests.

Table 3 Parametric and Non-parametric tests for comparing two or more groups

Non-parametric tests are valid for both non-Normally distributed data and Normally distributed data, so why not use them all the time?

It would seem prudent to use non-parametric tests in all cases, which would save one the bother of testing for Normality. Parametric tests are preferred, however, for the following reasons:

1. We are rarely interested in a significance test alone we would like to say something about the population from which the samples came, and this is best done with
estimates of parameters and confidence intervals.

2. It is difficult to do flexible modelling with non-parametric tests, for example allowing for confounding factors using multiple regression.

3. Parametric tests usually have more statistical power than their non-parametric equivalents. In other words, one is more likely to detect significant differences when
they truly exist.

Do non-parametric tests compare medians?

It is a commonly held belief that a Mann-Whitney U test is in fact a test for differences in medians. However, two groups could have the same median and yet have a significant Mann-Whitney U test. Consider the following data for two groups, each with 100 observations. Group 1: 98 (0), 1, 2 Group 2: 51 (0), 1, 48 (2). The median in both cases is 0, but from the Mann-Whitney test P<0.0001. Only if we are prepared to make the additional assumption that the difference in the two groups is simply a shift in location (that is, the distribution of the data in one group is simply shifted by a fixed amount from the other) can we say that the test is a test of the difference in medians. However, if the groups have the same distribution, then a shift in location will move medians and means by the same amount and so the difference in medians is the same as the difference in means. Thus the Mann-Whitney U test is also a test for the difference in means. How is the Mann- Whitney U test related to the t-test? If one were to input the ranks of the data rather than the data themselves into a two sample t-test program, the P value obtained would be very close to that produced by a Mann-Whitney U test.


Gledaj video: REG Zadaci za vezbu (Kolovoz 2022).