Consideraţii statistice Software statistic 2014
Tipuri de date medicale Scala de raţii: se măsoară în funcţie de un punct zero absolut Scale de interval: intervalul (sau distanţa) dintre două puncte pe scală are o semnificaţie precisă - modificarea cu o unitate într-un anumit punct al scalei este aceeaşi cu modificarea cu o unitate întrun alt punct. punctul zero este arbitrar într-o scală de interval putem efectua adunări şi scăderi toate scalele de raţii sunt şi scale de interval. 2
Tipuri de date medicale Scala ordinală: permite ordonarea subiecţii în sensul crescător al unei anumite variabile Variabile nominale ordonate: gruparea subiecţii în categorii pe care le putem ordona. starea de sănătate s-a îmbunătăţit: mult puţin nu s-a modificat e puţin mai gravă mult mai gravă. 3
Tipuri de date medicale Variabile nominale categorii ce nu necesită nici o ordonare culoarea ochilor poate fi apreciată pe o scală nominală. Variabile dichotomiale două categorii. supravieţuitori/decedaţi. caz particular de scală nominală. 4
Tipuri de date medicale calcularea de medii şi varianţe, precum şi determinarea erorilor standard şi a intervalelor de încredere ale acestora: Scala de raţii Scala tip interval Distribuţie normală metode parametrice Distribuţie non-normală metode non parametrice 5
Metode statistice Testul t şi testul t pentru două eşantioane Testul U Mann Whitney Testul Hi pătrat Testul Hi pătrat pentru eşantioane restrânse Testul Hi pătrat cu corecţia Yates Compararea a două proporţii Rata şansei (odds ratio)
Metode statistice Testul exact al lui Fisher Testul F Testul Wilcoxon Testul Semn Testul lui Mc Nemar Corelaţia şi regresia Testul Kruskal Wallis Analiza varianţei ANOVA
Testul student se foloseşte în momentul în care ştim că distribuţia datelor urmează o lege normală varianţe omogene (egale) dacă dimensiunea eşantioanelor este diferită, se va verifica în prealabil printr-un test egalitatea varianţelor. observaţii independente una de cealaltă
Testul student Microsoft Excel: Paired Two Sample for Means Two-Sample Assuming Equal Variances Two-Sample Assuming Unequal Variances Statistica SPSS EpiInfo
Testul Mann-Whitney-Wilcoxon excelentă alternativă non-parametrică a testului t folosit atunci când una sau mai multe din ipotezele necesare testului student nu sunt îndeplinite testul compară egalitatea medianelor variabilelor SPSS Statistica
Testul Hi pătrat compararea de frecvenţe sau proporţii testul Hi pătrat este valid dacă cel puţin 80% dintre frecvenţele probabile depăşesc 5 şi toate frecvenţele probabile depăşesc 1 frecvenţe probabile = frecvenţele calculate nu cele observate Microsoft Excel Statistica EpiInfo SPSS
Testul Hi pătrat cu corecţia Yates Corecţia Yates implică micşorarea cu 0,5 unităţi a diferenţei dintre frecvenţa observată şi cea probabilă în cadrul numărătorului lui x 2 înainte de ridicarea la pătrat; astfel, valoarea lui x 2 scade. scăzând valoarea lui x 2, şansele ca ipoteza nulă să fie respinsă scad, astfel că şi riscul de a face o greşeală de tipul I (respingerea ipotezei nule atunci când aceasta este în fapt veridică) scade semnificativ. creşte însă riscul unei erori de tipul II (acceptarea unei false ipoteze atunci când ea este în fapt falsă).
Rata şansei estimare a riscului relativ se defineşte prin raportul şanselor subiectului expus la factorul de risc şi ale şanselor martorului expus la acelaşi factor de risc OR sansa exp us boala sansa nonexp us boala OR a b d c
Rata şansei Cu cât este mai mare cu atât asocierea este mai mare OR ~ 1 nu există nici o legătură dintre factorul de risc şi boală OR < 1: asociere negative FR practic = factor de protecţie
Testul F compararea varianţelor testul constă din calcularea proporţiei celor două varianţe cu valoare mai mare la numărător şi compararea proporţiei astfel formate cu valoare critică a distribuţiei probabilistice a lui F. dacă proporţia este semnificativ mai mare decât 1, varianţele vor fi declarate ca nefiind egale testul F nu se poate folosi în cazul în care variabilele studiului nu respectă o distribuţie normală
Testul exact al lui Fisher o alternativă a testului Hi pătrat în examinarea asociaţiilor în cadrul unui tabel de contingenţă 2 x 2, atunci când frecvenţele probabile sunt mici. se recomandă folosirea lui în cazul în care o frecvenţă probabilă este sub valoarea 2, sau dacă mai mult de 20% din frecvenţele probabile sunt sub valoarea 5
Testul Wilcoxon împerecheat, sau Wilcoxon signed ranks test (testul semnului şirurilor) test non-parametric utilizat ca alternativă la testul t pentru eşantioane perechi, atunci când variabilele analizate nu urmează o distribuţie normală, mai ales în cazul eşantioanelor restrânse, în scopul determinării diferenţelor dintre două eşantioane perechi ipoteza de la care se pleacă este aceea că medianele celor două eşantioane perechi ar fi egale când variabilele nu sunt normal distribuite, este mai puternic decât testul t
Testul Semn metodă non-parametrică folosit pentru eşantioanelor ce nu respectă distribuţia normală mediana compararea distribuţiei unei variabile cu trei sau mai multe categorii în eşantioane perechi, iar categoriile sunt ordonate, se va urmări o modificare de la un capăt al distribuţiei spre celălalt Dacă categoriile nu sunt ordonate (situaţie rar întâlnită) se va utiliza testul Stuart
Testul lui Mc Nemar echivalentul testului t pentru eşantioane perechi variabile nominale variantă a testului Semn urmează o distribuţie de tipul celei Hi pătrat Ipoteza nulă: proporţiile perechi sunt egale Ipoteza alternativă: proporţiile perechi nu sunt egale.
Corelaţia două date numerice măsura sa o constituie coeficientul de corelaţie (a lui Pearson) poate lua valori între 1 şi +1 1 relaţie perfect liniară negativă +1 relaţie perfect liniară pozitivă 0 lipsa unei relaţii liniare între cele două variabile nu oferă o descriere corectă a relaţiilor dintre variabile atunci când distribuţia uneia este asimetrică sau conţine valori extreme.
Interpretarea coeficientului de corelaţie (0, 0.25) respectiv (0, -0.25) relaţie slabă sau lipsa acesteia (0.25, 0,5) respectiv (-0.25, -0.5) un anumit grad de relaţie (0.5, 0.75) respectiv (-0.5, -0.75) relaţie de la moderat la semnificativ > 0.75 respectiv < -0.75 relaţie strânsă Nu depinde de unitatea de măsură
Corelaţii Coeficientul de corelaţie măsoară strict o relaţie liniară fără a ţine cont de o relaţie descrisă printr-o ecuaţie ce defineşte o curbă coeficienţi fără valoare semnificativă chiar dacă relaţia există. reprezentarea norului de puncte. Corelaţia nu implică cauzalitate. Afirmaţiile cum că o caracteristică o cauzează pe cealaltă trebuie justificată pe baza observaţiilor experimentale sau a argumentelor logice, nu pe baza coeficientului de corelaţie.
Corelaţia de şiruri a lui Kendall Corelaţia de şiruri cunoscută şi sub denumirea de corelaţie de şiruri a lui Spearmen testează ipoteza nulă a inexistenţei unei relaţii între şiruri prin calcului coeficientului a lui Spearman poate lua valori între 1 şi +1 iar interpretarea lui este similară celei date de coeficientul lui Pearson coeficientul defineşte relaţia dintre şiruri şi nu între valorile determinate
Corelaţia de şiruri a lui Kendall corelaţia de şiruri Kendall, definită prin coeficientul lui Kendall - τ (tau) calculează pe lângă existenţa relaţiei dintre şiruri (Spearman) şi intensitatea acestei relaţii τ (tau) +1 dacă şirurile sunt identice (toate perechile ordonate în acelaşi sens) 1 dacă şirurile sunt opuse (toate perechile vor fi ordonate în sensuri opuse)
Regresia estimează relaţia numerică existentă între variabile regresie lineară măsoară în exclusivitate o relaţie de natură lineară între două variabile regresie simplă este utilizată o variabilă independentă în scopul predicţiei altei variabile regresiei multiple sunt utilizate în ecuaţia predicţiei mai multe variabile independente regresia minim pătratică descrie metoda matematică prin care se obţin estimaţii statistice în ecuaţia regresiei
Regresia când termenul de regresie este utilizat singur el se referă la regresia simplă lineară bazată pe metoda minim pătratică metoda minim pătratică este calea de a determina ecuaţia care defineşte linia care ilustrează în modul cel mai fidel reprezentarea unui nor de puncte de natură lineară Microsoft Excel + SPSS + Statistica + EpiInfo
Regresia logistică variabilele independente includ valori numerice cât şi nominale iar variabila dependentă este binară (sau dichotomială) nu necesită asumarea de ipoteze asupra distribuţiei variabilelor independente coeficientul de regresie acesta poate fi interpretat în termeni de: risc relativ în cazul studiilor de cohortă rata şansei în cazul studiilor caz martor
Regresia multiplă extensia regresiei simple la două sau mai multe variabile independente reprezintă regresia multiplă implică variabile numerice dar putem utiliza şi variabile independente nominale nu şi variabile dependente nominale includerea variabilelor nominale independente în ecuaţia regresiei multiple se realizează prin codarea dummy (realizată prin valorile 0 şi 1)
Regresia multiplă regresia multiplă măsoară în exclusivitate relaţia liniară dintre variabile independente şi dependente coeficienţii de regresie sunt interpretaţi în mod diferit în cazul regresiei multiple un anume coeficient de regresie dat indică modificarea valorii lui Y atunci când X creşte cu o unitate, menţinând constante valorile tuturor celorlalte variabile din ecuaţia regresiei
Testul Kruskal Wallis non-parametric analogul pentru şiruri a analizei unidirecţionate a varianţei
Analiza varianţei ANOVA metodă parametrică compararea a mai mult de două medii ANOVA ţine cont de variaţiile tuturor variabilelor şi le împarte în: variaţii între fiecare subiect şi media eşantionului din care acesta face parte şi variaţii între mediile fiecărui eşantion şi media generală (media mediilor tuturor eşantioanelor luate în studiu).
Analiza varianţei ANOVA Dacă mediile eşantioanelor sunt mult diferite între ele, vor exista variaţii considerabile între ele şi media generală (comparat cu variaţiile din cadrul fiecărui eşantion). Dacă mediile eşantioanelor nu prezintă mari diferenţe atunci variaţia dintre ele şi media generală nu va fi mai mare decât variaţiile dintre subiecţii fiecărui eşantion folosim testul F pentru două varianţe pentru testarea raţiei dintre varianţele mediilor şi varianţele din cadrul fiecărui grup.
Analiza varianţei ANOVA Utilizarea testului ANOVA impune acceptarea a trei premise: Valorile variabilei dependente trebuie să fie normal distribuite în cadrul fiecărui grup ca şi la toate nivelele variabilei dependente Varianţa populaţiei statistice este aceeaşi în fiecare grup, respectiv σ 12 = σ 22 = σ 3 2 Cazurile observate reprezintă un eşantion reprezentativ (de exemplu alcătuit prin tragere la sorţi) şi fiecare caz este independent (valoarea unei observaţii nu este dependentă în nici un mod de valoarea alteia)
Compararea a două grupuri
Un eşantion sau eşantioane perechi
Relaţia dintre două variabile
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică It has been said that a fellow with one leg frozen in ice and the other leg in boiling water is confortable on average. J.M. Yancy
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică Importanţa clinică = concluzia care are implicaţii în îngrijirea pacientului A. Semnificaţia statistică = concluzia aplicării unui test statistic, de respingere a ipotezei nule şi acceptare a celei alternative Semnificaţia statistică reflectă influenţa şansei în apariţia unui anumit rezultat Importanţa clinică reflectă valoarea biologică a unui rezultat
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică În general diferenţe mici obţinute pe eşantioane mari pot fi semnificative statistic dar fără importanţă clinică: O diferenţă de 0,02 kg între greutăţile a două eşantioane de adulţi nu are importanţă clinică chiar dacă statistic această diferenţă există (p<0.01)
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică Reversul, diferenţe mari între eşantioane cu volum mic pot avea importanţă clinică şi să nu fie semnificative statistic: Într-un studiu realizat pe un eşantion de 20 de pacienţi, dacă un pacient moare, decesul are importanţă clinică chiar dacă nu este semnificativ statistic.
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică B. Semnificaţia statistică ia naştere prin studierea unui grup de indivizi; practica medicală ia în considerare individul: statistica se bazează pe probabilităţi şi nu pe modificări biologice rezultatele se aplică populaţiei şi nu unui pacient individual
Diferenţa dintre semnificaţia statistică şi semnificaţia clinică C. Concluziile statistice se pot trage dacă există un anumit număr de date valide în timp ce deciziile medicale trebuie luate de multe ori în absenţa anumitor date