option
Cuestiones
ayuda
daypo
buscar.php

psicometria - s. manganelli

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
psicometria - s. manganelli

Descripción:
lezione dalla 27- 39 (test- per campioni indipendenti- Anova una via e due vie,

Fecha de Creación: 2024/11/15

Categoría: Otros

Número Preguntas: 195

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile indipendente?. i punteggi della scuola B. scuola A e scuola B. i punteggi di entrambe le scuole. i punteggi della scuola A.

Per valutare le differenze sui punteggi numerici di due gruppi di soggetti si utilizza: il t-test per campioni indipendenti. il coefficiente di correlazione. il t-test per campioni correlati. il test del chi-quadro.

Un disegno di ricerca per campioni indipendenti prevede l'utilizzo: di un unico gruppo di soggetti misurato più volte nel tempo. di un unico gruppo di soggetti che non si conoscano tra loro. di almeno due gruppi distinti di soggetti. nessuna delle alternative è valida.

Una ricerca che prevede un gruppo sperimentale e un gruppo di controllo è: a campioni correlati. tutte le alternative possono essere valide. a campioni indipendenti. a misure ripetute.

Una ricerca in cui si confrontano le abilità di memoria di studenti dei prima elementare con quelle di studenti di quinta elementari è: a misure ripetute. a campioni indipendenti. tutte le alternative possono essere valide. a campioni correlati.

Una ricerca in cui si confrontano i livelli di depressione di pazienti che assumono un farmaco con quelli di pazienti che assumono un placebo è: a campioni correlati. tutte le alternative possono essere valide. a misure ripetute. a campioni indipendenti.

La tecnica statistica che esamina se due gruppi di punteggi, provenienti da persone diverse, hanno medie significativamente differenti è: la regressione. il t-test per campioni correlati. il t-test per campioni indipendenti. la correlazione.

Un test t per campioni indipendenti è appropriato per confrontare le medie misurate su: bambini la mattina e la sera. maschi e femmine. bambini prima e dopo il pranzo. ragazzi prima e dopo una lezione.

I gradi di libertà nel t-test per campioni indipendenti si calcolano con. N-1. N+2. radice quadrata di N. N-2.

Il t-test può essere utilizzato se i dati sono: punteggi numerici. ordinali. tutte le alternative. nominali.

Stai facendo un t-test per campioni indipendenti per vedere se la scuola A ha migliori risultati della scuola B, qual è la variabile dipendente?. entrambe le alternative sono valide. I punteggi della scuola A e della scuola B. nessuna delle alternative è valida. scuola A e scuola B.

Nel test del chi-quadro i gradi di libertà si calcolano con: (n di colonne-1) x (n righe -1). radice quadrata di N. N-1. N-2.

In una ricerca in cui donne con figli e donne senza figli sono confrontate sulla base dello status lavorativo (disoccupata, casalinga, lavoratrice) si utilizzerà: il t-test per campioni correlati. il t-test per campioni indipendenti. l'ANOVA. il test del chi-quadro.

Affinché il test del chi-quadro sia affidabile la numerosità all'interno di ogni singola cella deve essere. almeno 2. qualsiasi. almeno 5. almeno 10.

Per verificare se le frequenze dei casi in gruppi diversi differiscono tra loro viene utilizzato. il t-test per campioni indipendenti. il test del chi-quadro. il t-test per campioni correlati. l' Anova.

In un test del chi-quadro se il valore calcolato è superiore al valore critico. si falsifica l'ipotesi alternativa. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa.

In un test del chi-quadro se il valore calcolato è inferiore al valore critico. si falsifica l'ipotesi nulla. si accetta l'ipotesi nulla. si deve ripetere il test. si accetta l'ipotesi alternativa.

L'analisi che utilizza le tabella di contingenza è: l'ANOVA. il test del chi-quadro. il test per campioni correlati. il t-test per campioni indipendenti.

L'analisi che confronta le frequenze osservate con le frequenze attese è. il test del chi-quadro. l'Anova. il t-test per campioni correlati. il t-test per campioni indipendenti.

Per poter utilizzare il test del chi-quadro: nessuna delle alternative. ci devono essere almeno 2 categorie per ciascuna variabile. i dati devono essere nominali. entrambe le alternative.

L'analisi che si può utilizzare con dati nominali (categorie) è: tutte le alternative. il t-test. il chi-quadro. l'Anova.

In alternativa al test del chi-quadro si può utilizzare: la correlazione di Pearson. l'ANOVA. il test della probabilità esatta di Fisher. il t-test per campioni correlati.

Il test della probabilità esatta di Fisher può essere utilizzato come alternativa. a r di Pearson. all'alfa di Cronbach. al Rho di Spearman. al chi-quadro.

La variabile X è correlata con la variabile Y è un esempio di ipotesi. direzionale. non direzionale. nulla. tutte le alternative.

La variabile X è correlata positivamente con la variabile Y è un esempio di ipotesi. non direzionale. nulla. direzionale. tutte le alternative possono essere valide.

I test statistici possono essere: solo a due code. a una coda e a due code. solo a una coda. i test statistici non prevedono code.

Il test a una coda: è sempre preferibile rispetto al test a due code. permette di ottenere risultati significativi solo se il campione è molto grande. è più conservativo rispetto al test a due code. permette di ottenere risultati significativi con un campione più piccolo.

Con le ipotesi che stabiliscono la direzione della relazione tra le variabili. si utilizzano test a una coda o a due code. non si possono utilizzare test statistici. si utilizzano test a due code. si utilizzano test a una coda.

Con le ipotesi che NON stabiliscono la direzione della relazione tra le variabili. non si possono utilizzare test statistici. si utilizzano test a una coda o a due code. si utilizzano test a due code. si utilizzano test a una coda.

Le code alle quali ci si riferisce quando si parla dei test statistici a una o due code fanno riferimento a. distribuzione campionaria. nessuna delle alternative. la parte finale del test somministrato. Linea di regressione.

Se i punteggi si distribuiscono approssimando la distribuzione normale. è consigliabile utilizzare test parametrici. è consigliabile utilizzare test NON parametrici. qualsiasi test fornirà un risultato non attendibile. è consigliabile non effettuare analisi statistiche.

I test NON parametrici. possono essere usati se le assunzioni dei test parametrici sono violate. tutte le alternative. sono basati sulla distribuzione normale. nessuna delle alternative.

Se i punteggi si distribuiscono in modo molto asimmetrico, non approssimando affatto la distribuzione normale: non si possono utilizzare i test non parametrici. non si possono eseguire analisi statistiche. si possono utilizzare solo i test parametrici. è consigliabile utilizzare i test non parametrici.

I test NON parametrici: spesso sono basati sui ranghi. sono sempre preferibili ai test parametrici. prevedono il rispetto di numerose assunzioni sulla distribuzione della popolazione. presuppongono una distribuzione normale.

Il test di Wilcoxon è l'equivalente non parametrico di: Anova a una via. t-test per campioni indipendenti. t-test per dati appaiati. ANOVA per misure ripetute.

Il test NON parametrico equivalente al t-test per dati appaiati è. il test di Wilcoxon. il test di Friedman. il test U di Mann Whitney. il test di Kruskal-Wallis.

Il test U di Mann Whitney è l'equivalente non parametrico di: t-test per dati appaiati. ANOVA a una via. ANOVA per misure ripetute. t-test per campioni indipendenti.

Il test NON parametrico equivalente al t-test per campioni indipendenti è. il test di Kruskal-Wallis. il test di Friedman. il test U di Mann Whitney. il test di Wilcoxon.

I test NON parametrici: tutte le alternative. non sono basati sulla distribuzione normale. non possono essere usati se le assunzioni dei test parametrici sono violate. nessuna delle alternative.

Nel test del rapporto tra varianze F i gradi di libertà sono calcolati. radice quadrata di N del gruppo. N del gruppo -2. N del gruppo -1. N del gruppo +1.

Prima di un t-test, per verificare che le varianze dei due campioni siano realmente simili. si calcola la radice quadrata delle varianze. si calcola r di Pearson. Si calcola il chi-quadro. si calcola il parametro F.

Il test per il rapporto tra varianze F: può essere a una coda o a due code. è un test a una coda. nessuna delle alternative è valida. è un test a due code.

Il test che prevede la divisione della varianza maggiore per la varianza minore è. U di Mann-Whitney. t-test. chi-quadro. test F.

Il rapporto F viene calcolato dividendo: la media più alta per la media più bassa. la media più bassa per la media più alta. la varianza maggiore per la varianza minore. la varianza minore per la varianza maggiore.

Il test per il rapporto tra varianze F: tutte le alternative. è un test a una coda. non può essere inferiore a 1. prevede il confronto con la coda destra della distribuzione.

Nel test del rapporto tra varianze: più grande F, minore la differenza tra le due varianze. più grande è F, maggiore la differenza tra le due varianze. nessuna delle alternative. più piccolo F, maggiore è la differenza tra le varianze.

Il test F per la valutazione del rapporto tra varianze ha come obiettivo valutare. la correlazione tra le due varianze. quale campione ha la media maggiore. se i due campioni sono attendibili. se i due campioni provengono dalla stessa popolazione.

Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile dipendente: nessuna delle alternative. numero di libri acquistati in un anno. le 4 regioni. le medie del numero di libri acquistati in un anno.

Quali dei seguenti test statistici implica il confronto delle varianze di 2 o più campioni?. analisi della varianza. chi-quadro. analisi della variazione. t-test.

Se il valore del parametro F calcolato nell'ANOVA è inferiore al valore di F critico. è falsificata l'ipotesi nulla. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla. si accetta l'ipotesi alternativa.

Un ricercatore confronta le abitudini di lettura in 4 regioni d'Italia. In una ANOVA a una via quale sarebbe la variabile indipendente: le 4 regioni. numero di libri acquistati in un anno. nessuna delle alternative. le medie del numero di libri acquistati in un anno.

L'analisi che determina se la varianza tra i gruppi è significativamente diversa rispetto a quella derivante dall'oscillazione casuale dei dati è: il chi quadro. l'ANOVA a una via. l'ANOVA per misure ripetute. la regressione.

In psicologia si assume che il punteggio osservato X sia costituito da. solo punteggio vero. punteggio vero + errore. punteggio vero diviso errore. punteggio vero - errore.

In una ANOVA a una via: i gruppi devono essere almeno 4. in tutti i gruppi deve esserci lo stesso numero di soggetti. i gruppi sono composti dalle stesse persone. i gruppi sono indipendenti tra loro.

In una ANOVA a una via, l'oscillazione casuale nei punteggi del campione è stimata con. la varianza totale. la varianza tra i gruppi diviso la varianza entro il gruppo. la varianza tra i gruppi. la varianza entro il gruppo.

In una ANOVA a una via, la varianza entro il gruppo: rappresenta l'effetto del trattamento. non può essere stimata. non è mai presente. rappresenta l'oscillazione casuale nei punteggi del campione.

In una ANOVA a una via si stima: solo la varianza totale. solo la varianza tra i gruppi. la varianza tra i gruppi e entro il gruppo. solo la varianza entro i gruppi.

In una ANOVA a una via: i punteggi rappresentano la variabile dipendente e i gruppi rappresentano la variabile indipendente. i punteggi rappresentano la variabile indipendente e i gruppi rappresentano la variabile dipendente. i punteggi rappresentano sia la variabile dipendente che la variabile indipendente. i gruppi rappresentano sia la variabile dipendente che la variabile indipendente.

In una ANOVA a una via i gradi di libertà per la varianza entro i gruppi (o errore) si calcolano. N + numero dei gruppi. N dei gruppi -1. N-1. N-numero di gruppi.

L'ANOVA può essere utilizzata se i dati sono: tutte le alternative. punteggi numerici. nominali. ordinali.

Se il valore del parametro F calcolato nell'ANOVA è maggiore del valore di F critico. si rifiuta l'ipotesi alternativa. l'ipotesi nulla non è falsificata. si rifiuta l'ipotesi nulla. si accetta l'ipotesi nulla.

Nell'ANOVA si accetta l'ipotesi nulla se il valore di F calcolato: è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico.

Nell'ANOVA si rifiuta l'ipotesi nulla se il valore di F calcolato: nessuna delle alternative è valida. è inferiore al valore di F critico. non è statisticamente significativo. è maggiore del valore di F critico.

Nell'ANOVA si rifiuta l'ipotesi alternativa se il valore di F calcolato. è maggiore del valore di F critico. è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico.

Nell'ANOVA si accetta l'ipotesi alternativa se il valore di F calcolato. non è statisticamente significativo. nessuna delle alternative è valida. è inferiore al valore di F critico. è maggiore del valore di F critico.

Nell'ANOVA a una via la tabella riassuntiva riporta: solo i gradi di libertà. tutte le alternative. solo il parametro F. solo le sorgenti di variazione.

In una tabella riassuntiva dell'ANOVA a una via sono indicate le sorgenti di variazione. fra i gruppi, entro i gruppi e totale. fra condizioni, fra i soggetti, errore. entro i gruppi e fra i soggetti. fra i soggetti e totale.

Il t-test è un caso particolare di: ANOVA multifattoriale. ANOVA a una via. nessuna delle alternative. chi-quadro.

In una ANOVA, l'espressione "livelli di trattamento" si riferisce. ai gradi di libertà. al numero di condizioni della variabile indipendente. ai passaggi per condurre l'analisi. al numero di condizioni della variabile dipendente.

In una ANOVA a una via è necessario effettuare i confronti multipli: la variabile indipendente ha più di 2 condizioni. la variabile indipendente ha 2 condizioni. la variabile dipendente ha più di 2 condizioni. la variabile dipendente ha 2 condizioni.

In una ANOVA a una via, se la variabile indipendente ha più di 2 condizioni. effettuerò i confronti multipli se F non è significativo. non potrò effettuare mai i confronti multipli. effettuerò i confronti multipli se F è significativo. effettuerò 3 ANOVA separate.

In una ANOVA a una via i gradi di libertà totali corrispondono. alla somma dei gradi di libertà entro i gruppi e fra i gruppi. ai gradi di libertà tra i gruppi diviso i gradi di libertà entro i gruppi. ai gradi di libertà tra i gruppi per i gradi di libertà entro i gruppi. alla differenza tra i gradi di libertà tra i gruppi e entro i gruppi.

L'analisi in cui ogni soggetto fa da 'controllo' di se stesso è l'ANOVA. tutte le alternative. per misure ripetute. multifattoriale. a una via.

L'analisi che permette di valutare la varianza dovuta alle differenze individuali è. chi-quadro. regressione. anova a una via. anova per misure ripetute.

In una tabella riassuntiva dell'ANOVA per misure ripetute sono indicate le sorgenti di variazione. fra i gruppi e errore. fra condizioni, fra soggetti, errore. fra i soggetti e entro i soggetti. fra i gruppi e entro i gruppi.

Una ricerca confronta le abilità di memoria utilizzando 3 strategie diverse di memorizzazione. La variabile indipendente è: le medie dei gruppi. l'abilità di memoria. le 3 strategie di memorizzazione. tutte le alternative.

Nell'ANOVA per misure ripetute i soggetti: appartengono a gruppi distinti. nessuna delle alternative. sono valutati piu volte. entrambe le alternative.

Nell'ANOVA multifattoriale l'effetto derivante dalla combinazione di variabili indipendenti è detto. effetto dell'interazione. effetto della correlazione. effetto significativo. effetto principale.

In una ANOVA per misure ripetute si possono studiare: effetti della correlazione e principali. solo effetti dell'interazione e dell'indipendenza. effetti principali e dell'interazione. solo effetti principali e secondari.

In una ANOVA l'interazione è: l'effetto combinato delle due variabili dipendenti. l'effetto combinato delle due variabili indipendenti. impossibile da calcolare. sempre significativa.

Effetti principali e effetti dell'interazione si possono studiare con. Anova per misure ripetute. Anova multifattoriale. Anova a una via. tutte le alternative.

Con ANOVA 2 x 3 si intende che: ci sono 2 variabili indipendenti e 3 dipendenti. ci sono 2 variabili dipendenti e 3 variabili indipendenti. la prima variabile indipendente ha 2 livelli e la seconda ne ha 3. la prima variabile dipendente ha 2 livelli e la seconda ne ha 3.

Nell'ANOVA, nel grafico che rappresenta una interazione significativa le linee. passano il più vicino possibile alla nuvola di punti. sono parallele. non possono essere interpretate. non sono parallele.

Nell'ANOVa, nel grafico che rappresenta una interazione NON significativa le linee. sono parallele. non sono parallele. non possono essere rappresentate. passano il più vicino possibile alla nuvola di punti.

Il grafico che viene utilizzato per rappresentare l'effetto dell'interazione nell'ANOVA è. un diagramma di dispersione. un grafico a linee. un grafico a torta. un grafico a barre.

Nell'ANOVA multifattoriale l'effetto di ciascuna variabile indipendente è detto. effetto interazione. effetto principale. effetto della correlazione. effetto significativo.

L'ANOVA multifattoriale si distingue dall'ANOVA a una via perché. entrambe le alternative. considera 2 o più variabili dipendenti. considera 2 o più variabili indipendenti. nessuna delle alternative.

L'analisi che include lo studio dell'interazione è: ANOVA multifattoriale. la correlazione. ANOVA a una via. Il chi-quadro.

Nell'ANOVA multifattoriale è utilizzata quando si hanno: due variabili indipendenti e una variabile dipendente. tutte le alternative possono essere valide. due variabili dipendenti e una variabile indipendente. due variabili indipendenti e due variabili dipendenti.

L'analisi che permette di misurare l'effetto combinato di due variabili indipendenti è. la correlazione. l'ANOVA a una via. l'ANOVA multifattoriale. il chi-quadro.

Il test di Dunett e il test di Scheffé sono tipi di test per: per misurare l'affidabilità. per testare la correlazione. per effettuare la regressione. effettuare i confronti multipli.

I confronti multipli pianificati: sono decisi dopo aver rilevato una interazione significativa. sono decisi prima di iniziare la raccolta dati. tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA.

I confronti multipli post-hoc: tutte le alternative possono essere valide. sono decisi dopo aver svolto l'ANOVA. sono decisi prima di aver condotto l'ANOVA. sono decisi prima di iniziare la raccolta dati.

I confronti multipli effettuati nell'ANOVA possono essere. nessuna delle alternative. entrambe le alternative. post-hoc. pianificati.

Con i confronti multipli effettuati dopo l'ANOVA si vuole stabilire. tutte le alternative. se c'è un'interazione significativa. quali sono le specifiche medie che differiscono significativamente. se c'è un effetto principale significativo.

In una ANOVA non è possibile stabilire quali fra le medie considerate differiscono dalle altre quando. le variabili indipendenti presentano 2 livelli di trattamento. le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento.

In una ANOVA non è possibile stabilire direttamente quali fra le medie considerate differiscono dalle altre quando: le variabili dipendenti presentano 3 o più livelli di trattamento. le variabili indipendenti presentano 2 livelli di trattamento. le variabili indipendenti presentano 3 o più livelli di trattamento. le variabili dipendenti presentano 2 livelli di trattamento.

Nel grafico dell'interazione in una ANOVA multifattoriale, le linee parallele suggeriscono che. l'interazione non è significativa. l'interazione è significativa. non si possono interpretare gli effetti principali. non si può interpretare l'interazione.

La tecnica statistica che può essere utilizzata per stimare il valore di Y a partire da X è. l'ANOVA. il chi-quadro. la regressione. il t-test.

La retta di regressione. passa il meno vicino possibile ai punti del grafico di dispersione. passa il più vicino possibile ai punti nel grafico di dispersione. si traccia unendo tutti i punti nel grafico di dispersione. tutte le alternative possono essere valide.

Quando si disegna una retta di regressione, nel grafico si rappresenta. la variabile predittore sull'asse orizzontale e la variabile criterio sull'asse verticale. tutte le alternative possono essere valide. la variabile x sull'asse verticale e la y sull'asse orizzontale. la variabile predittore sull'asse verticale e la variabile criterio sull'asse orizzontale.

Il grafico di dispersione è utilizzato: nella correlazione e nella regressione. solo nella regressione. solo nella correlazione. nessuna delle alternative.

La pendenza e l'intercetta sono stimate per descrivere: la potenza statistica. la distribuzione binomiale. la retta di regressione. la curva normale.

Per descrivere la retta di regressione è necessario conoscere. varianza e media. asimmetria e curtosi. varianza e gradi di libertà. pendenza e intercetta.

La regressione è una tecnica statistica che può essere utilizzata per. verificare l'effetto di un trattamento. fare delle previsioni. confrontare le frequenze di 2 gruppi. sapere se due medie sono significativamente diverse.

Nell’equazione di regressione y= a + bx, la variabile x rappresenta. variabile predittore. pendenza. intercetta. variabile criterio.

In una regressione la variabile Y è considerata: nessuna delle alternative. entrambe le alternative. variabile di criterio. variabile dipendente.

In una regressione la variabile X è considerata: la variabile dipendente. entrambe le alternative. nessuna alternativa. la variabile criterio.

In una regressione la variabile Y è considerata: entrambe le alternative. il predittore. la variabile indipendente. nessuna delle alternative.

Nell’equazione di regressione y= a + bx, la b rappresenta: variabile predittore. intercetta. variabile criterio. pendenza.

La retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione è. la retta di regressione. la retta di correlazione. la retta dell'interazione nell'ANOVA. la curva normale.

La retta di regressione: è parallela alla curva normale. è la retta che rappresenta l'interazione in una ANOVA. coincide con la curva normale. è la retta che rappresenta il miglior adattamento ai dati in un grafico di dispersione.

La retta di regressione viene stimata attraverso il metodo: delle somme delle medie. dei massimi quadrati. delle massime distanze. dei minimi quadrati.

Il metodo dei minimi quadrati è utilizzato: nel campionamento. nel chi-quadro. nell'ANOVA. nella regressione.

In una regressione la variabile X è considerata: nessuna delle alternative. il predittore. la variabile indipendente. entrambe le alternative.

In una regressione l'intercetta è definita come: l'errore di misura. il punto in cui la retta interseca l'asse orizzontale. la pendenza della retta. il punto in cui la retta interseca l'asse verticale.

Nell’equazione di regressione y= a + bx, la a rappresenta: variabile criterio. pendenza. variabile predittore. intercetta.

Il punto in cui la retta di regressione interseca l'asse verticale è. il criterio. l'intercetta. la pendenza. l'errore di misura.

Se l'equazione di regressione è Y = -3 + 7X, la retta intersecherà l'asse X a. 0. 7. 3. -3.

Se l'equazione di regressione è Y = 5 + 4X, all'aumentare di 1 unità di X la Y. aumenterà di 5. diminuirà di 4. aumenterà di 4. aumenterà di 0.

Se l'equazione di regressione è Y = 5 + 4X, la retta intersecherà l'asse X a. 5. 4. 0. -5.

Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di laurea è: la pendenza. la variabile predittore. la variabile di criterio. l'intercetta.

Se cerco di stimare il voto di laurea a partire dal voto di maturità, il voto di maturità è: la variabile predittore. la variabile criterio. la pendenza. l'intercetta.

Se l'equazione di regressione è Y = 6 - 7X, all'aumentare di 1 unità di X la Y. aumenterà di 6. aumenterà di 0. diminuirà di 7. aumenterà di 7.

Nell’equazione di regressione y= a + bx, la variabile y rappresenta. pendenza. variabile predittore. intercetta. variabile criterio.

Per sapere quanto aumenta la variabile criterio all'aumentare di 1 unità della variabile predittore si utilizza: la varianza. la media. la pendenza. l'intercetta.

Il coefficiente di regressione è. l'intercetta. la pendenza della retta. il criterio. il predittore.

La correlazione e la regressione: sono simili ma hanno scopi diversi. sono due modi di chiamare la stessa tecnica. sono simili e hanno lo stesso scopo. non hanno alcuna similarità.

Nella retta di regressione la pendenza indica: nessuna delle alternative. entrambe le alternative. quanto aumenta la Y all'aumentare di 1 unità della X. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale.

Nella regressione, l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale è: l'intercetta. il criterio. la pendenza. il predittore.

La pendenza della retta di regressione è: l'intercetta. l'errore di misura. l'incremento sull'asse verticale prodotto dall'incremento di 1 unità sull'asse orizzontale. il criterio.

Il coefficiente di determinazione misura: la correlazione tra due variali. l'affidabilità di una variabile. la varianza di una variabile. la proporzione di varianza totale condivisa da due variabili.

La proporzione di varianza totale condivisa da due variabili è misurata con. il coefficiente di determinazione. il coefficiente di correlazione. il coefficiente di affidabilità. il coefficiente d di Cohen.

Il coefficiente di determinazione è calcolato con: la radice quadrata del coefficiente di correlazione. il coefficiente di correlazione elevato al quadrato. il coefficiente di correlazione diviso N. il coefficiente di correlazione diviso la deviazione standard.

Se il campione è grande, una relazione tra variabili: solo se grande può essere statisticamente significativa. solo se grande non può essere statisticamente significativa. anche se piccola non può essere statisticamente significativa. anche se piccola può essere statisticamente significativa.

Per sapere se è ragionevole generalizzare alla popolazione i risultati ottenuti sul campione si utilizza: la dimensione dell'effetto. l'affidabilità. la dispersione. la significatività statistica.

Per misurare la dimensione degli effetti, il risultato del t-test si può trasformare in: deviazione standard. coefficiente di correlazione. alfa di Cronbach. media aritmetica.

La dimensione dell'effetto può essere misura con. solo con la d di Cohen. il coefficiente di correlazione e la d di Cohen. nessuna delle alternative. solo con il coefficiente di correlazione.

La meta-analisi: analizza gli studi già pubblicati su un tema. è uno studio di studi. entrambe le alternative. nessuna delle alternative.

Valutare la forza della relazione tra variabili emersa in molti studi è l'obiettivo. della regressione. dell'analisi della varianza. dei test non parametrici. della meta-analisi.

Valutare l'influenza di varie caratteristiche degli studi già svolti (es. campione, metodo) sulla forza della relazione tra variabili è l'obiettivo: dei test non parametrici. della meta-analisi. della regressione. dell'analisi della varianza.

La tecnica che permette di analizzare il modello dei risultati di una serie di studi pubblicati e non pubblicati su una ipotesi di ricerca è. la meta-analisi. le regressione. la significatività statistica. l'inferenza statistica.

Gli studi selezionati per la meta-analisi possono essere. solo a sfavore dell'ipotesi di ricerca. a favore o a sfavore dell'ipotesi di ricerca. solo a favore dell'ipotesi di ricerca. non pertinenti all'ipotesi di ricerca.

In una meta-analisi è bene includere uno studio. solo se conferma l'ipotesi di ricerca. solo se non è pertinente all'ipotesi di ricerca. solo se contraddice l'ipotesi di ricerca. se conferma o contraddice l'ipotesi di ricerca.

In una meta-analisi è bene includere uno studio: entrambe le alternative. nessuna delle alternative. se conferma l'ipotesi di ricerca. se contraddice l'ipotesi di ricerca.

In una meta-analisi è bene includere: solo gli studi di autori noti. solo gli studi non pubblicati. solo gli studi pubblicati. sia gli studi pubblicati che quelli non pubblicati.

Il concetto centrale nella meta-analisi è: il campionamento. il numero di studi utilizzati. la distribuzione normale. la dimensione dell'effetto.

La dimensione dell'effetto: è il concetto centrale nella meta-analisi. tutte le alternative. riguarda quanto è grande l'effetto di una variabile sull'altra. non coincide con la significatività statistica.

La dimensione dell'effetto: non è usata nella meta-analisi. può essere calcolata con la d di Cohen. non può essere misurata. corrisponde alla significatività statistica.

Nella meta-analisi, l'uso del coefficiente di correlazione è consigliato perché. entrambe le alternative. nessuna delle alternative. può essere calcolato a partire da una varietà di test di significatività. è più flessibile della d di Coehn.

In una meta-analisi, si può calcolare la dimensione dell'effetto di uno studio. moltiplicando per N il livello di significatività. calcolando la radice quadrata del livello di significatività. dividendo il livello di significatività per la d di Cohen. trasformando in punti z il livello di significatività.

In una meta-analisi, per calcolare la dimensione dell'effetto di ciascuno studio si può usare: la grandezza dell'effetto riportata nello studio. il risultato del t-test. tutte le alternative. il livello di significatività e la dimensione del campione.

Le meta-analisi cercano di stimare quali caratteristiche degli studi. entrambe le alternative. nessuna delle alternative. sono responsabili di piccole dimensioni dell'effetto. sono responsabili di grandi dimensioni dell'effetto.

Affinché possa essere utilizzato in una meta-analisi uno studio deve riportare almeno: il livello di significatività e la dimensione del campion. il genere e l'età dei partecipanti. solo la dimensione del campione. solo il livello di significatività.

In una meta-analisi la dimensione dell'effetto può essere valutata. con l'alfa di Cronbach. nessuna delle alternative. entrambe le alternative. con la deviazione standard.

In una meta-analisi la dimensione dell'effetto può essere valutata. con il coefficiente di correlazione. con la d di Cohen. entrambe le alternative. nessuna delle alternative.

La coerenza interna di una scala psicologica può essere misurata con. tutte le alternative. l'alfa di Cronbach. la correlazione tra singolo item e punteggio totale. il metodo split-half.

Verificare se le componenti di una scala psicologica stanno misurando la stessa cosa è l'obiettivo: dell'analisi di affidabilità. dell'analisi della potenza statistica. dell'analisi della varianza. della meta-analisi.

L'indice kappa è utilizzato per misurare: la coerenza interna. la varianza delle misure. la difficoltà delle misure. la concordanza tra valutatori.

Per misurare la concordanza tra valutatori si utilizza. l'indice kappa. l'affidabilità split-half. l'alfa di Cronbach. la correlazione item totale.

Un indice della concordanza tra valutatori dovrebbe. essere sensibile al fatto che i valutatori non variano i loro giudizi. fornire un'indicazione della sovrapposizione tra le valutazioni. nessuna delle alternative. entrambe le alternative.

La media di tutte le possibili affidabilità split-half che potrebbero essere calcolate per una scala è: l'alfa di Cronbach. il coefficiente eta. l'affidabilità split-half. la correlazione item totale.

L'affidabilità che correla il punteggio totale su metà item con il punteggio totale sull'altra metà degli item è detta: coefficiente eta. coefficiente di determinazione. split-half. correlazione item totale.

Se una scala di misura è dotata di coerenza interna ciascun item. dovrebbe essere correlato con un solo altro item. dovrebbe essere correlato con gli altri item della misura. non dovrebbe essere correlato con il punteggio totale. non dovrebbe essere correlato con gli altri item della misura.

Il risultato dell'affidabilità misurata con l'alfa di Cronbach. dipende dal modo in cui abbiamo suddiviso gli item. dipende dalla significatività statistica. non dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale.

Il risultato dell'affidabilità split-half: non prevede una suddivisione degli item. dipende dal modo in cui abbiamo suddiviso gli item. prevede la correlazione di un item con il punteggio totale. non dipende dal modo in cui abbiamo suddiviso gli item.

Il metodo split-half viene utilizzato per misurare: la validità. l'affidabilità. la significatività. la potenza statistica.

Il coefficiente alfa di Cronbach misura: la significatività. la potenza statistica. l'affidabilità. la validità.

La correlazione tra singolo item e punteggio totale su una scala psicologica è un modo per misurare: la validità. la potenza statistica. l'affidabilità. la significatività.

Per misurare la dimensione degli effetti in una ANOVA si utilizza. l'alfa di Cronbach. la varianza. la devianza. il coefficiente eta.

L'affidabilità come coerenza interna riguarda: quanto è stabile nel tempo una scala psicologica nel tempo. quanto i soggetti valutano credibile una scala psicologica. quanto le componenti di una scala psicologica misurano la stessa cosa. quanto è valida una scala psicologica.

Per calcolare l'intervallo di confidenza è necessario conoscere. la mediana. la potenza statistica. l'errore standard. la dimensione dell'effetto.

I valori statisticamente significativi sono quelli: nessuna delle alternative. che non hanno a che fare con gli intervalli di confidenza. compresi all'interno dell'intervallo di confidenza. non compresi all'interno dell'intervallo di confidenza.

L'insieme dei valori che al 95% includono la 'vera' media della popolazione è. il range dei valori al 95%. l'intervallo di confidenza al 95%. la potenza statistica al 95%. l'affidabilità dei valori al 95%.

A minore variabilità nei dati corrisponderà. maggiore ampiezza della media. minor ampiezza dell'intervallo di confidenza. minore ampiezza della media. maggiore ampiezza dell'intervallo di confidenza.

Un intervallo di confidenza è un insieme di valori. che definiscono il range di una distribuzione. che indicano la dimensione dell'effetto di uno studio. all'intero del quale è più probabile che giaccia il valore della popolazione. che definiscono l'affidabilità di una scala di misura.

La potenza statistica di uno studio aumenta: se aumenta la grandezza del campione. se aumenta la dimensione dell'effetto. se aumenta il livello di significatività. tutte le alternative.

All'aumentare della grandezza del livello di significatività. diminuisce la probabilità di commettere un errore di I tipo. aumenta la probabilità di commettere un errore di II tipo. aumenta la probabilità di commettere un errore di I tipo. diminuisce la potenza statistica.

La potenza statistica diminuisce: se diminuisce la dimensione dell'effetto. se diminuisce la grandezza del campione. tutte le alternative. se diminuisce il livello di significatività.

La potenza statistica è collegata a: la dimensione dell'effetto. tutte le alternative. l'ampiezza dei campioni. il livello di significatività.

All'aumentare della dimensione dell'effetto: la potenza statistica aumenta. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica diminuisce.

La potenza statistica è l'inverso: dell'errore di II tipo. della significatività. della dimensione dell'effetto. dell'errore di I tipo.

La probabilità che una ricerca sia in grado di rilevare un effetto nel campione selezionato quando l'effetto esiste (nella popolazione statistica) è. la potenza statistica. la distribuzione binomiale. la distribuzione normale. la significatività statistica.

L'errore di I tipo è la probabilità: di concludere che non c'è un effetto quando in realtà c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che c'è un effetto che in realtà c'è. di concludere che c'è un effetto quando in realtà non c'è.

All'aumentare della grandezza del livello di significatività. nessuna delle alternative. la potenza statistica rimane invariata. la potenza statistica aumenta. la potenza statistica diminuisce.

L'errore di II tipo è la probabilità: di concludere che c'è un effetto quando in realtà non c'è. di concludere che non c'è un effetto che in realtà non c'è. di concludere che non c'è un effetto quando in realtà c'è. di concludere che c'è un effetto che in realtà c'è.

La probabilità di concludere che non c'è un effetto quando in realtà c'è è detta. errore di II tipo. nessuna delle alternative. potenza statistica. errore di I tipo.

La probabilità di concludere che c'è un effetto quando in realtà non c'è è detta. errore di II tipo. errore di I tipo. potenza statistica. nessuna delle alternative.

L'errore di II tipo è l'inverso: della significatività. dell'errore di I tipo. della dimensione dell'effetto. della potenza statistica.

Si considera adeguato un valore di potenza statistica di. 0.001. 0.05. 0.3. 0.8.

La numerosità campionaria ottimale dipende: da quanto siamo disposti a rischiare in termini di errore di I e II tipo. dalla dimensione dell'effetto dello studio. nessuna delle alternative. entrambe le alternative.

La dimensione dell'effetto e l'entità dell'errore di I e di II tipo determinano. la numerosità campionaria ottimale. la numerosità degli item di una scala di misura. la numerosità di studi da includere in una meta-analis. la numerosità delle analisi statistiche da eseguire.

L'errore di I tipo si verifica quando: nessuna delle alternative. viene rilevato un andamento nei dati che è in realtà casuale. si conclude che c'è un effetto quando in realtà non c'è. entrambe le alternative.

L'errore di II tipo si verifica quando: entrambe le alternative. nessuna delle alternative. viene attribuito al caso un andamento nei dati che è reale. di concludere che non c'è un effetto quando in realtà c'è.

All'aumentare della grandezza del campione: la potenza statistica diminuisce. nessuna delle alternative. la potenza statistica aumenta. la potenza statistica rimane invariata.

Denunciar Test