Performance accademica: Alcuni risultati empirici

Performance accademica: Alcuni risultati empirici

Le informazioni a disposizione degli autori erano relative a 687 immatricolati nell’anno 2009 e ad una serie di indicatori di performance e di informazioni, relative all’iscrizione universitaria o all’abbandono degli studi entro il primo anno. Tutti gli studenti sono stati sottoposti ad un test di ingresso di tipo non selettivo (un test matematico basato su 20 domande a risposta multipla). Definiamo Y la variabile binaria che assume il valore 0 se lo studente continua gli studi e valore 1 se abbandona al primo anno. Sia X un vettore di regressori che si assume possa influenzare Y. Stimiamo la probabilità di abbandonare gli studi attraverso il modello probit:

P r(Y = 1|X) = ƒ(X’b)

con ƒ funzione di ripartizione della variabile casuale normale. Il vettore dei parametri b pu  essere stimato con il metodo della massima verosimiglianza. Sulla base delle informazioni empiriche a disposizione sono stati considerati 5 differenti criteri di selezione cioè 5 differenti definizioni del vettoreX:

1.    selezione basata sul solo voto di maturità (v): X = ln(v)
2.    selezione basata sul solo risultato del test (T): X = ln(T)
3.    selezione basata sulla scarto del voto di maturità rispetto la media del tipo di scuola di provenienza: X = ln(v) ln(v ?)
4.    selezione basata sia sul risultato del test che sul voto di maturità: X = ln(v), ln(T)
5.    selezione che considera tutte le informazioni disponibili:?

X = ln(v), ln(T), sesso, scuola secondaria, eta, residenza, sede

I risultati delle stime probit sono presentati nella Tabella 5.1 che riporta i valori stimati del vettore b, l’errore standard e la significatività.

Voti di maturità e risultati del test più alti portano ad una minore probabilità di abbandono. I coefficienti del voto di maturità sono generalmente più alti, in valore assoluto, di quelli del risultato del test. Questi coefficienti rappresentano le semi elasticità della probabilità di abbandonare gli studi, al voto e al risultato del test. Un aumento dell’1% del voto di maturità implica una riduzione della probabilità di abbandono compresa il 1.6% e il 2.2%, un aumento dell’1% del risultato del test è associato ad una riduzione della probabilità di abbandonare compresa tra l’1.2% e l’1.4%, a seconda delle differenti specificazioni del modello.

Le variabili relative alle caratteristiche individuali sono scarsamente rilevanti, il diploma in istituti differenti dal tecnico commerciale e la provenienza da altre regioni aumentano la probabilità di abbandono, l’età non è significativa.

Dalle stime della Tabella 4.1, per ognuna delle equazioni, possiamo calcolare i valori predetti delle stime della probabilità di drop-out (Y). Gli studenti possono quindi essere classificati

Tabella 4.1 Stime della probabilità di abbandonare gli studi al primo anno.

Diploma: riferimento Scientifico. 2 classico, 3 linguistico-magistrale, 4  tecnico, 5 commerciale, 6 professionale.          Età: riferimento minore di 19 anni 4 mesi. 2 tra 19a4m e 19a8m, 3 tra 19a8m e 20a, 4 20a, 5 21 a 22 a, 6 più di 22a.    Provenienza: riferimento Comune di Ancona. 2 Provincia di Ancona (comune), 3 provincia di Ascoli, provincia di Fermo, 5 provincia di Pesaro, 6 Abruzzo, 7 Altre regioni. [fonte: banca dati iscritti ed esami sostenuti, Corso di Laurea in Economia, Ancona] seconda della probabilità di abbandono.

Assumendo che la selezione venga fatta in modo da escludere per primi gli studenti con probabilità stimata di abbandono più alta, per ogni possibile tasso di ammissione dei candidati è possibile calcolare la quota di abbandoni (la relazione tra x e f(x) del modello teorico). Quanto più il processo di selezione è efficiente, tanto più questa quota deve essere bassa. La relazione tra tasso di ammissione (sulle ascisse) e tasso di drop-out (sulle ordinate) per 4 dei 5 metodi di selezione degli studenti (non viene qui riportato lo scarto dal voto medio di diploma perché non fornisce altre informazioni rispetto al solo voto di diploma), è riepilogato nella figura 4.1.

Figura 4.1 Relazione stimata tra tasso di abbandono e differenti criteri di selezione e interpolazione cubica della relazione (secondo grafico). [fonte: banca dati iscritti ed esami sostenuti, Corso di Laurea in Economia, Ancona]

Il primo grafico presenta i risultati stimati, il secondo una interpolazione cubica della relazione stimata.

Per i livelli di ammissione superiori al 50% dei candidati, si pu  notare che se si utilizzano o il voto di diploma o il risultato del test, la qualità della selezione è sostanzialmente la stessa. La validità migliora se i due dati vengono utilizzati congiuntamente.

Le informazioni relative alla probabilità stimata di abbandono per ogni studente, ci permettono anche di valutare l’opportunità di porre in essere un processo di selezione. Il peso da assegnare al numero degli immatricolati rispetto al peso da assegnare al drop out, deve essere veramente basso. Sembra quindi difficile che i corsi di studio trovino ottimale, almeno in un’ottica di breve periodo, scegliere di selezionare gli studenti.

I risultati ci dicono quindi che, se i corsi di studio decidono di effettuare la selezione, è probabilmente perché esiste un numero massimo di immatricolati che possono essere ammessi oppure perché, in un ottica di lungo periodo, si ritiene che la selezione migliori le caratteristiche qualitative del pool di candidati.

Una diversa modalità che secondo i vari criteri di selezione analizzati ci permette di valutare la qualità della selezione si basa sulla comparazione tra gli individui che non verrebbero ammessi all’iscrizione perché ritenutideboli e a forte rischio di abbandono e gli individui che effettivamente hanno abbandonato gli studi. A tal fine, assumiamo che il problema della definizione della quantità ottimale di studenti da ammettere (x*), sia stato risolto dagli organi decisionali del corso di studi massimizzando una qualche funzione obiettivo (così facendo non consideriamo che x* dipende dalla qualità del processo di selezione) oppure a causa di vincoli strutturali. In particolare supponiamo che x* = 555, cioè che la selezione riguardi circa il 19.2% dei candidati (che coincidono con gli studenti che, nella banca dati, hanno effettivamente abbandonato gli studi alla fine del primo anno) e analizziamo quali differenti criteri di valutazione permettano, ex post, di selezionare al meglio i candidati.

Ai fini della selezione dei candidati utilizziamo le stesse variabili indicate nell’elenco 1-5 precedente. Ponendo in essere la selezione, gli organi accademici possono andare incontro ad errori di due tipi:

•    non accettare studenti che non avrebbero abbandonato gli studi;
•    accettare studenti che, di fatto, abbandonano gli studi

La Tabella 4.2 riporta il numero di studenti selezionati in modo errato, come somma dei due errori che è possibile commettere in sede di selezione.

La Tabella presenta anche il valore del test di Pearson ed il suo livello di significatività come indicatore della bontà del criterio di selezione rispetto all’effettivo abbandono. La prima riga considera un criterio di selezione completamente casuale.

Tabella 4.2 Errori nella selezione con differenti criteri di selezione su 687 studenti. Ipotesi del 19.2% di candidati non ammessi.[fonte: banca dati iscritti ed esami sostenuti. Corso di Laurea in Economia, Ancona]

Dalla tabella non emergono differenze nel numero di candidati ammessi e non ammessi erroneamente, tra la selezione basata sul test e quella basata sul voto. In particolare, sembra che il test non aggiunga nulla rispetto a quanto contenuto nell’informazione derivante dal voto di maturità. Il numero di studenti ammessi erroneamente si riduce, invece, quando le informazioni derivanti dal voto di maturità e dal risultato dal test sono considerate in modo congiunto (di circa il 10% rispetto ad una selezione basata sul solo test o sul solo voto di maturità) e, ancora di più, nel caso in cui vengano utilizzate tutte le informazioni (di circa il 17%). In quest’ultimo caso, la probabilità di errore rispetto ad un criterio completamente causale si riduce di un terzo.  Altre indicazioni relative alla performance degli studenti possono derivare sia dal numero dei crediti formativi universitari (CFU) che dal voto medio agli esami che sarebbero stati ottenuti dagli studenti ammessi, a seconda del metodo di selezione. I CFU rappresentano una proxy (inversa) della durata attesa degli studi mentre il voto degli esami superati al primo anno rappresenta una proxy del voto di Laurea. Per i 5 metodi di selezione visti sopra, la banca dati permette di calcolare il numero dei CFU e del voto medio ottenuto dagli studenti che sarebbero stati ammessi e che non sarebbero stati ammessi.

La Tabella 4.3 riporta i risultati di queste analisi distinguendo tra studenti “non ammessi” e studenti “ammessi”. Tanto maggiore è la differenza in termini di CFU e di voto tra i due tipi di

Tabella 4.3 Errori nella selezione con differenti metodi. Ipotesi del 19.2% di candidati non ammessi. [fonte: banca dati iscritti ed esami sostenuti. Corso di Laurea in Economia, Ancona]
studenti, tanto più il criterio di selezione è efficiente. Nell’ultima riga sono presenti informazioni relative ai CFU ed al voto, sia degli studenti che non hanno abbandonato che di quelli che lo hanno fatto. Le varie modalità di selezione sono tutte in grado di differenziare il numero di crediti formativi ottenuti tra coloro che vengono ammessi e coloro che invece non sono ammessi.   Alla luce di questa analisi, si conferma che le migliori selezioni sono o quella che si basa sull’utilizzo congiunto delle informazioni che provengono dal voto di maturità e dal risultato del test di ingresso oppure quella basata su tutte le informazioni disponibili. Ciononostante, emerge che coloro che abbandonano ex-post gli studi (ultima riga), ottengono un numero di crediti molto più basso. Il voto medio ottenuto agli esami non sembra, invece, dipendere dai criteri di selezione utilizzati. Anche considerando coloro che hanno effettivamente abbandonato gli studi, le differenze nei voti medi sono comunque molto limitate.

 

© I predittori della performance accademica  – Laura Foschi

 

 

Performance accademica: la selezione come strategia ottimale

Performance accademica:la selezione come strategia ottimale

La selezione degli studenti può essere necessaria nel caso in cui il numero dei candidati sia superiore al numero di studenti che il Corso di Laurea può strutturalmente accettare.

Le ragioni possono essere legate tanto agli spazi materiali disponibili quanto a norme di legge che impongono determinati rapporti tra numero di studenti immatricolati e numero di docenti.

In quest’ultimo caso, il numero massimo di immatricolati è esogeno alle scelte degli organi dirigenti del corso di studi.

La CRUI (Conferenza dei Rettori delle Università Italiane) identifica alcuni punti focali nell’analisi dell’efficienza del sistema universitario.

Il tasso di abbandono tra il primo ed il secondo anno e l’efficienza del sistema, dovrebbero essere due dei caratteri guida nel finanziamento pubblico delle Università.

In ogni caso, indipendentemente dal finanziamento pubblico, uno studente che abbandoni al primo anno genera uno spreco di risorse, dato che non pagherà le tasse negli anni a seguire.

Se la selezione deve essere effettuata (per massimizzare il payoff, cioè il risultato oppure a causa di vincoli strutturali), è comunque rilevante definire nel modo più efficiente le modalità di selezione analizzando la funzione f(x).

Questa funzione può essere studiata sulla base dei dati resi disponibili dal Corso di Laurea in Economia di Ancona dove diversi indicatori, compreso il risultato del test di accesso, possono essere utilizzati per spiegare la relazione tra tasso di drop-out e numero di immatricolati.

 

© I predittori della performance accademica  – Laura Foschi

 

 

 

 

Performance accademica :Corso di Laurea in Economia di Ancona

Performance accademica: Corso di Laurea in Economia di Ancona

Introduzione

Nel 2009, il Corso di Laurea in Economia di Ancona ha sottoposto agli studenti un test di ingresso obbligatorio, non vincolante. Attraverso la analisi dei dati relativi agli immatricolati, gli autori si sono interrogati sull’utilità e sull’efficienza del test, cercando di dare risposta a queste domande:

  1. esiste un livello ottimale di selezione?
  2. sotto quali condizioni è preferibile immatricolare tutti i candidati?
  3. i test di ingresso migliorano la qualità della selezione rispetto alla semplice valutazione delle caratteristiche individuali dei candidati?  

Per ogni studente sono state raccolte le informazioni relative a:

  • •    età, sesso, provenienza geografica, diploma di scuola superiore, voto ottenuto alla maturità, anno di diploma; 
  • •    risultati del test di ingresso; 
  • •    esito del primo anno di studi universitari in termini di crediti e voto ottenuto ad ogni singolo esame (se superato) e di iscrizione al secondo anno.      

Il tema della selezione è stato ampiamente analizzato dalla letteratura economica che si è prevalentemente concentrata sulla selezione di più applicanti per un posto di lavoro. In generale, in questo tipo di selezione vengono utilizzate differenti metodologie quali l’auto-selezione, i contratti contingenti, il periodo di prova e, ovviamente, attività di valutazione ex-ante, talvolta svolte da società specializzate nella selezione dei lavoratori. In questa ultima accezione, la selezione dei lavoratori molto somiglia al test di ammissione (Lazear 1998, De Paola, Schoppa,

2008).

In un ottica a lungo termine non è facile rispondere a domande relative alla selezione ottimale degli studenti perché è del tutto probabile che le politiche di selezione di un singolo corso di studi, abbiano conseguenze sulle caratteristiche qualitative dei candidati all’immatricolazione negli anni successivi. Cioè, un Corso di Laurea con test di ammissione fortemente selettivi o un Corso di Laurea che richieda requisiti curriculari fortemente stringenti, si troverà ad affrontare un insieme di applicanti diverso (qualitativamente e quantitativamente) rispetto all’insieme che si candiderà in un corso di studi meno selettivo. Di nostro maggiore interesse è la analisi del comportamento di un corso di studi che fronteggia un pool di applicanti dato. I risultati portano alla conclusione che, se l’obiettivo del Corso di Laurea è ridurre il tasso di abbandono (drop-out), il test di ammissione posto in essere con le modalità descritte, pur se permette di selezionare in modo appropriato, non riduce il tasso di drop-out più di quanto sia possibile fare utilizzando soltanto le informazioni che derivano dal curriculum degli studenti. Se non tutti gli applicanti possono essere immatricolati o se la politica del Corso di Laurea è quella di ridurre il tasso di abbandono selezionando gli studenti, la selezione potrebbe essere fatta in modo proficuo utilizzando le caratteristiche curriculari (Staffolani, 2012).     

 

 

 

 

 

 

 

© I predittori della performance accademica  – Laura Foschi

 

 

 

Scienze e tecniche psicologiche: Conclusioni

Corso di Laurea in Psicologia di Cagliari: Conclusioni

Le verifiche empiriche condotte sulle prove di ammissione al Corso di Laurea in Psicologia di Cagliari hanno consentito di mettere in luce i risultati sintetizzati neipunti seguenti:

    1. Per ci  che riguarda le richieste di immatricolazione, chi ha partecipato alla prova di ammissione presenta caratteristiche socio anagrafiche e curricolari in buona parte sovrapponibili ai dati riportati in letteratura.
    1. I questionari utilizzati ai fini della selezione sono risultati, per alcuni versi, insoddisfacenti. L’avere modificato nel corso degli anni la formulazione delle domande ha consentito di valutare, oltre alle conoscenze di cultura generale, anche alcune competenze di base come quelle connesse ad abilità di ragionamento su contenuti semantici e simbolici. Il persistente ancoraggio alle cinque aree disciplinari può , tuttavia, aver limitato la portata delle trasformazioni: la coesistenza entro lo stesso quesito di aspetti tra loro dissonanti (conoscitivi e cognitivi), può  aver rappresentato più un fattore di disturbo e confusione che un effettivo richiamo ad una o più dimensioni latenti (es. ragionamento verbale, numerico e astratto). I test poi, sono risultati particolarmente difficili. In media solo il 15% dei soggetti ha risposto correttamente a più della metà delle domande previste. La soglia elevata ha comportato un sostanziale appiattimento delle differenze di punteggio tra gli ammessi.
    1. Nel complesso, le procedure adottate non sembrano avere introdotto particolari iniquità. L’ultima ponderazione dei criteri sembra abbia condotto ad un sufficiente equilibrio tra la valutazione del curriculum precedente e la prestazione al test di ammissione. Le dimensioni individuate tramite l’analisi delle componenti principali paiono, in sostanza, avere costituito da fattori correttivi delle iniziali diseguaglianze introdotte dalla semplice valutazione del voto di diploma. Analoghe differenze di rendimento al test di ammissione, sulla base del precedente curriculum di studi, sono state riportate da Briante e Romano (1997) e da Depolo e Rinaldi (1997). Ciò  che contraddistingue lo studio di Cagliari è il peso che le prove hanno assunto: a) le risposte date a caso, non adeguatamente corrette, possono sia inflazionare la componente di errore che distorcere in modo incontrollato la procedura di misurazione; b) le conoscenze di cultura generale, in parte sintetizzate dal voto di diploma, sono state valutate anche sulla base delle risposte fornite al test di ammissione.
    1. I criteri di selezione adottati (voto di diploma e test di ammissione) non sono in grado di predire sufficientemente il successo negli studi universitari. Dei due, il voto di diploma presenta la più alta utilità predittiva. Una meta-analisi condotta in Germania da Schuler, Funke e Baron-Boldt (1990) su 46 ricerche che hanno preso in esame 75 campioni indipendenti, per un totale di 26.867 soggetti, ha sottolineato come il contributo predittivo dei voti di maturità al successo accademico, corretto per inattendibilità di criterio, errore di campionamento e restringimento del range, spieghi il 64% della varianza dei risultati universitari. I dati dell’Università di Cagliari non consentono di escludere l’ipotesi che la scarsa rilevanza dei predittori sia dovuta ad un artefatto metodologico: gli ammessi rappresentano un segmento molto ristretto dei candidati (circa il 20%) selezionati proprio in base alle variabili assunte come predittori. Di conseguenza, gli ammessi possono presentare al loro interno una varianza ridotta dei punteggi (range restriction). L’eccessiva difficoltà delle prove pu  avere poi contribuito ad una ulteriore restrizione, minimizzando le differenze esistenti lungo le dimensioni valutate dal test.

Il numero programmato ha costituito l’unico rimedio, per il Corso di Laurea di Cagliari, di soddisfare una forte richiesta di immatricolazione in Psicologia (Guicciardi e Lostia, 1998). Ai fini predittivi, alcune variabili differenziali di tipo cognitivo-motivazionale (es. stili attribuzionali, Sé possibili, aspettative di riuscita, etc.: per una rassegna cfr. Marini, 1990), assumono un peso rilevante nella spiegazione del successo accademico, come testimoniano più di cinquanta anni di ricerche nel settore (Weiner, 1990).

Non è da trascurare l’ipotesi che il rendimento agli esami sia al contempo il prodotto e la causa delle modificazioni di tali costrutti (Van Overwalle, Mervielde e De Schuyter, 1995) e che una maggiore congruenza tra predittori e criterio possa migliorare la previsione del successo negli studi universitari. Ci  se si ha l’accortezza di introdurre il fattore tempo nel modello e misurare l’abilità di studio, le conoscenze specifiche e la motivazione intrinseca oltre al curriculum scolastico precedente (Minnaert e Janssen, 1992).

I dati indicano che se l’obiettivo è sostenere ed ampliare le possibilità di riuscita degli studenti, è sufficiente utilizzare il voto di diploma. A chi obietta che il voto di diploma possiede una metrica incerta e innesca effetti iniqui, è sufficiente rispondere che basta standardizzare i voti su base locale e/o ‘pesarli’ sulla base di parametri facilmente individuabili (Guicciardi e Lostia, 1998).

© I predittori della performance accademica  – Laura Foschi

 

 

I predittori della performance accademica: le prove di ammissione le procedure e i risultati

I predittori della performance accademica: le prove di ammissione le procedure e i risultati

Le procedure

Lo strumento utilizzato ai fini della selezione fu composto da 50 item a scelta multipla.

Gli item, bilanciati per aree tematiche, furono posti secondo un ordine fisso di sequenza.

Tutti i partecipanti vennero invitati a contrassegnare, nell’apposito foglio, le risposte esatte, avendo l’accortezza di non tralasciare alcuna domanda, pena l’esclusione dalla prova di selezione.

Per il completamento della prova furono assegnati 30 minuti.

Il calcolo dei punteggi consistette nell’attribuire il valore di 1,5 punti ad ogni risposta esatta e 0 punti ad ogni risposta sbagliata.

In caso di risposte doppie o di contrassegni ambigui venne  assegnato un punteggio pari a zero.

Non sono state utilizzate formule correttive per la penalizzazione delle risposte sbagliate o per le risposte indovinate a caso.

I risultati

I dati presentati in seguito, sintetizzano i risultati ottenuti nel corso di una sperimentazione triennale (1993-1996) effettuata mediante postume indagini empiriche. Le indagini sono state svolte al fine di accertare la validità e le caratteristiche psicometriche degli strumenti utilizzati a fini selettivi. Tenendo conto dei risultati sino a quel momento ottenuti, ogni anno ciascun test è stato costruito ex novo e ha presentato caratteristiche del tutto peculiari. Pur non potendo assumere una stretta equivalenza metrica degli strumenti, vi sono tuttavia diversi elementi che lasciano presupporre una sostanziale concordanza delle prove: la condivisione dei criteri adottati, il richiamo costante alle aree di contenuto ed una continuità temporale assicurata dalla stabilità della commissione che ha messo a punto i questionari.

L’uso di prove di ammissione all’Università non sufficientemente validate sul piano empirico o scarsamente corroborate dai risultati della ricerca sperimentale, suscita sempre una comprensibile e legittima perplessità (Amoretti, Baldi, Piazzini, Spairani, 1993; Arcuri, Soresi, 1997; Legrenzi, 1994; Legrenzi e Rumiati, 1995). È tuttavia doveroso sottolineare che, nel caso le prove assumano finalità selettive, la loro validazione è, nella migliore delle ipotesi, di tipo retrospettivo e spesso necessariamente limitata.

Sperimentare un test di selezione per l’ammissione all’Università su un campione rappresentativo della popolazione bersaglio, significherebbe, con buona probabilità, rendere anzitempo disponibili le domande e correre, quindi, il rischio di una sicura ‘invalidazione’ di tipo giudiziario. A selezione avvenuta, è molto difficile che coloro che non sono risultati ammessi si sottopongano, a distanza di tempo, ad una seconda prova, predisposta al fine di verificare la accuratezza degli strumenti. Sarebbe come chiedere ad una persona scampata ad una fucilazione se si pu  adagiare gentilmente per terra affinché si possa verificare se il fucile spara con precisione (Guicciardi e Lostia, 1998).

Occorre anche tenere presente che il contesto non più selettivo ma simulativo di una selezione, modificherebbe le motivazioni, gli stili di risposta e l’interesse per la riuscita, con inevitabili ripercussioni sulla distribuzione dei punteggi.

Per verificare l’attendibilità degli strumenti, gli autori hanno fatto ricorso al computo dell’alfa di Cronbach (1984), istituendo una sorta di confronto tra il questionario utilizzato ed un suo equivalente virtuale (Nunnally e Bernstein, 1994).

La mediana dei coefficienti alfa è risultata pari a .55, un valore decisamente basso che, sebbene rappresenti una stima conservatrice dell’attendibilità delle misure (Rubini, 1984), non pu  essere considerato accettabile in base agli standard riportati in letteratura (Rubini, 1975; Nunnally e Bernstein, 1994).

Buona parte della varianza dei punteggi al test di ammissione sembra, infatti, dipendere da una pronunciata incidenza di errori casuali, in parte riconducibile alla procedura utilizzata, in parte dovuta all’impiego di un numero limitato e probabilmente insufficiente di domande, che all’analisi degli item, presentano sostanziali variazioni nelle percentuali di riuscita (p-values) e che sono probabilmente eterogenei per contenuto e multidimensionali per struttura (per ottenere un valore accettabile di alfa (>.80) non sarebbe sufficiente triplicare il numero di item nell’ipotesi teorica che anche le nuove domande presentino le stesse proprietà metriche. Il valore p indica la probabilità che un soggetto qualsiasi, estratto casualmente dalla popolazione a cui appartiene il campione, fornisca la risposta esatta (alfa) alla domanda (Rubini, 1975). In genere gli item che manifestano una probabilità di risposta alfa prossima a .50, sono quelli che risultano maggiormente discriminanti a tutti i livelli della abilità misurata.

Mediante l’item analysis gli autori hanno potuto osservare che il 33% dei quesiti ha avuto una proporzione di risposte alfa inferiore a .20. Tale proporzione raddoppia se l’indice di difficoltà è corretto per le risposte date a caso, nell’ipotesi di una eguale attrattiva delle alternative).

Per poter dirimere questi dubbi, la struttura dei questionari è stata verificata a posteriori utilizzando l’analisi delle componenti principali (tutte le elaborazioni statistiche sono state condotte con le librerie di programmi per Windows SPSS e STATISTICA).

Usando come dati di partenza la matrice di correlazione tra i punteggi ottenuti da 636 candidati negli item del questionario, sulla base dello scree test di Cattell, gli autorihanno individuato tre componenti che spiegano il 17% della varianza complessiva. Prendendo in considerazione le saturazioni > .35 in valore assoluto, hanno identificato un fattore di Abilità di ragionamento e conoscenze matematiche (eigenvalue 2.63, % varianza spiegata 8.22), un fattore di Conoscenze di attualità e legislazione (eigenvalue 1.45,% varianza spiegata 4.54) e un fattore di Conoscenze letterarie (eigenvalue 1.35, % varianza spiegata 4.24) (al fine di rendere più evidente la struttura retrostante i dati, considerate le indicazioni provenienti dal calcolo dell’alfa di Cronbach e della correlazione media inter item che insieme depongono per una sostanziale disomogeneità del test (Dunteman, 1989; Nunnally e Bernstein, 1994), gli autori hanno ritenuto opportuno escludere dai calcoli successivi sia gli item che sono risultati molto difficili o molto facili (20% > risposte alfa > 80%) sia quelli che hanno presentato una bassa correlazione con il punteggio totale (< .10 in valore assoluto). L’utilizzo congiunto di entrambi i criteri, ha condotto all’esclusione di ben 18 item (36%). Sui punteggi dei rimanenti item è stata eseguita un’analisi delle componenti principali con rotazione degli assi secondo la procedura VARIMAX normalizzata).

Come si pu  osservare nella Tabella 3.2, la sovrapposizione tra le aree di contenuto identificate a priori e le dimensioni principali, è molto parziale: solo la metà degli item satura, con un peso non irrilevante, le componenti estratte. Il fattore più consistente, il primo, che implica prevalentemente abilità di ragionamento, copre i contenuti di tre aree diverse (Letteratura, Matematica e Scienze). Il secondo fattore, in ordine di importanza, raggruppa conoscenze relative a diversi contenuti disciplinari con prevalenza per quelli storici e di attualità. Solo il terzo fattore identifica quasi esclusivamente l’area letteraria.

La modalità di formulazione dei quesiti sembra, pertanto, avere influito in modo molto limitato sul significato degli item, sollecitando abilità di ragionamento che intersecano e si sovrappongono allo specifico contenuto delle domande. La percentuale di varianza spiegata dalle combinazioni lineari dei punteggi è quanto mai esigua e ci  suggerisce un’estrema cautela nell’interpretazione della struttura fattoriale. Le dimensioni individuate potrebbero infatti essere dovute più alla somiglianza delle distribuzioni degli item che alla condivisione di un significato

comune (Nunnally e Bernstein, 1994) (tale fenomeno si presenta spesso quando si sottopone ad analisi fattoriale la matrice di correlazione tra item piuttosto che i punteggi ottenuti nelle singole scale o nell’intero test. Un motivo pu  essere rintracciato nella scarsa correlazione tra item e nel- l’esigua varianza dei coefficienti di correlazione, che risultano particolarmente evidenti se le domande ammettono due sole possibilità di risposta (del tipo: giusta o sbagliata). I coefficienti di correlazione sono nella maggior parte dei casi compresi tra valori r di .10 e 30 (Flores d’Arcais, 1968).

Al fine di disporre di ulteriori evidenze in merito al contenuto degli item e alla struttura delle prove, gli autori hanno, successivamente, somministrato ad un gruppo di N.103 ammessi, frequentanti il Corso di Psicologia Generale (1993-94), il Reattivo di Vocabolario Wide-Range (V.R. 8-55) di Remondino (1980) e il Test delle frasi in disordine di Goguelin (1952) (il Reattivo di vocabolario è un test di potenza che misura la comprensione di un ampio spettro di vocaboli. Nel Test delle frasi in disordine il riordinamento delle parole costituisce una pre-condizione per decidere se le asserzioni hanno un senso compiuto. La somministrazione di entrambi i reattivi è avvenuta collettivamente ed è stata eseguita dopo aver suddiviso il campione originario in due sottogruppi equipotenti. L’ordine di somministrazione dei test è stato controbilanciato in maniera inversa tra i gruppi) (matricole N. = 180. Di tutte le variabili prese in considerazione (es. sesso, voto di diploma, tipo di diploma, etc.), solo l’età è risultata discriminare il campione, che in media presenta valori inferiori (anni 21.1 vs. 23.6, z = –3.44, p < .001).

L’analisi dei coefficienti di correlazione prodotto-momento di Pearson, calcolati a partire dai punteggi standardizzati, ha permesso di osservare che la prova di ammissione correla positivamente ed in maniera significativa con i risultati di entrambi i test intellettivi (Tab. 3.3). In particolare, i fattori Abilità di ragionamento e Conoscenze di attualità e legislazione sono quelli che manifestano le correlazioni più elevate con il test di Goguelin. Viceversa, il voto di diploma sembra sintetizzare delle capacità affatto differenti dal momento che presenta correlazioni negative con tutte le altre variabili osservate ed in particolare con il punteggio totale del test di ammissione, con il fattore Conoscenze letterarie e con il test di Goguelin. Mentre le prime due correlazioni possono essere imputate a dei biases presenti nel campione, la relazione inversa, sia pure modesta, con il test di Goguelin (r = –.20), lascia aperto qualche interrogativo sulle competenze e abilità che il voto di diploma dovrebbe riassumere (poiché i dati si riferiscono ad un gruppo di matricole frequentanti e non alla totalità dei candidati, la correlazione tendenzialmente negativa tra VD-PE (r = –.44) pu  essere dovuta al ruolo complementare che assumono tali variabili nel campione, selezionato proprio sulla base della somma dei contributi di entrambi i criteri. Viceversa, la relazione VD-III pu  essere ipoteticamente attribuita ad un effetto spurio del tipo di diploma).

Le evidenze raccolte tramite l’analisi delle componenti principali e il calcolo dei coefficienti di correlazione, convergono nel sostenere l’ipotesi che la formulazione degli item (ad esempio, con doppia negazione) o il tipo di compito richiesto (ad esempio, individuare il significato opposto di un termine scientifico), abbiano, in realtà, influito sulla struttura delle domande e modificato il contenuto del questionario rendendolo un strumento che sollecita, oltre alle conoscenze di cultura generale, alcune competenze di base come l’abilità di ragionamento su contenuti semantici, sia di tipo verbale che numerico (Boncori, 1993).

Per saggiare la consistenza della struttura fattoriale precedentemente individuata, l’anno seguente è stata eseguita una analisi delle componenti principali partendo, questa volta, dai punteggi che i 767 candidati hanno totalizzato nelle cinque aree di contenuto.

Sulla base dello scree test di Cattell, sono emersi due fattori che insieme spiegano il 48% della varianza complessiva. Il primo fattore (28% di varianza spiegata) satura quasi tutte le aree di contenuto e sembra rappresentare un fattore generale di conoscenza, il secondo fattore (20% di varianza spiegata) satura prevalentemente l’area Matematica, fisica e geometria e sembra identificare una capacità di ragionamento prevalentemente di tipo numerico e verbale. L’introduzione in analisi del voto di diploma, non modifica sostanzialmente la struttura individuata mentre l’inclusione della variabile età, aumenta la percentuale di varianza spiegata (53%) e consente di discriminare in uno spazio tridimensionale: i) le conoscenze legate a fenomeni di attualità (eigenvalue 1.47, varianza spiegata 21%); ii) le conoscenze che implicano rapidità di calcolo o abilità di ragionamento simbolico (eigenvalue 1,24, varianza spiegata 18%); iii) le conoscenze scientifiche e le domande che si basano sul ragionamento verbale (eigenvalue 97, varianza spiegata14%).

Dalle analisi sinora effettuate emergono pertanto due indicazioni di estremo interesse:

1) i test tendono a misurare, oltre che elementi di cultura generale, alcune abilità di ragionamento che risultano trasversali rispetto alle singole aree di contenuto;

2) i test sono inflazionati dall’errore di misurazione imputabile in via ipotetica a: a) un’insufficiente campionatura degli item; b) un’elevata eterogeneità delle domande; c) un’eccessiva difficoltà delle prove; d) una procedura di scoring inaffidabile.

Date queste caratteristiche, gli autori si sono chiesti se le prove utilizzate fossero state adeguate all’obiettivo prefisso: selezionare i candidati che con una maggiore probabilità avrebbero maturato una buona preparazione in psicologia.

Il criterio adottato è di non immediata operazionalizzazione dato che, tanto più il criterio è ambiguo, sensibile a fattori irrilevanti o remoto, tanto più è difficile mettere a punto degli strumenti validi o effettuare delle predizioni accurate (Anastasi, 1976; Boncori, 1993).

Nel caso specifico, è apparso da subito improponibile il vincolare il criterio alla riuscita professionale, dal momento che esistono infinite attività che contraddistinguono la professione dello psicologo (Perussia, 1994).

L’assumere tout court come criterio la riuscita professionale, presenta alcuni aspetti paradossali: è lecito ipotizzare che le richieste rivolte alla professione dello psicologo muteranno nel tempo in virtù delle trasformazioni sociali, dello sviluppo tecnologico e delle forme che il disagio e il benessere assumeranno. Non è da sottovalutare, invece, il ruolo che le stesse conoscenze psicologiche potranno svolgere nel promuovere o nel sostenere tali cambiamenti. Essendo, inoltre, le competenze professionali, fondate sulle conoscenze acquisite durante il corso di studi, un test di ammissione che fosse in grado di predire accuratamente la futura riuscita professionale dei candidati metterebbe in risalto il fallimento dell’istituzione universitaria nello sviluppare proprio quelle conoscenze che dovrebbero sostenere le suddette competenze. Quest’ultimo aspetto ha suggerito di escludere dal questionario qualsiasi riferimento ai contenuti propri della psicologia prediligendo un criterio intermedio, la riuscita accademica. Questo criterio consente una verifica empirica tramite un indicatore parziale e di facile disponibilità come il rendimento negli esami del biennio (Boncori, 1993), valutabile sui piani di efficacia ed efficienza (Giossi, Bertani e Muzio, 1996).

La scelta di un test di conoscenze generali, pur con i suoi pregi e difetti (Boncori e Tanucci, s.d.; Arcuri e Soresi, 1997; Legrenzi e Rumiati, 1995), ha assunto l’obiettivo di accertare le informazioni di base degli studenti, cercando di non penalizzare eccessivamente quanti, per curriculum di studi, non disponevano di conoscenze pertinenti all’ambito psicologico. L’avere abolito, con il passare degli anni, le domande di stretto contenuto nozionistico, sostituendole con altrettante che ponevano in gioco alcune abilità di ragionamento, pu  avere prodotto un’involontaria iniquità delle misure.

Gli autori si sono domandati se la padronanza delle abilità individuate dalla analisi delle componenti principali potesse avere discriminato in modo differenziale particolari gruppi di soggetti. Mediante una serie di analisi multivariate della varianza (MANOVAs), utilizzando i punteggi fattoriali come misure ripetute, è stato verificato se il sesso, il tipo di diploma e l’età possono avere costituito delle variabili discriminanti.

Il confronto maschi-femmine (fig. 3.1) ha evidenziato un’interazione altamente significativa (F2,1234 = 7.48, p < .0006): i maschi hanno ottenuto punteggi più elevati nei fattori Abilità di ragionamento e Conoscenze di attualità ma non sono emerse differenze significative nel fattore Conoscenze di letteratura.

Il confronto relativo ai tipi di diploma (fig. 3.2) ha mostrato un’interazione statisticamente significativa (F12,1224 = 4.45, p < .00001): chi in possesso di maturità liceale ha ottenuto un punteggio più elevato nei fattori Abilità di ragionamento e Conoscenze letterarie. Non sono emerse differenze significative tra i tipi di diploma, per ci  che riguarda le Conoscenze di attualità, fattore che nell’analisi successiva ha, invece, mostrato una relazione lineare con l’età (F6,1230 = 12.89, p < .00001).

Le differenze riscontrate, seppure statisticamente significative, riguardano solo una parte modesta della varianza complessiva dei punteggi (17%). Esse possono avere inciso in maniera superficiale sulla graduatoria finale che è stata stilata sulla base del contributo fornito dal test

e dal voto di diploma e, solo a parità di punteggio totale, dall’apporto del fattore età, che ha privilegiato i candidati più giovani.

Le dimensioni individuate mediante l’analisi delle componenti principali nella loro complessiva articolazione, non sembrano avere avvantaggiato alcun gruppo di soggetti in particolare. Possono, piuttosto, avere riequilibrato le diseguaglianze di partenza strettamente dipendenti dal voto di diploma, che, come è noto, risulta mediamente più basso al Liceo, tra i maschi e tra i meno giovani (Guicciardi e Lostia, 1995; Guicciardi, 1996).

Gli autori hanno potuto osservare che, ancora una volta, il rapporto tra voto di diploma e punteggio al test di ammissione risulta quanto mai controverso: le analisi condotte sulla totalità dei candidati hanno sempre mostrato una debole correlazione lineare positiva (mediana dei coefficienti r = .19). Analoghi risultati sono stati riferiti in più occasioni da molti ricercatori (raccolte di readings curate da Perussia, Converso e Miglietta (1995) e da Giossi e Bertani (1997)).

A distanza di cinque anni, l’analisi è stata replicata su 147 matricole del corso di Psicologia Generale (anno accademico 1995-96). Durante l’esercitazione sono stati somministrati il Test delle frasi in disordine di Goguelin (1952), il Mach IV di Christie, nell’adattamento italiano di Galli e Nigro (1983) (la scala misura un tratto di personalità definito orientamento machiavellico, che corrisponde alla tendenza a manipolare gli altri nelle situazioni interpersonali) ed un test di ammissione in Psicologia messo a punto da una Commissione Nazionale di esperti ed utilizzato lo stesso anno dalle Università di Bologna, Firenze, Milano (Cattolica), Padova, Torino e Trieste (Guicciardi, 1996) (la versione utilizzata dagli autori, corrisponde al test V.A.’95 fornita dall’Università di Torino. Iltest si compone di due opuscoli (prova 1 e prova 2), per un totale di 110 domande di cui 90 relative ad abilità che richiedono un ragionamento di tipo verbale, astratto o numerico e 20 relative alla comprensione di brani).

Al fine di identificare eventuali ridondanze tra le misure prese in considerazione, è stata dapprima condotta una analisi delle componenti principali con rotazione degli assi, secondo la procedura Varimax normalizzata. L’analisi è stata estesa all’età, al voto di diploma e al punteggio ottenuto alla prova di ammissione di Cagliari.

Sulla base dello scree test di Cattell, sono state individuate due componenti che spiegano il 48% della varianza complessiva. La prima dimensione (eigenvalue 4.29; 36% di varianza spiegata) contrappone la prova 1-V.A. ’95 che raggruppa i sub-test di ragionamento verbale, simbolico e numerico alla variabile età e all’orientamento machiavellico. La seconda dimensione (eigenvalue 1.44; 12% di varianza spiegata) contrappone i punteggi del test di ammissione (Cagliari) e della prova 2-V.A. ’95 al voto di diploma.

I risultati ottenuti, pur in presenza di una rilevante percentuale di varianza non spiegata, autorizzano a ipotizzare che i due test di ammissione, quello nazionale e quello locale non siano tendenzialmente tra loro equivalenti, dal momento che saturano fattori diversi. Ne è riprova il fatto che, mentre la prova 1 del test nazionale manifesta una forte consistenza interna (alfa di Cronbach: omnibus = .94; mediana dei subtest = .74), il questionario di Cagliari risulta poco omogeneo e per molti aspetti più simile alla prova 2 del test V.A. ’95.

Di fronte a questa supposta differenza, gli autori si sono, infine, domandati quale delle due prove di ammissione potesse meglio predire la riuscita accademica, valutata secondo i parametri del numero di esami sostenuti e della votazione media in essi riportata. A tal scopo, hanno preso in considerazione i dati delle matricole relativi alla prima sessione utile di esami (sessione estiva 1996) (i dati sono stati messi a disposizione dal Centro Servizi Informatici di Ateneo (CSIA) e dalla Segreteria Amministrativa della ex Facoltà di Scienze della Formazione. Poiché non è prevista la semestralizzazione degli insegnamenti, la sessione estiva rappresenta, per le matricole, la prima occasione utile a poter sostenere gli esami relativi ai corsi sino ad allora frequentati).

Assumendo come criterio il numero di esami sostenuti e come predittori l’età, il voto di diploma, il punteggio di ammissione (prova CA) e il punteggio al test nazionale (prova VA) mediante un’analisi standard della funzione discriminante multipla, gli autori hanno individuato i tre insiemi di variabili (‡ di Wilks = .84; X2 (12) = 19.1; p = .09) che consentono di discriminare le matricole sulla base del numero di esami sostenuti. Come si pu  osservare nella tabella che riporta i coefficienti standardizzati (Tab. 3.4), la prima funzione discriminante (62% varianza comune spiegata) sottolinea il contributo del voto di diploma che risulta essere l’unico predittore statisticamente significativo (F3,102 = 3.59; p < .05), la seconda (31% varianza spiegata) evidenzia la capacità discriminativa del test nazionale e l’ultima (7% di varianza spiegata) premia la prova locale.

Ad una successiva analisi stepwise, condotta secondo la procedura forward, solo la prima funzione è risultata statisticamente significativa (X2 (9) = 18.6 p < .05). Essa ha messo in rilievo il potere discriminante del voto di diploma (p < .05) ed il contributo della prova locale e della prova nazionale.

L’utilizzo del criterio votazione media agli esami ha richiesto un ulteriore restringimento del campione (N. = 99) dal momento che la previsione poteva interessare solo le matricole che avevano sostenuto almeno un esame nel corso della precedente sessione estiva.

L’analisi della regressione multipla condotta utilizzando gli stessi predittori, mostra, con molte riserve dovute al ristretto numero di soggetti, che all’interno della funzione lineare individuata, il voto di diploma assume ancora una volta il maggior potere predittivo (ß = .33), seguito in subordine dal test nazionale (B = .27). Ai fini della predizione, i contributi della prova locale e dell’età risultano entrambi ininfluenti (Tab. 3.5).

Il quadrato del coefficiente di correlazione parziale (sr2) mette in risalto che il voto di diploma e il test nazionale forniscono entrambi un contributo unico alla predizione, risultato peraltro intuibile dalla mancanza di correlazione tra le due misure. I due predittori si confermano validi ad una successiva analisi stepwise in cui il divario tra i pesi standardizzati diminuisce ma la sostanziale differenza dei livelli di significatività statistica permane.

Nel complesso, entrambe le analisi sembrano confermare l’utilità predittiva del voto di diploma ed assegnare un minor peso – per lo più variabile in funzione del criterio – alla prova di ammissione. Delle due prove, quella nazionale e quella locale, la prima sembra fornire una migliore utilità predittiva, soprattutto se riferita alla media degli esami. Occorre tuttavia precisare che la predizione fornita dall’analisi della regressione, pur risultando statisticamente significativa (R = . 42; F4,94 = 5.02; p < .005), spiega una percentuale molto limitata della varianza del criterio: nell’ipotesi più ottimistica – in ogni caso limitata alla prima sessione utile di esami – l’85% della variabilità media dei voti riportati non è spiegabile dai predittori presi in considerazione.

 

© I predittori della performance accademica  – Laura Foschi

 

 

Corso di Laurea in Scienze e Tecniche Psicologiche di Cagliari: I criteri di selezione

Corso di Laurea in Scienze e Tecniche Psicologiche di Cagliari: I criteri di selezione

Su delibera del Consiglio dell’ex Facoltà di Cagliari, la prima procedura selettiva prese in considerazione il voto di diploma di scuola media superiore, il voto di Laurea, ove presente, ed i risultati di un questionario sulle “competenze culturali” che, si presumeva, dovessero far parte della preparazione di un diplomato di scuola media superiore.

Un questionario composto da 50 item a scelta multipla fu il criterio di ammissione scelto.

Era composto da 50 domande, 10 per ognuna delle seguenti aree disciplinari:

a) Letteratura contemporanea;
b) Matematica, fisica e geometria;
c) Educazione civica;
d) Avvenimenti storici;
e) Scienze biologiche e naturali.

Gli item, bilanciati per aree tematiche, vennero posti secondo un ordine fisso di sequenza.

Tutti i partecipanti furono invitati a contrassegnare le risposte esatte avendo l’accortezza di non tralasciare alcuna domanda, pena l’esclusione dalla prova di selezione.

Ad ogni candidato vennero messi a disposizione 100 punti, il 50% sarebbe derivato dalla prova del questionario ed il 50% dai titoli di studio (voto di maturità e Laurea).

Da un controllo effettuato nell’anno accademico 1992-93, il voto di diploma apparve saturare per il 70% il punteggio totale di ammissione.

Ci  rese necessaria una modifica al peso dei fattori voto di maturità e risposte esatte, elementi che concorrono alla formazione della graduatoria.

Il 25% dei punti venne assegnato al voto di diploma (1 punto per ogni voto da 36 a 60) e il 75% alla prova scritta (1,5 punti per ogni risposta corretta del questionario).

Per il completamento della prova vennero assegnati 30 minuti.

In otto anni di selezioni molte cose vennero cambiate.

Si noti che il punteggio dato a chi era già in possesso di una Laurea penalizzava gli studenti più giovani, avvantaggiando una popolazione già inserita nel mondo del lavoro e quindi ad alta percentuale di abbandono.

Si decise, perciò, di eliminare dalla valutazione dei titoli, il possesso della Laurea ed il peso ad esso attribuito.

La analisi degli item del questionario fece si che venissero progressivamente eliminate le domande di tipo meno discriminante, quasi sempre coincidenti con conoscenze scolastiche di stretto contenuto ‘nozionistico’.

Sempre restando all’interno delle cinque aree indicate dal Consiglio dell’ex Facoltà, la misurazione venne orientata verso competenze di ragionamento su unità semantiche (verbali e numeriche).

Con questi criteri vennero costruiti i questionari utilizzati a partire dall’anno accademico 1993-94.

 

© I predittori della performance accademica  – Laura Foschi

 

 

I predittori della performance accademica: Scienze Tecniche Psicologiche Cagliari

I predittori della performance accademica: Corso di Laurea in Scienze e Tecniche Psicologiche di Cagliari

Introduzione

Lo studio svolto da Guicciardi e Lostia dell’Università di Cagliari nel 1997, lavoro che nell’arco di otto anni ha coinvolto circa 8.000 aspiranti matricole di Psicologia, ha esaminato le proprietà psicometriche, la validità e l’attendibilità della prova di ammissione al Corso di Laurea in Psicologia di Cagliari.

Nel corso degli anni il test è stato modificato con l’intento di valutare, oltre alla cultura generale, le abilità di ragionamento (verbale, numerico e astratto).

L’analisi delle componenti principali ha evidenziato una struttura trifattoriale.

La prova ha mostrato moderate e significative correlazioni positive con alcuni test di abilità verbale ma, insieme ad altri indicatori (voto di maturità, età e punteggio al test di ammissione V.A. ’95), una limitata validità predittiva del rendimento accademico delle matricole (numero e media esami), efficacia valutata mediante l’analisi della regressione e della funzione discriminante multipla.

Tabella 3.1  Caratteristiche socio demografiche e di merito dei candidati degli anni accademici 1993-1996 del Corso di Laurea in Psicologia di Cagliari.
[fonte: Guicciardi e Lostia, 1997]

Osservando le caratteristiche dei candidati che hanno partecipato alla prova di selezione (Tab. 3.1) si pu  notare che: il rapporto maschi/femmine si attesta su 1 a 4; l’età media si aggira intorno ai 23 anni con una tendenza statisticamente significativa in cui i maschi sono mediamente meno giovani delle femmine (p < .05); i titoli di studio prevalenti sono la maturità tecnica e la maturità scientifica; il voto di diploma è mediamente pari a 44 punti con una differenza statisticamente significativa che premia le donne le quali, in genere, si sono diplomate con votazioni superiori (p < .05).

Se analizzati nel tempo, in senso longitudinale, i dati mostrano un sensibile aumento dell’età e del voto di diploma dei candidati ed una costanza nelle richieste di immatricolazione provenienti da diplomati a Liceo Scientifico ed Istituti Tecnici (Briante e Romano, 1997; Giossi e Bertani, 1997).

 

© I predittori della performance accademica  – Laura Foschi

 

 

I predittori della performance accademica: la competenza clinica post lauream come criterio

I predittori della performance accademica: la competenza clinica post lauream come criterio

La maggior parte degli studi sul potere predittivo dei fattori cognitivi nella selezione degli studenti di medicina, si è concentrata sul successo nella formazione medica pre lauream.

Alcuni autori (Hojat, Bornstein e Veloski, 1988; Korman e Stabblefield, 1971) hanno valutato quanto i fattori cognitivi rilevati durante l’addestramento medico (l’abilità nella gestione e nell’analisi dei dati, la media voto dal primo al quarto anno, l’esame NBME – National Board of Medical Examiners – parte I e II) ed i fattori non-cognitivi (le abilità interpersonali e le attitudini), siano predittivi della competenza clinica post lauream.

I dati mostrano che i fattori cognitivi possono predire fino al 51% della varianza del voto all’esame NBME (Markert, 1993).

Due studi hanno valutato il potere predittivo sia dei criteri di ammissione (media voto di diploma e punteggio al test d’ammissione) che dei punteggi agli esami di medicina sulla competenza post lauream (Richards, Taylor e Price, 1962; Ronai et al., 1984).

I risultati mostrano una debole relazione tra i punteggi di ammissione e la competenza clinica rilevata durante l’internato.

Confrontando la tabella delle correlazioni tra le variabili, Richards e colleghi (1962) rilevano che il 60% delle correlazioni tra le abilità accademiche precedenti l’iscrizione e i risultati pre lauream è significativo (con r compreso tra .17 e .34) ma che solo un’abilità correla significativamente anche con la valutazione della performance durante l’internato post lauream (r=.20).

 

© I predittori della performance accademica  – Laura Foschi

 

 

 

 

I predittori della performance accademica: Descrizione di sé

I predittori della performance accademica: Descrizione di sé

L’utilizzo di lettere di presentazione e descrizione di sé è d’uso nelle domande di ammissione ai College di Regno Unito e Stati Uniti.

Ferguson e collaboratori (2000) nel valutare la validità predittiva delle descrizioni di sé fornite dai candidati rispetto al successo accademico, non hanno riscontrato alcuna associazione, nemmeno sui primi esami.

McManus e Richards (1986) valutando le informazioni relative al livello di cultura dei candidati, hanno rilevato come questa variabile predica, moderatamente in negativo, il voto di Laurea (?=-.184).

Analogamente a quanto riscontrato nelle altre professioni, una serie di ricerche sembra suggerire come la valutazione della descrizione di sé e, più in generale, delle variabili non cognitive, non sia predittiva dei risultati durante la Medical School ma lo diventi se considerata criterio per la riuscita professionale post lauream (Albanese et al., 2003; Murden, Galloway, Reid e Colwill, 1977; Myles e McAleer, 2003; Peskun, Detsky e Shandling, 2007; Poirier e Pruitt, 2003; Searle e McHarg, 2003).

 

© I predittori della performance accademica  – Laura Foschi

 

 

 

 

I predittori della performance accademica: Interviste

I predittori della performance accademica: Interviste

La letteratura che ha indagato il potere predittivo delle interviste ai candidati alla Medical School si divide in tre filoni di ricerca:

    1. Studi che hanno confrontato le performance degli studenti il cui processo di selezione si è avvalso di un’intervista, con le performance degli studenti accettati senza intervista (Smith, 1991; Smith, Vivier e Blain, 1986). Gli autori non hanno trovato differenze ed hanno concluso che l’intervista aggiunge poca validità al processo di selezione. I dati concordano con uno studio condotto alla Facoltà americana di Yale ove si era notato che gli studenti respinti sulla base di un’intervista non ottenevano risultati peggiori di chi, pur essendo stato accettato, aveva optato per un altro college (Milstein, Wilinson, Burrow e Kessen, 1981).
    1. Studi che mettono in relazione la valutazione dell’intervistatore (l’idoneità generale a Medicina) con il risultato dell’intervistato rispetto all’esito del corso di studi (successo o ritiro) (Calkins, Arnold e Willoughby, 1987; Elam, Studts e Johnson, 1997; Hall, Regan-Smith e Tivnan, 1992; Lazin e Neumann, 1991; McManus e Richards, 1986; Meredith, Dunlap e Baker, 1982; Murden, Galloway, Reid e Colwill, 1978; Powis, Neame, Bristow e Murphy, 1988; Powis, Waring, Bristow e O’Connell, 1992) e al giudizio di competenza professionale (Hall et al., 1992). Questi studi suggeriscono che il punteggio dell’intervista può predire il successo: il punteggio di valutazione globale dell’intervista correla con il voto di Laurea (da .08 a .14, Elam e Johnson, 1992) ed il successo nell’ottenere una lettera di presentazione del Preside (la Dean’s letter of recommendation, un riconoscimentoottenibile, previa richiesta, dagli studenti meritevoli: r= .33, Hall et al., 1992).
    1. Lo studio di Elam e Johnson (1992) ha messo a confronto l’intervista con altri criteri di ammissione. La correlazione parziale dei giudizi dell’intervista con il successo nei primi esami, tenendo come variabile di controllo la media voto di diploma, è risultata significativa.

Una critica mossa all’uso delle interviste (che di solito utilizzano scale tipo Likert) (Johnson e Edwards, 1991) è che forniscano dati quantitativi ma non validi (Kreiter, Yin, Solow e Brennan, 2004; Mitchell, Haynes e Koenig, 1994). Nel 1992 Elam e Johnson avvertivano il bisogno, tuttora valido, di informazioni rispetto alla relazione intervistato-intervistatore alla presenza di bias sistematici e sugli effetti di un training sugli intervistatori. La letteratura recente si concentra più sulle qualità psicometriche.

Stansfield e Kreiter (2007) rilevano che le interviste mostrano buone attendibilità e validità per i punteggi estremi ma che potrebbero essere migliorate utilizzando scale di risposta a tre livelli invece che a cinque. L’intervista è una delle prove tenute maggiormente in considerazione dalle figure che si occupano dell’ammissione degli studenti alle Medical Schools (Kulatunga-Moruzi e Norman, 2002).

 

© I predittori della performance accademica  – Laura Foschi