La teoria sulle intelligenze multiple e gli studi della personalità

La teoria sulle intelligenze multiple di Gardner e gli studi di psicologia della personalità

La teoria della Gestalt considera la mente come una totalità organizzata in una struttura unitaria e distingue tra pensiero produttivo, un sistema che crea le soluzioni mediante una ristrutturazione cognitiva attuata per mezzo dell’insight (un salto qualitativo/cognitivo che consente di percepire aspetti nuovi del problema e di utilizzarli in una nuova prospettiva) e pensiero riproduttivo, la ripetizione di schemi e strategie comportamentali già utilizzati in passato.

Le teorie sull’insight vengono suddivise in teorie dell’elaborazione speciale, un tipo di elaborazione dell’informazione che consiste in ampi salti logici inconsci ed in teorie del niente di speciale, in cui l’insight è un’estensione dei normali processi percettivi, cognitivi, di apprendimento e di ideazione ed è formato da tre processi psicologici correlati, la codificazione selettiva, cioè la capacità di capire ed individuare gli elementi utili dell’informazione, la combinazione selettiva, la capacità di accostare elementi di informazione apparentemente distinti all’interno di un complesso unificato, il confronto selettivo, cioè la capacità di mettere in relazione informazioni appena acquisite con altre già possedute (come avviene nella soluzione dei problemi per analogia).

Nel 1983 il cognitivista Howard Gardner (Gardner, 1983) propose di considerare priva di fondamento la vecchia concezione di intelligenza come fattore unitario misurabile tramite QI e di sostituirla con una definizione più dinamica, articolata in sottofattori differenziati.

Parlò di Intelligenze multiple, sostenendo l’esistenza di vari tipi di intelligenza, ognuna con una diversa base biologica ed uno sviluppo indipendente: linguistica, musicale, logico-matematica, spaziale, cinestesica o procedurale, naturalistica, etica e filosofico-esistenziale.

Ogni forma di intelligenza corrisponderebbe ad unità funzionali individuali, ci  spiegherebbe la ragione per la quale un individuo pu  eccellere in un’area e non in altra.

La teoria tiene conto anche delle dinamiche ambiente-cultura, sostiene che all’interno della popolazione le diverse tipologie di intelligenza hanno una distribuzione casuale, garantendo una spartizione equa tra gli individui dotati di talento che ricevono educazione e sostegno culturale.

Gli studi in ambito di psicologia della personalità hanno messo in luce il profilo dei cosiddetti soggetti plusdotati, individui caratterizzati da curiosità, apertura al nuovo, anticonformismo, tolleranza a frustrazione e conflitto e amore per il rischio.

Questi soggetti confermano che ogni individuo è un sistema unico e che l’intelligenza creativa è il prodotto dell’unione di abilità innate e influenza ambientale favorevole.

Lo studio di soggetti con grave ritardo mentale ha, invece, evidenziato l’esistenza della sindrome del Savant o savantismo, una rara condizione in cui soggetti con disfunzioni dello sviluppo (forme diverse di autismo) definiti idiot savant (idioti sapienti), mostrano una prodigiosa capacità mnemonica (circoscritta a pochi ambiti) o le cosiddette splinter skills, schegge di abilità, frammentarie e non ricollegabili al resto della quotidianità (ad esempio, il collezionismo ossessivo di dati da memorizzare), cioè doti eccezionali ma prive di cognizione.

 

© I predittori della performance accademica  – Laura Foschi

 

 

La teoria tripolare di Sternberg

La teoria tripolare di Sternberg      

Negli anni 1987-2000 Robert Sternberg (Sternberg, 1987), studioso dello sviluppo cognitivo, definisce l’intelligenza un “autogoverno della mente”, una abilità dell’intelletto di regolare e coordinare i processi e le componenti di ordine inferiore.

L’intelligenza si esprimerebbe attraverso la modalità analitica, una capacità che consente di fare analisi profonde, di fare confronti tra elementi diversi, di valutare e di formulare giudizi, attraverso la modalità creativa, legata all’intuizione e che si realizza nell’inventare, scoprire, immaginare, affrontare con successo situazioni nuove per le quali le conoscenze esistenti si mostrano inadeguate e attraverso la modalità pratica, la capacità di utilizzare strumenti, applicare procedure e mettere in atto progetti.

La struttura dell’intelligenza viene descritta all’interno della Teoria tripolare e suddivisa nelle subteorie contestuale, esperienziale e componenziale.

Per la subteoria contestuale il soggetto cerca di trovare un adattamento tra se stesso e l’ambiente che lo circonda attraverso la modifica del sistema ambiente o la trasformazione degli obiettivi che persegue.

Da ci  deriva che l’intelligenza cambia in base all’ambiente sociale e culturale in cui il soggetto è inserito ed in funzione dell’età (dell’esperienza acquisita).

Nella subteoria esperenziale i soggetti si differenziano sia in base al grado di insight (abilità che consente di affrontare i compiti e le situazioni nuove) applicato alla soluzione dei problemi che per la capacità di automatizzazione delle informazioni acquisite (abilità che permette di eseguire compiti complessi).

La subteoria componenziale ci dice che per studiare le differenze di intelligenza tra i soggetti, dobbiamo osservare il modo il cui soggetto, al fine di scoprire la relazione tra le due parti di una analogia, si costruisce ed usa una mappa mentale.

“Le componenti” sarebbero “processi elementari di informazione che operano su rappresentazioni interne di oggetti o simboli” (Sternberg, 1987) che possono venire suddivise in subcomponenti sempre più raffinate chiamate metacomponenti, componenti di prestazione e componenti di acquisizione di conoscenza.

Le metacomponenti sono processi esecutivi di ordine superiore con funzione di esecuzione di un compito, vengono impiegate nella progettazione, nel controllo e nella presa decisionale.

Vengono chiamate direttivi o homunculus.

Sette sono le metacomponenti della funzione intelligenza: il giudizio sulla natura del problema da risolvere, la selezione di componenti di ordine inferiore, la selezione di una o più rappresentazioni dell’informazione, la selezione di una strategia atta a combinare le componenti di ordine inferiore, le decisioni su come distribuire l’attenzione, il controllo della soluzione, la sensibilità ai feedback esterni.

Le componenti di prestazione sono i processi impiegati nell’esecuzione di un compito, comprendono le componenti di codificazione, le componenti di combinazione e confronto e le componenti di risposta.

Le componenti di combinazione e confronto vengono utilizzate nella soluzione di analogie o nella strategia di abbinamento e confronto di informazioni.

Le componenti di acquisizione della conoscenza concorrono alla formazione dell’insight, vengono utilizzate nell’apprendimento di nuove informazioni e sono suddivise in: componenti generali (consentono di eseguire i compiti), componenti di classe (aiutano ad interfacciarsi con una subcategoria di prove), componenti specifiche (utili nell’esecuzione di compiti singoli).   

 

 

 

 

 

 

 

© I predittori della performance accademica  – Laura Foschi

 

 

 

Le teorie di Spearman, Thurstone, Vernon, Guilford, Cattell e Carol

Le teorie di Spearman, Thurstone, Vernon, Guilford, Cattell e Carol      

Lo psicologo londinese Charles Spearman (Bartholomew, 1995), con l’intento di stabilire se l’intelligenza fosse un’entità unica, come ipotizzato da Galton o un insieme di entità distinte, come ipotizzato da Binet, elabor, nel 1904, sia una nuova metodologia statistica di analisi dei dati, la analisi fattoriale, che una teoria gerarchica dell’intelligenza definita modello fattoriale semplice. La nuova procedura metodologica gli consentì di studiare la matrice di correlazione tra i risultati di molteplici test psicologici e di individuare alcune categorie generali che chiam  fattori.  Secondo il nuovo modello fattoriale, le risposte fornite ad un set di test di abilità sono riconducibili ad un fattore generale d’intelligenza, il fattore g ed a fattori secondari, i fattori s. Il fattore g è una abilità che consente di risolvere problemi concreti e astratti, è alla base del rendimento di ogni prestazione intellettiva e perci  gerarchicamente superiore ai fattori s. I fattori s sono costituiti dalle abilità linguistica, spaziale e aritmetica, hanno rilievo nell’esecuzione di compiti individuali e rappresentano una subdifferenziazione del fattore g. Il fattore g viene misurato da indici di livello come i QI (quozienti intellettivi): maggiore è il valore di g, migliori dovrebbero essere i risultati del test. Nessun test, per , singolarmente, pu  misurare in maniera perfetta g dato che che in ogni test interviene anche un’abilità specifica s. Spearman concluse che la mente contiene un’unica intelligenza, compresa sia nei termini di un singolo fattore generale g, che nei termini di un vasto insieme di abilità particolari s. Il nucleo dell’intelligenza sarebbe, perci , racchiuso nel fattore g.

La potenzialità della analisi fattoriale risiede nel poter cogliere la posizione del soggetto rispetto al gruppo e del gruppo rispetto ad un altro gruppo, comprendere la natura dell’attività mentale e la struttura comportamentale. I fattori sono utili per costruire modelli che permettono di descrivere il profilo delle abilità individuali e di fare previsioni sul successo scolastico o professionale.

Nel 1938 Louis Leon Thurstone (Thurstone, 1938) spost  l’attenzione proprio su quelle componenti specifiche che Spearman sosteneva essere sottese da un fattore generale. Propose un modello che racchiudeva il nucleo dell’intelligenza in sette fattori globali e che definì abilità mentali primarie: la comprensione verbale, la fluidità verbale, la abilità aritmetica, la visualizzazione spaziale, la memoria associativa, il ragionamento induttivo e la velocità di percezione.

Nel 1961, lo psicologo Philip Ewart Vernon (Vernon, 1987), scomponendo il fattore g in altri due fattori, la abilità verbale-scolastica e la abilità meccanico-spaziale, elabor  un modello gerarchico più sofisticato rispetto a quelli precedentemente ideati. Secondo l’autore, le abilità primarie sarebbero variabili indipendenti l’una dall’altra ma influenzate dal fattore g, al vertice della gerarchia. La abilità verbale-scolastica userebbe le conoscenze apprese e interverrebbe nella maggior parte delle attività intellettuali; pu  essere scomposta in due fattori minori: v o abilità verbale (misurata con test di vocabolario e di comprensione di lettura) e n o abilità di elaborazione numerica (misurata da prove che prevedono il ragionamento aritmetico). La abilità meccanicospaziale interverrebbe nell’utilizzo di strumenti e di macchine ma non sarebbe influenzata dalla scolarizzazione, risolverebbe i problemi utilizzando l’immaginazione visiva, la comprensione di fenomeni afferenti alla meccanica e la manipolazione precisa di oggetti.

Intorno al 1950 si assiste ad una integrazione tra gli indirizzi psicometrico e cognitivo e ad un risveglio dell’interesse per le relazioni tra abilità cognitive di base e intelligenza mosso sia dallo studio sui deficit causa di ritardo mentale che dalle ricerche su condizionamenti culturali e strategie individuali. L’approccio cognitivo sposta l’attenzione dalle strutture generali dell’intelligenza alla comprensione di come operino i singoli processi coinvolti nell’esecuzione di compiti. Si suppone che la mente sia un dispositivo di elaborazione delle informazioni dotato di funzioni intrinseche, come i depositi di memoria. La memoria a breve termine (MBT) sarebbe la sede del pensiero conscio ed il luogo in cui la combinazione di informazioni da vita al problem solving, struttura che avrebbe per  capacità limitata. Velocità mentale e memoria di lavoro (MdL) vengono intese come possibili basi del fattore g: la rapidità di pensiero migliorerebbe la prestazione intellettiva perché aumenterebbe la capacità della MdL. Vernon (1987) ritiene che più rapida è l’elaborazione, maggiore quantità di informazioni possono venire trattate. Sia la MdL che la velocità mentale sarebbero correlate all’intelligenza fluida e declinerebbero con l’età.

Joy Paul Guilford (Guilford, 1967) indagando la struttura dell’intelligenza e cercando di individuare il numero di fattori o dimensioni latenti a cui l’intelligenza pu  essere ricondotta, elabor  una teoria multidimensionale, non a struttura gerarchica ma a disposizione cubica, che chiam  Struttura dell’Intelletto (SOI). Divise l’intelligenza in 3 dimensioni indipendenti tra loro, le operazioni, i contenuti ed i prodotti, da cui si generano, moltiplicandosi, 150 nuovi fattori. L’attenzione dello studioso si concentr  su due tipologie di elaborazione mentale, il pensiero convergente e divergente ed il pensiero creativo, in relazione alla personalità e alla motivazione. L’importanza dei fattori educativi e culturali trascurati dagli psicometristi, viene analizzata nella teoria di Cattell (Horn 1963, Cattell, 1966) secondo la quale l’intelligenza sarebbe il prodotto di due componenti, una genetica ed una derivante dall’interazione con l’ambiente. L’autore ipotizza la presenza di un solo fattore generale (il fattore g di Spearman) distinto in due diverse dimensioni, l’intelligenza fluida (gf) e l’Intelligenza cristallizzata (gc) (Polacek, 2001). L’Intelligenza fluida sembra essere una abilità elastica che corrisponde alla capacità di ragionamento astratto e che non dipende da precedenti apprendimenti. Viene misurata da prove di ragionamento in cui viene richiesta la capacità di percepire delle relazioni, indipendentemente dalla conoscenza del significato (analogie, classificazioni, completamento di serie); l’intelligenza cristallizzata è costituita dalle abilità apprese e consolidate nel corso dell’esperienza, accresce durante tutto il corso della vita. E’ determinata dalle influenze ambientali, sociali e culturali, implica il sapere usare strategie e viene misurata da test che valutano gli elementi di scolarizzazione (ricchezza lessicale, comprensione verbale, informazione generale). Le due forme di intelligenza non sono indipendenti l’una dall’altra, l’intelligenza cristallizzata dipende da quella fluida poiché chi ha maggior intelligenza fluida apprende e ricorda meglio le informazioni. I due modelli di comportano, invece, in maniera diversa a seconda dell’età: la abilità fluida sembra essere influenzata dalla dimensione di g, che si deteriora con gli anni e tende a decrescere nel corso della vita. Il modello di Cattell e Horn si presta non solo a spiegare le differenze di capacità intellettiva interindividuale ma anche a descrivere la ragione del diverso declino delle funzioni cognitive in fase senile.

John Bissel Carroll (Carrol, 1993) contempla l’organizzazione gerarchica dell’intelligenza come un modello piramidale diviso in tre strati, in ordine decrescente di specificità. Al vertice della piramide si troverebbe il fattore g, ereditario e alla base di tutte le attività intellettuali del soggetto; a livello intermedio, otto abilità influenzate dal fattore g e definite fattori di gruppo come l’intelligenza cristallizzata (gc), l’ intelligenza fluida (gf), l’apprendimento, la memoria, la percezione visiva, la fluidità verbale, la capacità mnemonica ampia, la conoscenza e la velocità percettiva; allo strato terzo,  fattori specifici come la conoscenza lessicale. La teoria di Carroll orchestra i contenuti dei modelli presenti in letteratura, includendo i concetti di intelligenza fluida e intelligenza cristallizzata (Cattel e Horn), di fattore g (Spearman) e di abilità mentali primarie (Thurstone).

 

© I predittori della performance accademica  – Laura Foschi

 

 

Approcci allo studio dell’intelligenza

Approcci allo studio dell’intelligenza

Lo statistico inglese Francis Galton, pioniere della psicometria e della applicazione di metodi statistici rivolti allo studio dell’intelligenza, creò  il primo test standardizzato atto a misurare l’intelligenza umana, attraverso l’analisi di eugenetica ed ereditarietà. Nel testo “Indagine sulle Capacità Umane e suoi Sviluppi” pubblicato nel 1883, Galton ipotizzò potesse esserci una correlazione tra l’intelligenza e le variabili di tipo fisico. Non fu in grado di dimostrare le correlazioni scoperte e abbandonò la ricerca.

Gli psicologi francesi Alfred Binet e Théodore Simon, nel 1905, pubblicarono la Scala Binet-Simon (Binet e Simon, 1905), un test di intelligenza incentrato sulle abilità lessicali dei bambini in età scolare. Oltre a misurare l’età mentale del bambino, il test cercava di identificare anche un eventuale ritardo mentale.

Nel 1912 lo psicologo tedesco William Louis Stern (Stern, 1912) coniò il termine I.Q. (dal tedesco Intelligenz-Quotient) che definì la risultante della formula (età mentale/età biologica)*100. Con questo calcolo, due bambini di età diversa, la cui intelligenza fosse risultata pari alla media, avrebbero entrambi ottenuto il punteggio 100. Un bambino di 10 anni che avesse ottenuto il punteggio di un bambino di 13, ad esempio, avrebbe avuto un QI di 130 (100*13/10).

Lewis M. Terman (Terman, 1916) della Stanford University, sostenitore come Stern che l’intelligenza si dovesse misurare con un quoziente, introdusse, nel 1916, lo Stanford-Binet Intelligence Scale, un affinamento della Scala Binet-Simon che però si rivelò di difficile applicazione ad un pubblico adulto.

Nel 1939 David Wechsler (Wechsler, 1939) cre  il primo test d’intelligenza per soggetti adulti, la Wechsler-Bellevue Adult Intelligence Scale e nel 1949 la Wechsler Intelligence Scale for Children (WISC). Le prime Scale WAIS si articolavano nei subtest Scala Verbale e Scala di Performance, da somministrare in sequenza. Dopo essere stata rivista e ripubblicata nel 1955 come Wechsler Adult Intelligence Scale (WAIS), in seguito alla morte di Wechsler, la batteria di test fu revisionata e pubblicata nel 1981come Wechsler Adult Intelligence Scale – Revised (WAIS-R). In questa versione vennero eliminati gli item  obsoleti, modificato l’ordine di somministrazione dei subtest e adattata l’attribuzione dei punteggi. Nel 1997 venne pubblicata la WAIS-III e nel 2008 la WAIS-IV (tr. it. 2013), vennero introdotte nuove prove e la possibilità di ricavare indici nuovi. I subtest sono stati suddivisi in quattro gruppi che portano alla valutazione di altrettanti indici: l’Indice di Comprensione Verbale (ICV), l’Indice di Ragionamento Visuo-Percettivo (IRP), l’Indice di Memoria di Lavoro (IML) e l’Indice di Velocità di Elaborazione (IVE). A ciascuna prova viene attribuito un punteggio grezzo commutato poi in punteggio ponderato (con media 10 e deviazione standard 3) sulla base di una tabella di conversione costruita sui dati di un campione normativo di fascia 19-34 anni d’età, quella cioè che mostra migliori prestazioni al test. Le Scale Wechsler vengono oggi impiegate nella valutazione di ragazzi e adulti (16-90anni), aiutano a comprendere come il soggetto utilizzi le proprie capacità e risorse mentali e permettono di valutare i processi cognitivi sottostanti al funzionamento di:

•    pensiero
•    memoria
•    esame di realtà
•    capacità di pianificazione

La scala WAIS è stata il primo test d’intelligenza a basare i propri punteggi su una distribuzione normale standardizzata invece che su un quoziente relativo all’età. Dalla pubblicazione della WAIS, quasi tutte le scale di intelligenza hanno adottato questo metodo di attribuzione del punteggio.

 

© I predittori della performance accademica  – Laura Foschi

La misurazione dell’intelligenza

La misurazione dell’intelligenza

Gli strumenti di valutazione intellettiva più in uso sono la Scala Wechsler di Intelligenza per Adulti (WAIS-IV), che comprende 15 subtest che indagano 4 dimensioni (Comprensione verbale, Ragionamento visuo-percettivo, Memoria di lavoro, Velocità di elaborazione); la Scala Wechsler di Intelligenza per Bambini in età scolare (WISC-III); la Scala di Intelligenza Standford-Binet (SC); le Matrici Progressive di Raven, costitute da materiali non verbali che consentono di ottenere una valutazione della funzione cognitiva più affrancata da influenze culturali e linguistiche, rispetto ai materiali verbali; il Test Woodcock-Johnson per le Abilità Cognitive (WJ III); la Scala Differenziale di Abilità (DAS) ed il Sistema di Valutazione Cognitivo (CAS). Nell’area di applicazione della psicologia sociale del lavoro, la Batteria TVA (Test di Valutazione Attitudinale) di Majer, che consiste in prove di ragionamento astratto, verbale e numerico; la BCR (Batterie de Test du Centre de Recherches) di Reuchlin e Valin, che misura il ragionamento nelle forme numeriche, verbali e astratte ed il DAT (Differential Aptitude Test) di Benner, Seashore e Wesman, formato da subtest di ragionamento astratto, verbale, numerico, meccanico e da valutazione di velocità, di precisione e di rapporti spaziali.

I punteggi dei test moderni vengono chiamati deviance QI, quelli più antiquati, basati sull’età, ratio QI. In caso di soggetti dotati di un QI elevato, i ratio QI davano risultati molto più alti del deviance QI. La validità di un test di intelligenza è necessaria al fine di previsione del rendimento. I punti QI devono presentare una correlazione con altri indici di capacità intellettive. Il QI presume un parallelismo fra maturazione biologica e intellettuale che per  non appare regolare, soprattutto in soggetti di età inferiore ai 18 anni. Le critiche all’utilizzo del QI come indice globale, sottolineano il fatto che che questo tipo di strumento trascura il peso dei fattori culturali e di alcuni aspetti della conoscenza.

I test QI definiscono il livello di intelligenza attraverso il confronto dell’esecuzione di un individuo di una certa età con il punteggio medio ottenuto da un gruppo di soggetti che appartengono alla stessa fascia d’età. L’assunto, è che nella popolazione l’intelligenza segua una distribuzione normale. Per standardizzare un test QI è necessario sottoporlo a un campione rappresentativo della popolazione, calibrandolo in modo da ottenere il tipo di distribuzione cercata.  I primi quozienti fondati sull’età, applicabili solo ai bambini, furono sostituiti da una proiezione di punteggio misurato su una curva gaussiana con un valore medio di 100 e una deviazione standard (DS) di 15 (occasionalmente 16 o 24). La versione moderna del QI è la trasformazione matematica di un punteggio medio grezzo che si basa su un campione di normalizzazione (quantile, percentile, rank). Le scale QI sono scale ordinali: una deviazione standard è di 15 punti, due DS sono di 30 e così via. Ci  non implica per  che la abilità mentale presa in esame sia relazionata con il QI in modo lineare, cioè che un QI di 50 significhi che la abilità cognitiva sia metà di 100. I punti QI non sono punti percentuale. La correlazione fra i risultati dei test QI ed i risultati dei test di abilitazione è di circa 0.7.

Circa il 95% della popolazione ha un punteggio QI che va da 70 a 130, risultato che si pone tra due deviazioni standard dalla media. Un punteggio inferiore a 65 indica un soggetto con disabilità intellettuali, un punteggio superiore a 130 una persona intellettualmente dotata (da 145 a 160 persona molto dotata, da 165 a oltre, un genio). Il punteggio conseguito pu  cambiare nel corso della vita dell’individuo.

I moderni test QI sono costituiti da domande che indagano le aree relative a memoria a breve termine, conoscenza lessicale, visualizzazione spaziale e velocità di percezione, richiedono di risolvere un certo numero di problemi in un tempo prestabilito (i test che misurano valori elevati di QI non prevedono limiti di tempo), attribuiscono punteggi a diversi gruppi di problemi (fluidità di linguaggio, pensiero tridimensionale, etc.), assegnano sia un punteggio ad ogni singola prova che al test in toto (il punteggio riassuntivo viene calcolato a partire dai risultati parziali). La analisi fattoriale dei punteggi parziali eseguita su un singolo test QI o eseguita su punteggi provenienti da tipi di test diversi (come lo Stanford-Binet, WISC-R, le Matrici di Raven, il Cattell Culture Fair III, lo Universal Nonverbal Intelligence Test, il Primary Test of Nonverbal Intelligence), dimostra che essi  possono venire descritti matematicamente come la misura di un singolo fattore comune e di fattori specifici di ogni test. Lo studio ha condotto alla teoria che a unificare gli obiettivi dei vari test sia un solo elemento chiamato fattore di intelligenza generale (g). Fattore g e QI sono per il 90% correlati tra loro e vengono spesso usati in modo interscambiabile. I test differiscono l’uno dall’altro più in base a quanto riflettono g nel loro punteggio che di quanto riflettono g in un’abilità specifica o in un fattore di gruppo (come abilità verbali, visualizzazione spaziale o ragionamento matematico). La validità dei test QI dipende da quanto il test coincide con la misura del fattore g, come nelle Matrici di Raven (Neisser, 1997).

 

© I predittori della performance accademica  – Laura Foschi

L’intelligenza : Introduzione

L’intelligenza : Introduzione

La APA (American Psychological Association) definisce l’intelligenza “una proprietà della mente che comprendente abilità connesse con la capacità di pensare in modo astratto, di ragionare, di pianificare, di risolvere problemi, di usare il linguaggio, di apprendere dall’esperienza e di superare gli ostacoli, attraverso il pensiero. Le prestazioni intellettuali di una persona possono variare in diverse occasioni, in diversi campi e sulla base di criteri differenti. Il termine intelligenza non indica la quantità di conoscenze ma quanto velocemente la persona apprende e quanto sia in grado di svolgere compiti nei quali non ha esperienza.”

I test di intelligenza sono strumenti psicometrici di massima performance, concepiti per misurare le capacità mentali superiori. L’informazione ottenuta dai test stabilisce e riflette ci  che si può  definire una “capacità globale del comportamento intelligente”, una abilità che consente all’individuo di predisporsi alla comprensione del mondo e ad affrontare le sfide. L’intelligenza è quindi una funzione dell’intera personalità ed è sensibile a fattori altri rispetto a quelli inclusi nel concetto di abilità cognitive.

Con quoziente di intelligenza o QI si intende un’unità di misura, definita da un punteggio ottenuto tramite la somministrazione di un test standardizzato. I test QI vengono utilizzati per valutare lo sviluppo intellettivo dell’individuo. Non riportano una misura dell’intelligenza su scala assoluta, offrono un risultato che va letto su una scala relativa ad uno specifico gruppo di appartenenza (sesso, età) (Scala WAIS-R, 1997). Il QI pare abbia un’alta correlazione con il successo accademico, una buona correlazione con il successo lavorativo (pu  predire la qualità delle prestazioni di candidati senza precedenti esperienze), è correlato con lo status socioeconomico, conseguibile nei termini di reddito e ricchezza (maggiore è il QI, maggiore è la probabilità di raggiungere un alto reddito ed uno status sociale superiore) e fornisce informazioni riguardo alle cosiddette “patologie sociali” derivanti dal complesso di condizioni ambientali in cui l’individuo si trova immerso (la povertà influisce sia su aspetti biologici dello sviluppo come gravidanza e malnutrizione che su aspetti psicologici come coesione familiare ed uso del linguaggio) (Boodoo, Bouchard, Boykin, Brody, Ceci, Halpern, Loehlin, Perloff, Sternberg, Urbina, 1995). L’ambiente sembra giocare un ruolo molto importante nella variabilità del QI degli individui, soprattutto nei primi ed ultimi anni di vita. Il QI dei bambini allevati all’interno dello stesso gruppo parentale presenta la stessa media (non tanto per i geni condivisi ma per la spartizione dell’ambiente) (Plomin, DeFries, McClearn, McGuffin, 2000). I vantaggi o gli svantaggi che derivano dalla condivisione dello stesso spazio di crescita sembrano, per , scomparire in età adulta, laddove ci siano più opportunità di scegliere il proprio entourage, elemento che determina il carattere transitorio dell’influenza della famiglia d’origine (Plomin, DeFries, McClearn, McGuffin, 2003).
Uno studio sull’ereditarietà del quoziente intellettivo (Turkheimer, 2008; Turkheimer, Johnson, Gottesman, Bouchard, 2009) ha calcolato stime di valore che variano da 0,4 a 0,8 (in una scala da 0 a 1, significa che il QI è ereditabile) indicando l’importanza che la genetica gioca rispetto all’ambiente nel creare disparità di QI. Sarebbe ragionevole aspettarsi che le influenze genetiche, in caratteristiche come il QI, diventassero meno significative quando l’individuo acquisisce l’esperienza derivante dall’età. Sorprendentemente, accade l’opposto. L’indice di ereditarietà è meno di 0,2 nell’infanzia, circa 0,4 nell’adolescenza e 0,8 nell’età adulta (Bouchard, Lykken, McGue, Segal, Tellegen, 1990). La ricerca antropologica (Dickens, 2001; Flynn, 2007) suggerisce che la componente ereditaria del QI diventi più significativa con l’avanzare del tempo, seguendo un fenomeno chiamato Effetto Flynn: durante il ventesimo secolo il QI medio di molte popolazioni è cresciuto con una velocità media di 3 punti ogni decennio (ad esempio, dal 1938 al 1984 gli americani hanno guadagnato più di 13 punti). A supporto della tesi di incremento dovuto a ragioni interculturali, Flynn (1987) evidenzi  che l’aumento era più marcato nei test (o subtest) che misuravano l’intelligenza fluida rispetto a quelli che misuravano l’intelligenza cristallizzata. Tra le ipotesi che tentarono di spiegare questo sviluppo, furono annoverate una migliore alimentazione, il progresso della scolarizzazione e la migliore capacità di risolvere problemi logici ed astratti dell’ambiente socio-culturale a lui contemporaneo. Tali ipotesi dimostra che il livello di intelligenza con cui gli individui nascono non è fisso e immutabile.

 

© I predittori della performance accademica  – Laura Foschi

Il SAT: Punteggi grezzi, punteggi in scala e e percentile

Il SAT: Punteggi grezzi, punteggi in scala e e percentile

Circa tre settimane dopo l’aver sostenuto il test, gli studenti ricevono un resoconto con le informazioni relative ai propri punteggi (ogni sezione è ordinata su una scala che va da 200 a 800.

Due sotto punteggi sono relativi alla sezione Scrittura (saggio e domande a scelta multipla)).

Il report contiene il percentile (la percentuale di candidati che ha ottenuto un punteggio più basso rispetto al proprio), il punteggio grezzo (il numero di punti guadagnati grazie alle risposte corrette) ed il numero di punti persi a causa delle risposte sbagliate (che, in base al tipo di test, oscilla da sotto 50 a sotto 60).

Il percentile corrispondente al punteggio in scala e varia da test a test – nel 2003, ad esempio, il punteggio in scala 800 di entrambe le sezioni del SAT Test di Ragionamento corrispose al 99.9 percentile mentre il punteggio in scala 800 del SAT Test di Fisica corrispose al 94 percentile.

Le differenze di media dei punteggi del percentile dipendono sia dal contenuto dell’esame che dalle capacità degli studenti che scelgono di sostenere questo tipo di test.

Il vecchio SAT (versione precedente il 1995) aveva un effetto soffitto molto alto.

Negli anni in cui è stato utilizzato, solo sette, su milioni di candidati, hanno superato i 1580 punti (un punteggio di 1580 equivale al 99.9995 percentile).

I Test su Materie Specifiche richiedono uno studio approfondito e solo coloro che sanno di poter superare questo tipo di test vi si cimentano, ecco perché si crea un punteggio a distribuzione asimmetrica.

 

© I predittori della performance accademica  – Laura Foschi

Il SAT: Correlazioni con il quoziente intellettivo

Il SAT: Correlazioni con il quoziente intellettivo (IQ)

Frey e Detterman (2003) hanno analizzato le associazioni fra il punteggio del SAT e quelli derivanti dai test di intelligenza dimostrando che i punteggi SAT sono altamente correlati con g (General Factor) (r=.82 nel loro campione, .857 quando viene effettuato un adeguamento per non linearità), lo stimatore di abilità mentale basato sulla batteria di test ASVAB che meglio di tutti rappresenta l’intelligenza cristallizzata (abilità apprese).

Molti dei test che hanno contribuito alla costruzione della batteria ASVAB hanno mostrato alte correlazioni con le abilità apprese g, fra questi: Comprensione di Parole (Word Knowledge) (.885), Scienze Generali (General Science) (.881), Ragionamento Aritmetico (Arithmetic Reasoning) (.858), Nozioni di Elettronica (Electronics Info) (.829) e Comprensione di un articolo (Paragraph Comprehension) (.825).

E’ stato, inoltre, dimostrato che la correlazione dei risultati del SAT con il punteggio sul test di Raven chiamato APM (Advanced Progressive Matrices), un test di intelligenza fluida (pensiero astratto e ragionamento veloce), è passata da .483 (correlazione bassa) a 0.72 (alta correlazione) dopo la correzione della restrizione di oscillazione.

Nel punteggio di Raven gli autori hanno rilevato un effetto soffitto, effetto che pu  avere fortemente ridotto la correlazione.

Introdotto nel 1968, lo ASVAB (Armed Services Vocational Aptitude Battery) è un test attitudinale a scelta multipla che misura le abilità cognitive e funge da predittore di successo accademico e lavorativo in ambito militare statunitense.

Viene sia somministrato agli arruolandi che usato dalle scuole superiori americane (gradi 10, 11 e 12 del sistema scolastico USA).

 

© I predittori della performance accademica  – Laura Foschi

Il SAT: Stile delle domande

IlSAT: Stile delle domande


Le domande a risposta multipla del SAT offrono una scelta a cinque opzioni (di cui solo una è corretta).

I quesiti delle singole sezioni e quelli dello stesso genere vengono posti in ordine di difficoltà, quelli relativi ai passaggi di lettura, in ordine cronologico o di difficoltà.

Dieci delle domande della sottosezione di Matematica non sono a risposta multipla ma chiedono al soggetto di muoversi all’interno di una serie di griglie a quattro colonne.

Tutte le domande hanno lo stesso peso, ad ogni risposta corretta viene dato un punto intero, ad ogni risposta sbagliata viene tolto un quarto di punto.

Nessun punto viene tolto alle risposte sbagliate della griglia di matematica, ci  assicura che il guadagno matematico dello studente che tenta la risposta sia zero.

Il punteggio finale deriva dal punteggio grezzo.

La precisa conversione del diagramma di flusso varia in base a chi amministra il test, per questa ragione il College Board raccomanda di fare solo ipotesi politicamente corrette, cioè che consentono al candidato di eliminare una risposta che ritiene sia sbagliata.

Non eliminando nessuna risposta, la probabilità che si ha di dare risposte corrette corrisponde al 20%.

L’eliminazione di una risposta sbagliata aumenta la probabilità del 25% (ed il guadagno atteso va da 1\\16 ad un punto), di due risposte sbagliate al 33% (1\\6 di un punto), di tre risposte al 50% (3\\8 di un punto).

 

© I predittori della performance accademica  – Laura Foschi

Il SAT

Il SAT

Calcolo dei punteggi

Il calcolo dei punteggi fu pensato in modo da creare una scala di valori che rendesse il valore 500 il punteggio principale di ogni sezione con una deviazione standard di 100.

Aggiornato nel 1995, il punteggio medio rimase vicino al valore 500.

I punteggi assegnati dopo il 1994 e prima dell’ottobre 2001 vengono verbalizzati con una “R” (ad es., 1260R) così da evidenziare la differenza fra il prima e il dopo.

I punteggi fanno riferimento alle tavole ufficiali distribuite dal College Board le quali, nell’oscillazione media, aggiungono circa 70 punti al test Lettura Critica e 20 o 30 punti al test Matematica.

Test di Lettura

La sezione Lettura Critica del SAT si compone di tre aree di valutazione: due che per l’esecuzione richiedono 25 minuti di tempo ed una che ne richiede 20.

Sono costituite da frasi da completare e da domande relative a letture brevi e lunghe.

La sezione inizia con il completamento di 5\\8 frasi legate a passaggi estratti da saggi di narrativa, scienze sociali o scienze fisiche.

Il completamento della frase attraverso la selezione di una o due parole testa il vocabolario e la comprensione di struttura ed organizzazione della frase.

Alcune Sections prevedono che lo studente metta a confronto due brevi brani, il numero di domande relativo ad ogni brano dipende dalla lunghezza del brano stesso.

A differenza della sezione Matematica, in cui le domande vengono presentate in ordine di difficoltà, le domande dell’area Lettura vengono poste in ordine di brano. Le domande seguono un ordine di difficoltà che va dal più semplice al più complesso con lo svilupparsi del testo.

Test di Matematica

La Section Matematica del SAT è nota come Area di Calcolo. Consiste di tre sezioni a punteggio differenziato. E’ divisa in due sessioni da 25 minuti ed una da 20 minuti:

    • Una sessione da 25 minuti con 20 domande a scelta multipla
    • Una sessione da 25 minuti con 8 domande a risposta multipla e 10 domande inserite in una griglia. Per le domande in griglia il candidato deve scrivere la risposta all’interno del foglio delle risposte. A differenza delle domande a risposta multipla, qui non è prevista una penalizzazione per le risposte sbagliate dato che non esiste un limite di risposte da dare.
    • La sessione da 20 minuti consiste in un test a risposta multipla a 16 domande. Nel ‘nuovo’ SAT sono state eliminate le domande di confronto quantitativo per lasciare spazio solo a domande a risposta numerica o simbolica. I nuovi argomenti includono Algebra II e diagrammi di dispersione. Queste innovazioni hanno portato ad un esame più breve ma che richiede un livello di conoscenza matematica più alto rispetto all’esame precedente.

 

Test di Scrittura

La parte scritta del SAT si basa sul vecchio SAT II Test di Scrittura (che derivava dall’ancor più vecchio Test di Scrittura Standard in Inglese (TSWE)), è composto dalla scrittura di un breve saggio e da domande a risposta multipla. Il punteggio del saggio contribuisce al 28% del punteggio totale, le domande con risposta a scelta multipla al 70%.

Questa parte fu introdotta con la riforma del marzo 2005 in seguito alle lamentele dei Colleges relative alla mancanza di esempi su abilità di scrittura e pensiero critico degli studenti. La compilazione del saggio viene somministrata sempre per prima, per la sua esecuzione vengono dati 25 minuti. I saggi devono partire da uno spunto dato.

Gli spunti sono ampi e spesso di stampo filosofico.

Sono stati studiati in modo da poter essere fruibili da studenti di qualsiasi estrazione sociale o scolastica. Pu  venire chiesto, ad esempio, di esprimere la propria opinione sul valore del lavoro degli esseri umani oppure se le tecnologie avanzate, oltre al benessere, portano anche disagi. Il College Board accetta esempi “presi da letture, studi, esperienze o osservazioni”. Le domande con risposta a scelta multipla nascondono l’identificazione e la correzione di errori, sistema che testa sia le nozioni grammaticali acquisite che la capacità di riconoscere scritti lessicalmente scorretti: nella sezione Identificazione errori lo studente deve trovare la parola sbagliata o specificare che la frase non contiene errori, nella sezione Abbellimento della frase gli si chiede di correggere nel miglior modo possibile il rigo. La sezione Correzione dell’articolo testa la capacità di organizzazione logica delle idee, al candidato viene presentato il tema mal scritto di un altro studente e gli si chiede quale tipo di modifiche apporterebbe al fine di migliorarlo.

Gli esaminatori, due lettori allenati, assegnano a ciascun compito un punteggio che va da 1 a 6, il punteggio 0 viene assegnato a fogli consegnati in bianco, ai fuori tema, a ci  che non è lingua inglese e a ci  che, dopo vari tentativi di lettura, viene considerato illeggibile. I punteggi vengono sommati in modo da dare un esito finale compreso fra 0, 2 e 12. Se il punteggio dei due esaminatori differisce di più di un punto, la decisione spetta ad un terzo esaminatore\\lettore senior. Il tempo medio impiegato da un lettore\\esaminatore nella lettura di un compito è di meno di tre minuti.

Nel marzo 2004, il Professor Les Perelman, presidente del Consorzio per la Ricerca e la Valutazione della Scrittura statunitense, analizz  15 saggi-campione già esaminati, presi dal testo ScoreWrite (Punteggio in Scrittura) del College Board (College Board Scoring Guidelines, 2004) e 30 saggi-campione in prova e not  che in più del 90% dei casi il punteggio del saggio avrebbe potuto essere predetto soltanto calcolando il numero di parole del compito. Due anni dopo, Perelman allen  un gruppo di studenti all’ultimo anno di high school nella scrittura di un saggio che contenesse parole raramente utilizzate come “pletora” e “miriade”. Tutti gli studenti ricevettero un punteggio di 10 o superiore, cosa che fece posizionare il saggio al 92 percentile.

© I predittori della performance accademica  – Laura Foschi