Che cos’è l’intelligenza umana: definizione, significato e psicologia

MEDICINA ONLINE CERVELLO BRAIN TELENCEFALO MEMORIA EMOZIONI CARATTERE ORMONI EPILESSIA STRESS RABBIA PAURA FOBIA SONNAMBULO ATTACCHI PANICO ANSIA VERTIGINE LIPOTIMIA IPOCONDRIA PSICOLOGIA DEPRESSIONE TRISTE STANCHEZZA ROMBERGL’intelligenza è considerata la capacità di un persona (o più genericamente di un “agente”) di affrontare e risolvere con successo situazioni e problemi nuovi o sconosciuti; nel caso dell’uomo e degli animali l’intelligenza pare inoltre identificabile anche come il complesso di tutte quelle facoltà di tipo cognitivo o emotivo che concorrono o concorrerebbero a tale capacità. Tradizionalmente attribuita alle sole specie animali, oggi l’intelligenza viene da alcuni attribuita, in misura minore, anche alle piante, mentre il campo di ricerca dell’intelligenza artificiale tenta di creare delle macchine che siano in grado di riprodurre o di simulare l’intelligenza umana. Sebbene abbia sviluppato dei modelli per la valutazione dell’intelligenza, la comunità scientifica ancora non concorda universalmente su una definizione unica di cosa essa sia.

Leggi anche:

La valutazione dell’intelligenza

Per quanto riguarda l’intelligenza umana sono stati sviluppati dei modelli per la valutazione o “misura” della stessa. Va però precisato che tali modelli valutano solo aspetti specifici della capacità intellettiva degli individui: i risultati dei test d’intelligenza vanno considerati come giudizi validi solamente in riferimento a dei singoli aspetti, e non all’intelligenza dei soggetti testati nel suo complesso.

Di seguito sono elencati i principali test psicometrici (in ordine cronologico di ideazione):

  • Alfred Binet (1911) ed in seguito Lewis M. Terman all’Università di Stanford (1916) costruiscono un test che prende in considerazione soltanto quegli aspetti dell’intelligenza utilizzati in ambito scolastico, composto dunque da prove (diverse) strettamente inerenti all’ambito scolastico stesso. Erede contemporaneo del test sono le Scale d’intelligenza Stanford-Binet. Concetto chiave è il quoziente d’intelligenza (QI) come rapporto tra età mentaleed età cronologica moltiplicato 100. Il valore 100 del quoziente intellettivo è considerato il valore medio della popolazione. Il test Stanford-Binet misura un solo fattore di “intelligenza”, e propone prove suddivise per fasce di età; non ha validità per individui più grandi di 13 – 14 anni.
  • Il Wechsler Adult Intelligence Scale (WAIS, 1939) riprende i tipi di compito dello Stanford-Binet, nonché il concetto di quoziente intellettivo, e li ricostruisce per gli adulti. È costituito da più sub-test, ciascuno dei quali è composto da voci a difficoltà progressiva. Il WAIS, al contrario dello Stanford-Binet, non prevede un solo fattore di intelligenza generale, ma comprende anche una serie di dimensioni, coerenti al loro interno per tipologia di prove, che compongono il test: prove verbali (cultura generale, comprensione, analogie, memoria di cifre, ragionamento aritmetico), le prove di performance (riordinamento di figura, completamento di figura, disegno di cubi, ricostruzione di figura, associazione di simboli o numeri).
  • Per entrambi questi test (Stanford-Binet e WAIS) è chiara l’importanza, sulla misura finale, del livello di scolarizzazione del soggetto. Si sono quindi progettati dei test d’intelligenza “culture free”, non influenzati dal tipo di educazione e di cultura del soggetto messo sotto analisi; i più noti sono quello delle matrici progressive di Raven (1938), matrici numeriche da completare e il Culture fair intelligence test (1949) di Cattell. Studi su questi test sembrerebbero dimostrare che essi non discriminano in modo adeguato i soggetti con intelligenza superiore alla norma, mentre sembrerebbero più adatti per valutare i soggetti svantaggiati.

Gli studi differenziali sull’intelligenza

Con il diffondersi estensivo degli strumenti per la misura dell’intelligenza, si è focalizzata l’attenzione sulle differenze individuali ad essa legate. Le diversità in questione sono state infatti un significativo campo di discussione tra coloro che ne identificano le cause all’aspetto genetico e coloro che invece assegnano una maggiore importanza ai fattori ambientali. Alcuni studi mostrano come la presenza di alcune patologie psichiatriche, come la depressione, influisca sulla performance al test d’intelligenza WAIS-R: più è severa la patologia più la performance al test è deficitaria. Il che tuttavia non suggerisce una globale differenza nell’intelligenza tra individui depressi e individui sani, quanto piuttosto un ruolo negativo del verificarsi degli episodi depressivi sul modo in cui vengono svolti i test d’intelligenza. Gli studi differenziali sull’intelligenza evidenziano una forte correlazione tra QI (quoziente intellettivo) di gemelli monovulari. Si evidenzia inoltre che lo sviluppo delle capacità cognitive è fortemente influenzato dai fattori ambientali (si pensi agli studi portati avanti sulle differenze nell’intelligenza tra bianchi e neri, ricondotte non a differenze cognitive, ma piuttosto al fattore interveniente del livello socio-demografico). La psicologia risolve la dialettica tra componenti innate e ambientali nello sviluppo dell’intelligenza evidenziando come la componente genetica sembra rappresentare una disponibilità, mentre la componente educativa rappresenta un fattore di innesco per tradurre un potenziale in una funzionalità effettiva. Per quanto riguarda l’avanzare dell’età, il rendimento su alcune scale del WAIS tende a diminuire, mentre su altre rimane stabile o aumenta. Riprendendo la distinzione proposta da Raymond Cattell tra intelligenza fluida e cristallizzata, caratteristiche legate all’intelligenza fluida tendono a diminuire dopo i 60 anni, mentre l’intelligenza cristallizzata aumenta in maniera costante per tutta la vita.

Leggi anche:

L’apporto cognitivista: il problem solving

Il problem solving è un processo mentale volto a trovare un percorso che porta il cambiamento da una situazione iniziale ad una disposizione finale. La capacità di problem solving è spesso adoperata come misura empirica dell’intelligenza; infatti nel problem solving viene contestualizzato il pensiero logico misurato dal quoziente d’intelligenza, che viene applicato alla risoluzione di problemi specifici. Coi test sul problem solving, i soggetti forniscono in genere prestazioni più elevate e considerate più attendibili. Il problem solving rappresenta l’approccio cognitivista allo studio dell’intelligenza. La definizione dell’intelligenza in termini di problem solving rappresenta il primo passo compiuto dagli psicologi da una visione dell’intelligenza di tipo scolastico a concetti più differenziati, come per esempio intelligenza fluida-cristallizzata (Raymond Cattell), o intelligenza logica-creativa, e recentemente i concetti di intelligenze multiple (Howard Gardner) e intelligenza emotiva (Daniel Goleman). Dal punto di vista storico risulta importante il contributo di Wertheimer. Max Wertheimer (1965) distingue una intelligenza logica, esprimentesi ad esempio nel ragionamento analitico, e una intelligenza creativa, orientata alla sintesi e alla costruzione del nuovo. La prima orientata ai problemi convergenti, la seconda orientata alla soluzione di problemi divergenti.

Le intelligenze multiple

Lo psicologo statunitense Howard Gardner, sulla base di ricerche e letteratura su soggetti affetti da lesioni di interesse neuropsicologico, arriva a distinguere ben 9 manifestazioni fondamentali dell’intelligenza, derivanti da strutture differenti del cervello e indipendenti l’una dall’altra. Ecco, qui di seguito, i nove macro-gruppi intellettivi:

  1. Intelligenza Linguistica: è l’intelligenza legata alla capacità di utilizzare un vocabolario chiaro ed efficace. Chi la possiede solitamente sa variare il suo registro linguistico in base alle necessità ed ha la tendenza a riflettere sul linguaggio.
  2. Intelligenza Logico-Matematica: coinvolge sia l’emisfero cerebrale sinistro, che ricorda i simboli matematici, che quello di destra, nel quale vengono elaborati i concetti. È l’intelligenza che riguarda il ragionamento deduttivo, la schematizzazione e le catene logiche.
  3. Intelligenza Spaziale: concerne la capacità di percepire forme e oggetti nello spazio. Chi la possiede, normalmente, ha una sviluppata memoria per i dettagli ambientali e le caratteristiche esteriori delle figure, sa orientarsi in luoghi intricati e riconosce oggetti tridimensionali in base a schemi mentali piuttosto complessi. Questa forma dell’intelligenza si manifesta essenzialmente nella creazione di arti figurative.
  4. Intelligenza Corporeo-Cinestesica: coinvolge il cervelletto, i gangli fondamentali, il talamo e vari altri punti del nostro cervello. Chi la possiede ha una padronanza del corpo che gli permette di coordinare bene i movimenti. In generale si può riferire a chi fa un uso creativo del corpo, come i ginnasti e i ballerini.
  5. Intelligenza Musicale: normalmente è localizzata nell’emisfero destro del cervello, ma le persone con cultura musicale elaborano la melodia in quello sinistro. È la capacità di riconoscere l’altezza dei suoni, le costruzioni armoniche e contrappuntistiche. Chi ne è dotato solitamente ha uno spiccato talento per l’uso di uno o più strumenti musicali, o per la modulazione canora della propria voce.
  6. Intelligenza Intrapersonale: riguarda la capacità di comprendere la propria individualità, di saperla inserire nel contesto sociale per ottenere risultati migliori nella vita personale, e anche di sapersi immedesimare in personalità diverse dalla propria. È considerata da Gardner una “fase” speculare dell’intelligenza interpersonale, laddove quest’ultima rappresenta la fase estrospettiva (vedi anche intelligenza emotiva).
  7. Intelligenza Interpersonale: coinvolge tutto il cervello, ma principalmente i lobi pre-frontali. Riguarda la capacità di comprendere gli altri, le loro esigenze, le paure, i desideri nascosti, di creare situazioni sociali favorevoli e di promuovere modelli sociali e personali vantaggiosi. Si può riscontrare specificamente negli psicologi, più genericamente in quanti possiedono spiccata empatia e abilità di interazione sociale.
  8. Intelligenza Naturalistica: consiste nel saper individuare determinati oggetti naturali, classificarli in un ordine preciso e cogliere le relazioni tra di essi. Alcuni gruppi umani che vivono in uno stadio ancora “primitivo”, come le tribù aborigene di raccoglitori-cacciatori, mostrano una grande capacità nel sapersi orientare nell’ambiente naturale riconoscendone anche i minimi dettagli.
  9. Intelligenza Esistenziale o Teoretica: rappresenta la capacità di riflettere consapevolmente sui grandi temi della speculazione teoretica, come la natura dell’universo e la coscienza umana, e di ricavare da sofisticati processi di astrazione delle categorie concettuali che possano essere valide universalmente.

Sotto questi aspetti/teoria il significato del concetto di intelligenza è da intendersi dunque come particolari abilità di cui è dotato l’individuo. Sebbene queste capacità siano più o meno innate negli individui, non sono statiche e possono essere sviluppate mediante l’esercizio, potendo anche “decadere” col tempo. Lo stesso Gardner ha poi menzionato il fatto che classificare tutte le manifestazioni dell’intelligenza umana sarebbe un compito troppo complesso, dal momento che ogni macro-gruppo contiene vari sottotipi.

Leggi anche:

L’intelligenza artificiale

La locuzione “intelligenza artificiale”F (o IA) indica sia la proprietà di una macchina di imitare, del tutto o in parte, l’intelligenza biologica, sia il ramo dell’informatica che mira a creare le macchine capaci di tale imitazione, attraverso “lo studio e la progettazione di agenti intelligenti” o “agenti razionali”, dove un agente intelligente è un sistema che percepisce il suo ambiente e attua le azioni che massimizzano le sue possibilità di successo. I successi ottenuti nel campo dell’intelligenza artificiale riguardano per ora problemi vincolati e ben definiti, come la capacità delle macchine di sostenere giochi, la risoluzione di cruciverba e il riconoscimento ottico dei caratteri, e alcuni problemi più generali come quello delle automobili autonome. Il concetto di IA forte non è ancora realtà, ma è un obiettivo della ricerca a lungo termine. Tra le caratteristiche che i ricercatori sperano che le macchine possano un giorno esibire, vi sono il ragionamento, la capacità di pianificare, apprendere, percepire, comunicare e manipolare oggetti. Non vi è attualmente consenso su quanto vicino si possa andare nel simulare il cervello (umano nello specifico).

Leggi anche:

Lo Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram o su Pinterest, grazie!

Problem solving: cos’è, caratteristiche, tecniche, fasi ed esempi

MEDICINA ONLINE STUDIO STUDIARE LIBRO LEGGERE LETTURA BIBLIOTECA BIBLIOGRA LIBRERIA QUI INTELLIGENTE ESAMI 30 LODE TEST INGRESSO MEDICINA UNIVERSITA SCUOLA COMPITO VERIFICA INTERROGAZIONE ORALE SCRITTO PICTURE HD WALLPAPERIl problem solving (in italiano “il risolvere un problema”) è un’attività del pensiero che un organismo o un dispositivo di intelligenza artificiale mettono in atto per raggiungere una condizione desiderata a partire da una condizione data. Va precisato che il problem solving è solo una parte del processo di risoluzione di un problema: la procedura infatti comprende i processi seguenti: problem finding, problem shaping e problem solving.

Caratteristiche

Rispetto alla parola italiana “soluzione”, il termine inglese in “-ing” rafforza il significato di un atto in corso di svolgimento, come dire “risolvendo un problema“. Questo termine sta ad indicare la situazione psicologica nella quale si viene a trovare una persona quando, in conformità ad una varietà di dati e di richieste, deve affrontare e cercare di risolvere un problema. Fa inoltre riferimento a quell’insieme di ricerche e di teorizzazioni che sono state dedicate allo studio psicologico dei vissuti individuali, così come alle difficoltà che il soggetto incontra e agli elementi di facilitazione che egli introduce o possono essergli messi a disposizione. In un certo senso possiamo dire che il “problem solving” è un atto d’intelligenza, in quanto non consiste solo nel comprendere una spiegazione fornita da altri, ma comporta una partecipazione attiva e creativa, un qualche elemento di scoperta personale. L’espressione “problem solving” è stata originariamente utilizzata soprattutto in relazione ai problemi logico-matematici. Negli ultimi anni il termine si è esteso comprendendo lo studio delle abilità e dei processi implicati nell’affrontare i problemi di ogni genere. La visione secondo cui la vita dell’individuo si divide in una prima fase di apprendimento e in un secondo periodo di applicazione delle conoscenze acquisite, è da tempo superata. Oggi con l’espressione Life Long Learning ci si riferisce al processo di apprendimento che accompagna le persone lungo tutto l’arco della vita. L’aumento della complessità del contesto sociale, economico e tecnologico fanno sì che l’apprendimento permanente richieda lo sviluppo di competenze tra cui il problem solving, il pensiero critico, la creatività e la gestione costruttiva dei sentimenti. Tali competenze dette “trasversali” permettono di affrontare in modo razionale e costruttivo le più svariate difficoltà e di adattarsi ai vari cambiamenti contestuali. Secondo G.Polya, “Risolvere problemi significa trovare una strada per uscire da una difficoltà, una strada per aggirare un ostacolo, per raggiungere uno scopo che non sia immediatamente raggiungibile. Risolvere problemi è un’impresa specifica dell’intelligenza e l’intelligenza è il dono specifico del genere umano. Si può considerare il risolvere problemi come l’attività più caratteristica del genere umano.” Il problem solving diventa inoltre una competenza strategica nelle organizzazioni, in particolare nella leadership e nell’azione di comando e controllo, dove il criterio di base è la misura dell’efficacia e coerenza nel risolvere i problemi, criterio utilizzato per misurare i cambiamenti nel comportamento del sistema, le sue capacità, le variazioni dell’ambiente operativo che avvicinano l’organizzazione ai suoi “punti di arrivo” (“end-states”), e la creazione di effetti desiderati.

Leggi anche: Che cos’è l’intelligenza umana: definizione, significato e psicologia

Metodologie

Varie sono le tecniche e le modalità di problem solving che possono essere impiegate. Il problem solving prevede delle fasi che aiutano il soggetto ad impostare correttamente il problema e a chiarire alcuni aspetti che lo confondono, impedendogli di trovare delle soluzioni. Risolvere problemi è un lavoro che si affronta quotidianamente. A questo proposito sono stati pensati diversi metodi per aiutare le persone ad affrontare i problemi in modo articolato e soddisfacente. Il primo passo fondamentale per avviarsi verso la soluzione di un problema è il focalizzare l’attenzione sulla definizione e sui punti chiave del problema da risolvere. Una volta eseguito il primo passo si può procedere con le successive fasi di analisi. Se il vero problema non viene correttamente identificato si corre il rischio di lavorare alla soluzione di un falso problema risolvendo solo un falso fastidio che creerà la frustrazione di non essere stati capaci di sistemare la situazione problematica. Capire al volo se si è in una situazione a rischio richiede la sensibilità di:

  • Identificare eventuali errori di definizione: succede spesso di giungere a conclusioni affrettate oppure di credere di aver capito il problema ma in realtà la situazione non è stata affatto chiarita. Questa è una situazione definita “jump to conclusion” ovvero saltare immediatamente alle conclusioni e alle soluzioni ritrovandosi così ad investire tempo e denaro nel fare attività che possono rivelarsi del tutto vane.
  • Gli errori di linguaggio: l’abilità di identificare situazioni potenzialmente pericolose migliorerà di molto se particolarmente sensibili e suscettibili a tutti gli scenari in cui vi è un abuso delle parole errate di analisi della situazione presente. Esistono affermazioni che costituiscono un segnale che ci possono fare capire di essere in una situazione a rischio. Questo succede quando:
    • si fanno delle accuse (si cerca quindi il colpevole invece di una soluzione);
    • si è in presenza di una situazione poco chiara magari dovuta ad una scarsa leadership;
    • si sta provando a fare un’azione che vale l’altra, cioè sembra che l’importante sia fare qualcosa.
  • Fermare le lamentele: l’uomo trova spesso immediato conforto nel criticare ciò che è accaduto nel passato, ma alla lunga questo comportamento ha un effetto negativo in quanto contribuisce ad aumentare il senso di frustrazione ed impotenza di fronte ai problemi.
  • Cambiamento di comportamento: fa riferimento all’attitudine dei leader di porsi come modello di riferimento nei confronti di coloro che non hanno ancora raggiunto lo stesso livello di preparazione.
  • Scomporre il problema: molti tra i metodi di problem solving suggeriscono di suddividere il problema principale in problemi più piccoli per renderlo più gestibile.

Leggi anche: Quoziente d’intelligenza: valori, significato, test ed ereditarietà

APS (Applied Problem Solving)

APS, acronimo dall’inglese “Applied Problem Solving” e poi tradotto in italiano come “Applicare il Problem Solving” è un metodo di Problem Solving pratico, applicato a situazioni reali, in cui la semplicità e l’efficacia del metodo, unite alla forte enfasi sull’esecuzione delle soluzioni, vogliono essere il valore aggiunto rispetto ai metodi simili. La risoluzione dei problemi richiede la capacità di comprendere il contesto e l’ambiente, successivamente richiede che le persone vadano a raccogliere le evidenze in prima persona. Risolvere i problemi è un’attività faticosa in quanto si deve svolgere con la pratica, non solo con la teoria. È una metodologia che incorpora anche i processi cosiddetti di problem finding e problem shaping, mette assieme alcuni concetti già utilizzati da altri metodi e raggruppa in sé le fasi più efficaci e pratiche che permettono di:

  • ricostruire gli accadimenti;
  • definire il problema;
  • capire dove effettuare le analisi;
  • individuare le cause;
  • investigare fino alla causa radice (Root Cause);
  • studiare come applicare le soluzioni;
  • decidere come monitorare le soluzioni;
  • focalizzarsi per sostenere i risultati.

Il metodo è volutamente semplice perché vuole e deve essere applicabile a tutte le tipologie di problemi. Metodi più complessi possono essere più efficaci in singoli settori ma perdono drasticamente di efficacia se applicati in settori differenti.

DMAIC (Define, Measure, Analyze, Improve, Control)

La metodologia chiamata DMAIC (acronimo dall’inglese Define, Measure, Analyze, Improve, Control), fornisce alle organizzazioni un metodo strutturato per affrontare e risolvere i problemi. Originariamente il suo compito era quello di ridurre le variazioni soprattutto nei processi di produzione. In seguito il metodo è stato utilizzato per i compiti più generali come il miglioramento della qualità, il miglioramento dell’efficienza, la riduzione dei costi e di altre attività di gestione delle operazioni al di là della produzione, nel settore dei servizi, della sanità etc. Il DMAIC è un processo costituito da cinque fasi flessibili, ma molto efficaci, per ottenere miglioramenti e mantenerli attraverso tutta una serie di attività, dalla definizione del problema, all’attuazione di una soluzione. Gli obiettivi generali delle varie fasi sono:

  1. DEFINE: in questa fase vengono definiti i processi che presentano delle criticità per l’azienda. Le criticità possono riguardare ambiti relativi al prodotto, al servizio o appartenere ad aree transazionali. La fase di define si concentra sulla ricerca delle criticità più importanti all’interno di una azienda; queste sono le caratteristiche “critiche per la qualità” (CTQ). La sua finalità è quella di istituire un “monitoraggio” sia economico sia basato sulla soddisfazione del cliente per stabilire quale debba essere l’obiettivo dei progetti Sei Sigma da iniziare. Stabilito l’obiettivo, la fase di define serve a chiarire in linea generale quelle che sono le aspettative (e quindi il risultato previsto) e quelle che sono le risorse necessarie (sia in termini di risorse umane che strutturali e temporali) per portare a termine il progetto. In questo senso la fase di define si concentra anche sulla realizzazione di una prima mappa di processo che mostri tutte le fasi e le figure coinvolte.
  2. MEASURE: nella fase di measure viene misurata, cioè valutata tramite delle misurazioni, l’efficacia dei processi. “Valutare” se un processo è efficace, cioè realizza effettivamente gli obiettivi per cui è stato ideato. Un’azienda che non è capace di esprimere sotto forma di misure le prestazioni di un processo, non comprende pienamente quel processo e i risultati ottenibili attraverso esso. La vera importanza del singolo processo si comprende inquadrando ogni operazione all’interno dell’iter lavorativo; processi “deboli” generano problemi di qualità; questi a loro volta influiscono sui tempi di realizzazione del lavoro. Per valutare in modo rigoroso l’efficacia dei processi, è quindi necessario: suddividere i processi nelle singole operazioni che li costituiscono; definire e mappare i processi correlati; scoprire gli anelli deboli dei processi. La fase di measure si concentra infatti sulla realizzazione di un piano di raccolta dati robusto che permetta di valutare quali siano le informazioni necessarie da raccogliere e quali le modalità di raccolta dati. I dati collezionati nella fase di measure sono la base della strategia Sei Sigma e sono indispensabili per proseguire nelle fasi successive della metodologia. Sono i dati infatti che evidenziano i legami tra le informazioni raccolte per definire il problema alla base del progetto e le possibili soluzioni e decisioni che saranno prese per ottimizzare il processo studiato.
  3. ANALYZE: nella fase di analyze vengono analizzati i dati raccolti nella fase di measure al fine di determinare le relazioni tra i fattori variabili del processo per valutare quali siano i fattori sui quali sia possibile agire per spingere il miglioramento del processo. L’analisi dei dati rivela infatti l’influenza delle singole variabili (se è presente o meno e come è possibile quantificarla) sull’output del processo. Si cerca in particolare la correlazione tra cause (parametri del processo) ed effetti (criticità del processo). L’analisi dettagliata del processo permette anche di mettere in evidenza i limiti tecnologici intrinseci nel processo allo studio, al fine di individuare la tipologia di azioni di miglioramento necessarie.
  4. IMPROVE: Nella fase di improve viene ricercata una soluzione migliorativa ai problemi riscontrati in fase di analisi, in modo da ottimizzare il processo studiato. Nel momento infatti in cui si ipotizza che migliorare un prodotto significa migliorare il processo alla base della sua realizzazione, sorge un interrogativo: ” Come è possibile identificare, definire, ottimizzare e controllare i fattori chiave del processo?”. Al fine di rispondere a questo quesito, l’attenzione deve essere rivolta alle caratteristiche CTQ, identificate già nella fase di define e verificate mediante l’analisi dei dati. Migliorare le caratteristiche chiave del processo significa innanzitutto individuare le variabili che hanno un forte impatto sulle prestazioni del processo stesso ed orientarle verso un aumento della loro efficacia. A tale fine vengono stabiliti dei limiti in cui devono essere contenute le variabili.
  5. CONTROL: Una volta che il processo è stato ottimizzato, è necessario implementare un sistema di controllo che permetta di mantenere il livello di qualità raggiunto anche nel tempo. I processi lasciati “a se stessi” tendono infatti a degradare le proprie prestazioni a causa dell’intervento di cause speciali, tali da influenzare in modo anche considerevole le caratteristiche del processo. Queste derive possono essere evitate utilizzando strumenti di monitoraggio che, in modo preventivo, mettano in mostra le cause speciali in atto prima che queste portino ad un degrado del processo. Inoltre, attraverso la fase di control ci si assicura che i problemi che si sono verificati in passato non si ripresentino.

Leggi anche: Com’è fatto il cervello, a che serve e come funziona la memoria?

FARE

La metodologia chiamata FARE consta di quattro fasi, che creano l’acronimo: Focalizzare, Analizzare, Risolvere ed Eseguire.

Focalizzare (definire i dettagli del problema):

  • selezionare il problema;
  • verificare e definire il problema;
  • fare una descrizione scritta del problema.

Analizzare (definire gli elementi critici e rilevanti):

  • decidere cosa è necessario sapere;
  • raccogliere i dati di riferimento;
  • determinare i fattori rilevanti, i valori di riferimento ed i fattori critici.

Risolvere (elencare soluzioni possibili):

  • generare soluzioni alternative;
  • scegliere la soluzione del problema;
  • selezionare una soluzione.

Eseguire (realizzare il piano di attuazione e valutare i risultati):

  • eseguire la soluzione scelta;
  • completare il piano di attuazione;
  • eseguire la valutazione finale.

Leggi anche: Effetto alone e bias cognitivo in psicologia, economia, marketing

FMECA

Lo FMECA (acronimo da Failure modes, Effects, Criticality Analysis) è l’evoluzione naturale della metodologia FMEA introdotta alla NASA a partire dal 1950, nell’ambito del programma lunare Apollo. È una metodologia di studio affidabilistico che fu pensata originariamente a supporto della progettazione di prodotti/sistemi complessi. Negli anni più recenti ha però trovato ampio spazio di applicazione in altri ambiti di utilizzo, quali l’analisi di processo e la manutenzione industriale. Per quanto riguarda l’applicazione della metodologia FMECA nella manutenzione industriale, essa si è affermata come lo strumento d’elezione per:

  1. l’analisi delle modalità di guasto di un’entità complessa;
  2. l’identificazione dei suoi elementi critici dal punto di vista affidabilistico;
  3. la definizione ragionata del piano di manutenzione a partire dai componenti critici.

La FMECA è una metodologia che si è consolidata sia per effetto della presenza di numerosi standard internazionali, che per la sua adozione, secondo diverse interpretazioni, nella pratica industriale. Sostanzialmente la metodologia FMECA è costituita da una procedura per l’analisi di un’entità complessa (macchina, impianto, sistema di qualsivoglia natura) fondata su due principi fondamentali. Il primo è costituito dalla scomposizione gerarchica dell’entità sotto esame in sottogruppi a complessità decrescente, fino ad arrivare al livello di dettaglio voluto (eventualmente fino ai componenti elementari). Il secondo principio consiste nell’esecuzione dell’analisi di affidabilità ad ogni livello e cioè nella determinazione di modo, causa, meccanismo ed effetto del guasto a quel livello, valutando in modo opportuno le criticità dell’entità in esame. Alla fine di questo processo di analisi si ottiene un quadro estremamente articolato e documentato del modo e della probabilità con cui si possono generare i guasti nell’entità e, su tale base, si possono definire le più opportune azioni di progettazione, pianificazione e miglioramento della manutenzione o del progetto dell’entità.

Leggi anche: Gli integratori per allenare il tuo cervello e sviluppare una memoria prodigiosa

PDCA

La metodologia del PDCA, nota anche come ciclo di Deming, è la rappresentazione visiva di un circolo definito “virtuoso” e di miglioramento continuo per prodotti, processi e problemi specifici. PDCA è l’acronimo dell’inglese Plan, Do, Check, Act (“pianifica, prova, verifica, agisci”).

  1. Plan (pianifica): è necessario iniziare con la progettazione degli obiettivi e dei compiti, analizzare la situazione in cui ci si trova e ricercare le cause che hanno generato le criticità. In seguito a questo è necessario definire le possibili azioni correttive e risolutive della situazione.
  2. Do (prova): in seguito alla progettazione si procede con la realizzazione concreta, pertanto le azioni pensate vengono tradotte in pratica. Nel concreto si comincia ad attivare degli interventi anche su piccola scala in modo da risolvere la situazione problematica.
  3. Check (verifica): si analizzano le conseguenze delle azioni intraprese si verifica se tali risultati combaciano con gli obiettivi che erano stati definiti nella fase iniziale. Se tutto va bene si passa all’ultima fase altrimenti si apportano ulteriori modifiche correttive, fino a quando funziona tutto bene.
  4. Act (agisci): se tutto funziona come desiderato, si rende stabile il cambiamento e lo si inserisce in produzione. In questo caso non è più una prova come nella fase “Do” ma si è pienamente convinti di quello che si sta mettendo in atto al fine di creare cambiamento.

La ruota di Deming si applica a qualsiasi campo e a qualsiasi livello. Alla fine del ciclo, quando il cambiamento è entrato nella normalità, si è pronti per avviare un nuovo ciclo, realizzando così un processo di miglioramento continuo.

Leggi anche: Più il nostro quoziente intellettivo è alto e meno crediamo in Dio: gli atei sono più intelligenti dei credenti

Risolvi ed analizza

Questa metodologia viene utilizzata in ambito informatico per circoscrivere i problemi e costruire delle metodologie specifiche per gli utenti che si basano sull’esperienza comune e sulla condivisione delle conoscenze. Per risolvere un problema in modo definitivo ed efficace non basta più conoscere a fondo uno specifico aspetto dell’impresa. Problemi complessi e globali richiedono nuove competenze di problem solving: il Systems Engineering, applicato da migliaia di imprese di tutte le dimensioni e di tutti i settori, è un metodo che si fonda sull’applicazione pratica del pensiero sistemico (system thinking), che permette di descrivere e analizzare un problema in un’ottica globale.

I principi fondamentali sono 3:

  • Cercare la responsabilità di una situazione problematica rallenta la soluzione dello stesso senza portare benefici evidenti;
  • Se si trova una soluzione bisogna rendere disponibile una descrizione dettagliata del problema e del metodo per risolverlo;
  • Se non si trova una soluzione è comunque importante dettagliare bene il problema e descrivere accuratamente i passi da seguire affinché il problema non si ripresenti.

Le operazioni da seguire sono le seguenti:

  • relazionare gli effetti del problema;
  • relazionare la situazione hardware e software;
  • identificare tutte le modifiche effettuate prima dell’esistenza del problema;
  • ricercare ed analizzare le cause;
  • porre rimedio se possibile;
  • verificare che il rimedio abbia risolto effettivamente il problema;
  • relazionare la soluzione oppure dichiarare l’impossibilità di trovare una soluzione adeguata.

Strumenti

Quelli che seguono sono strumenti diffusi e comunemente utilizzati dai metodi di problem solving per svolgere con successo alcune fasi particolari del metodo di lavoro. Gli strumenti di gestione per il problem solving sono definiti come un insieme di procedimenti mentali, ossia tecniche di pensiero atte a far emergere dei risultati utili ai fini della soluzione del problema che attingono dal contributo di molteplici discipline come l’economia, la psicologia, la matematica e la sociologia.

5W2H

La 5W2H è un’analisi semplificata delle cause tecniche. Le 5W sono rappresentante dalle cinque domande:

  • Who (“Chi?”);
  • What (“Cosa?”);
  • Where (“Dove?”);
  • When (“Quando?”);
  • Why (“Perché?”).

Le 2H rappresentano le due domande:

  • How (“In che modo?”);
  • How many (“Quanti?”).

Rispondendo a queste sette domande totali, si possono individuare alcune delle principali cause del problema. Questa tecnica può essere utilizzata per aiutare a definire un reclamo del cliente o la ritardata consegna di un fornitore o in ogni altra situazione che si può incontrare nella filiera di produzione. Con una definizione specifica del problema si può iniziare un lungo cammino verso lo sviluppo di una vera e propria soluzione.

Leggi anche: I 21 segni che indicano che sei intelligente

Analisi di Ishikawa

Viene anche chiamato diagramma causa-effetto, diagramma a lisca di pesce o diagramma ad albero. Il diagramma di Ishikawa prende il nome da Kaoru Ishikawa, che lo inventò e mise a punto nel 1969 ed è uno strumento che permette e facilita l’analisi di un certo fenomeno o problema da parte di un gruppo di persone grazie alla sua stessa struttura. Esso è inteso nei termini di una rappresentazione logica e sistematica delle relazioni esistenti tra un problema e le possibili cause che l’hanno generato.

Per procedere all’applicazione di questo strumento bisognerà innanzitutto che il gruppo che analizzerà il fenomeno sia un team costituito da persone che possiedono esperienza in merito al tema alla base del problema ed in secondo luogo bisognerà avvalersi dello strumento di brainstorming mediante cui i componenti esprimeranno liberamente le personali posizioni in merito alle possibili cause del problema. A questo punto si dà il via alla costruzione del diagramma che riporta alla destra, (in un’ideale testa della lisca di pesce) il problema così come lo si è denominato e a partire da questa “testa” si articolano via via le cause emerse che si organizzano in diversi rami secondo un ordine gerarchico: dalle cause che hanno generato il problema si articolano rami secondari che presentano le cause che a loro volta hanno incrementato o generato le cause principali del problema individuate.

Il momento della costruzione ed applicazione dello strumento si compone delle seguenti fasi:

  1. si individua innanzitutto l’effetto o problema da analizzare;
  2. si rappresenta il fenomeno mediante la costruzione del diagramma causa-effetto;
  3. si analizzano le correlazioni di causa-effetto emerse dal diagramma;
  4. si focalizza l’attenzione sulle possibili cause, dunque si procede ad un’indagine sulle probabili cause prese una per volta;
  5. si individua l’azione correttiva ritenuta più opportuna;
  6. si verifica l’efficacia effettiva dell’azione di correzione individuata.

Una volta strutturato il diagramma vanno analizzate dal gruppo le cause individuate. Per prima cosa si devono individuare le cause più probabili, successivamente si rilevano le cause più importanti, ed infine si verifica se le cause individuate come più importanti siano o meno quelle che influenzano realmente il problema, se siano cioè le vere cause. La tappa che consiste nella verifica delle cause individuate si compone delle seguenti azioni:

  1. si prende in esame la prima causa e si progettano le possibili verifiche utili per validare o smentire l’ipotesi fatta;
  2. nel caso in cui il problema permanga ugualmente l’ipotesi formulata non è corretta;
  3. si procede con le altre cause nella medesima maniera, verificando dunque se l’ipotesi sulle successive cause sia corretta o gli effetti permangano;
  4. nel caso in cui non si individui ancora la soluzione al problema, nonostante la corretta applicazione dei punti precedenti, si procede con il riesaminare nuovamente tutta l’analisi;
  5. infine è necessario rimuovere ogni causa individuata anche quando la causa principale è stata individuata.

Suggerimenti per l’applicazione di questo strumento: nella costruzione del diagramma si usufruisca della collaborazione di molte persone, si incoraggino tutti gli interventi e tutti i commenti nella fase di brainstorming senza considerarne alcuno futile o bizzarro, tenendo in considerazione che più cause emergono, meglio è. Delle indicazioni finali importanti riguardano poi la considerazione di errori di campionamento, errori di ispezione ed errori dovuti a disattenzione, che sono importanti allo scopo di evitare errori nell’analisi dell’effetto o problema e il procedere con calma, senza nessuna urgenza nel trovare delle soluzioni concrete.

Leggi anche: Analfabetismo funzionale: significato e differenze con l’analfabetismo “classico”

Brainstorming

Il brainstorm o brainstorming (“tempesta di cervello”) è una tecnica impiegata per facilitare la soluzione di un problema e stimolare il pensiero creativo; tende a liberare l’immaginazione delle persone, il cui cervello, come suggerisce il nome, è effettivamente messo in continua agitazione. Consiste in una riunione, che può coinvolgere da pochi allievi a un gruppo anche di cinquanta persone, in cui la ricerca della soluzione di un dato problema avviene mediante la libera espressione delle idee e delle proposte che il tema stesso avrà stimolato in ognuna delle persone coinvolte.

Il brainstorming, diffuso per la prima volta da Osborn nel 1957, si fonda sul principio essenziale del debridage (“sbrigliamento”), per cui nessuna idea, nessuna proposta, può essere respinta o rifiutata. Ciascuno ha diritto di dire ciò che pensa utilizzando la forma che preferisce. Tende dunque ad abolire i comportamenti e gli atteggiamenti critici verso le idee espresse, in quanto, come afferma Rogers, costituiscono la barriera più forte per la comunicazione. Infatti, se il membro di un gruppo teme di essere giudicato, tenderà a non esprimersi liberamente e le sue potenzialità ideative verranno inibite. Il senso di appartenenza al gruppo contribuisce ad aumentare il livello di sicurezza individuale: ogni membro si sente più protetto e difeso dall’atmosfera critica e giudicante del rapporto interumano. Ne consegue anche la diminuzione del senso di colpa che ogni decisione e ogni comunicazione comportano (date le modifiche che l’individuo provoca in sé e negli altri quando esprime un proprio messaggio). Viene dunque rinforzata la personalità del soggetto, si incrementano la sua creatività e la possibilità di comunicazione della creatività stessa. Il brainstorming trova ulteriore fondamento nella teoria psicologica dell’associazione di idee. Questa teoria afferma che ogni partecipante si lasci andare alle proprie associazioni libere, senza censura, accogliendo le produzioni altrettanto spontanee degli altri membri del gruppo come un bene comune, su cui può continuare ad associare: molto spesso, infatti, un’idea ne genera un’altra, questa ne ispira un’altra ancora e così via, in una reazione a catena. Si passano così in rassegna tutte le possibili interpretazioni di un fenomeno, mettendo su un piano di pari valore le soluzioni più sagge e le spiegazioni più inconsuete.

Alla fine il risultato che si ottiene è ricco, inatteso e lascia intravedere prospettive promettenti. Il brainstorming costituisce un notevole strumento di allenamento, di formazione e di insegnamento, grazie al quale i partecipanti acquisiscono progressivamente:

  • fiducia nella propria personale capacità di immaginazione, stimolata dalle interazioni e protetta dalla critica altrui;
  • spontaneità, che fiorisce nell’improvvisazione e nell’illuminazione provocata da un’idea appena formulata;
  • fiducia negli altri, le cui proposte possono ispirare e aiutare il precisarsi delle proprie: anche le idee apparentemente assurde e banali si dimostrano un anello indispensabile della catena di associazioni e per tale motivo è essenziale che tutti esprimano le loro idee.

La tecnica aiuta anche a sviluppare un atteggiamento elastico, interrogativo, di apertura permanente nei confronti di un problema.

Leggi anche: Fallacie logiche nella retorica ed in politica: caratteristiche, tipi esempi

Regie di cambiamento

Il metodo delle regie di cambiamento si colloca tra le attività che inquadrano il problem solving tra le competenze essenziali da fornire nella formazione aziendale, facendole divenire competenze allenabili, tra cui l’autore del modello individua:

  1. Problem Sensing: capacità di percepire che in una situazione esistono problemi, riconoscere una situazione come problematica; capacità di intuire problemi utilizzando segnali deboli.
  2. Problem Finding: ricerca attiva di possibili problemi, rilevare, scoprire problemi, andare a caccia di problemi; non limitarsi a lavorare su problemi “ricevuti”, ma andare a stanarli attivamente.
  3. Problem Mapping: costruire mappature di problemi (es.: posizionarli su un diagramma per grado di frequenza e grado di pericolosità); differenziarli, definire priorità, valutare i “cluster” di problemi (aggregazioni).
  4. Problem Shaping: dare forma al problema, individuarne i tratti principali; capire i confini del problema, cosa vi rientra e cosa non vi rientra.
  5. Problem Setting: la capacità di fissare il problema in termini di variabili e loro rapporti, di dare una definizione chiara del problema, e suoi confini; capacità di darne definizioni trasmissibili, comunicabili, chiare.
  6. Problem Talking: la capacità di parlare del problema saper spiegare ad altri la propria visione lucidamente, fare una buona comunicazione nel team e verso l’esterno; utilizzare stili comunicativi efficaci.
  7. Problem Analysis: svolgere analisi scientifica (qualitativa e quantitativa) in grado di aumentare la nostra comprensione del problema, delle sue strutture, dei rapporti di causa ed effetto.
  8. Problem Refraiming: osservare il problema attraverso un frame diverso (es.: psicologico vs. tecnologico); riformulare il problema da altre angolature, percepirlo da punti di vista completamente diversi, cambiare il paradigma di riferimento.

Leggi anche: Sindrome dell’idiota sapiente: cause, caratteristiche e sintomi

Fault Tree Analysis

L’albero dei guasti, noto generalmente come Fault Tree Analysis, è una metodologia di analisi del rischio che tramite visualizzazione grafica consente di individuare le cause iniziatrici di incidenti che sono frutto di una complessa combinazione di eventi. Il risultato dell’analisi è un diagramma logico, mutuato dalla teoria delle decisioni che, in definitiva, risponde a questa domanda: “Che cosa deve succedere perché si abbia un determinato guasto?”. È una tecnica induttiva che parte dagli eventi finali, detti Eventi Top o Eventi Critici, (scoppio, incendio, rilascio di materiale tossico, contaminazione al di fuori dei limiti, etc.) e risale ai guasti od agli errori iniziali (Fault). Un albero dei guasti è un diagramma costruito con l’utilizzo di porte logiche and/or che illustra le relazioni tra le cause iniziatrici e l’evento finale indesiderato mostrando al contempo il contributo di ogni fattore.

Problem solving in psicologia

Lo studio della soluzione di problemi è un campo di ricerca originariamente creato dalla psicologia del pensiero, una branca della psicologia sperimentale che si occupa dello studio fenomenologico delle diverse modalità ideative (immaginazione, ragionamento), al fine di isolare i fattori psicologici che le determinano. In senso stretto la psicologia del pensiero si è però rivolta allo studio di problematiche specifiche quali la formazione dei concetti, la genesi e lo sviluppo del pensiero logico e la risoluzione di problemi. Secondo il Kanizsa “Un problema sorge quando un essere vivente, motivato a raggiungere una meta, non può farlo in forma automatica o meccanica, cioè mediante un’attività istintiva o attraverso un comportamento appreso”.

Per poter sostenere l’esistenza di un problema si devono verificare due condizioni: la presenza di una motivazione che spinge a perseguire un fine e l’indisponibilità della strategia necessaria per raggiungerlo. La motivazione, vale a dire la spinta ad agire, può consistere in un bisogno fisiologico o in bisogni propri del soggetto (come la curiosità); di conseguenza il problema susciterà degli interrogativi, delle domande configurandosi come una “situazione problematica”. Afferma ancora il Kanizsa che “Si è sempre assunta l’esistenza del problema come un dato, come un fatto esistente per sé e non richiedente ulteriore comprensione.

Ma questa assunzione del problema come dato dal quale partire è arbitraria: il problema non è un dato, un fatto naturale, ma è un prodotto psicologico. Si converrà senza difficoltà che esiste un problema solo là e quando vi è una mente che vive una certa situazione come problema. Diciamo di più, e più esattamente: vi è problema solo quando la mente crea o determina il problema: vi è problema solo nella dimensione psicologica, non in quella naturale, od oggettiva”.

Leggi anche: Effetto von Restorff: cos’è e come usarlo a tuo vantaggio

Psicologia della Gestalt

Lo studio su come si svolgono i processi di pensiero di fronte ad una situazione problematica, è stato profondamente influenzato dalle concezioni teoriche e dalle analisi sperimentali degli psicologi di orientamento gestaltista, in particolare di Wertheimer, Köhler, Koffka e Duncker. Il termine “problem solving” si incontra di rado negli scritti degli psicologi gestaltisti che preferiscono parlare di pensiero produttivo. Questa preferenza mette in risalto la convinzione che l’attività non si riduca ad una mera riproduzione del passato, al riemergere di idee, di immagini, di comportamenti che sono già esistiti, ma che, accanto a quell’attività riproduttiva, ci siano anche processi che producono veramente il nuovo, che creano ciò che non è ancora stato, che fanno scaturire l’idea mai sorta prima, almeno nella mente di quel determinato organismo pensante.

Le prime ricerche condotte in riferimento a quest’indirizzo furono quelle di Köhler, il quale studiò, tra il 1914 e il 1917, il comportamento di animali (e in particolare di scimpanzé) posti in situazioni problematiche molto semplici (ad esempio uno scimpanzé doveva trovare il modo di impossessarsi di una banana appesa al soffitto di una gabbia o collocata all’esterno di questa ad una certa distanza dalle sbarre, avendo a disposizione alcuni oggetti che avrebbero potuto utilizzare come strumenti: un bastone, una cassa, una scala portatile, ecc.). Köhler ha così potuto stabilire che questi animali sono capaci di ristrutturazioni improvvise dell’ambiente, che costituiscono una soluzione del problema (ad es. portando la cassa, sino a poco prima usata solo come recipiente o sedile, sotto la banana e utilizzandola come mezzo per alzare il livello del pavimento). Egli osservò che dal comportamento concreto dell’animale e dalla sua ristrutturazione oggettiva di tale ambiente era possibile risalire ai processi di ristrutturazione che potevano avere avuto luogo nella sua rappresentazione cognitiva dell’ambiente.

Köhler suppose che il pensiero ed il problem solving non erano la semplice somma di stimolo-risposta, ma che doveva in qualche modo avvenire una percezione globale del problema come totalità funzionale. Il problema, cioè, diventava comprensibile e risolvibile proprio perché i rapporti tra gli elementi in gioco improvvisamente si mostravano agli occhi dell’individuo in tutta la loro evidente chiarezza. Questo fenomeno, vitale per l’evoluzione del processo di pensiero, fu indicato dai gestaltisti con il termine di Einsicht o, in inglese, insight che letteralmente significa “vedere dentro”, cioè intuire. Fu però il lavoro di M. Wertheimer a chiarire il significato di “struttura” e di “insight” nell’ambito più specifico dell’insegnamento. Il pensiero che comprende una struttura venne da lui ribattezzato “pensiero produttivo”, cioè quel tipo di pensiero che, partendo da un problema, produce una struttura nuova avente carattere di soluzione. Il lavoro di Wertheimer ha per oggetto il pensiero umano e si svolge attraverso un’analisi minuziosa ed affascinante del modo in cui concretamente una persona affronta un problema, si affatica intorno ad esso ed infine lo risolve.

Secondo Wertheimer è necessario osservare la situazione liberamente, a mente aperta, con una visione complessiva, cercando di capire fino in fondo, di rendersi conto, di mettere in evidenza la relazione interna che esiste tra la forma e il compito assegnato giungendo, nei casi migliori, alle radici della situazione, illuminando e rendendo trasparenti i caratteri di struttura essenziali. Dagli studi di Wertheimer prendono spunto quelli del suo allievo K. Duncker. Egli ha studiato a fondo le situazioni in cui l’insight non ha luogo d’un tratto, ma solo al termine di un lungo processo di ricerca nel corso del quale la prima fase è costituita da una soluzione del problema di partenza che però si rivela subito come troppo generica, permettendo solo di riformulare tale problema in termini più definiti, dando così avvio ad una seconda fase e poi ad altre, ciascuna delle quali rappresenta una soluzione rispetto al problema immediatamente precedente ma apre a sua volta un problema più specifico. Egli si è anche occupato delle strategie con cui può essere affrontato il problema distinguendo fra le “analisi dall’alto” (quelle cioè che prendono come punto di partenza l’obiettivo, e le richieste che esso pone), e le “analisi dal basso” (quelle cioè che prendono avvio da una considerazione del materiale a disposizione, e delle possibilità che esso offre, in vista di un certo obiettivo). Un punto di grande interesse sia psicologico che pedagogico è quello delle difficoltà che il pensiero può incontrare nella ricerca di una soluzione.

Duncker ha messo in evidenza una difficoltà, di carattere generale, consistente nel fenomeno della fissità funzionale, ovvero nella tendenza ad utilizzare certi oggetti solo per quelle che sono le loro funzioni abituali (per es. un paio di forbici per tagliare) senza giungere a vedere che in certe situazioni essi potrebbero essere utilizzati per funzioni diverse e insolite (ad es. le forbici come compasso). Un’altra difficoltà, che si presenta quando un problema è formulato verbalmente, consiste nelle cosiddette implicazioni parassite dei termini verbali ovvero in interpretazioni riduttive del significato di certe parole le quali limitano indebitamente le direzioni lungo le quali viene cercata una soluzione. Fra le strategie che hanno un valore euristico, possono cioè rendere più facile la scoperta di una soluzione, un ruolo notevole può avere quella della semplificazione, consistente nel cambiare i dati di un problema sostituendoli con altri assai più semplici, senza tuttavia modificare la struttura del problema stesso, che è però in tal modo assai più evidente, rendendo più agevole la ristrutturazione. Una notevole utilità possono avere le rassegne di situazioni analoghe già vissute, che, come osserva Duncker, possono suggerire, “per assonanza”, delle proposte di soluzione e le esperienze di brainstorming, compiute sia in gruppo che individualmente, sulla base del principio che una certa idea può favorire l’emergere di altre (per contrasto, per completamento, per differenziazione).

Se vuoi potenziare le tue capacità di problem solving, prenota il tuo colloquio riservato e ti aiuterò a migliorare le tue abilità e ad esprimere al meglio tutte le tue potenzialità.

MEDICINA ONLINE Dott Emilio Alessio Loiacono Medico Chirurgo Roma PRENOTA UNA VISITA CONTATTI Riabilitazione Nutrizionista Infrarossi Accompagno Commissioni Cavitazione Radiofrequenza Ecografia Pulsata Macchie Capillari Ano Pene

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su Mastodon, su YouTube, su LinkedIn, su Tumblr e su Pinterest, grazie!

Quoziente d’intelligenza: valori, significato, test ed ereditarietà

MEDICINA ONLINE BRAIN CERVELLO ALLENAMENTO ALLENA INTEGRATORI STUDIO STUDIARE LIBRO LEGGERE LETTURA BIBLIOTECA BIBLIOGRA LIBRERIA QUI INTELLIGENTE ESAMI 30 LODE TEST INGRESSO MEDICINA UNIVERSITA SCUOLAIl quoziente d’intelligenza, o QI, è un punteggio, ottenuto tramite uno dei molti test standardizzati, che si prefigge lo scopo di misurare o valutare l’intelligenza, ovvero lo sviluppo cognitivo dell’individuo. Persone con QI basso sono a volte inserite in speciali progetti di istruzione.

Valori di QI

Punti Percentuale Classificazione Punteggio
40-57 0.2% Gravemente inferiore alla media
58-74 4.1% Molto inferiore alla media
75-91 24% Inferiore alla media
92-109 43.2% Normale
110-126 24% Dotato
127-143 4.1% Molto Dotato
144-160 0.2% Genio

Funzioni e uso

Oltre che dagli psicologi, il QI è usato anche dai sociologi, che ne studiano in particolare la distribuzione nelle popolazioni e le relazioni con altre variabili. È stata dimostrata in particolare una correlazione tra QI, morbosità e mortalità, e con lo stato sociale dei genitori. Sull’ereditarietà del QI, sebbene sia stata sotto esame per quasi un secolo, rimangono delle controversie legate a quanto esso sia ereditabile e ai meccanismi di trasmissione. Lo stesso studio suggerisce che la componente ereditabile del QI diventi più significativa con l’avanzare dell’età. Seguendo un fenomeno chiamato Effetto Flynn, il QI medio per molte popolazioni aumentava con una velocità media di 3 punti ogni decennio durante il XX secolo, prevalentemente nella parte bassa della scala. Non è chiaro se queste variazioni riflettano reali cambiamenti nelle abilità intellettuali, oppure se siano dovute soltanto a problemi di natura metodologica nei test passati. È importante notare che i test del QI non riportano una misura dell’intelligenza come se fosse una scala assoluta, ma offrono un risultato che va letto su una scala relativa al proprio gruppo di appartenenza (sesso, età). I risultati dei test del QI sono utilizzati per prevedere i risultati accademici, le prestazioni lavorative, lo status socioeconomico conseguibile e le cosiddette “patologie sociali”. A tale proposito, tuttavia, uno studio del 2015, relativo alle prestazioni lavorative, ha revocato in dubbio l’asserita validità predittiva del test in tema di future performance occupazionali e ha messo in guardia nei confronti dell’uso invalso in tal senso. Oggetto di dibattito è se i test del QI siano o no un metodo accurato per misurare l’intelligenza assoluta; si ritiene per lo più che i loro risultati siano collegabili solo a sotto-capacità specifiche dell’intelligenza.

Leggi anche:

Struttura dei test del QI

I test del QI assumono varie forme: alcuni ad esempio utilizzano un solo tipo di elementi o domande, mentre altri sono divisi in più parti. La maggior parte di essi dà un punteggio totale e uno relativo alle singole parti del test. Tipicamente un test del QI richiede di risolvere sotto supervisione un certo numero di problemi in un tempo prestabilito. La maggior parte dei test è costituito da domande di vario argomento, come memoria a breve termine, conoscenza lessicale, visualizzazione spaziale e velocità di percezione. Alcuni hanno un tempo limite totale, altri ne hanno uno per ogni gruppo di problemi, e ve ne sono alcuni senza limiti di tempo e senza supervisione, adatti a misurare valori di QI elevati. La terza edizione della WAIS, (WAIS-III del 1997), consiste di 14 gruppi di problemi: 7 verbali (Informazione, Comprensione, Ragionamento aritmetico, Analogie, Vocabolario, Memoria di cifre e Ordinamento di numeri e lettere) e 7 di abilità (Codificazione di cifre e simboli, Completamento di immagini, Block Design, Matrici di Raven, Riordinamento di storie figurate, Ricerca di simboli e Assemblaggio di oggetti). Nel 2008 è uscita la WAIS-IV, quarta edizione del test. Per standardizzare un test del QI è necessario sottoporlo a un campione rappresentativo della popolazione, calibrandolo in modo da ottenere una distribuzione normale, o curva gaussiana; ogni test è comunque studiato e valido solo per un certo intervallo di valori del QI; poiché i soggetti che ottengono punteggi molto alti o molto bassi sono pochi, i test non sono in grado di misurare accuratamente quei valori. Alcuni Q.I. utilizzano deviazioni standard diverse da altri: per questo motivo relativamente ad un certo punteggio bisognerebbe specificare anche la deviazione standard. A seconda del test, il punteggio conseguito può anche cambiare nel corso della vita dell’individuo.

Il QI e il fattore di intelligenza generale

I moderni test del QI attribuiscono dei punteggi a diversi gruppi di problemi (fluidità di linguaggio, pensiero tridimensionale, etc.), e il punteggio riassuntivo viene calcolato a partire da questi risultati parziali. Il punteggio medio, come si evince dalla gaussiana, è 100. I punteggi parziali di ogni gruppo di problemi tendono ad essere collegati gli uni con gli altri, anche quando sembra che gli argomenti sui quali si concentrano siano i più disparati. Un’analisi matematica dei punteggi parziali di un singolo test del QI, o sui punteggi provenienti da una varietà di test differenti (come lo Stanford-Binet, WISC-R, Matrici di Raven, Cattell Culture Fair III, Universal Nonverbal Intelligence Test, Primary Test of Nonverbal Intelligence, e altri) dimostra che essi possono essere descritti matematicamente come la misura di un singolo fattore comune e di vari altri fattori specifici per ogni test. Questo tipo di analisi fattoriale ha portato alla teoria che a unificare i più disparati obiettivi che i vari test si prefiggono sia un singolo fattore, chiamato fattore di intelligenza generale (o g), che corrisponde al concetto popolare di intelligenza. Normalmente, g e il QI sono per il 90% circa correlati tra loro, e spesso vengono usati interscambiabilmente. I test differiscono tra loro su quanto essi riflettano g nel loro punteggio, piuttosto che un’abilità specifica o un “fattore di gruppo” (come abilità verbali, visualizzazione spaziale, o ragionamento matematico). La maggior parte dei test del QI deriva la propria validità prevalentemente o interamente da quanto essi coincidano con la misura del fattore g, come le Matrici di Raven.

Leggi anche:

Ereditarietà

Il ruolo dei geni e dei fattori ambientali (naturali e relativi all’educazione) nel determinare il QI è stato rivisto da Plomin et al. Vari studi dimostrano che l’indice di ereditarietà del QI varia tra 0,4 e 0,8 negli Stati Uniti, il che significa che, stando agli studi, una parte che varia da poco meno di metà a sostanzialmente più di metà della variazione del QI calcolato per i bambini presi in considerazione era dovuto a differenze nei loro geni. Il resto era dunque imputabile a variazioni nei fattori ambientali e a margini di errore. Un indice di ereditarietà nell’intervallo da 0,4 a 0,8 significa che il QI è “sostanzialmente” ereditabile. L’effetto della restrizione dell’intervallo sul QI è stato esaminato da Matt McGue e i suoi colleghi: egli scrive che “il QI dei bambini adottati non è correlato con eventuali psicopatologie dei genitori”. D’altra parte, nel 2003 uno studio condotto da Eric Turkheimer, Andreana Haley, Mary Waldron, Brian D’Onofrio e Irving I. Gottesman dimostrò che la porzione di varianza del QI attribuibile ai geni e ai fattori ambientali dipende dallo status socioeconomico. Essi provarono che nelle famiglie poco abbienti il 60% della varianza del QI è rappresentata dai fattori ambientali condivisi, mentre il contributo dei geni è quasi zero. È ragionevole aspettarsi che le influenze genetiche in caratteristiche come il QI diventino meno significative quando l’individuo acquisisca esperienza con l’età. Sorprendentemente, accade l’opposto. L’indice di ereditarietà nell’infanzia è meno di 0,2, circa 0,4 nell’adolescenza e 0,8 nell’età adulta. La task force del 1995 dell’American Psychological Association, “Intelligence: Knowns and Unknowns”, concluse che nella popolazione di pelle chiara l’ereditarietà del QI è “circa 0,75”. Il Minnesota Study of Twins Reared Apart, un pluriennale studio su 100 coppie di gemelli cresciuti in famiglie diverse, iniziato nel 1979, stabilì che circa il 70% della varianza del QI deve essere associata a differenze genetiche. Alcune delle correlazioni tra i QI di gemelli potrebbero essere il risultato del periodo prima della nascita passato nel grembo materno, facendo luce sul perché i dati di questi gemelli siano così strettamente legati tra loro.

Vi sono alcuni punti da considerare per interpretare l’indice di ereditarietà:

  • Un errore comune è di pensare che se qualcosa è ereditabile allora necessariamente non può cambiare. Questo è sbagliato. L’ereditarietà non implica l’immutabilità. Come già detto, i tratti ereditabili possono dipendere dall’apprendimento o possono essere soggetti ad altri fattori ambientali. Il valore dell’ereditarietà può cambiare se la distribuzione dei fattori ambientali (o dei geni) nella popolazione viene alterata. Ad esempio, un contesto di povertà e repressione può impedire lo sviluppo di un certo tratto, e dunque restringere le possibilità di variazioni individuali. Alcune differenze nella variazione dell’ereditarietà sono state riscontrate tra le nazioni sviluppate e quelle in via di sviluppo; ciò può influire sulle stime dell’ereditarietà. Un altro esempio è la Phenylketonuria che precedentemente causava un ritardo mentale a coloro che soffrivano di questa malattia genetica. Oggi, può essere prevenuto seguendo una dieta modificata.
  • D’altra parte, ci possono effettivamente essere dei cambiamenti ambientali che non modificano affatto l’ereditarietà. Se un fattore ambientale relativo ad un certo tratto migliora in un modo che influenza tutta la popolazione in egual modo, il valore medio di quel tratto aumenterà, ma senza variazioni nella sua ereditarietà (perché le differenze tra gli individui nella popolazione rimarranno gli stessi). Questo accade in maniera evidente per l’altezza: l’indice di ereditarietà dell’altezza è alto, ma l’altezza media continua ad aumentare.
  • Anche nelle nazioni sviluppate, un alto indice di ereditarietà per un certo tratto all’interno di un gruppo di individui non è necessariamente la causa di differenze con un altro gruppo.

Fattori ambientali

I fattori ambientali hanno una loro influenza nel determinare il QI in situazioni estreme. Un’adeguata nutrizione durante l’infanzia diventa un fattore critico per lo sviluppo cognitivo; uno stato di malnutrizione può abbassare il QI di un individuo. Altre ricerche indicano come i fattori ambientali quali l’esposizione prenatale alle tossine, la durata dell’allattamento al seno, e deficienze di fattori micronutrienti possono influire sul QI. È risaputo che non è possibile aumentare il QI con l’allenamento. Ad esempio risolvere regolarmente dei puzzle, o giocare a giochi di strategia come gli scacchi aumenta solo abilità specifiche e non il QI inteso come la somma dell’insieme di capacità ed esperienze. Imparare a suonare uno strumento, nobile o popolare che sia, aiuta il cervello a crescere sia nelle dimensioni che nelle capacità. È quanto dimostra uno studio dell’università di Zurigo che ha preso in esame lo sviluppo cerebrale di un gruppo di individui giovani e adulti.

Leggi anche:

Contesto familiare

Quasi tutti i tratti di personalità mostrano come, al contrario di quanto ci si possa aspettare, gli effetti dei fattori ambientali nei fratelli omozigoti allevati dalla stessa famiglia sono uguali a quelli di gemelli allevati in famiglie diverse. Ci sono alcune influenze di origine familiare sul QI dei bambini, che ammontano a circa un quarto della varianza. Comunque, con l’età adulta questa correlazione sparisce, così come due fratelli adottivi non hanno i QI più simili tra loro rispetto a due estranei (correlazione del QI quasi zero), mentre due fratelli di sangue mostrano una correlazione pari a circa 0,6. Gli studi sui gemelli danno credito a questo modello: i gemelli omozigoti cresciuti separatamente hanno un QI molto simile (0,86), più di quelli eterozigoti cresciuti insieme (0,6) e molto più dei figli adottivi (circa 0). Lo studio dell’American Psychological Association’s, Intelligence: Knowns and Unknowns (1995), afferma che non c’è dubbio che il normale sviluppo dei bambini richiede un certo livello minimo di attenzioni. Un ambiente familiare molto carente o negligente ha effetti negativi su un gran numero di aspetti dello sviluppo, inclusi quelli intellettuali. Oltre un certo livello minimo di questo contesto, l’influenza che ha l’esperienza familiare sul ragazzo è al centro di numerose dispute. Vi sono dubbi se differenze tra le famiglie dei bambini producano effettivamente differenze nei risultati dei loro test d’intelligenza. Il problema è il distinguere le cause dalle correlazioni. Non c’è dubbio che alcune variabili come le risorse della propria casa o il linguaggio usato dai genitori siano correlati con i punteggi del QI dei bambini, ma queste correlazioni potrebbero essere mediate dalla genetica così come (o al posto dei) fattori ambientali. Ma non vi sono certezze su quanta della varianza del QI derivi dalle differenze tra le famiglie, e quanta invece dalle varie esperienze di diversi bambini nella stessa famiglia. Recentemente studi sui gemelli e sulle adozioni suggeriscono che mentre l’effetto del contesto familiare è rilevante nella prima infanzia, diventa abbastanza limitato nella tarda adolescenza. Queste scoperte fanno pensare che le differenze nello stile di vita dei familiari, qualunque sia l’influenza che hanno su molti aspetti della vita dei bambini, producono piccole differenze a lungo termine nelle abilità misurate dai test d’intelligenza. La ricerca dell’American Psychologist Association afferma inoltre: “Dovremmo notare, comunque, che famiglie di pelle scura e a basso reddito sono poco rappresentate negli attuali studi sulle adozioni, così come nella maggior parte dei campioni di gemelli. Dunque non è ancora del tutto chiaro se questi studi si possano applicare alla popolazione intera. Rimane la possibilità che le differenze tra famiglie (stipendio ed etnia) abbiano conseguenze più durature per l’intelligenza psicometrica”. Uno studio di bambini francesi adottati tra i quattro e i sei anni mostra la continua influenza dell’ambiente e dell’educazione contemporaneamente. I bambini venivano da famiglie povere, la media dei loro QI era inizialmente 77, classificandoli quasi come bambini ritardati. Nove anni dopo l’adozione rifecero i test, e tutti migliorarono; il miglioramento era direttamente proporzionale allo status della famiglia adottiva. Bambini adottati da contadini e lavoratori avevano un QI medio di 85,5; coloro che erano stati affidati invece a famiglie della classe media avevano un punteggio medio di 92. Il QI medio dei giovanotti adottati da famiglie benestanti aumentò di più di 20 punti, arrivando a 98. D’altra parte, quanto questi miglioramenti persistano nell’età adulta non appare ancora chiaro dagli studi.

Il modello di Dickens e Flynn

Dickens e Flynn (2001) affermano che gli argomenti che riguardano la scomparsa di un contesto familiare condiviso nella vita dei bambini dovrebbe poter applicarsi ugualmente a gruppi di individui separati nel tempo. Questo è invece contraddetto dall’effetto Flynn. I cambiamenti in questo caso sono avvenuti troppo velocemente per poter essere spiegati da un adattamento dell’ereditarietà genetica. Questo paradosso può essere spiegato osservando che la misura dell’ereditarietà include sia un effetto diretto del genotipo sul QI, sia un effetto indiretto nel quale il genotipo cambia l’ambiente, che a sua volta influisce sul QI. Cioè, coloro che hanno un alto QI tendono a ricercare un contesto stimolante che possa aumentare ulteriormente il loro quoziente intellettivo. L’effetto diretto può inizialmente essere molto limitato, ma gli effetti di ritorno possono produrre molte variazioni sul QI. Nel loro modello uno stimolo ambientale può avere un effetto importante sul QI, anche sugli adulti, ma questo effetto decade nel tempo a meno che lo stimolo non persiste (il modello può essere adattato per includere possibili fattori, come la nutrizione nella prima infanzia, che può dar luogo ad effetti permanenti). L’effetto Flynn può essere spiegato da un ambiente generalmente stimolante per tutti gli individui. Gli autori suggeriscono che i programmi che mirano a incrementare il QI riuscirebbero a produrre aumenti a lungo termine del QI se insegnassero ai bambini come replicare fuori dal programma quel tipo di esperienze di richieste conoscitive che aumentano il QI, e li motivassero a persistere in questa riproposizione per molto tempo dopo la fine del programma.

Il cervello ed il QI

Nel 2004 Richard Haier, professore di psicologia al Dipartimento di Pediatria della University of California, Irvine, con alcuni suoi colleghi alla University of Nuovo Messico, fece una risonanza magnetica per ottenere immagini strutturali del cervello di 47 uomini che avevano sostenuto il test del QI. Gli studi dimostrarono che l’intelligenza umana generale risulta essere basata sul volume e la dislocazione del tessuto di materia grigia nel cervello. La distribuzione della materia grigia nel cervello umano è altamente ereditaria. Gli studi mostrano inoltre che solo il 6% della materia grigia sembra essere collegata al quoziente intellettivo. Diverse fonti di informazioni concordano sull’idea che i lobi frontali siano di fondamentale importanza per l’intelligenza fluida. I pazienti con danni al lobo frontale rispondono in misura ridotta nei test di intelligenza fluida (Duncan et al 1995). Il volume di materia grigia frontale (Thompson et al 2001) e della sostanza bianca (Schoenemann et al 2005) sono stati anche associati con l’intelligenza generale. Inoltre, recenti studi hanno osservato questa associazione con la tecnica del neuroimaging per la corteccia prefrontale laterale. Duncan e colleghi (2000) hanno dimostrato mediante tomografia ad emissione di positroni che la soluzione di problemi sono i compiti maggiormente correlati al QI, dato il coinvolgimento della corteccia prefrontale laterale. Più di recente, Gray e colleghi (2003) hanno utilizzato la risonanza magnetica funzionale (fMRI) per dimostrare che le persone che erano più abili nel resistere alle distrazioni durante un impegnativo compito di memoria avevano un QI superiore e una maggiore attività prefrontale. Per una vasta revisione di questo argomento, vedere Gray e Thompson (2004). È stato condotto uno studio che coinvolge 307 giovanissimi (di età compresa tra i sei e i diciannove anni): sono state misurate le dimensioni del cervello, utilizzando la risonanza magnetica strutturale (MRI) e una misurazione di abilità verbale e non verbale. Lo studio ha indicato che non vi è un rapporto diretto tra il QI e lo spessore della corteccia, ma piuttosto tale legame c’è con i cambiamenti di spessore nel tempo. I bambini più intelligenti sviluppano subito una corteccia spessa inizialmente e dopo subiscono un processo di assottigliamento più consistente. Garlick ha supposto che questa riduzione in spessore riflette un processo di “potatura” delle connessioni neurali e questo processo di “potatura” porta ad una miglior abilità di identificare le astrazioni nell’ambiente. Lesioni isolate ad un lato del cervello, anche a quelli che si verificano in giovane età, sembra non incidano in maniera significativa sul QI. Diversi studi giungono a conclusioni discordanti per quanto riguarda la controversa idea che il cervello sia correlato positivamente con il QI. Jensen e Reed (1993) sostengono che non esiste una correlazione diretta e non patologica dei soggetti. Tuttavia una più recente meta-analisi suggerisce altrimenti. Un approccio alternativo ha cercato di collegare le differenze di plasticità neurale con intelligenza (Garlick, 2002), e questo punto di vista ha recentemente ricevuto qualche sostegno empirico.

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su Mastodon, su YouTube, su LinkedIn, su Tumblr e su Pinterest, grazie!

La persona più intelligente al mondo mai esistita nella storia dell’uomo

MEDICINA ONLINE Dott Emilio Alessio Loiacono Medico Chirurgo Roma PERSONA PIU INTELLIGENTE MONDO STORIA  Riabilitazione Nutrizionista Infrarossi Accompagno Commissioni Cavitazione Radiofrequenza Ecografia Pulsata  Macchie Capillari Ano Pene.jpg

Quando si parla di QI (quoziente d’intelligenza) si indica un punteggio, ottenuto tramite uno dei molti test standardizzati, con lo scopo di misurare o valutare l’intelligenza umana, ovvero lo sviluppo cognitivo dell’individuo.

  • Un punteggio sotto 70 può indicare un ritardo mentale marcato.
  • Un punteggio tra 70 e 84 indica un ritardo mentale lieve.
  • Un punteggio tra 85 e 99 mette l’autore del test leggermente al di sotto della media della popolazione, ma è comunque considerato nella normalità.
  • Un punteggio di 100 rappresenta la media della popolazione.
  • Un punteggio tra 101 e 120 porta l’autore del test al disopra della media della popolazione, ma è comunque considerato nella normalità.
  • Un punteggio tra 121 e 140 indica una intelligenza significativamente al disopra della media.
  • Punteggi oltre i 140 appartengono ai geni.

La persona più intelligente al mondo, a dieci anni, ha totalizzato… 228. Questa persona è la donna che vedete in foto e si chiama Marilyn vos Savant.

Leggi anche: Sono più intelligenti gli uomini o le donne? Nuovi studi hanno decretato il vincitore

Marilyn vos Savant è un’editorialista e saggista statunitense nata a Saint Louis l’11 agosto del 1946. Questa signora settantenne è famosa soprattutto per un motivo: è la persona più intelligente al mondo di tutta la storia dell’uomo, in base ai suoi risultati nel test del quoziente d’intelligenza. In realtà gli ultimi studi sembrano confermare che il QI non dica esattamente la verità sulla nostra intelligenza, ma Vos Savant è comunque una persona che in diverse occasioni e con test diversi tra loro, ha ottenuti i migliori risultati tra tutti quelli che ci hanno provato, quindi è sicuramente una persona con una intelligenza sicuramente fuori scala.

Più intelligente di Albert Einstein e Stephen Hawking
A 10 anni aveva l’intelligenza mentale di una persona di 23 anni e dal 1986 al 1989 è stata nel Guinnes dei primati per avere il QI più alto al mondo. Poi ci furono delle discussioni sull’effettiva affidabilità di quei test e il record le fu tolto: da allora essere “la persona più intelligente del mondo” non è più uno dei primati del Guinness e anche vos Savant ha detto di ritenere impossibile misurare davvero l’effettiva intelligenza di una persona. I risultati ottenuti da Vos Savant – più alti di quelli di Albert Einstein o Stephen Hawking – divennero pubblici solo negli anni Ottanta; sembra che prima si evitò di renderli noti per evitare le eccessive attenzioni che può subire un “piccolo genio”. A quel punto però divenne molto famosa. Fece moltissime interviste: una, molto apprezzata, nel 1986 con il settimanale Parade, che esce come supplemento domenicale di centinaia di giornali statunitensi. Parade era ed è letto da milioni di persone e dopo il successo di quell’intervista la rivista le propose di curare una rubrica in cui rispondere a domande, indovinelli e curiosità matematiche dei lettori. Vos Savant accettò e la rubrica, che ora è quotidiana e anche online, prosegue dal 1986. La rubrica e vos Savant diventarono ancora più famosi nel 1990, quando un lettore mandò una domanda sul problema Monty Hall, che usa un’auto e due capre nascoste dietro a tre porte per parlare di logica e teoria della probabilità.

Leggi anche: Un ingegnere italiano nella classifica dei 20 uomini con il quoziente intellettivo più alto al mondo

Il problema di problema Monty Hall
Monty Hall è lo pseudonimo di Monte Halparin, il creatore e conduttore di Let’s make a deal, un programma tv con dei concorrenti e con un premio finale. Il programma esiste dagli anni Sessanta e va ancora in onda, anche se sono cambiate sia le regole che il conduttore. Quando c’era Hall funzionava così: un concorrente arrivava al gioco finale e aveva la possibilità di vincere un’auto nuova. Il fatto è che l’auto era nascosta dietro una sola di tre porte chiuse; dietro le altre due c’erano delle capre. Il concorrente doveva scegliere una delle tre porte: la A, la B, o la C. Ne sceglieva una (per esempio la A) e a quel punto Hall, che sapeva dov’erano le capre e dov’era l’auto, apriva una delle due porte dietro a cui c’era una capra (per esempio la C). A quel punto Hall offriva al concorrente la possibilità di continuare a puntare sulla porta A o di cambiare e puntare sulla porta B.Quale scelta fareste? Restereste sulla A o cambiereste, scegliendo di aprire la B? Questa scelta la fareste a caso, come si punta alla roulette, o per logica e calcolo delle probabilità?Dovreste scegliere la B, perché avreste più possibilità di vincere un’auto. A certue persone può sembrare illogico: «Ma come, sono due porte, ci sono il 50 per cento di possibilità di indovinare». No, l’unico motivo per cui potrebbe davvero convenirvi di stare sulla porta A e non cambiare scegliendo la porta B è che preferiate una capra a un’auto nuova. Restando sulla A c’è il 33,3 per cento di possibilità di vincere l’auto; andando sulla B c’è invece il 66,6 per cento di possibilità di vincere.

Leggi anche:

Lo staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o seguici su Twitter, su Instagram o su Pinterest, grazie!

I 21 segni che indicano che sei intelligente

Dott Emilio Alessio Loiacono Medico Chirurgo Studio Roma 21 SEGNI INDICANO INTELLIGENTE  Viso Mani Ecografia Mammella Tumore Seno Articolare Spalla Vascolare Traumatologo  Spalla Medicina Estetica Cellulite Cavitazione Grasso Radiofrequenza Pene THSAlcune ricerche scientifiche fatte in varie università del mondo, sembrano confermare che ci sono alcuni comportamenti, segni e caratteristiche fisiche che sembrano essere associati all’intelligenza. Alcuni, come l’aver imparato a leggere presto, sono piuttosto scontati, ma altri – vi assicuro – vi sconvolgeranno! Se volete sapere se voi, il vostro partner, i vostri figli o i vostri amici rientrano nella categoria delle persone con più alto quoziente intellettivo, leggete i prossimi 21 punti e controllate quali appartengono alla persona interessata.

1) Leggere prima degli altri. Le persone intelligenti sono quelle che in media hanno imparato a leggere prima dell’età scolare o comunque velocemente e facilmente. Nel 2012, a supporto di questa analisi, un gruppo di ricercatori ha esaminato quasi 2.000 coppie di gemelli identici nel Regno Unito e ha scoperto che il fratello che aveva imparato a leggere prima tendeva ad un punteggio più alto nei test sulle abilità cognitive.

2) Prendere lezioni di musica. Una gran quantità di ricerche scientifiche, confermano che saper suonare uno strumento musicale, specie fin da giovani, sia legato ad una maggiore intelligenza. Chi suona uno strumento musicale in tenera età, ha un cervello che si svilupperà meglio e più precocemente.

3) Essere fratelli maggiori. Secondo la scienza, sembrerebbe che i fratelli maggiori siano effettivamente in genere anche quelli più intelligenti.

Leggi anche: Ti spiego perché tuo fratello maggiore è più intelligente di te

4) Essere magri. Uno studio del 2016 ha affermato che più grande è la circonferenza addominale, minore sarà la capacità cognitiva.

5) Avere un gatto. Una ricerca del 2014 afferma che le persone che possiedono un gatto sono più intelligenti della media, inoltre le persone “da gatto” sarebbero più sveglie delle persone “da cane”.

Leggi anche: Dimmi come dormi e ti dirò chi sei

6) Essere stati allattati al seno. L’allattamento al seno sembra essere determinante per l’intelligenza futura. Almeno secondo quanto affermato da due studi condotti in Gran Bretagna a Nuova Zelanda.

7) Fare uso di droghe leggere. La scienza afferma che un alto quoziente intellettivo è mediamente legato all’adozione di comportamenti potenzialmente dannosi per la salute, tra cui l’uso di droghe leggere.

8) Bere alcolici regolarmente. Per il consumo degli alcolici vale lo stesso discorso fatto per le droghe leggere.

Leggi anche: Tutti i segreti dei postumi di una sbornia

9) Essere mancini. Il mancinismo è generalmente associato con istinti potenzialmente criminali, ma può anche indicare un pensiero fuori dalla norma e dai soliti schemi. Ecco perché è segno di intelligenza.

Leggi anche: Chi arriva sempre in ritardo è efficiente ed ottimista di natura

10) Essere alti. E’ il risultato di un’indagine condotta nel 2008 a Princeton: le persone più alte sono anche quelle mediamente più intelligenti.

Leggi anche: La stagione in cui sei nato determina il tuo carattere, ecco come

11) Essere politicamente liberali. Anche essere politicamente liberali è segno di intelligenza, mentre invece essere “di destra” sembra essere collegato ad un minore quoziente intellettivo, almeno secondo la scienza.

Leggi anche: Sei di destra? Hai un quoziente intellettivo basso

12) Essere ansiosi. Un numero crescente di ricerche suggerisce che gli individui più ansiosi possono essere anche i più intelligenti.

Leggi anche: Sempre preoccupati ed ansiosi? Siete i più intelligenti

13) Essere simpatici. Le persone divertenti e con senso dell’umorismo sono anche più intelligenti della media.

Leggi anche: Fai molte battute? Allora sei intelligente!

14) Essere donna. Mi dispiace per i colleghi maschi, ma la scienza sembra confermare che le donne siano mediamente più intelligenti di noi.

Leggi anche: Sono più intelligenti gli uomini o le donne? Nuovi studi hanno decretato il vincitore

15) Essere atei. Uno studio del dipartimento di analisi dell’Università di Rochester di New York pubblicato sul sito del noto quotidiano The Independent e dedicato alla relazione tra il cervello umano e l’esistenza di Dio. I risultati dello studio infatti dicono che gli atei sono più intelligenti di chi ha una qualche fede religiosa.

Leggi anche: Più il nostro quoziente intellettivo è alto e meno crediamo in Dio: gli atei sono più intelligenti dei credenti

16) Essere del nord Italia. Uno studio del prof. Richard Lynn, docente emerito di psicologia all’università dell’Ulster a Coleraine, in Irlanda del Nord, afferma che le persone del nord dell’Italia sono più intelligenti delle persone del sud Italia.

Leggi anche: Gli italiani nati nel sud sono meno intelligenti dei settentrionali?

17) Giocare ai videogiochi. Una ricerca, pubblicata su Nature dal Max Planck Institute for Human Development, afferma che tanto più si gioca con i videogiochi tanto più il cervello diventa “forte”. Lo studio ha dimostrato che la materia grigia migliora grazie all’attività continua con i videogiochi.

Leggi anche: I videogiochi ti fanno diventare più intelligente

18) Mangiare bene. Una smisurata lista di studi scientifici conferma che mangiare bene, tiene in forma il nostro cervello e ci rende più reattivi intellettivamente.

Leggi anche: I trenta cibi che ringiovaniscono il tuo cervello ed anche: Mangiare al McDonald’s ti rende più stupido

19) Usare poco lo smartphone. Varie ricerche confermano che usare troppo il cellulare, può peggiorare la nostra intelligenza.

Leggi anche: Se usi troppo lo smartphone rischi la demenza digitale e anche: Videogiochi e applicazioni per smartphone possono causare ritardo mentale

20) Fare attività fisica. Uno studio, pubblicato sulla rivista Stem Cells, conferma che la corsa è in grado di rallentare moltissimo il processo di invecchiamento cerebrale e di stimolare la produzione di nuove cellule staminali, che migliorano le capacità mnemoniche.

21) Dormire in modo adeguato. I risultati di una ricerca condotta da un team di ricercatori della School of Medicine dell’Università della Pennsylvania, che ha condotto uno studio sugli effetti della deprivazione del sonno sui topi, parlano chiaro: dormire troppo poco provoca la morte delle cellule cerebrali.

Leggi anche: Dormire poco ti consuma il cervello ma correre te lo ricostruisce

Non avete nessun segno distintivo di alto quoziente intellettivo? Non vi preoccupate, perché la scienza rimette – come al solito – tutto in discussione! Leggete questo articolo: Il quoziente intellettivo? Un mito da sfatare

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram o su Pinterest, grazie!

Un ingegnere italiano nella classifica dei 20 uomini con il quoziente intellettivo più alto al mondo

Dott. Loiacono Emilio Alessio Medico Chirurgo Chirurgia Estetica Roma Cavitazione Pressoterapia Massaggio Linfodrenante Dietologo Cellulite Calorie Dieta Sessuologia Sex Filler Rughe Botulino INGEGNERE ITALIANO CLASSIFICA QUOZIENTE INTELLETTIVO MONDOEra il 1905 quando Alfred Binet, psicologo francese, mise a punto il primo test d’intelligenza dei tempi moderni. Sviluppata in collaborazione con Theodore Simon, la Scala Binet-Simon misurava le capacità mentali dei bambini all’età di sette anni, nell’intento di riconoscere per tempo i ragazzini con problemi d’apprendimento. Sette anni dopo fu un tedesco, William Stern, ad ideare la definizione di Quoziente d’Intelligenza, Q.I., per indicare il rapporto tra età mentale ed età cronologica.

Continua la lettura su https://www.linkiesta.it/2012/10/un-ingegnere-italiano-tra-i-20-uomini-con-il-qi-piu-alto-al-mondo/

Leggi anche:

Lo staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o seguici su Twitter, su Instagram o su Pinterest, grazie!

I videogiochi ti fanno diventare più intelligente

MEDICINA ONLINE EMILIO ALESSIO LOIACONO MEDICO SMARTPHONE TELEFONO TELEFONINO TABLET CELLULARE TECNOLOGIA PSICOTECNOPATOLOGIA BAMBINI GIOVANI (7)Dopo questa scoperta giocherete ai videogames con più allegria. Secondo uno studio mezz’ora di videogiochi al giorno migliorano l’attività del cervello. Ne parla Buzzfeed che ci propone le evidenze della ricerca pubblicata su Nature dal Max Planck Institute for Human Development.

Tanto più si gioca con i videogiochi tanto più il cervello diventa più forte. Lo studio ha dimostrato che la materia grigia migliora grazie all’attività continua con i videogiochi. Secondo i ricercatori «mezz’ora di gioco con Super Mario 64 tutti i giorni per due mesi permette la crescita della materia grigia in tre aree del cervello collegate con la navigazione spaziale, pianificazione strategica, memoria e performance motoria». Riassumendo, giocare a Super Mario aumenta la capacità cerebrale degli individui. A confermarlo il gruppo di controllo che non ha giocato ai videogiochi e non ha conosciuto una crescita significativa. Il responsabile dello studio, Simone Kühn, ha spiegato che esiste una relazione causale tra attività cerebrale e videogiochi.onsapevolezza di sé ed è in grado di relazionarsi con le terze persone, possibilmente anche manipolandole. Inoltre un cervello più grande migliora la salute e la conoscenza, prevedendo malattie come la schizofrenia o la sindrome da post distrurbo traumatico.

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui miei nuovi post, metti like alla mia pagina Facebook o seguimi su Twitter, grazie!

Videogiochi e applicazioni per smartphone possono causare ritardo mentale

MEDICINA ONLINE EMILIO ALESSIO LOIACONO MEDICO SMARTPHONE TELEFONO TELEFONINO TABLET CELLULARE TECNOLOGIA PSICOTECNOPATOLOGIA BAMBINI GIOVANI (5)Da una recente ricerca svoltasi a Sidney, all’Istituto per la prima infanzia dell’Università di Macquarie e portata avanti dalla dottoressa Kate Highfield, sono emersi dei dati allarmanti per quel che riguarda i bambini e il loro rapporto con i videogiochi. Sembra infatti che ben l’85% dei videogiochi e delle applicazioni per cellulare a cui giocano i bambini siano dannosi sul loro sviluppo neuronale; questi giochi, che spesso chiedono semplicemente dei gesti ripetitivi e sempre più veloci, rallentano alcune funzioni del cervello, e tale rallentamento è destinato a dare ripercussioni serie anche quando il bambino sarà cresciuto; solo che da adulto a questo tipo di danno non si potrà rimediare.

Disturbi psicologici

Lo psichiatra Philip Tam, sempre dell’Università di Sidney, ha avuto modo di lavorare con moltissimi bambini e ragazzi, e dagli studi effettuati risulta che molti di loro, in un’età compresa tra gli 8 e i 14 anni, presentano dei seri disturbi psicologici. Infatti c’è la possibilità di un vero e proprio ritardo mentale del bambino che ha usato troppo questi videogiochi, e non solo; spesso molti di loro possono diventare violenti e manifestare comportamenti aggressivi con la famiglia e con gli altri, proprio grazie a videogiochi violenti; alcuni ragazzi tendono a chiudersi in se stessi e dopo ore e giorni passati davanti allo schermo, non riescono a provare più empatia e interesse per la socialità, con il risultato di avere seri problemi relazionali. Questi studi hanno sottolineato il bisogno di prestare più attenzione a questo problema, che ad oggi risulta essere ancora sottovalutato.

Leggi anche:

Lo Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram o su Pinterest, grazie!