Problem solving: cos’è, caratteristiche, tecniche, fasi ed esempi

MEDICINA ONLINE STUDIO STUDIARE LIBRO LEGGERE LETTURA BIBLIOTECA BIBLIOGRA LIBRERIA QUI INTELLIGENTE ESAMI 30 LODE TEST INGRESSO MEDICINA UNIVERSITA SCUOLA COMPITO VERIFICA INTERROGAZIONE ORALE SCRITTO PICTURE HD WALLPAPERIl problem solving (in italiano “il risolvere un problema”) è un’attività del pensiero che un organismo o un dispositivo di intelligenza artificiale mettono in atto per raggiungere una condizione desiderata a partire da una condizione data. Va precisato che il problem solving è solo una parte del processo di risoluzione di un problema: la procedura infatti comprende i processi seguenti: problem finding, problem shaping e problem solving.

Caratteristiche

Rispetto alla parola italiana “soluzione”, il termine inglese in “-ing” rafforza il significato di un atto in corso di svolgimento, come dire “risolvendo un problema“. Questo termine sta ad indicare la situazione psicologica nella quale si viene a trovare una persona quando, in conformità ad una varietà di dati e di richieste, deve affrontare e cercare di risolvere un problema. Fa inoltre riferimento a quell’insieme di ricerche e di teorizzazioni che sono state dedicate allo studio psicologico dei vissuti individuali, così come alle difficoltà che il soggetto incontra e agli elementi di facilitazione che egli introduce o possono essergli messi a disposizione. In un certo senso possiamo dire che il “problem solving” è un atto d’intelligenza, in quanto non consiste solo nel comprendere una spiegazione fornita da altri, ma comporta una partecipazione attiva e creativa, un qualche elemento di scoperta personale. L’espressione “problem solving” è stata originariamente utilizzata soprattutto in relazione ai problemi logico-matematici. Negli ultimi anni il termine si è esteso comprendendo lo studio delle abilità e dei processi implicati nell’affrontare i problemi di ogni genere. La visione secondo cui la vita dell’individuo si divide in una prima fase di apprendimento e in un secondo periodo di applicazione delle conoscenze acquisite, è da tempo superata. Oggi con l’espressione Life Long Learning ci si riferisce al processo di apprendimento che accompagna le persone lungo tutto l’arco della vita. L’aumento della complessità del contesto sociale, economico e tecnologico fanno sì che l’apprendimento permanente richieda lo sviluppo di competenze tra cui il problem solving, il pensiero critico, la creatività e la gestione costruttiva dei sentimenti. Tali competenze dette “trasversali” permettono di affrontare in modo razionale e costruttivo le più svariate difficoltà e di adattarsi ai vari cambiamenti contestuali. Secondo G.Polya, “Risolvere problemi significa trovare una strada per uscire da una difficoltà, una strada per aggirare un ostacolo, per raggiungere uno scopo che non sia immediatamente raggiungibile. Risolvere problemi è un’impresa specifica dell’intelligenza e l’intelligenza è il dono specifico del genere umano. Si può considerare il risolvere problemi come l’attività più caratteristica del genere umano.” Il problem solving diventa inoltre una competenza strategica nelle organizzazioni, in particolare nella leadership e nell’azione di comando e controllo, dove il criterio di base è la misura dell’efficacia e coerenza nel risolvere i problemi, criterio utilizzato per misurare i cambiamenti nel comportamento del sistema, le sue capacità, le variazioni dell’ambiente operativo che avvicinano l’organizzazione ai suoi “punti di arrivo” (“end-states”), e la creazione di effetti desiderati.

Leggi anche: Che cos’è l’intelligenza umana: definizione, significato e psicologia

Metodologie

Varie sono le tecniche e le modalità di problem solving che possono essere impiegate. Il problem solving prevede delle fasi che aiutano il soggetto ad impostare correttamente il problema e a chiarire alcuni aspetti che lo confondono, impedendogli di trovare delle soluzioni. Risolvere problemi è un lavoro che si affronta quotidianamente. A questo proposito sono stati pensati diversi metodi per aiutare le persone ad affrontare i problemi in modo articolato e soddisfacente. Il primo passo fondamentale per avviarsi verso la soluzione di un problema è il focalizzare l’attenzione sulla definizione e sui punti chiave del problema da risolvere. Una volta eseguito il primo passo si può procedere con le successive fasi di analisi. Se il vero problema non viene correttamente identificato si corre il rischio di lavorare alla soluzione di un falso problema risolvendo solo un falso fastidio che creerà la frustrazione di non essere stati capaci di sistemare la situazione problematica. Capire al volo se si è in una situazione a rischio richiede la sensibilità di:

  • Identificare eventuali errori di definizione: succede spesso di giungere a conclusioni affrettate oppure di credere di aver capito il problema ma in realtà la situazione non è stata affatto chiarita. Questa è una situazione definita “jump to conclusion” ovvero saltare immediatamente alle conclusioni e alle soluzioni ritrovandosi così ad investire tempo e denaro nel fare attività che possono rivelarsi del tutto vane.
  • Gli errori di linguaggio: l’abilità di identificare situazioni potenzialmente pericolose migliorerà di molto se particolarmente sensibili e suscettibili a tutti gli scenari in cui vi è un abuso delle parole errate di analisi della situazione presente. Esistono affermazioni che costituiscono un segnale che ci possono fare capire di essere in una situazione a rischio. Questo succede quando:
    • si fanno delle accuse (si cerca quindi il colpevole invece di una soluzione);
    • si è in presenza di una situazione poco chiara magari dovuta ad una scarsa leadership;
    • si sta provando a fare un’azione che vale l’altra, cioè sembra che l’importante sia fare qualcosa.
  • Fermare le lamentele: l’uomo trova spesso immediato conforto nel criticare ciò che è accaduto nel passato, ma alla lunga questo comportamento ha un effetto negativo in quanto contribuisce ad aumentare il senso di frustrazione ed impotenza di fronte ai problemi.
  • Cambiamento di comportamento: fa riferimento all’attitudine dei leader di porsi come modello di riferimento nei confronti di coloro che non hanno ancora raggiunto lo stesso livello di preparazione.
  • Scomporre il problema: molti tra i metodi di problem solving suggeriscono di suddividere il problema principale in problemi più piccoli per renderlo più gestibile.

Leggi anche: Quoziente d’intelligenza: valori, significato, test ed ereditarietà

APS (Applied Problem Solving)

APS, acronimo dall’inglese “Applied Problem Solving” e poi tradotto in italiano come “Applicare il Problem Solving” è un metodo di Problem Solving pratico, applicato a situazioni reali, in cui la semplicità e l’efficacia del metodo, unite alla forte enfasi sull’esecuzione delle soluzioni, vogliono essere il valore aggiunto rispetto ai metodi simili. La risoluzione dei problemi richiede la capacità di comprendere il contesto e l’ambiente, successivamente richiede che le persone vadano a raccogliere le evidenze in prima persona. Risolvere i problemi è un’attività faticosa in quanto si deve svolgere con la pratica, non solo con la teoria. È una metodologia che incorpora anche i processi cosiddetti di problem finding e problem shaping, mette assieme alcuni concetti già utilizzati da altri metodi e raggruppa in sé le fasi più efficaci e pratiche che permettono di:

  • ricostruire gli accadimenti;
  • definire il problema;
  • capire dove effettuare le analisi;
  • individuare le cause;
  • investigare fino alla causa radice (Root Cause);
  • studiare come applicare le soluzioni;
  • decidere come monitorare le soluzioni;
  • focalizzarsi per sostenere i risultati.

Il metodo è volutamente semplice perché vuole e deve essere applicabile a tutte le tipologie di problemi. Metodi più complessi possono essere più efficaci in singoli settori ma perdono drasticamente di efficacia se applicati in settori differenti.

DMAIC (Define, Measure, Analyze, Improve, Control)

La metodologia chiamata DMAIC (acronimo dall’inglese Define, Measure, Analyze, Improve, Control), fornisce alle organizzazioni un metodo strutturato per affrontare e risolvere i problemi. Originariamente il suo compito era quello di ridurre le variazioni soprattutto nei processi di produzione. In seguito il metodo è stato utilizzato per i compiti più generali come il miglioramento della qualità, il miglioramento dell’efficienza, la riduzione dei costi e di altre attività di gestione delle operazioni al di là della produzione, nel settore dei servizi, della sanità etc. Il DMAIC è un processo costituito da cinque fasi flessibili, ma molto efficaci, per ottenere miglioramenti e mantenerli attraverso tutta una serie di attività, dalla definizione del problema, all’attuazione di una soluzione. Gli obiettivi generali delle varie fasi sono:

  1. DEFINE: in questa fase vengono definiti i processi che presentano delle criticità per l’azienda. Le criticità possono riguardare ambiti relativi al prodotto, al servizio o appartenere ad aree transazionali. La fase di define si concentra sulla ricerca delle criticità più importanti all’interno di una azienda; queste sono le caratteristiche “critiche per la qualità” (CTQ). La sua finalità è quella di istituire un “monitoraggio” sia economico sia basato sulla soddisfazione del cliente per stabilire quale debba essere l’obiettivo dei progetti Sei Sigma da iniziare. Stabilito l’obiettivo, la fase di define serve a chiarire in linea generale quelle che sono le aspettative (e quindi il risultato previsto) e quelle che sono le risorse necessarie (sia in termini di risorse umane che strutturali e temporali) per portare a termine il progetto. In questo senso la fase di define si concentra anche sulla realizzazione di una prima mappa di processo che mostri tutte le fasi e le figure coinvolte.
  2. MEASURE: nella fase di measure viene misurata, cioè valutata tramite delle misurazioni, l’efficacia dei processi. “Valutare” se un processo è efficace, cioè realizza effettivamente gli obiettivi per cui è stato ideato. Un’azienda che non è capace di esprimere sotto forma di misure le prestazioni di un processo, non comprende pienamente quel processo e i risultati ottenibili attraverso esso. La vera importanza del singolo processo si comprende inquadrando ogni operazione all’interno dell’iter lavorativo; processi “deboli” generano problemi di qualità; questi a loro volta influiscono sui tempi di realizzazione del lavoro. Per valutare in modo rigoroso l’efficacia dei processi, è quindi necessario: suddividere i processi nelle singole operazioni che li costituiscono; definire e mappare i processi correlati; scoprire gli anelli deboli dei processi. La fase di measure si concentra infatti sulla realizzazione di un piano di raccolta dati robusto che permetta di valutare quali siano le informazioni necessarie da raccogliere e quali le modalità di raccolta dati. I dati collezionati nella fase di measure sono la base della strategia Sei Sigma e sono indispensabili per proseguire nelle fasi successive della metodologia. Sono i dati infatti che evidenziano i legami tra le informazioni raccolte per definire il problema alla base del progetto e le possibili soluzioni e decisioni che saranno prese per ottimizzare il processo studiato.
  3. ANALYZE: nella fase di analyze vengono analizzati i dati raccolti nella fase di measure al fine di determinare le relazioni tra i fattori variabili del processo per valutare quali siano i fattori sui quali sia possibile agire per spingere il miglioramento del processo. L’analisi dei dati rivela infatti l’influenza delle singole variabili (se è presente o meno e come è possibile quantificarla) sull’output del processo. Si cerca in particolare la correlazione tra cause (parametri del processo) ed effetti (criticità del processo). L’analisi dettagliata del processo permette anche di mettere in evidenza i limiti tecnologici intrinseci nel processo allo studio, al fine di individuare la tipologia di azioni di miglioramento necessarie.
  4. IMPROVE: Nella fase di improve viene ricercata una soluzione migliorativa ai problemi riscontrati in fase di analisi, in modo da ottimizzare il processo studiato. Nel momento infatti in cui si ipotizza che migliorare un prodotto significa migliorare il processo alla base della sua realizzazione, sorge un interrogativo: ” Come è possibile identificare, definire, ottimizzare e controllare i fattori chiave del processo?”. Al fine di rispondere a questo quesito, l’attenzione deve essere rivolta alle caratteristiche CTQ, identificate già nella fase di define e verificate mediante l’analisi dei dati. Migliorare le caratteristiche chiave del processo significa innanzitutto individuare le variabili che hanno un forte impatto sulle prestazioni del processo stesso ed orientarle verso un aumento della loro efficacia. A tale fine vengono stabiliti dei limiti in cui devono essere contenute le variabili.
  5. CONTROL: Una volta che il processo è stato ottimizzato, è necessario implementare un sistema di controllo che permetta di mantenere il livello di qualità raggiunto anche nel tempo. I processi lasciati “a se stessi” tendono infatti a degradare le proprie prestazioni a causa dell’intervento di cause speciali, tali da influenzare in modo anche considerevole le caratteristiche del processo. Queste derive possono essere evitate utilizzando strumenti di monitoraggio che, in modo preventivo, mettano in mostra le cause speciali in atto prima che queste portino ad un degrado del processo. Inoltre, attraverso la fase di control ci si assicura che i problemi che si sono verificati in passato non si ripresentino.

Leggi anche: Com’è fatto il cervello, a che serve e come funziona la memoria?

FARE

La metodologia chiamata FARE consta di quattro fasi, che creano l’acronimo: Focalizzare, Analizzare, Risolvere ed Eseguire.

Focalizzare (definire i dettagli del problema):

  • selezionare il problema;
  • verificare e definire il problema;
  • fare una descrizione scritta del problema.

Analizzare (definire gli elementi critici e rilevanti):

  • decidere cosa è necessario sapere;
  • raccogliere i dati di riferimento;
  • determinare i fattori rilevanti, i valori di riferimento ed i fattori critici.

Risolvere (elencare soluzioni possibili):

  • generare soluzioni alternative;
  • scegliere la soluzione del problema;
  • selezionare una soluzione.

Eseguire (realizzare il piano di attuazione e valutare i risultati):

  • eseguire la soluzione scelta;
  • completare il piano di attuazione;
  • eseguire la valutazione finale.

Leggi anche: Effetto alone e bias cognitivo in psicologia, economia, marketing

FMECA

Lo FMECA (acronimo da Failure modes, Effects, Criticality Analysis) è l’evoluzione naturale della metodologia FMEA introdotta alla NASA a partire dal 1950, nell’ambito del programma lunare Apollo. È una metodologia di studio affidabilistico che fu pensata originariamente a supporto della progettazione di prodotti/sistemi complessi. Negli anni più recenti ha però trovato ampio spazio di applicazione in altri ambiti di utilizzo, quali l’analisi di processo e la manutenzione industriale. Per quanto riguarda l’applicazione della metodologia FMECA nella manutenzione industriale, essa si è affermata come lo strumento d’elezione per:

  1. l’analisi delle modalità di guasto di un’entità complessa;
  2. l’identificazione dei suoi elementi critici dal punto di vista affidabilistico;
  3. la definizione ragionata del piano di manutenzione a partire dai componenti critici.

La FMECA è una metodologia che si è consolidata sia per effetto della presenza di numerosi standard internazionali, che per la sua adozione, secondo diverse interpretazioni, nella pratica industriale. Sostanzialmente la metodologia FMECA è costituita da una procedura per l’analisi di un’entità complessa (macchina, impianto, sistema di qualsivoglia natura) fondata su due principi fondamentali. Il primo è costituito dalla scomposizione gerarchica dell’entità sotto esame in sottogruppi a complessità decrescente, fino ad arrivare al livello di dettaglio voluto (eventualmente fino ai componenti elementari). Il secondo principio consiste nell’esecuzione dell’analisi di affidabilità ad ogni livello e cioè nella determinazione di modo, causa, meccanismo ed effetto del guasto a quel livello, valutando in modo opportuno le criticità dell’entità in esame. Alla fine di questo processo di analisi si ottiene un quadro estremamente articolato e documentato del modo e della probabilità con cui si possono generare i guasti nell’entità e, su tale base, si possono definire le più opportune azioni di progettazione, pianificazione e miglioramento della manutenzione o del progetto dell’entità.

Leggi anche: Gli integratori per allenare il tuo cervello e sviluppare una memoria prodigiosa

PDCA

La metodologia del PDCA, nota anche come ciclo di Deming, è la rappresentazione visiva di un circolo definito “virtuoso” e di miglioramento continuo per prodotti, processi e problemi specifici. PDCA è l’acronimo dell’inglese Plan, Do, Check, Act (“pianifica, prova, verifica, agisci”).

  1. Plan (pianifica): è necessario iniziare con la progettazione degli obiettivi e dei compiti, analizzare la situazione in cui ci si trova e ricercare le cause che hanno generato le criticità. In seguito a questo è necessario definire le possibili azioni correttive e risolutive della situazione.
  2. Do (prova): in seguito alla progettazione si procede con la realizzazione concreta, pertanto le azioni pensate vengono tradotte in pratica. Nel concreto si comincia ad attivare degli interventi anche su piccola scala in modo da risolvere la situazione problematica.
  3. Check (verifica): si analizzano le conseguenze delle azioni intraprese si verifica se tali risultati combaciano con gli obiettivi che erano stati definiti nella fase iniziale. Se tutto va bene si passa all’ultima fase altrimenti si apportano ulteriori modifiche correttive, fino a quando funziona tutto bene.
  4. Act (agisci): se tutto funziona come desiderato, si rende stabile il cambiamento e lo si inserisce in produzione. In questo caso non è più una prova come nella fase “Do” ma si è pienamente convinti di quello che si sta mettendo in atto al fine di creare cambiamento.

La ruota di Deming si applica a qualsiasi campo e a qualsiasi livello. Alla fine del ciclo, quando il cambiamento è entrato nella normalità, si è pronti per avviare un nuovo ciclo, realizzando così un processo di miglioramento continuo.

Leggi anche: Più il nostro quoziente intellettivo è alto e meno crediamo in Dio: gli atei sono più intelligenti dei credenti

Risolvi ed analizza

Questa metodologia viene utilizzata in ambito informatico per circoscrivere i problemi e costruire delle metodologie specifiche per gli utenti che si basano sull’esperienza comune e sulla condivisione delle conoscenze. Per risolvere un problema in modo definitivo ed efficace non basta più conoscere a fondo uno specifico aspetto dell’impresa. Problemi complessi e globali richiedono nuove competenze di problem solving: il Systems Engineering, applicato da migliaia di imprese di tutte le dimensioni e di tutti i settori, è un metodo che si fonda sull’applicazione pratica del pensiero sistemico (system thinking), che permette di descrivere e analizzare un problema in un’ottica globale.

I principi fondamentali sono 3:

  • Cercare la responsabilità di una situazione problematica rallenta la soluzione dello stesso senza portare benefici evidenti;
  • Se si trova una soluzione bisogna rendere disponibile una descrizione dettagliata del problema e del metodo per risolverlo;
  • Se non si trova una soluzione è comunque importante dettagliare bene il problema e descrivere accuratamente i passi da seguire affinché il problema non si ripresenti.

Le operazioni da seguire sono le seguenti:

  • relazionare gli effetti del problema;
  • relazionare la situazione hardware e software;
  • identificare tutte le modifiche effettuate prima dell’esistenza del problema;
  • ricercare ed analizzare le cause;
  • porre rimedio se possibile;
  • verificare che il rimedio abbia risolto effettivamente il problema;
  • relazionare la soluzione oppure dichiarare l’impossibilità di trovare una soluzione adeguata.

Strumenti

Quelli che seguono sono strumenti diffusi e comunemente utilizzati dai metodi di problem solving per svolgere con successo alcune fasi particolari del metodo di lavoro. Gli strumenti di gestione per il problem solving sono definiti come un insieme di procedimenti mentali, ossia tecniche di pensiero atte a far emergere dei risultati utili ai fini della soluzione del problema che attingono dal contributo di molteplici discipline come l’economia, la psicologia, la matematica e la sociologia.

5W2H

La 5W2H è un’analisi semplificata delle cause tecniche. Le 5W sono rappresentante dalle cinque domande:

  • Who (“Chi?”);
  • What (“Cosa?”);
  • Where (“Dove?”);
  • When (“Quando?”);
  • Why (“Perché?”).

Le 2H rappresentano le due domande:

  • How (“In che modo?”);
  • How many (“Quanti?”).

Rispondendo a queste sette domande totali, si possono individuare alcune delle principali cause del problema. Questa tecnica può essere utilizzata per aiutare a definire un reclamo del cliente o la ritardata consegna di un fornitore o in ogni altra situazione che si può incontrare nella filiera di produzione. Con una definizione specifica del problema si può iniziare un lungo cammino verso lo sviluppo di una vera e propria soluzione.

Leggi anche: I 21 segni che indicano che sei intelligente

Analisi di Ishikawa

Viene anche chiamato diagramma causa-effetto, diagramma a lisca di pesce o diagramma ad albero. Il diagramma di Ishikawa prende il nome da Kaoru Ishikawa, che lo inventò e mise a punto nel 1969 ed è uno strumento che permette e facilita l’analisi di un certo fenomeno o problema da parte di un gruppo di persone grazie alla sua stessa struttura. Esso è inteso nei termini di una rappresentazione logica e sistematica delle relazioni esistenti tra un problema e le possibili cause che l’hanno generato.

Per procedere all’applicazione di questo strumento bisognerà innanzitutto che il gruppo che analizzerà il fenomeno sia un team costituito da persone che possiedono esperienza in merito al tema alla base del problema ed in secondo luogo bisognerà avvalersi dello strumento di brainstorming mediante cui i componenti esprimeranno liberamente le personali posizioni in merito alle possibili cause del problema. A questo punto si dà il via alla costruzione del diagramma che riporta alla destra, (in un’ideale testa della lisca di pesce) il problema così come lo si è denominato e a partire da questa “testa” si articolano via via le cause emerse che si organizzano in diversi rami secondo un ordine gerarchico: dalle cause che hanno generato il problema si articolano rami secondari che presentano le cause che a loro volta hanno incrementato o generato le cause principali del problema individuate.

Il momento della costruzione ed applicazione dello strumento si compone delle seguenti fasi:

  1. si individua innanzitutto l’effetto o problema da analizzare;
  2. si rappresenta il fenomeno mediante la costruzione del diagramma causa-effetto;
  3. si analizzano le correlazioni di causa-effetto emerse dal diagramma;
  4. si focalizza l’attenzione sulle possibili cause, dunque si procede ad un’indagine sulle probabili cause prese una per volta;
  5. si individua l’azione correttiva ritenuta più opportuna;
  6. si verifica l’efficacia effettiva dell’azione di correzione individuata.

Una volta strutturato il diagramma vanno analizzate dal gruppo le cause individuate. Per prima cosa si devono individuare le cause più probabili, successivamente si rilevano le cause più importanti, ed infine si verifica se le cause individuate come più importanti siano o meno quelle che influenzano realmente il problema, se siano cioè le vere cause. La tappa che consiste nella verifica delle cause individuate si compone delle seguenti azioni:

  1. si prende in esame la prima causa e si progettano le possibili verifiche utili per validare o smentire l’ipotesi fatta;
  2. nel caso in cui il problema permanga ugualmente l’ipotesi formulata non è corretta;
  3. si procede con le altre cause nella medesima maniera, verificando dunque se l’ipotesi sulle successive cause sia corretta o gli effetti permangano;
  4. nel caso in cui non si individui ancora la soluzione al problema, nonostante la corretta applicazione dei punti precedenti, si procede con il riesaminare nuovamente tutta l’analisi;
  5. infine è necessario rimuovere ogni causa individuata anche quando la causa principale è stata individuata.

Suggerimenti per l’applicazione di questo strumento: nella costruzione del diagramma si usufruisca della collaborazione di molte persone, si incoraggino tutti gli interventi e tutti i commenti nella fase di brainstorming senza considerarne alcuno futile o bizzarro, tenendo in considerazione che più cause emergono, meglio è. Delle indicazioni finali importanti riguardano poi la considerazione di errori di campionamento, errori di ispezione ed errori dovuti a disattenzione, che sono importanti allo scopo di evitare errori nell’analisi dell’effetto o problema e il procedere con calma, senza nessuna urgenza nel trovare delle soluzioni concrete.

Leggi anche: Analfabetismo funzionale: significato e differenze con l’analfabetismo “classico”

Brainstorming

Il brainstorm o brainstorming (“tempesta di cervello”) è una tecnica impiegata per facilitare la soluzione di un problema e stimolare il pensiero creativo; tende a liberare l’immaginazione delle persone, il cui cervello, come suggerisce il nome, è effettivamente messo in continua agitazione. Consiste in una riunione, che può coinvolgere da pochi allievi a un gruppo anche di cinquanta persone, in cui la ricerca della soluzione di un dato problema avviene mediante la libera espressione delle idee e delle proposte che il tema stesso avrà stimolato in ognuna delle persone coinvolte.

Il brainstorming, diffuso per la prima volta da Osborn nel 1957, si fonda sul principio essenziale del debridage (“sbrigliamento”), per cui nessuna idea, nessuna proposta, può essere respinta o rifiutata. Ciascuno ha diritto di dire ciò che pensa utilizzando la forma che preferisce. Tende dunque ad abolire i comportamenti e gli atteggiamenti critici verso le idee espresse, in quanto, come afferma Rogers, costituiscono la barriera più forte per la comunicazione. Infatti, se il membro di un gruppo teme di essere giudicato, tenderà a non esprimersi liberamente e le sue potenzialità ideative verranno inibite. Il senso di appartenenza al gruppo contribuisce ad aumentare il livello di sicurezza individuale: ogni membro si sente più protetto e difeso dall’atmosfera critica e giudicante del rapporto interumano. Ne consegue anche la diminuzione del senso di colpa che ogni decisione e ogni comunicazione comportano (date le modifiche che l’individuo provoca in sé e negli altri quando esprime un proprio messaggio). Viene dunque rinforzata la personalità del soggetto, si incrementano la sua creatività e la possibilità di comunicazione della creatività stessa. Il brainstorming trova ulteriore fondamento nella teoria psicologica dell’associazione di idee. Questa teoria afferma che ogni partecipante si lasci andare alle proprie associazioni libere, senza censura, accogliendo le produzioni altrettanto spontanee degli altri membri del gruppo come un bene comune, su cui può continuare ad associare: molto spesso, infatti, un’idea ne genera un’altra, questa ne ispira un’altra ancora e così via, in una reazione a catena. Si passano così in rassegna tutte le possibili interpretazioni di un fenomeno, mettendo su un piano di pari valore le soluzioni più sagge e le spiegazioni più inconsuete.

Alla fine il risultato che si ottiene è ricco, inatteso e lascia intravedere prospettive promettenti. Il brainstorming costituisce un notevole strumento di allenamento, di formazione e di insegnamento, grazie al quale i partecipanti acquisiscono progressivamente:

  • fiducia nella propria personale capacità di immaginazione, stimolata dalle interazioni e protetta dalla critica altrui;
  • spontaneità, che fiorisce nell’improvvisazione e nell’illuminazione provocata da un’idea appena formulata;
  • fiducia negli altri, le cui proposte possono ispirare e aiutare il precisarsi delle proprie: anche le idee apparentemente assurde e banali si dimostrano un anello indispensabile della catena di associazioni e per tale motivo è essenziale che tutti esprimano le loro idee.

La tecnica aiuta anche a sviluppare un atteggiamento elastico, interrogativo, di apertura permanente nei confronti di un problema.

Leggi anche: Fallacie logiche nella retorica ed in politica: caratteristiche, tipi esempi

Regie di cambiamento

Il metodo delle regie di cambiamento si colloca tra le attività che inquadrano il problem solving tra le competenze essenziali da fornire nella formazione aziendale, facendole divenire competenze allenabili, tra cui l’autore del modello individua:

  1. Problem Sensing: capacità di percepire che in una situazione esistono problemi, riconoscere una situazione come problematica; capacità di intuire problemi utilizzando segnali deboli.
  2. Problem Finding: ricerca attiva di possibili problemi, rilevare, scoprire problemi, andare a caccia di problemi; non limitarsi a lavorare su problemi “ricevuti”, ma andare a stanarli attivamente.
  3. Problem Mapping: costruire mappature di problemi (es.: posizionarli su un diagramma per grado di frequenza e grado di pericolosità); differenziarli, definire priorità, valutare i “cluster” di problemi (aggregazioni).
  4. Problem Shaping: dare forma al problema, individuarne i tratti principali; capire i confini del problema, cosa vi rientra e cosa non vi rientra.
  5. Problem Setting: la capacità di fissare il problema in termini di variabili e loro rapporti, di dare una definizione chiara del problema, e suoi confini; capacità di darne definizioni trasmissibili, comunicabili, chiare.
  6. Problem Talking: la capacità di parlare del problema saper spiegare ad altri la propria visione lucidamente, fare una buona comunicazione nel team e verso l’esterno; utilizzare stili comunicativi efficaci.
  7. Problem Analysis: svolgere analisi scientifica (qualitativa e quantitativa) in grado di aumentare la nostra comprensione del problema, delle sue strutture, dei rapporti di causa ed effetto.
  8. Problem Refraiming: osservare il problema attraverso un frame diverso (es.: psicologico vs. tecnologico); riformulare il problema da altre angolature, percepirlo da punti di vista completamente diversi, cambiare il paradigma di riferimento.

Leggi anche: Sindrome dell’idiota sapiente: cause, caratteristiche e sintomi

Fault Tree Analysis

L’albero dei guasti, noto generalmente come Fault Tree Analysis, è una metodologia di analisi del rischio che tramite visualizzazione grafica consente di individuare le cause iniziatrici di incidenti che sono frutto di una complessa combinazione di eventi. Il risultato dell’analisi è un diagramma logico, mutuato dalla teoria delle decisioni che, in definitiva, risponde a questa domanda: “Che cosa deve succedere perché si abbia un determinato guasto?”. È una tecnica induttiva che parte dagli eventi finali, detti Eventi Top o Eventi Critici, (scoppio, incendio, rilascio di materiale tossico, contaminazione al di fuori dei limiti, etc.) e risale ai guasti od agli errori iniziali (Fault). Un albero dei guasti è un diagramma costruito con l’utilizzo di porte logiche and/or che illustra le relazioni tra le cause iniziatrici e l’evento finale indesiderato mostrando al contempo il contributo di ogni fattore.

Problem solving in psicologia

Lo studio della soluzione di problemi è un campo di ricerca originariamente creato dalla psicologia del pensiero, una branca della psicologia sperimentale che si occupa dello studio fenomenologico delle diverse modalità ideative (immaginazione, ragionamento), al fine di isolare i fattori psicologici che le determinano. In senso stretto la psicologia del pensiero si è però rivolta allo studio di problematiche specifiche quali la formazione dei concetti, la genesi e lo sviluppo del pensiero logico e la risoluzione di problemi. Secondo il Kanizsa “Un problema sorge quando un essere vivente, motivato a raggiungere una meta, non può farlo in forma automatica o meccanica, cioè mediante un’attività istintiva o attraverso un comportamento appreso”.

Per poter sostenere l’esistenza di un problema si devono verificare due condizioni: la presenza di una motivazione che spinge a perseguire un fine e l’indisponibilità della strategia necessaria per raggiungerlo. La motivazione, vale a dire la spinta ad agire, può consistere in un bisogno fisiologico o in bisogni propri del soggetto (come la curiosità); di conseguenza il problema susciterà degli interrogativi, delle domande configurandosi come una “situazione problematica”. Afferma ancora il Kanizsa che “Si è sempre assunta l’esistenza del problema come un dato, come un fatto esistente per sé e non richiedente ulteriore comprensione.

Ma questa assunzione del problema come dato dal quale partire è arbitraria: il problema non è un dato, un fatto naturale, ma è un prodotto psicologico. Si converrà senza difficoltà che esiste un problema solo là e quando vi è una mente che vive una certa situazione come problema. Diciamo di più, e più esattamente: vi è problema solo quando la mente crea o determina il problema: vi è problema solo nella dimensione psicologica, non in quella naturale, od oggettiva”.

Leggi anche: Effetto von Restorff: cos’è e come usarlo a tuo vantaggio

Psicologia della Gestalt

Lo studio su come si svolgono i processi di pensiero di fronte ad una situazione problematica, è stato profondamente influenzato dalle concezioni teoriche e dalle analisi sperimentali degli psicologi di orientamento gestaltista, in particolare di Wertheimer, Köhler, Koffka e Duncker. Il termine “problem solving” si incontra di rado negli scritti degli psicologi gestaltisti che preferiscono parlare di pensiero produttivo. Questa preferenza mette in risalto la convinzione che l’attività non si riduca ad una mera riproduzione del passato, al riemergere di idee, di immagini, di comportamenti che sono già esistiti, ma che, accanto a quell’attività riproduttiva, ci siano anche processi che producono veramente il nuovo, che creano ciò che non è ancora stato, che fanno scaturire l’idea mai sorta prima, almeno nella mente di quel determinato organismo pensante.

Le prime ricerche condotte in riferimento a quest’indirizzo furono quelle di Köhler, il quale studiò, tra il 1914 e il 1917, il comportamento di animali (e in particolare di scimpanzé) posti in situazioni problematiche molto semplici (ad esempio uno scimpanzé doveva trovare il modo di impossessarsi di una banana appesa al soffitto di una gabbia o collocata all’esterno di questa ad una certa distanza dalle sbarre, avendo a disposizione alcuni oggetti che avrebbero potuto utilizzare come strumenti: un bastone, una cassa, una scala portatile, ecc.). Köhler ha così potuto stabilire che questi animali sono capaci di ristrutturazioni improvvise dell’ambiente, che costituiscono una soluzione del problema (ad es. portando la cassa, sino a poco prima usata solo come recipiente o sedile, sotto la banana e utilizzandola come mezzo per alzare il livello del pavimento). Egli osservò che dal comportamento concreto dell’animale e dalla sua ristrutturazione oggettiva di tale ambiente era possibile risalire ai processi di ristrutturazione che potevano avere avuto luogo nella sua rappresentazione cognitiva dell’ambiente.

Köhler suppose che il pensiero ed il problem solving non erano la semplice somma di stimolo-risposta, ma che doveva in qualche modo avvenire una percezione globale del problema come totalità funzionale. Il problema, cioè, diventava comprensibile e risolvibile proprio perché i rapporti tra gli elementi in gioco improvvisamente si mostravano agli occhi dell’individuo in tutta la loro evidente chiarezza. Questo fenomeno, vitale per l’evoluzione del processo di pensiero, fu indicato dai gestaltisti con il termine di Einsicht o, in inglese, insight che letteralmente significa “vedere dentro”, cioè intuire. Fu però il lavoro di M. Wertheimer a chiarire il significato di “struttura” e di “insight” nell’ambito più specifico dell’insegnamento. Il pensiero che comprende una struttura venne da lui ribattezzato “pensiero produttivo”, cioè quel tipo di pensiero che, partendo da un problema, produce una struttura nuova avente carattere di soluzione. Il lavoro di Wertheimer ha per oggetto il pensiero umano e si svolge attraverso un’analisi minuziosa ed affascinante del modo in cui concretamente una persona affronta un problema, si affatica intorno ad esso ed infine lo risolve.

Secondo Wertheimer è necessario osservare la situazione liberamente, a mente aperta, con una visione complessiva, cercando di capire fino in fondo, di rendersi conto, di mettere in evidenza la relazione interna che esiste tra la forma e il compito assegnato giungendo, nei casi migliori, alle radici della situazione, illuminando e rendendo trasparenti i caratteri di struttura essenziali. Dagli studi di Wertheimer prendono spunto quelli del suo allievo K. Duncker. Egli ha studiato a fondo le situazioni in cui l’insight non ha luogo d’un tratto, ma solo al termine di un lungo processo di ricerca nel corso del quale la prima fase è costituita da una soluzione del problema di partenza che però si rivela subito come troppo generica, permettendo solo di riformulare tale problema in termini più definiti, dando così avvio ad una seconda fase e poi ad altre, ciascuna delle quali rappresenta una soluzione rispetto al problema immediatamente precedente ma apre a sua volta un problema più specifico. Egli si è anche occupato delle strategie con cui può essere affrontato il problema distinguendo fra le “analisi dall’alto” (quelle cioè che prendono come punto di partenza l’obiettivo, e le richieste che esso pone), e le “analisi dal basso” (quelle cioè che prendono avvio da una considerazione del materiale a disposizione, e delle possibilità che esso offre, in vista di un certo obiettivo). Un punto di grande interesse sia psicologico che pedagogico è quello delle difficoltà che il pensiero può incontrare nella ricerca di una soluzione.

Duncker ha messo in evidenza una difficoltà, di carattere generale, consistente nel fenomeno della fissità funzionale, ovvero nella tendenza ad utilizzare certi oggetti solo per quelle che sono le loro funzioni abituali (per es. un paio di forbici per tagliare) senza giungere a vedere che in certe situazioni essi potrebbero essere utilizzati per funzioni diverse e insolite (ad es. le forbici come compasso). Un’altra difficoltà, che si presenta quando un problema è formulato verbalmente, consiste nelle cosiddette implicazioni parassite dei termini verbali ovvero in interpretazioni riduttive del significato di certe parole le quali limitano indebitamente le direzioni lungo le quali viene cercata una soluzione. Fra le strategie che hanno un valore euristico, possono cioè rendere più facile la scoperta di una soluzione, un ruolo notevole può avere quella della semplificazione, consistente nel cambiare i dati di un problema sostituendoli con altri assai più semplici, senza tuttavia modificare la struttura del problema stesso, che è però in tal modo assai più evidente, rendendo più agevole la ristrutturazione. Una notevole utilità possono avere le rassegne di situazioni analoghe già vissute, che, come osserva Duncker, possono suggerire, “per assonanza”, delle proposte di soluzione e le esperienze di brainstorming, compiute sia in gruppo che individualmente, sulla base del principio che una certa idea può favorire l’emergere di altre (per contrasto, per completamento, per differenziazione).

Se vuoi potenziare le tue capacità di problem solving, prenota il tuo colloquio riservato e ti aiuterò a migliorare le tue abilità e ad esprimere al meglio tutte le tue potenzialità.

MEDICINA ONLINE Dott Emilio Alessio Loiacono Medico Chirurgo Roma PRENOTA UNA VISITA CONTATTI Riabilitazione Nutrizionista Infrarossi Accompagno Commissioni Cavitazione Radiofrequenza Ecografia Pulsata Macchie Capillari Ano Pene

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su Mastodon, su YouTube, su LinkedIn, su Tumblr e su Pinterest, grazie!

Differenza tra neocorteccia omotipica ed eterotipica

MEDICINA ONLINE CERVELLO BRAIN TELENCEFALO MEMORIA EMOZIONI CARATTERE ORMONI EPILESSIA STRESS RABBIA PAURA FOBIA SONNAMBULO ATTACCHI PANICO ANSIA VERTIGINE LIPOTIMIA IPOCONDRIA PSICOLOGIA DEPRESSIONE TRISTE STANCHEZZA ROMBERGLa neocorteccia, detta anche isocorteccia o neopallio o neocortex, rappresenta quella porzione di corteccia cerebrale con sviluppo filogenetico più recente. Nell’uomo essa rappresenta circa il 90% della superficie cerebrale. Composto da neuroni in sinapsi, viene schematicamente diviso in sei strati successivi, dal più superficiale al più interno:

  1. strato molecolare o plessiforme;
  2. strato granulare esterno;
  3. strato piramidale esterno;
  4. strato granulare interno;
  5. strato piramidale interno o strato ganglionare;
  6. strato delle cellule fusiformi o strato multiforme.

In base a questo schema architettonico, si può ulteriormente dividere la neocorteccia in corteccia omotipica e corteccia eterotipica: la prima presenta ben sviluppati i sei strati ed è considerata la sede anatomica di aree associative e aree sensoriali e motorie secondarie, mentre la seconda può avere il IV strato quasi assente (corteccia agranulare, si ritrova soprattutto nelle aree motorie primarie) o sovrasviluppato (corteccia granulare, si ritrova nelle aree sensoriali primarie).

La neocorteccia è considerata la sede presunta delle funzioni di apprendimento, linguaggio e memoria, ovvero delle peculiarità rappresentate dallo sviluppo genetico avvenuto nel corso dell’evoluzione animale.

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su YouTube, su LinkedIn, su Reddit, su Tumblr e su Pinterest, grazie!

Attacchi di panico: cosa sono, come riconoscerli e curarli

MEDICINA ONLINE CERVELLO TELENCEFALO MEMORIA EMOZIONI CARATTERE ORMONI EPILESSIA STRESS RABBIA IRA PAURA FOBIA SONNAMBULO ATTACCHI PANICO ANSIA VERTIGINE LIPOTIMIA IPOCONDRIA PSICOLOGIA PSICOSOMATICA PSICHIATRIA OSSESSIVOGli attacchi di panico o disturbo da panico, classificati ed inseriti come “panic attack/s (PA/s)” o “panic disorder (PD)” nel DSM (Manuale diagnostico e statistico dei disturbi mentali), sono una classe di disturbi d’ansia, a loro volta i più comuni disturbi psichiatrici, che costituiscono un fenomeno sintomatologico complesso e piuttosto diffuso (si calcola che 10 milioni di italiani abbiano subito uno o più attacchi di panico). Il disturbo di solito esordisce nella tarda adolescenza o nella prima età adulta ed ha un’incidenza da due a tre volte maggiore nelle donne rispetto agli uomini. Tuttavia, spesso tale disturbo non viene riconosciuto e di conseguenza non viene mai curato. La maggior parte delle persone guarisce, mentre una rilevante minoranza sviluppa invece un disturbo da recidiva di attacchi di panico.

Sintomi

L’attacco di panico comporta l’insorgenza improvvisa dei sintomi sotto elencati:

  • tremori fini o grandi alle braccia e/o alle gambe;
  • oppressione o fastidio al petto;
  • sudorazione;
  • sensazione di soffocamento;
  • respiro corto o sensazione di asfissia o iperventilazione;
  • sensazioni di sbandamento, instabilità e svenimento;
  • palpitazioni o tachicardia sempre più forte;
  • paura di morire;
  • sensazioni di torpore o di formicolio;
  • paura di impazzire o di perdere il controllo;
  • nausea o disturbi addominali;
  • sensazioni di irrealtà, di stranezza, di distacco dall’ambiente e da sé stessi (derealizzazione e depersonalizzazione);
  • vampate o brividi;
  • forte aumento della pressione sanguigna (ipertensione) o, al contrario, rapido crollo (ipotensione);
  • paura di stare sempre peggio e di non riuscire a riprendersi;
  • sensazione di formicolio agli arti e alle mani (parestesia).

I sintomi devono raggiungere il culmine in 10 minuti e di solito scompaiono nell’arco di alcuni minuti, lasciando scarsi elementi all’osservazione del medico, tranne la paura del soggetto di avere un altro terrificante attacco di panico. Sebbene spiacevoli (a volte in grado estremo), gli attacchi di panico non sono pericolosi. Gli attacchi di panico e il disturbo da attacchi di panico possono essere talmente gravi e dirompenti da provocare depressione. In altri casi, questi disturbi d’ansia e la depressione possono coesistere (comorbilità), oppure la depressione può insorgere per prima e i segni e sintomi dei disturbi d’ansia possono manifestarsi successivamente. Stabilire se questi attacchi siano talmente gravi da configurarsi come disturbo è una decisione che dipende da numerose variabili e i medici divergono nel porre la diagnosi. Se causano molta sofferenza, interferiscono con il funzionamento e non cessano spontaneamente entro pochi giorni, è presente un disturbo d’ansia che merita una terapia.

Leggi anche:

Cause

Le cause dei disturbi d’ansia come gli attacchi di panico e il disturbo da attacchi di panico non sono completamente note, ma sono implicati fattori fisiologici e psicologici. Dal punto di vista fisiologico, tutti i pensieri e i sentimentipossono essere concepiti come risultanti da processi elettrochimici cerebrali; tuttavia ciò dice poco sulle complesse interazioni tra i più di 200 neurotrasmettitori e neuromodulatori del cervello, nonché sull’ansia e sullo stato di allarme normale e patologico. Dal punto di vista psicologico, gli attacchi di panico e il disturbo da attacchi di panico sono considerati una risposta ad agenti stressanti ambientali, come l’interruzione di una relazione significativa o l’esposizione a un disastro potenzialmente letale. Il sistema d’ansia di una persona di solito compie passaggi adeguati e impercettibili dal sonno, attraverso lo stato di allarme, sino all’ansia e alla paura. I disturbi d’ansia si manifestano quando il sistema d’ansia funziona in modo inadeguato oppure, a volte, quando è sopraffatto dagli eventi. I disturbi d’ansia possono essere dovuti a un disturbo fisico oppure all’uso di una sostanza legale o illecita. Per esempio, l’ipertiroidismo oppure l’uso di corticosteroidi o cannabinoidi possono produrre segni e sintomi identici a quelli di alcuni disturbi d’ansia primari.

Diagnosi

La diagnosi di uno specifico disturbo d’ansia si basa in larga parte sui suoi segni e sintomi caratteristici. Un’anamnesi familiare di disturbi d’ansia (eccetto il disturbo post-traumatico da stress) è d’aiuto, poiché molti pazienti sembrano ereditare una predisposizione agli stessi disturbi d’ansia da cui sono affetti i propri familiari, così come una vulnerabilità generale ad altri disturbi d’ansia. I disturbi d’ansia vanno distinti dall’ansia vera e propria che si manifesta in molti altri disturbi psichiatrici, poiché essi rispondono a trattamenti specifici differenti.

Terapia

Il disturbo deriva da una disfunzione che è al tempo stesso biologica e psicologica; la terapia farmacologica e quella comportamentale di solito aiutano a controllare i sintomi. Oltre alle informazioni circa il disturbo e il relativo trattamento, il medico può fornire una realistica speranza di miglioramento e un sostegno basato su un rapporto di fiducia con il paziente. La psicoterapia di sostegno è parte integrante del trattamento di tutti i disturbi d’ansia. La terapia individuale, di gruppo e familiare può aiutare a risolvere i problemi associati a un disturbo di lunga data. I farmaci e gli antidepressivi possono prevenire o ridurre di molto l’ansia anticipatoria, l’evitamento fobico e la frequenza e intensità degli attacchi di panico. Numerose classi di antidepressivi (i triciclici, gli inibitori delle monoaminossidasi e gli inibitori selettivi della ricaptazione della serotonina SSRI) sono efficaci. Gli antidepressivi più recenti, come la mirtazapina, il nefazodone e la venlafaxina, fanno ben sperare per il trattamento del disturbo da attacchi di panico. Le benzodiazepine hanno un effetto più rapido degli antidepressivi, ma hanno maggiore probabilità di indurre dipendenza fisica ed effetti collaterali, come sonnolenza, atassia e problemi di memoria. Il trattamento farmacologico deve essere a lungo termine, perché quando i farmaci vengono sospesi, spesso gli attacchi di panico ricominciano. La terapia di esposizione, un tipo di terapia comportamentale in cui il paziente viene messo a confronto con ciò di cui ha paura, spesso aiuta a ridurre tale paura. Per esempio, ai pazienti che hanno paura di svenire viene chiesto di roteare su una sedia o di iperventilare fino a sentirsi svenire, per apprendere così che non perderanno i sensi quando avranno questo sintomo nel corso di un attacco di panico. Una respirazione lenta e superficiale (controllo respiratorio) aiuta a padroneggiare l’iperventilazione. Anche la psicoterapia cognitiva, in cui vengono trattati i pensieri distorti e le convinzioni erronee, può essere efficace.

Soffri di attacchi di panico? Prenota una visita con il nostro esperto che – in poche sedute – vi aiuterà a sentirvi meglio e diminuire al massimo gli attacchi.

MEDICINA ONLINE Dott Emilio Alessio Loiacono Medico Chirurgo Roma PRENOTA UNA VISITA CONTATTI Riabilitazione Nutrizionista Infrarossi Accompagno Commissioni Cavitazione Radiofrequenza Ecografia Pulsata Macchie Capillari Ano Pene

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su YouTube, su LinkedIn, su Tumblr e su Pinterest, grazie!

Paralisi periferica del nervo faciale: cause e sintomi

MEDICINA ONLINE CERVELLO BRAIN TELENCEFALO MEMORIA EMOZIONI CARATTERE ORMONI EPILESSIA STRESS RABBIA PAURA FOBIA NERVO FACIALE ATTACCHI PANICO ANSIA IPPOCAMPO IPOCONDRIA PSICOLOGIA DEPR

La paralisi periferica del nervo facciale (o “faciale”) è quella condizione in cui una lesione a carico del nervo facciale può determinare sintomi e segni come la paralisi facciale, una situazione in cui una persona non è in grado di muovere i muscoli su uno o entrambi i lati del proprio viso.

Cos’è il nervo facciale

Il nervo faciale, anche detto “nervo facciale”, detto è il settimo nervo cranico ed è un nervo prevalentemente motorio che innerva la muscolatura mimica del volto. Grazie all’anastomosi con il nervo intermedio di Wrisbergdiventa un nervo misto, fornendo la sensibilità gustativa ai 2/3 anteriori della lingua e fibre secretorie parasimpatiche per le ghiandole lacrimale, sottolinguale e sottomandibolare, oltre che per la mucosa della cavità nasale.

Paralisi del nervo facciale può centrale o periferica

La paralisi del nervo facciale può essere centrale o periferica, facilmente distinguibili da un punto di vista clinico: infatti i nuclei motori del facciale sono due, uno superiore innervato bilateralmente e uno inferiore che riceve solo una innervazione controlaterale. Ne consegue che una paralisi centrale sarà incompleta, interessando solo la metà inferiore del volto controlaterale. Al contrario una paralisi periferica sarà completa e omolaterale.

Cause e fattori di rischio

Possiamo considerare tre gruppi di cause della paralisi periferica del facciale, a seconda del decorso del nervo:

  • Cause intracraniche, come neoplasie dell’angolo ponto cerebellare, meningiti, disturbi vascolari e fratture della base cranica.
  • Cause intratemporali, le più frequenti, causate da otiti, fratture della rocca petrosa, carcinomi dell’orecchio medio, la sindrome di Ramsay Hunt tipo II o la paralisi di Bell.
  • Cause extracraniche come traumi o ferite facciali e patologie della parotide come neoplasie o parotiti.

Sintomi e segni

Il quadro clinico sarà caratterizzato da una serie di segni statici, nell’emivolto omolaterale:

  • Rima orale deviata verso il basso
  • Rima palpebrale più aperta
  • Rughe frontali appiattite
  • Sopracciglia abbassate
  • Segno di Schultze, con la parte posteriore della lingua che si abbassa dal lato leso per paralisi del ventre posteriore del digastrico
  • Epifora, perdita di lacrime.

Si potranno anche rilevare una serie di segni dinamici:

  • Segno di Bell, rotazione del bulbo oculare verso l’alto e verso l’esterno allo sforzo di chiudere le palpebre.
  • Segno di Negro, quando il paziente guarda verso l’alto la fronte non si corruga.
  • Impossibilità di soffiare, fischiare, gonfiare le guance
  • Lagoftalmo, impossibilità di chiudere le palpebre.

A questo quadro si potrà anche associare xeroftalmia e xerostomia, perdità della sensibilità gustativa dei 2/3 anteriori della lingua, assenza del riflesso corneale e naso-palpebrale.

Continua la lettura con questo articolo: Lesioni del nervo facciale: paralisi di Bell ed altre cause di paralisi

Per approfondire:

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su Tumblr e su Pinterest, grazie!

Differenza tra area di Broca e Wernicke

MEDICINA ONLINE Dott Emilio Alessio Loiacono Medico Chirurgo Roma COME FATTO CERVELLO SERVE FUNZIONA MEMORIA Riabilitazione Nutrizionista Medicina Estetica Cavitazione Radiofrequenza Ecografia Pulsata Macchie Capillari Linfodrenaggio PeneL’area di Broca (in inglese “Broca’s area”; pronuncia: brocà) è una parte dell’emisfero dominante del cervello (spesso il sinistro) ed ha funzioni relative all’elaborazione del linguaggio. L’area di Wernicke (in inglese “Wernicke’s area”) è una parte del lobo temporale del cervello le cui funzioni sono coinvolte nella comprensione del linguaggio.

Differente posizione
L’area di Broca è localizzata nel piede della terza circonvoluzione frontale. Tale area può anche essere descritta come l’unione dell’area 44 di Brodmann e della 45, ed è connessa all’area di Wernicke da un percorso neurale detto fascicolo arcuato. L’area di Wernicke corrisponde invece alla parte posteriore dell’area 22 di Brodmann, nel lobo temporale superiore (corteccia associativa sensoriale).

Differenti funzioni
Entrambe le aree fanno parte di un gruppo di strutture atte a comprendere ed mettere linguaggio, con una importante differenza: l’area di Broca, ha funzione di elaborare mentalmente e meccanicamente il linguaggio, mentre quella di Wernicke ha funzione di comprendere il linguaggio. Essendo zone con funzioni diverse, un danno in una specifica parte, determina sintomi specifici, a tal proposito leggi: Differenza tra afasia di Broca e di Wernicke

Per approfondire, leggi anche:

Lo Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram o su Pinterest, grazie!

Psicoterapia funzionale: le alterazioni dei meccanismi psicofisiologici

uomo-tristeLa psicoterapia ad indirizzo funzionale si sviluppa negli anni ’80 con le ricerche di Luciano Rispoli, fondatore della Scuola di Napoli, e si sviluppa con presupposti diversi dal primo funzionalismo.

La psicoterapia funzionale affronta la complessità della persona, prendendo in considerazione tutti i fenomeni che la riguardano, sia mentali che corporei. Quello che si ammala non è il corpo o la mente, ma l’intero organismo; non ci sono, quindi, disturbi solo psichici o solo somatici, né possiamo più dire che i disturbi somatici sono il riflesso di problemi e conflitti psichici.

Squilibri, problemi e difficoltà nella vita, e le stesse malattie fisiche e psichiche sono riconducibili tutti ad alterazioni e carenze dei funzionamenti di fondo, vale a dire quei meccanismi psicofisiologici e psicobiologici che sono alla base di comportamenti, pensieri, emozioni, atteggiamenti, gesti e movimenti; funzionamenti studiati e approfonditi dal neo-funzionalismo. Infatti, nella psicoterapia funzionale la diagnosi è la valutazione precisa del funzionamento complessivo del soggetto sui vari piani del Sé e, soprattutto, di come si sono andate conservando o alterando le esperienze di base[6](funzionamenti in età evolutiva) nella vita dei pazienti.

La diagnosi, quindi, non è né sui sintomi né sui comportamenti, ma è sui funzionamenti di fondo[7] del soggetto, calibrata specificamente sulla persona con la sua storia, la sua unicità, la sua configurazione del Sé. Viene esaltata l’unicità del quadro funzionale di ogni singolo individuo e al contempo anche la scientificità della rappresentazione, che permette di paragonare una situazione all’altra, di inquadrare le vicende singolari in una più ampia vicenda generale.

È possibile realizzare diagnosi precoci predittive, poiché si valutano i disfunzionamenti già esistenti prima dell’insorgere di vere e proprie patologie.

In una psicoterapia che integra corpo e mente emergono fenomeni intensi che riguardano vari livelli anche corporei, vengono recuperate sensazioni interne relative ad epoche molto precoci della vita dei pazienti. E questo perché il cambiamento non riguarda solo il cognitivo e le emozioni, ma anche sistemi psicofisiologici e neurobiologici (sistemi integrati).

Leggi anche:

Le modalità stesse di intervento, le tecniche utilizzate si rivolgono il più possibile a tutti i piani psico-corporei che costituiscono il Sé (i vari sistemi integrati[8]), perché nel momento in cui si producono disfunzioni, alterazioni, patologie, i vari piani del Sé tengono a disconnettersi tra di loro e a rimanere chiusi in cortocircuiti senza più corrispondere alle condizioni esterne. Posture croniche ripetitive – ad esempio – tensioni muscolari continuativamente elevate, respiro toracico cronico, neurotrasmettitori che tendono alla attivazione anche quando non è necessario, possono essere modificati efficacemente con un intervento diretto non alla sola consapevolezza o al piano emotivo, ma a tutti i piani psico-corporei. La psicoterapia funzionale, dunque, recupera i funzionamenti di fondo che si erano persi o alterati (cioè le esperienze basilari del Sé ostacolate nello sviluppo evolutivo del soggetto).

Il processo in psicoterapia funzionale si sviluppa per fasi sequenziali (seguendo un preciso progetto terapeutico centrato sul paziente), nelle quali si modifica sia la relazione terapeutica stessa sia ciò che accade in terapia.

Per il neo-funzionalismo il processo terapeutico è costituito da una narrazione storica (rappresentata dall’unicità di ciò che accade tra quel paziente e quel terapeuta), e una narrazione scientifica (rappresentata da nodi del processo terapeutico, uguali e regolari in ogni terapia). I cambiamenti non avvengono casualmente ma secondo degli andamenti precisi, determinate leggi, secondo un’evoluzione di tipo modulato.

La terapia funzionale può essere definita “direttiva”, poiché il terapeuta, nelle fasi iniziali, assume totalmente la responsabilità dell’andamento della relazione terapeutica, prende pienamente in carico il paziente, dal momento che questi non conosce i processi terapeutici e non può stabilire quello che è utile e quello che non lo è; e dunque non può che affidarsi. Il paziente deve poter fare il suo “mestiere di paziente”; per cui non si parla più di resistenze ma di ovvie impossibilità a modificare il proprio comportamento su un determinato piano funzionale; è, quindi, il terapeuta che, prendendosi in carica la relazione, deve sapere verso quale direzione ed in che modo portare il paziente a recuperare i funzionamenti carenti superando le impossibilità prima esistenti.

Il terapeuta è un Sé ausiliario che guida il paziente verso una nuova strada con la sua presenza attiva ed il suo supporto, attraverso l’uso della voce, della prossemica e dei movimenti. E’, inoltre, il genitore nuovo, un genitore positivo che, con empatia e vicinanza, incoraggia, stimola e aiuta il paziente ad avere una nuova possibilità, per rivivere positivamente le esperienze di base che hanno subito alterazioni o sono rimaste chiuse nel corso della sua vita.

La psicoterapia funzionale si occupa della salute dell’uomo in tutte le sue sfaccettature, anche nelle complicate malattie psicosomatiche e nei disturbi psichiatrici. Per il funzionalismo, infatti, non c’è la “malattia”, ma esiste un organismo che si altera nei suoi funzionamenti di fondo neuronali, neurovegetativi, neuroendocrini, emotivi, immaginativi, cognitivi, sensoriali, motori, posturali.

Leggi anche:

Lo staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o seguici su Twitter, su Instagram o su Pinterest, grazie!

Contrazione involontaria della palpebra: il blefarospasmo essenziale

dott-emilio-alessio-loiacono-medico-chirurgo-roma-occhio-iride-bicolore-medicina-estetica-riabilitazione-nutrizionista-dieta-grasso-cavitazione-radiofrequenza-ecografia-seno-luce-pulsata-macchie-cutaIl blefarospasmo essenziale è una contrazione involontaria che causa la chiusura a intermittenza e spesso completa delle palpebre.

Che cos’è il blefarospasmo essenziale?

Il blefarospasmo essenziale è una patologia che colpisce entrambi gli occhi(bilaterale, cioè in modo asimmetrico) e si manifesta soprattutto in età avanzata. La chiusura involontaria delle palpebre può essere continua o intermittente. La frequenza del battito aumenta notevolmente nel corso degli anni fino a portare a una reale limitazione della vista per l’incontrollabilità dello spasmo.

Quali sono le cause del blefarospasmo essenziale?

Non è ancora chiara quale sia la causa del blefarospasmo, ma si ritiene che sia collegato a un cattivo funzionamento di alcune strutture nervose poste alla base del cervello, i gangli della base, che giocano un ruolo importante nel controllo dei movimenti.
Anche alcuni farmaci (neurolettici, antistaminici, dopaminergici, anticonvulsivi, pilocarpina, carbacolo, alcuni anestetici) possono causare blefarospasmo.

Leggi anche:

Quali sono i sintomi del blefarospasmo essenziale?

Inizialmente il blefarospasmo essenziale si manifesta con sensibilità alla luce, secchezza dell’occhio e aumento della frequenza dell’ammiccamento. Lo stress può peggiorare i sintomi.

Diagnosi

La diagnosi di blefarospasmo viene effettuata sulla base di una visita medica dopo aver esaminato tutte le possibili cause secondarie di patologie oculari (blefarite, trichiasi, patologie corneali, glaucoma, uveiti, occhio secco).
Nel caso di sospetto di cause neurologiche si ricorre a imaging neurologico che esclude patologie della regione ponto cerebellare.

Trattamenti

La terapia si basa sulla chemodenervazione chimica con sedute cicliche con tossina botulimica.

Leggi anche:

Lo staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o seguici su Twitter, su Instagram o su Pinterest, grazie!

Quoziente d’intelligenza: valori, significato, test ed ereditarietà

MEDICINA ONLINE BRAIN CERVELLO ALLENAMENTO ALLENA INTEGRATORI STUDIO STUDIARE LIBRO LEGGERE LETTURA BIBLIOTECA BIBLIOGRA LIBRERIA QUI INTELLIGENTE ESAMI 30 LODE TEST INGRESSO MEDICINA UNIVERSITA SCUOLAIl quoziente d’intelligenza, o QI, è un punteggio, ottenuto tramite uno dei molti test standardizzati, che si prefigge lo scopo di misurare o valutare l’intelligenza, ovvero lo sviluppo cognitivo dell’individuo. Persone con QI basso sono a volte inserite in speciali progetti di istruzione.

Valori di QI

Punti Percentuale Classificazione Punteggio
40-57 0.2% Gravemente inferiore alla media
58-74 4.1% Molto inferiore alla media
75-91 24% Inferiore alla media
92-109 43.2% Normale
110-126 24% Dotato
127-143 4.1% Molto Dotato
144-160 0.2% Genio

Funzioni e uso

Oltre che dagli psicologi, il QI è usato anche dai sociologi, che ne studiano in particolare la distribuzione nelle popolazioni e le relazioni con altre variabili. È stata dimostrata in particolare una correlazione tra QI, morbosità e mortalità, e con lo stato sociale dei genitori. Sull’ereditarietà del QI, sebbene sia stata sotto esame per quasi un secolo, rimangono delle controversie legate a quanto esso sia ereditabile e ai meccanismi di trasmissione. Lo stesso studio suggerisce che la componente ereditabile del QI diventi più significativa con l’avanzare dell’età. Seguendo un fenomeno chiamato Effetto Flynn, il QI medio per molte popolazioni aumentava con una velocità media di 3 punti ogni decennio durante il XX secolo, prevalentemente nella parte bassa della scala. Non è chiaro se queste variazioni riflettano reali cambiamenti nelle abilità intellettuali, oppure se siano dovute soltanto a problemi di natura metodologica nei test passati. È importante notare che i test del QI non riportano una misura dell’intelligenza come se fosse una scala assoluta, ma offrono un risultato che va letto su una scala relativa al proprio gruppo di appartenenza (sesso, età). I risultati dei test del QI sono utilizzati per prevedere i risultati accademici, le prestazioni lavorative, lo status socioeconomico conseguibile e le cosiddette “patologie sociali”. A tale proposito, tuttavia, uno studio del 2015, relativo alle prestazioni lavorative, ha revocato in dubbio l’asserita validità predittiva del test in tema di future performance occupazionali e ha messo in guardia nei confronti dell’uso invalso in tal senso. Oggetto di dibattito è se i test del QI siano o no un metodo accurato per misurare l’intelligenza assoluta; si ritiene per lo più che i loro risultati siano collegabili solo a sotto-capacità specifiche dell’intelligenza.

Leggi anche:

Struttura dei test del QI

I test del QI assumono varie forme: alcuni ad esempio utilizzano un solo tipo di elementi o domande, mentre altri sono divisi in più parti. La maggior parte di essi dà un punteggio totale e uno relativo alle singole parti del test. Tipicamente un test del QI richiede di risolvere sotto supervisione un certo numero di problemi in un tempo prestabilito. La maggior parte dei test è costituito da domande di vario argomento, come memoria a breve termine, conoscenza lessicale, visualizzazione spaziale e velocità di percezione. Alcuni hanno un tempo limite totale, altri ne hanno uno per ogni gruppo di problemi, e ve ne sono alcuni senza limiti di tempo e senza supervisione, adatti a misurare valori di QI elevati. La terza edizione della WAIS, (WAIS-III del 1997), consiste di 14 gruppi di problemi: 7 verbali (Informazione, Comprensione, Ragionamento aritmetico, Analogie, Vocabolario, Memoria di cifre e Ordinamento di numeri e lettere) e 7 di abilità (Codificazione di cifre e simboli, Completamento di immagini, Block Design, Matrici di Raven, Riordinamento di storie figurate, Ricerca di simboli e Assemblaggio di oggetti). Nel 2008 è uscita la WAIS-IV, quarta edizione del test. Per standardizzare un test del QI è necessario sottoporlo a un campione rappresentativo della popolazione, calibrandolo in modo da ottenere una distribuzione normale, o curva gaussiana; ogni test è comunque studiato e valido solo per un certo intervallo di valori del QI; poiché i soggetti che ottengono punteggi molto alti o molto bassi sono pochi, i test non sono in grado di misurare accuratamente quei valori. Alcuni Q.I. utilizzano deviazioni standard diverse da altri: per questo motivo relativamente ad un certo punteggio bisognerebbe specificare anche la deviazione standard. A seconda del test, il punteggio conseguito può anche cambiare nel corso della vita dell’individuo.

Il QI e il fattore di intelligenza generale

I moderni test del QI attribuiscono dei punteggi a diversi gruppi di problemi (fluidità di linguaggio, pensiero tridimensionale, etc.), e il punteggio riassuntivo viene calcolato a partire da questi risultati parziali. Il punteggio medio, come si evince dalla gaussiana, è 100. I punteggi parziali di ogni gruppo di problemi tendono ad essere collegati gli uni con gli altri, anche quando sembra che gli argomenti sui quali si concentrano siano i più disparati. Un’analisi matematica dei punteggi parziali di un singolo test del QI, o sui punteggi provenienti da una varietà di test differenti (come lo Stanford-Binet, WISC-R, Matrici di Raven, Cattell Culture Fair III, Universal Nonverbal Intelligence Test, Primary Test of Nonverbal Intelligence, e altri) dimostra che essi possono essere descritti matematicamente come la misura di un singolo fattore comune e di vari altri fattori specifici per ogni test. Questo tipo di analisi fattoriale ha portato alla teoria che a unificare i più disparati obiettivi che i vari test si prefiggono sia un singolo fattore, chiamato fattore di intelligenza generale (o g), che corrisponde al concetto popolare di intelligenza. Normalmente, g e il QI sono per il 90% circa correlati tra loro, e spesso vengono usati interscambiabilmente. I test differiscono tra loro su quanto essi riflettano g nel loro punteggio, piuttosto che un’abilità specifica o un “fattore di gruppo” (come abilità verbali, visualizzazione spaziale, o ragionamento matematico). La maggior parte dei test del QI deriva la propria validità prevalentemente o interamente da quanto essi coincidano con la misura del fattore g, come le Matrici di Raven.

Leggi anche:

Ereditarietà

Il ruolo dei geni e dei fattori ambientali (naturali e relativi all’educazione) nel determinare il QI è stato rivisto da Plomin et al. Vari studi dimostrano che l’indice di ereditarietà del QI varia tra 0,4 e 0,8 negli Stati Uniti, il che significa che, stando agli studi, una parte che varia da poco meno di metà a sostanzialmente più di metà della variazione del QI calcolato per i bambini presi in considerazione era dovuto a differenze nei loro geni. Il resto era dunque imputabile a variazioni nei fattori ambientali e a margini di errore. Un indice di ereditarietà nell’intervallo da 0,4 a 0,8 significa che il QI è “sostanzialmente” ereditabile. L’effetto della restrizione dell’intervallo sul QI è stato esaminato da Matt McGue e i suoi colleghi: egli scrive che “il QI dei bambini adottati non è correlato con eventuali psicopatologie dei genitori”. D’altra parte, nel 2003 uno studio condotto da Eric Turkheimer, Andreana Haley, Mary Waldron, Brian D’Onofrio e Irving I. Gottesman dimostrò che la porzione di varianza del QI attribuibile ai geni e ai fattori ambientali dipende dallo status socioeconomico. Essi provarono che nelle famiglie poco abbienti il 60% della varianza del QI è rappresentata dai fattori ambientali condivisi, mentre il contributo dei geni è quasi zero. È ragionevole aspettarsi che le influenze genetiche in caratteristiche come il QI diventino meno significative quando l’individuo acquisisca esperienza con l’età. Sorprendentemente, accade l’opposto. L’indice di ereditarietà nell’infanzia è meno di 0,2, circa 0,4 nell’adolescenza e 0,8 nell’età adulta. La task force del 1995 dell’American Psychological Association, “Intelligence: Knowns and Unknowns”, concluse che nella popolazione di pelle chiara l’ereditarietà del QI è “circa 0,75”. Il Minnesota Study of Twins Reared Apart, un pluriennale studio su 100 coppie di gemelli cresciuti in famiglie diverse, iniziato nel 1979, stabilì che circa il 70% della varianza del QI deve essere associata a differenze genetiche. Alcune delle correlazioni tra i QI di gemelli potrebbero essere il risultato del periodo prima della nascita passato nel grembo materno, facendo luce sul perché i dati di questi gemelli siano così strettamente legati tra loro.

Vi sono alcuni punti da considerare per interpretare l’indice di ereditarietà:

  • Un errore comune è di pensare che se qualcosa è ereditabile allora necessariamente non può cambiare. Questo è sbagliato. L’ereditarietà non implica l’immutabilità. Come già detto, i tratti ereditabili possono dipendere dall’apprendimento o possono essere soggetti ad altri fattori ambientali. Il valore dell’ereditarietà può cambiare se la distribuzione dei fattori ambientali (o dei geni) nella popolazione viene alterata. Ad esempio, un contesto di povertà e repressione può impedire lo sviluppo di un certo tratto, e dunque restringere le possibilità di variazioni individuali. Alcune differenze nella variazione dell’ereditarietà sono state riscontrate tra le nazioni sviluppate e quelle in via di sviluppo; ciò può influire sulle stime dell’ereditarietà. Un altro esempio è la Phenylketonuria che precedentemente causava un ritardo mentale a coloro che soffrivano di questa malattia genetica. Oggi, può essere prevenuto seguendo una dieta modificata.
  • D’altra parte, ci possono effettivamente essere dei cambiamenti ambientali che non modificano affatto l’ereditarietà. Se un fattore ambientale relativo ad un certo tratto migliora in un modo che influenza tutta la popolazione in egual modo, il valore medio di quel tratto aumenterà, ma senza variazioni nella sua ereditarietà (perché le differenze tra gli individui nella popolazione rimarranno gli stessi). Questo accade in maniera evidente per l’altezza: l’indice di ereditarietà dell’altezza è alto, ma l’altezza media continua ad aumentare.
  • Anche nelle nazioni sviluppate, un alto indice di ereditarietà per un certo tratto all’interno di un gruppo di individui non è necessariamente la causa di differenze con un altro gruppo.

Fattori ambientali

I fattori ambientali hanno una loro influenza nel determinare il QI in situazioni estreme. Un’adeguata nutrizione durante l’infanzia diventa un fattore critico per lo sviluppo cognitivo; uno stato di malnutrizione può abbassare il QI di un individuo. Altre ricerche indicano come i fattori ambientali quali l’esposizione prenatale alle tossine, la durata dell’allattamento al seno, e deficienze di fattori micronutrienti possono influire sul QI. È risaputo che non è possibile aumentare il QI con l’allenamento. Ad esempio risolvere regolarmente dei puzzle, o giocare a giochi di strategia come gli scacchi aumenta solo abilità specifiche e non il QI inteso come la somma dell’insieme di capacità ed esperienze. Imparare a suonare uno strumento, nobile o popolare che sia, aiuta il cervello a crescere sia nelle dimensioni che nelle capacità. È quanto dimostra uno studio dell’università di Zurigo che ha preso in esame lo sviluppo cerebrale di un gruppo di individui giovani e adulti.

Leggi anche:

Contesto familiare

Quasi tutti i tratti di personalità mostrano come, al contrario di quanto ci si possa aspettare, gli effetti dei fattori ambientali nei fratelli omozigoti allevati dalla stessa famiglia sono uguali a quelli di gemelli allevati in famiglie diverse. Ci sono alcune influenze di origine familiare sul QI dei bambini, che ammontano a circa un quarto della varianza. Comunque, con l’età adulta questa correlazione sparisce, così come due fratelli adottivi non hanno i QI più simili tra loro rispetto a due estranei (correlazione del QI quasi zero), mentre due fratelli di sangue mostrano una correlazione pari a circa 0,6. Gli studi sui gemelli danno credito a questo modello: i gemelli omozigoti cresciuti separatamente hanno un QI molto simile (0,86), più di quelli eterozigoti cresciuti insieme (0,6) e molto più dei figli adottivi (circa 0). Lo studio dell’American Psychological Association’s, Intelligence: Knowns and Unknowns (1995), afferma che non c’è dubbio che il normale sviluppo dei bambini richiede un certo livello minimo di attenzioni. Un ambiente familiare molto carente o negligente ha effetti negativi su un gran numero di aspetti dello sviluppo, inclusi quelli intellettuali. Oltre un certo livello minimo di questo contesto, l’influenza che ha l’esperienza familiare sul ragazzo è al centro di numerose dispute. Vi sono dubbi se differenze tra le famiglie dei bambini producano effettivamente differenze nei risultati dei loro test d’intelligenza. Il problema è il distinguere le cause dalle correlazioni. Non c’è dubbio che alcune variabili come le risorse della propria casa o il linguaggio usato dai genitori siano correlati con i punteggi del QI dei bambini, ma queste correlazioni potrebbero essere mediate dalla genetica così come (o al posto dei) fattori ambientali. Ma non vi sono certezze su quanta della varianza del QI derivi dalle differenze tra le famiglie, e quanta invece dalle varie esperienze di diversi bambini nella stessa famiglia. Recentemente studi sui gemelli e sulle adozioni suggeriscono che mentre l’effetto del contesto familiare è rilevante nella prima infanzia, diventa abbastanza limitato nella tarda adolescenza. Queste scoperte fanno pensare che le differenze nello stile di vita dei familiari, qualunque sia l’influenza che hanno su molti aspetti della vita dei bambini, producono piccole differenze a lungo termine nelle abilità misurate dai test d’intelligenza. La ricerca dell’American Psychologist Association afferma inoltre: “Dovremmo notare, comunque, che famiglie di pelle scura e a basso reddito sono poco rappresentate negli attuali studi sulle adozioni, così come nella maggior parte dei campioni di gemelli. Dunque non è ancora del tutto chiaro se questi studi si possano applicare alla popolazione intera. Rimane la possibilità che le differenze tra famiglie (stipendio ed etnia) abbiano conseguenze più durature per l’intelligenza psicometrica”. Uno studio di bambini francesi adottati tra i quattro e i sei anni mostra la continua influenza dell’ambiente e dell’educazione contemporaneamente. I bambini venivano da famiglie povere, la media dei loro QI era inizialmente 77, classificandoli quasi come bambini ritardati. Nove anni dopo l’adozione rifecero i test, e tutti migliorarono; il miglioramento era direttamente proporzionale allo status della famiglia adottiva. Bambini adottati da contadini e lavoratori avevano un QI medio di 85,5; coloro che erano stati affidati invece a famiglie della classe media avevano un punteggio medio di 92. Il QI medio dei giovanotti adottati da famiglie benestanti aumentò di più di 20 punti, arrivando a 98. D’altra parte, quanto questi miglioramenti persistano nell’età adulta non appare ancora chiaro dagli studi.

Il modello di Dickens e Flynn

Dickens e Flynn (2001) affermano che gli argomenti che riguardano la scomparsa di un contesto familiare condiviso nella vita dei bambini dovrebbe poter applicarsi ugualmente a gruppi di individui separati nel tempo. Questo è invece contraddetto dall’effetto Flynn. I cambiamenti in questo caso sono avvenuti troppo velocemente per poter essere spiegati da un adattamento dell’ereditarietà genetica. Questo paradosso può essere spiegato osservando che la misura dell’ereditarietà include sia un effetto diretto del genotipo sul QI, sia un effetto indiretto nel quale il genotipo cambia l’ambiente, che a sua volta influisce sul QI. Cioè, coloro che hanno un alto QI tendono a ricercare un contesto stimolante che possa aumentare ulteriormente il loro quoziente intellettivo. L’effetto diretto può inizialmente essere molto limitato, ma gli effetti di ritorno possono produrre molte variazioni sul QI. Nel loro modello uno stimolo ambientale può avere un effetto importante sul QI, anche sugli adulti, ma questo effetto decade nel tempo a meno che lo stimolo non persiste (il modello può essere adattato per includere possibili fattori, come la nutrizione nella prima infanzia, che può dar luogo ad effetti permanenti). L’effetto Flynn può essere spiegato da un ambiente generalmente stimolante per tutti gli individui. Gli autori suggeriscono che i programmi che mirano a incrementare il QI riuscirebbero a produrre aumenti a lungo termine del QI se insegnassero ai bambini come replicare fuori dal programma quel tipo di esperienze di richieste conoscitive che aumentano il QI, e li motivassero a persistere in questa riproposizione per molto tempo dopo la fine del programma.

Il cervello ed il QI

Nel 2004 Richard Haier, professore di psicologia al Dipartimento di Pediatria della University of California, Irvine, con alcuni suoi colleghi alla University of Nuovo Messico, fece una risonanza magnetica per ottenere immagini strutturali del cervello di 47 uomini che avevano sostenuto il test del QI. Gli studi dimostrarono che l’intelligenza umana generale risulta essere basata sul volume e la dislocazione del tessuto di materia grigia nel cervello. La distribuzione della materia grigia nel cervello umano è altamente ereditaria. Gli studi mostrano inoltre che solo il 6% della materia grigia sembra essere collegata al quoziente intellettivo. Diverse fonti di informazioni concordano sull’idea che i lobi frontali siano di fondamentale importanza per l’intelligenza fluida. I pazienti con danni al lobo frontale rispondono in misura ridotta nei test di intelligenza fluida (Duncan et al 1995). Il volume di materia grigia frontale (Thompson et al 2001) e della sostanza bianca (Schoenemann et al 2005) sono stati anche associati con l’intelligenza generale. Inoltre, recenti studi hanno osservato questa associazione con la tecnica del neuroimaging per la corteccia prefrontale laterale. Duncan e colleghi (2000) hanno dimostrato mediante tomografia ad emissione di positroni che la soluzione di problemi sono i compiti maggiormente correlati al QI, dato il coinvolgimento della corteccia prefrontale laterale. Più di recente, Gray e colleghi (2003) hanno utilizzato la risonanza magnetica funzionale (fMRI) per dimostrare che le persone che erano più abili nel resistere alle distrazioni durante un impegnativo compito di memoria avevano un QI superiore e una maggiore attività prefrontale. Per una vasta revisione di questo argomento, vedere Gray e Thompson (2004). È stato condotto uno studio che coinvolge 307 giovanissimi (di età compresa tra i sei e i diciannove anni): sono state misurate le dimensioni del cervello, utilizzando la risonanza magnetica strutturale (MRI) e una misurazione di abilità verbale e non verbale. Lo studio ha indicato che non vi è un rapporto diretto tra il QI e lo spessore della corteccia, ma piuttosto tale legame c’è con i cambiamenti di spessore nel tempo. I bambini più intelligenti sviluppano subito una corteccia spessa inizialmente e dopo subiscono un processo di assottigliamento più consistente. Garlick ha supposto che questa riduzione in spessore riflette un processo di “potatura” delle connessioni neurali e questo processo di “potatura” porta ad una miglior abilità di identificare le astrazioni nell’ambiente. Lesioni isolate ad un lato del cervello, anche a quelli che si verificano in giovane età, sembra non incidano in maniera significativa sul QI. Diversi studi giungono a conclusioni discordanti per quanto riguarda la controversa idea che il cervello sia correlato positivamente con il QI. Jensen e Reed (1993) sostengono che non esiste una correlazione diretta e non patologica dei soggetti. Tuttavia una più recente meta-analisi suggerisce altrimenti. Un approccio alternativo ha cercato di collegare le differenze di plasticità neurale con intelligenza (Garlick, 2002), e questo punto di vista ha recentemente ricevuto qualche sostegno empirico.

Leggi anche:

Dott. Emilio Alessio Loiacono
Medico Chirurgo
Direttore dello Staff di Medicina OnLine

Se ti è piaciuto questo articolo e vuoi essere aggiornato sui nostri nuovi post, metti like alla nostra pagina Facebook o unisciti al nostro gruppo Facebook o ancora seguici su Twitter, su Instagram, su Mastodon, su YouTube, su LinkedIn, su Tumblr e su Pinterest, grazie!