Baby Signs: allenare i bambini a comunicare tramite il gesto
I movimenti delle mani possono necessariamente accompagnare il discorso al fine di aggiungere informazioni al significato della comunicazione, oppure essere così convenzionalizzati nella loro forma da essere compresi senza sforzo da soli.
La prima categoria comprende i cosiddetti gesti o gesti iconici che raffigurano proprietà visive e spaziali dell’oggetto della conversazione (es. dimensione e forma, gesti rappresentazionali) o l’azione descritta dalla frase. Al contrario, la seconda categoria è definita come emblemi o gesto simbolico, il cui significato risulta essere chiaro in quanto possono veicolare direttamente il significato in assenza di parola.
Il gesto e la parola: le persone usano le mani e le parole per comunicare
Il gesto e il linguaggio parlato appartengono ad un unico sistema di comunicazione perché sono legati agli stessi processi mentali nonostante differiscano nella modalità di espressione. Tuttavia, correnti di pensiero alternative sostengono che i gesti e il linguaggio parlato rappresentano due diversi sistemi di comunicazione, per cui il gesto funziona come supporto ausiliario quando l’espressione verbale è temporaneamente interrotta o il recupero della parola è difficile.
Alcuni studiosi hanno evidenziato il ruolo chiave nell’integrazione degli emblemi con la parola nell’area di Broca. In particolare, si è osservato che la TMS (Stimolazione magnetica transcranica), applicata nell’area di Broca, ha indotto un’interferenza temporanea quando le parole sono state pronunciate in risposta a gesti emblematici. Più precisamente, l’aumento degli spettri vocali descritti durante la produzione simultanea del parlato e del gesto è risultato temporaneamente interrotto.
La sovrapposizione delle reti che sostengono gli emblemi e l’elaborazione del parlato è stata recentemente osservata anche con la MRI che, nonostante il diverso stimolo applicato, mostra un’attivazione convergente del solco temporale superiore bilaterale (STS), nonchè delle cortecce temporali laterali frontali.
Sebbene gli studi di TMS e MRI abbiano individuato spazialmente la rete comune all’elaborazione dei gesti e del linguaggio, data la loro bassa risoluzione temporale si è ricorso all’utilizzo del potenziali evocati correlati agli eventi (ERP). Gli studi con ERP condotti su gesti e parole si sono concentrati sul componente N400, ovvero una forma d’onda negativa dell’ERP medio che raggiunge la sua ampiezza di picco a 400 ms dopo l’inizio dello stimolo. Molta è la letteratura che affronta il ruolo funzionale di N400 e tenta di mappare questo effetto su specifiche operazioni cognitive, ma ad oggi i risultati sono troppo variabili e lasciano troppe criticità sulla realizzazione di reti neurali artificiali che potrebbero simulare i processi linguistici ed espressivi.
Il complesso sistema di comunicazione: la rete neurale linguistica
Tutte le componenti di base del sistema linguistico sono organizzate in modo tale da interagire tra loro in maniera non lineare, gerarchica e sono soggette ad un processo di auto-organizzazione. Ciò significa che ciascuna abilità (percettiva, cognitiva, sociale, adattiva) fornisce un contributo parziale al sistema linguistico globale.
Il linguaggio è un sistema non lineare, cioè il suo sviluppo globale non è il semplice risultato della somma dei contributi di ciascuna componente, ma c’è una variabile in più che rende impossibile predire il contributo specifico di un solo componente.
Il linguaggio è un sistema gerarchico, in cui i differenti livelli dipendono l’uno dall’altro. Ad esempio le abilità fonetiche hanno influenza su quelle di livello superiore, come il livello semantico – lessicale. Grazie a questa proprietà gerarchica, il sistema funziona secondo principi di auto-organizzazione, cioè si è in grado di trovare in maniera autonoma, degli stati di equilibrio stabili in cui l’interazione dei diversi elementi individuali, sociali, neurali ed adattivi produce comportamenti funzionali ottimali, come è appunto la nostra facoltà linguistico – comunicativa.
Durante il processo di acquisizione del linguaggio del bambino, emergono gradualmente una serie di complesse abilità linguistiche-comunicative, come l’acquisizione del lessico, l’apprendimento di conoscenze sintattiche e lo sviluppo di competenze comunicative.
Da ciò possiamo capire come l’auto-organizzazione di processi additivi, sociali e neurali debbano portare alla manifestazione di facoltà socio-comunicativa, basata su abilità vocali, gestuali e su abilità cognitivo-linguistiche sempre più complesse.
Baby Signs: comunicare con il gesto prima di comunicare con le parole migliora lo sviluppo linguistico dei bambini
Il Programma Baby Sign è una tecnica di apprendimento gestuale associata alla parola che mira ad arricchire la qualità e l’efficacia degli scambi comunicativi tra bambini, con età compresa tra 0 e 18-24 mesi, e genitori. Grazie all’utilizzo dei segni il bambino esprimere concetti e sentimenti che non riuscirebbe a manifestare con la parola, rafforzando e migliorando l’intesa con il proprio genitore.
Il programma Baby Signs nasce dagli studi della Dott.ssa Linda Acredolo e della Dott.ssa Susan Goodwyn, in collaborazione con il National Institutes of Health. Grazie ai loro studi e ricerche su bambini udenti, oggi il programma è riconosciuto dall’American Academy of Pediatrics ed è utilizzato in oltre 40 paesi non solo da professionisti del settore come i logopedisti, psicologi e scienziati cognitivisti ma anche nelle strutture specializzate come asili nido e scuole. Solo nel 2015 nasce Baby Signs Italia come unico ente autorizzato alla divulgazione del programma in tutto il territorio nazionale.
Dagli studi effettuati su bambini, nei primi mesi di vita, è emerso un grande divario tra ciò che un bambino può comprendere e ciò che riesce ad esprimere. Ad esempio, a 15 mesi i bambini comprendono mediamente 150 parole, ma sono in grado di pronunciarne circa 15. Ciò è imputabile al fatto che la produzione verbale dei primi anni di vita è influenzata da fattori ambientali e sociali (come le relazioni genitoriali) e dallo sviluppo di reti neurali che seguono traiettorie evolutive molto diverse da un soggetto all’altro.
Il programma Baby Signs si pone come collegamento tra la comprensione del concetto e l’espressione verbale dello stesso concetto tramite la comunicazione gestuale. L’idea alla base del programma è che il gesto funge da supporto alla parola, pertanto dà al bambino la possibilità di esprimersi quando il verbo non si è ancora sviluppato e, sfruttando la naturalezza fisiologica di voler comunicare, facilita e stimola l’insorgere delle parole. Una volta che il bambino ha preso padronanza della parola il gesto viene accantonato e, successivamente, dimenticato.
Grazie alla comunicazione gestuale si crea un ruolo attivo del bambino che, sentendosi compreso, accresce la sua autostima; cresce anche la responsività genitoriale, cioè la capacità dei genitori di saper decodificare e riconoscere i bisogni fisici ed affettivi del proprio bimbo. La responsività genitoriale assieme alla qualità degli scambi comunicativi dei primi due anni di vita hanno degli effetti a lungo termine sullo sviluppo emotivo e relazionale del bambino.
I vantaggi del programma sono validamente dimostrati anche da un punto di vista intellettivo. Infatti da test attitudinali effettuati su bambini di 7 anni, a cui è stato sottoposto un percorso Baby Signs nei primi due anni di vita, hanno indicato un significativo vantaggio di 12 punti di media (media QI = 114) rispetto agli altri bambini (QI = 102 media). Il vantaggio è stato rilevato sia per l’area verbale e che per l’area di performance (Sub-scale del test WISC-III).
Baby Signs e il ruolo nei modelli simulativi delle reti neurali linguistiche
La sfida dei ricercatori è quella di creare delle simulazioni al calcolatore, che si prospettano essere di particolare aiuto nello studio dei fenomeni emergenti del linguaggio. In particolare, le metodologie sintetiche, come le reti neurali e la vita artificiale, permettono di simulare il processo di emergenza di abilità linguistiche e quindi di investigare il contributo di ciascun fattore, e delle interazioni tra elementi. Per esempio, in alcune simulazioni è stato possibile analizzare in dettaglio l’interazione tra il processo di evoluzione e quello di apprendimento, permettendo la comprensione del meccanismo del symbol grounding, e del controllo neurale di abilità linguistiche.
Un gruppo di modelli simulativi si propone di studiare il comportamento linguistico e il suo substrato neurale, prendendo in considerazione il contesto sociale e adattivo nel quale l’organismo interagisce. Tale approccio usa metodologie di Vita Artificiale con l’obiettivo di simulare le capacità linguistiche basate sull’uso di verbi e nomi, che sono direttamente imposte dal ricercatore. Questo permette di focalizzarsi su nuovi aspetti dell’evoluzione della sintassi, e in particolare sulla differenziazione neurale tra i verbi e i nomi.
Prendendo spunto dai modelli simulativi del linguaggio, grazie ai quali ad oggi è possibile osservare le rappresentazioni interne delle reti neurali durante l’esecuzione dei diversi compiti linguistici, sarebbe molto interessante ampliare la simulazione alla “comunicazione gestuale segnata”.
Lo scopo sarebbe quello di comprendere cosa c’è alla base del controllo neurale associato al gesto e capire come quest’ultimo faciliti l’insorgenza della parola mettendo alla luce le capacità evolutive neurali del linguaggio dei primi mesi di vita.
Ad esempio, se la rete neurale artificiale fosse composta da una retina per vedere il movimento di un oggetto (cioè un gesto), quindi ricevere in input segnali propriocettivi, e un microfono per ascoltare un comando verbale (tipo “allontanare A” e “avvicinare A”), l’organismo artificiale impara ad associare i verbi allontanare/avvicinare all’azione di allontanare/avvicinare l’oggetto indicato. In questo modo riusciremo ad avere una popolazione di individui con reti neurali che imparano l’elaborazione di informazioni linguistiche, visive e motorie.
In questa ottica il programma Baby Signs diviene uno strumento importante per il supporto e l’apprendimento degli input visivi associati a quelli motori, contribuendo alla comprensione e costruzione delle reti che governano il controllo neurale linguistico dei bambini.
Uno dei parametri che si potrebbe prendere in considerazione è la distanza euclidea tra le rappresentazioni degli oggetti (concetto – simbolo) per capire come i diversi verbi e nomi sono rappresentati nella rete neurale e quanto tempo impiega l’organismo per associare il concetto al simbolo. In linea teorica la comunicazione gestuale influenza positivamente tale distanza euclidea, indice del fatto che il gesto riduce il tempo di manifestazione della parola.
A cura di Manuela Lorenzetti.