madeinitaly

    dbGLOVE: il guanto smart che consente ai sordo-ciechi di comunicare

    dbGLOVE è un dispositivo indossabile che digitalizza diversi alfabeti touch-based esistenti, come Malossi e Braille, per consentire alle persone cieche e sordo-cieche di utilizzare tutte le funzionalità di un dispositivo mobile, di comunicare con gli altri e di interagire con il mondo.

    L’alfabeto MALOSSI

    dbglove.com

    Utilizzando l’alfabeto Malossi (un alfabeto tattile ed intuitivo inventato da un sordo cieco italiano), due persone sordo-cieche possono comunicare digitando messaggi da scambiarsi reciprocamente, a turno: essi possono toccare diverse aree del palmo della mano, ciascuna corrispondente a una lettera, e formare dei messaggi comprensibili dal proprio interlocutore.
    L’alfabeto Malossi è estremamente intuitivo e si basa su segnali tattili di base. Le lettere sono situate in senso orario sulle falangi. Le lettere dalla A alla O si formano premendo in alcune zone del palmo, mentre le lettere dalla P alla Z pizzicando.
    Questo alfabeto è ampiamente impiegato con i bambini e le persone affette da disturbi cognitivi, che hanno difficoltà, dunque, ad imparare metodi di comunicazione più complessi e articolati (ad esempio, il Lorm o l’alfabeto Braille).
    Oltre a rappresentare lettere, segnali singoli o multipli, i segnali tattili possono esprimere concetti più articolati.

    L’alfabeto Malossi permette agli individui di usufruire di un codice di comunicazione touch-based grazie ad una particolare mappatura corporea che prevede le lettere posizionate sulle falangi.
    Ciascuna delle 18 aree sensibili include un sensore capacitivo ed un attuatore vibrotattile. Il primo può essere attivato semplicemente toccandolo con un dito, per attivare il segnale di controllo corrispondente. Il secondo è impiegato per generare vibrazioni che simulano un tocco sulla falange.

    dbGlove ha un’interfaccia completamente personalizzabile

    dbglove.com

    La persona sordo-cieca può indossare il dispositivo sulla mano sinistra, e può digitare messaggi sul proprio palmo, come su una tastiera.
    Gli impulsi tattili costituiscono segnali di controllo utilizzati anche per aprire applicazioni, controllare elettrodomestici e inviare comandi. In alternativa, gli impulsi tattili possono rappresentare messaggi che possono essere visualizzati sullo schermo, tradotti in discorso, o trasmessi su Internet.
    Intensità, durata, ritmo e tempo dei segnali possono essere configurati tramite software, per soddisfare le preferenze specifiche di ogni utente. Ogni area sensibile del dbGLOVE può essere rimappata e modificata in una configurazione di controllo a scelta, al fine di supportare le funzioni o le lingue specifiche.
    Ciò avviene tramite software, senza alcuna modifica dell’hardware.

    Supporto per la connettività Bluetooth

    dbGLOVE si collega a qualsiasi dispositivo Bluetooth, come ad esempio smartphone, tablet e PC. Esso implementa il protocollo Bluetooth Low-Energy (BLE), al fine di risparmiare energia e aumentare la durata della batteria.
    Il dispositivo supporta tutte le applicazioni mobili più comuni, come client e-mail, browser Internet, la lettura di documenti e la chat.
    App dedicate possono essere sviluppate utilizzando il dbGLOVE SDK, che sarà rilasciato a breve. Il dbGLOVE SDK supporta applicazioni per la realtà virtuale, la musica e giochi.
    L’hardware e il firmware di dbGLOVE sono progettati e rilasciati come Open Source, in modo che la comunità possa contribuire al loro sviluppo e al miglioramento.

    Comunicazione bidirezionale: invio e ricezione di messaggi

    dbGLOVE include un monitor tattile. In questo modo, le persone affette da sordo-cecità possono ricevere messaggi in forma di stimolazione

    dbglove.com

    tattile, come se qualcuno stesse scrivendo direttamente sul loro palmo.
    Le risposte possono essere ricevute dall’utente sotto forma di stimolazione vibrotattile di diversa intensità e frequenza, che simulano il tocco e il pizzico sul palmo della mano.
    In conclusione, il dispositivo è in grado di fornire all’utente una comunicazione bidirezionale: si possono scrivere messaggi e ricevere delle risposte.

    Attualmente, il team sta cercando di costituire una comunità di produttori ed esperti di hardware, che possano aiutarli a migliorare il dispositivo e la qualità di vita degli utenti.
    E presto sarà rilasciato l’Application Programming Interface (API).

    dbGlove è un’idea di Nicholas Caporusso, 34enne informatico e imprenditore barese. Il progetto ha vinto nel 2009 il primo premio della prima edizione di Principi attivi, bando della Regione Puglia che prevedeva un finanziamento di 25mila euro a fondo perduto a idee innovative di giovani pugliesi, e nel 2013 ottiene 110mila euro da Valoreassoluto, bando per startup della Camera di commercio di Bari. Dallo scorso febbraio è a Berlino: il progetto è stato selezionato – unica startup italiana – per il programma internazionale di accelerazione EyeFocus, dedicato alle tecnologie per persone non vedenti o con problemi alla vista, sponsorizzato da società e organizzazioni del settore medico e farmaceutico (tra cui la Bayer).

     

    iCub, IIT, Close-up Engineering - Credits: A. Abrusci, IIT

    iCub, un progetto internazionale sulla robotica umanoide

    Il progetto iCub nasce all’incrocio di discipline differenti come l’intelligenza artificiale, la robotica e le neuroscienze, e ha l’obiettivo di indagare l’intelligenza umana e di ricrearne le condizioni e le caratteristiche in una piattaforma robotica umanoide, il robot iCub.

    Il progetto è guidato dalla iCub Facility dell’Istituto Italiano di Tecnologia (IIT) coordinata dal Prof. Giorgio Metta. iCub è un progetto trasversale che si avvale anche della collaborazione del dipartimento Robotics, Brain and Cognitive Sciences (RBCS) guidato dal Prof. Giulio Sandini, del dipartimento Advanced Robotics (ADVR) e dal dipartimento di Pattern Analysis and Computer Vision (PAVIS).

    Il contesto scientifico

    Lo studio della cognizione è stato tradizionalmente affrontato da molteplici punti di vista come per esempio quello della psicologia sperimentale, della neurofisiologia e delle scienze cognitive in generale, mentre i processi mentali sono stati spesso studiati attraverso la modellazione matematica e la cosidetta intelligenza artificiale scorporata (“disembodied”). Più di recente, grazie alle scoperte delle neuroscienze, si è arrivati a capire che l’intelligenza è strettamente connessa e influenzata dalla forma del corpo, dei sensori e dei muscoli e dalle modalità attraverso cui gli esseri viventi controllano l’interazione fisica con l’ambiente. Il corpo, cioè, gioca un ruolo importante almeno quanto i processi neurali che lo controllano. Lo studio e lo sviluppo dell’intelligenza artificiale si sono quindi spostati in parte verso un approccio nel quale la robotica gioca un ruolo fondamentale.

    Obiettivi del progetto iCub

    Abrusci, IIT

    Il progetto iCub ha come obiettivo principale lo sviluppo e il mantenimento di una piattaforma robotica aperta (open source) sia per quanto riguarda l’hardware che il software. Questa piattaforma allo stato dell’arte – chiamata iCub – consente di studiare problemi connessi al controllo del movimento, alla visione artificiale, all’apprendimento automatico e, in generale, all’intelligenza artificiale in un contesto incorporato umanoide. iCub ha avuto un considerabile successo e in questo momento ci sono più di 20 laboratori nel mondo che usano un robot iCub per i loro studi sull’intelligenza.

    La piattaforma iCub ha la forma e le dimensioni di un bambino di circa 4 anni, da cui il nome “cub” che in inglese significa “cucciolo”. Possiede 53 “snodi” (gradi di libertà) di movimento, la maggior parte dei quali sono nelle braccia e nelle mani per consentire azioni di presa e di manipolazione fine degli oggetti. iCub ha telecamere che riproducono la vista, microfoni per la ricezione di suoni, sensori inerziali che riproducono il senso dell’equilibrio, e sensori tattili e di forza per misurare l’interazione con l’ambiente.

    Abrusci, IIT

    Tali caratteristiche rendono iCub un robot umanoide che è in grado di vedere l’ambiente che lo circonda, riconoscere alcuni oggetti, capire se una persona è presente di fronte a esso, rispondere a semplici comandi vocali oppure al contatto fisico con le persone. Inoltre, a comando può afferrare oggetti ed eseguire alcune azioni come spostare, prendere, rovesciare, ecc. Ogni azione è eseguita da iCub in maniera autonoma, contando solo sui suoi sensori.

    Questi risultati sono stati possibili in parte grazie a numerosi progetti finanziati all’interno dalla Commissione Europea quali per esempio: ITALK (linguaggio), CHRIS (interazione uomo-macchina), RoboSKIN (sviluppo pelle robotica), Poeticon (azione e linguaggio), eMorph (sviluppo sensori visivi innovativi), RobotDoc (training), Viactors (attuatori), EFAA (architettura cognitiva), Xperience (architettura cognitiva), Darwin (controllo delle azioni), ImClever (curiosità e motivazioni).

    In una recente statistica sui progetti open source effettuata da Ohloh.net, il progetto iCub risulta tra i progetti open source più attivi in termini di traffico del sito internet, del numero di linee di codice e del numero di utilizzatori (www.ohloh.net/p?q=icub). Statistica che testimonia la vitalità del progetto iCub, vitalità che è fondamentale per affrontare problemi difficili come quelli dell’intelligenza artificiale.

    Abrusci, IIT

    I partner del progetto

    Il progetto è stato inizialmente finanziato dalla Commissione Europea, in particolare nell’ambito del programma sullo studio dei sistemi cognitivi e della robotica (unit E5). Il progetto è iniziato nel 2004 supportato da un gruppo di centri di ricerca europei che includono l’Istituto Italiano di Tecnologia (IIT), l’Università di Genova, l’Istituto Superio Tecnico (P), l’Ecole Polytechnique Federale de Lausanne (EPFL, CH), la Scuola Superiore S’Anna di Pisa, l’Università di Zurigo (CH), l’Università di Ferrara, di Uppsala (S), di Hertfordshire (UK) e Sheffield (UK). Inoltre, il gruppo iniziale ha visto la partecipazione di una PMI di Genova (Telerobot).

    Partecipazione industriale

    Il progetto iCub ha visto una partecipazione industriale soprattutto di alcune PMI genovesi. Questo è stato necessario per la progettazione e standardizzazione meccanica ed elettronica e più di recente per la realizzazione delle copie dell’iCub. Telerobot, una PMI genovese, ha svolto un ruolo chiave per quanto riguarda la progettazione meccanica.

    Nel seguente file sono evidenziate e descritte le caratteristiche di iCub, dall’elettronica alla meccanica che lo regolano.
    Images credits: A. Abrusci, IIT


    Vuoi leggere i nostri articoli senza pubblicità?

    Sostieni il nostro progetto e avrai la possibilità di: