Robotica

    Stampa 3D: Mano Robot dell’MIT

    I robot hanno una vastissima gamma di “punti forti” ma la delicatezza tradizionalmente non configura tra di essi. Dita ed arti rigidi rendono difficile afferrare, tenere e manipolare una serie di oggetti di uso quotidiano, senza correre il rischio di farli cadere o schiacciarli.

    Partendo da questa semplice constatazione, i ricercatori del MIT CSAIL – Computer Science And Artificial Intelligence Laboratory – hanno scoperto che la soluzione può essere quella di rivolgersi a una sostanza più comunemente conosciuta con il nome di “Silly Putty“: silicone.

    Grazie all’uso, ormai comune, di una stampante 3D, gli scienziati sono stati in grado di ricreare una Mano Robot realizzata in silicone capace di sollevare oggetti fragili ed estremamente sottili come ad esempio un uovo ed un CD. La Mano Robot, fatta di materiali convenzionali come silicone, carta e fibre, può anche raccogliere – come si vede in video – manufatti vari come una palla da tennis, un cubo di Rubik ed un peluche. Ancora una volta un’insieme di prodotti che sottolineano l’interesse a rendere “delicata” l’interazione.

    L’aspetto ancor più impressionante è la presenza, sulle tre dita di cui è dotata la Mano Robot, di speciali sensori che possono stimare con buona precisione le dimensioni e la forma dell’oggetto che si intende manipolare.

    Daniela Rus, direttore del distretto di Robotica del CSAIL, sottolinea:

    La difficoltà d’interagire con oggetti di diverse dimensioni e materiali, è spesso per i robot un limite alle loro capacità. Riuscire a fare in modo che essi abbiano la una presa forte e delicata è il primo passo importante.

    I ricercatori sostengono che i robot dotati di “mani morbide” hanno un certo numero di vantaggi rispetto agli automi convenzionali, tra cui la possibilità di gestire utensili di forma irregolare ed oggetti di spessore millimetrico evitando compressioni.

    Source: news.mit.edu
    Source: news.mit.edu

    Gli umanoidi dotati di questa particolare Mano Robot rappresentano quindi un intrigante nuova alternativa. Tuttavia, uno svantaggio alla loro “flessibilità” o “conformità” è che spesso hanno difficoltà a misurare con precisione dov’è posizionato l’oggetto.

    Entrano in gioco, a questo punto, i sensori.

    mit-csail-gripper-03Quando la Mano Robot è affine ad un utensile, le dita rimandano segnali di localizzazione. Grazie a questi dati, il robot può raccogliere un oggetto sconosciuto e confrontarlo con un cluster esistente di punti che rappresentano i dati immagazzinati e relativi ad oggetti manipolati in regressione. Con soli tre punti campionati in una singola presa, gli algoritmi del robot sono in grado di distinguere prodotti analoghi in termini di dimensioni.

    In altre parole, immaginiamo un essere umano bendato in grado con l’utilizzo esclusivo del senso del tatto di riconoscere un dato oggetto: i sensori rappresentano la “vista” tattile del robot. Essi forniscono informazioni tradotte in conoscenza ed un ulteriore bagaglio di competenza.

    Il team spera dunque che, con ulteriori progressi, il sistema possa alla fine identificare decine di oggetti distinti, ed essere programmato per interagire con loro in modo arbitrario a seconda della loro dimensione, forma e funzione.

    I ricercatori controllano la Mano Robot tramite una serie di pistoni che spingono aria pressurizzata attraverso le dita di silicone. La pressione causa delle bollicine che attraversano e distendono le dita, costringendo e stimolando il loro allungamento.

    La mano utilizza due tipi di presa: “avvolge”, l’oggetto è interamente contenuto all’interno della pinza e “pizzica”, in cui l’utensile si tiene con la punta delle dita.

    Dulcis in fundo, il sistema funziona praticamente su qualsiasi piattaforma robotica.

    Concludiamo con le significative parole della Dottoressa Rus:

    Il nostro sogno è quello di sviluppare un robot che, come un essere umano, può avvicinarsi ad un oggetto sconosciuto, grande o piccolo, determinarne la forma e le dimensioni approssimative e capire come interfacciarsi con esso in un unico movimento senza soluzione di continuità.

    iCub, IIT, Close-up Engineering - Credits: A. Abrusci, IIT

    Il futuro della salute tra robot e nuove tecnologie

    Vivere tra umani e umanoidi. Tra 30 anni oltre un terzo della popolazione avrà più di 65 anni. E allora come sarà possibile garantire una sana e serena terza e quarta età? Quali impatti sociali e utilità avrà la robotica?

    A rispondere nel corso di #MeetSanofi – il ciclo di talk con esperti, community e blogger promosso da Sanofi sulle tendenze della tecnologia e della medicina – è stato Roberto Cingolani, direttore scientifico dell’Istituto Italiano di Tecnologia e autore del volume “Umani e umanoidi, Vivere con i robot” (Il Mulino, 2015). Cingolani ha maturato una lunga esperienza tra Italia, Germania, Giappone e USA, è autore di circa 750 pubblicazioni scientifiche e ha al suo attivo 46 famiglie di brevetti.

    A spiegare gli scenari aperti dalla telemedicina: Michelangelo Bartolo, direttore del reparto di telemedicina dell’Ospedale San Giovanni di Roma. Come medico Bartolo ha compiuto decine di missioni in Africa con il programma DREAM della Comunità di S.Egidio e ha ideato Global Health Telemedicine, un servizio di teleconsulto multidisciplinare per i Paesi in via di sviluppo.

    A #MeetSanofi anche Mafe De Baggis (digital media strategist) e la storia di Fabia Timaco, blogger e storyteller ventunenne, che presto potrà indossare FABLE, la mano stampata in 3D, una protesi elettromeccanica realizzata per lei dall’organizzazione no profit Open Biomedical Initiative.

     

    Il MIT presenta Origami Robot: sarà in grado di portare farmaci nel corpo umano

    Durante la conferenza ICRA 2015, evento dedicato alla robotica e all’automazione tenutosi a Seattle dal 26 al 30 maggio 2015, i ricercatori del MIT hanno presentato un particolare piccolo robot in grado di muoversi su qualsiasi superficie e nuotare sfruttando i campi elettromagnetici.

    ©IEEE Spectrum

    Si tratta dell’Origami Robot e deve il suo nome alla capacità di autoassemblarsi. Non è la prima volta che si parla di robot assemblati con la tecnica degli origami, in passato avevamo parlato di nanorobot umanoidi a DNA autoassemblanti ideati al Politecnico di Monaco di Baviera.

    Secondo i ricercatori del MIT, l’Origami Robot potrà essere sfruttato anche all’interno del corpo umano, per portare farmaci dove necessario o svolgere altre operazioni medicali.

    All’interno di due strati di un foglio di carta o polistirene di 1.7 cm e 0.31 g di peso, sono stati inseriti elementi in PVC tagliati con laser e un magnete. Appoggiato su una superficie calda, il PVC si contrae e il foglio si piega lungo precise direzioni. A questo punto il robot è pronto a muoversi sotto l’azione di un campo magnetico esterno alla velocità di 3-4 cm/s, ed è in grado di spostare anche carichi fino al doppio del suo peso.

     

    ©IEEE Spectrum

    Il motore del robot è costituito da un magnete permanente al neodimio e il campo magnetico esterno è generato da quattro micro-bobine. Il campo magnetico è direzionale e viene attivato/disattivato ad una frequenza di 15 Hz. Quindi il magnete all’interno del foglio oscilla avanti e indietro, permettendo il movimento del robot.

    E’ proprio l’asimmetria da cui è caratterizzato il suo design e l’equilibrio fuori-centro che gli permettono di compiere anche movimenti più complessi come l’arrampicarsi e il nuotare.

    Il robot è inoltre in grado di autodistruggersi dissolvendosi in una soluzione di acetone. L’obiettivo finale sarà quello di rendere biodegradabile il robot permettendo la dissoluzione all’interno del corpo umano. In questo caso sarà necessario sostituire il PVC con un altro materiale e rendere il robot di dimensioni minori.

    Header image credits: Ackerman/IEEE Spectrum

    iCub, IIT, Close-up Engineering - Credits: A. Abrusci, IIT

    iCub, un progetto internazionale sulla robotica umanoide

    Il progetto iCub nasce all’incrocio di discipline differenti come l’intelligenza artificiale, la robotica e le neuroscienze, e ha l’obiettivo di indagare l’intelligenza umana e di ricrearne le condizioni e le caratteristiche in una piattaforma robotica umanoide, il robot iCub.

    Il progetto è guidato dalla iCub Facility dell’Istituto Italiano di Tecnologia (IIT) coordinata dal Prof. Giorgio Metta. iCub è un progetto trasversale che si avvale anche della collaborazione del dipartimento Robotics, Brain and Cognitive Sciences (RBCS) guidato dal Prof. Giulio Sandini, del dipartimento Advanced Robotics (ADVR) e dal dipartimento di Pattern Analysis and Computer Vision (PAVIS).

    Il contesto scientifico

    Lo studio della cognizione è stato tradizionalmente affrontato da molteplici punti di vista come per esempio quello della psicologia sperimentale, della neurofisiologia e delle scienze cognitive in generale, mentre i processi mentali sono stati spesso studiati attraverso la modellazione matematica e la cosidetta intelligenza artificiale scorporata (“disembodied”). Più di recente, grazie alle scoperte delle neuroscienze, si è arrivati a capire che l’intelligenza è strettamente connessa e influenzata dalla forma del corpo, dei sensori e dei muscoli e dalle modalità attraverso cui gli esseri viventi controllano l’interazione fisica con l’ambiente. Il corpo, cioè, gioca un ruolo importante almeno quanto i processi neurali che lo controllano. Lo studio e lo sviluppo dell’intelligenza artificiale si sono quindi spostati in parte verso un approccio nel quale la robotica gioca un ruolo fondamentale.

    Obiettivi del progetto iCub

    Abrusci, IIT

    Il progetto iCub ha come obiettivo principale lo sviluppo e il mantenimento di una piattaforma robotica aperta (open source) sia per quanto riguarda l’hardware che il software. Questa piattaforma allo stato dell’arte – chiamata iCub – consente di studiare problemi connessi al controllo del movimento, alla visione artificiale, all’apprendimento automatico e, in generale, all’intelligenza artificiale in un contesto incorporato umanoide. iCub ha avuto un considerabile successo e in questo momento ci sono più di 20 laboratori nel mondo che usano un robot iCub per i loro studi sull’intelligenza.

    La piattaforma iCub ha la forma e le dimensioni di un bambino di circa 4 anni, da cui il nome “cub” che in inglese significa “cucciolo”. Possiede 53 “snodi” (gradi di libertà) di movimento, la maggior parte dei quali sono nelle braccia e nelle mani per consentire azioni di presa e di manipolazione fine degli oggetti. iCub ha telecamere che riproducono la vista, microfoni per la ricezione di suoni, sensori inerziali che riproducono il senso dell’equilibrio, e sensori tattili e di forza per misurare l’interazione con l’ambiente.

    Abrusci, IIT

    Tali caratteristiche rendono iCub un robot umanoide che è in grado di vedere l’ambiente che lo circonda, riconoscere alcuni oggetti, capire se una persona è presente di fronte a esso, rispondere a semplici comandi vocali oppure al contatto fisico con le persone. Inoltre, a comando può afferrare oggetti ed eseguire alcune azioni come spostare, prendere, rovesciare, ecc. Ogni azione è eseguita da iCub in maniera autonoma, contando solo sui suoi sensori.

    Questi risultati sono stati possibili in parte grazie a numerosi progetti finanziati all’interno dalla Commissione Europea quali per esempio: ITALK (linguaggio), CHRIS (interazione uomo-macchina), RoboSKIN (sviluppo pelle robotica), Poeticon (azione e linguaggio), eMorph (sviluppo sensori visivi innovativi), RobotDoc (training), Viactors (attuatori), EFAA (architettura cognitiva), Xperience (architettura cognitiva), Darwin (controllo delle azioni), ImClever (curiosità e motivazioni).

    In una recente statistica sui progetti open source effettuata da Ohloh.net, il progetto iCub risulta tra i progetti open source più attivi in termini di traffico del sito internet, del numero di linee di codice e del numero di utilizzatori (www.ohloh.net/p?q=icub). Statistica che testimonia la vitalità del progetto iCub, vitalità che è fondamentale per affrontare problemi difficili come quelli dell’intelligenza artificiale.

    Abrusci, IIT

    I partner del progetto

    Il progetto è stato inizialmente finanziato dalla Commissione Europea, in particolare nell’ambito del programma sullo studio dei sistemi cognitivi e della robotica (unit E5). Il progetto è iniziato nel 2004 supportato da un gruppo di centri di ricerca europei che includono l’Istituto Italiano di Tecnologia (IIT), l’Università di Genova, l’Istituto Superio Tecnico (P), l’Ecole Polytechnique Federale de Lausanne (EPFL, CH), la Scuola Superiore S’Anna di Pisa, l’Università di Zurigo (CH), l’Università di Ferrara, di Uppsala (S), di Hertfordshire (UK) e Sheffield (UK). Inoltre, il gruppo iniziale ha visto la partecipazione di una PMI di Genova (Telerobot).

    Partecipazione industriale

    Il progetto iCub ha visto una partecipazione industriale soprattutto di alcune PMI genovesi. Questo è stato necessario per la progettazione e standardizzazione meccanica ed elettronica e più di recente per la realizzazione delle copie dell’iCub. Telerobot, una PMI genovese, ha svolto un ruolo chiave per quanto riguarda la progettazione meccanica.

    Nel seguente file sono evidenziate e descritte le caratteristiche di iCub, dall’elettronica alla meccanica che lo regolano.
    Images credits: A. Abrusci, IIT


    Vuoi leggere i nostri articoli senza pubblicità?

    Sostieni il nostro progetto e avrai la possibilità di: