Costruire modelli 3D di oggetti sconosciuti man mano che vengono manipolati dai robot

Costruire modelli 3D di oggetti sconosciuti mentre vengono manipolati dai robot
Flusso di lavoro del sistema integrato. Credito: Canzone & Boularias.

I ricercatori della Rutgers University hanno recentemente sviluppato un approccio probabilistico per la costruzione di modelli 3-D di oggetti sconosciuti mentre vengono manipolati da un robot. Il loro approccio, delineato in un documento pre-pubblicato su arXiv, utilizza un motore fisico per verificare le geometrie ipotizzate nelle simulazioni.

La maggior parte dei primati impara naturalmente a manipolare una varietà di oggetti nei loro primi anni di vita. Replicare questa capacità apparentemente banale nei robot, tuttavia, si è finora rivelata molto impegnativa.

Studi precedenti hanno cercato di raggiungere questo obiettivo utilizzando una varietà di algoritmi di manipolazione, che in genere richiedono la conoscenza dei modelli geometrici associati agli oggetti che il robot manipolerà. Questi modelli possono essere utili se gli oggetti incontrati dal robot sono noti in anticipo, ma spesso falliscono quando questi oggetti sono sconosciuti.

“Consideriamo specificamente le attività di manipolazione in pile di disordine che contengono oggetti invisibili in precedenza”, hanno scritto i ricercatori della Rutgers University nel loro articolo. “Uno dei nuovi aspetti di questo lavoro è l’utilizzo di un motore fisico per verificare le geometrie ipotizzate nella simulazione. Le prove fornite dalle simulazioni fisiche vengono utilizzate in un quadro probabilistico che spiega il fatto che le proprietà meccaniche degli oggetti sono incerte”.

Il sistema integrato sviluppato dai ricercatori ha diversi componenti: un manipolatore robotico, un modulo di segmentazione e clustering e un’unità di ragionamento fisico inverso. Il manipolatore robotico è progettato per spingere o colpire oggetti in un mucchio di disordine, mentre il modulo di segmentazione e raggruppamento può rilevare oggetti nelle immagini RGB-D.

Infine, l’unità di ragionamento fisico inverso, che è la caratteristica distintiva del loro approccio, deduce parti mancanti di oggetti riproducendo le azioni del robot in simulazione. In sostanza, l’unità utilizza più forme ipotizzate e assegna probabilità più elevate a quelle che corrispondono meglio alle immagini RGB-D osservate.

I ricercatori hanno sviluppato un algoritmo di ragionamento fisico inverso (IPR) in grado di dedurre parti occluse di oggetti in base ai loro movimenti osservati e alle interazioni reciproche. Per addestrare e valutare il loro sistema, hanno utilizzato due set di dati: un set di dati Voxlets e un nuovo set di dati creato utilizzando gli oggetti benchmark YCB. Il set di dati Voxlets contiene immagini statiche di oggetti da tavolo, mentre il nuovo database da loro compilato include pile più dense di oggetti.

Il team ha valutato il nuovo approccio in una serie di esperimenti utilizzando un braccio robotico Kuka montato su una piattaforma mobile Clearpath e dotato di una mano Robotiq e di una telecamera di rilevamento della profondità. In questi test, al robot sono stati presentati oggetti sconosciuti in diversi scenari. I risultati raccolti dai ricercatori sono stati molto promettenti, con il loro algoritmo IPR che deduce le forme meglio di altri approcci.

“Gli esperimenti che utilizzano un robot mostrano che questo approccio è efficiente per la costruzione di modelli 3-D fisicamente realistici, che possono essere utili per la pianificazione della manipolazione”, hanno scritto i ricercatori. “Gli esperimenti mostrano anche che l’approccio proposto supera significativamente gli approcci alternativi in ​​termini di precisione della forma”.

Il nuovo approccio probabilistico presentato dai ricercatori potrebbe aiutare a migliorare le prestazioni dei robot nelle attività di manipolazione. Nel loro lavoro futuro, hanno in programma di sviluppare ulteriormente il loro approccio, in modo che possa dedurre simultaneamente modelli 3D e meccanici.


Leave a Reply