Firebase aggiunge 3 nuove funzionalità in ML Kit e Performance Monitoring per app web

Firebase aggiunge 3 nuove funzionalità in ML Kit e Performance Monitoring per app web

Firebase aggiunge 3 nuove funzionalità in ML Kit e Performance Monitoring per app web

La piattaforma di sviluppo mobile di Google, Firebase, sta ricevendo il suo più grande aggiornamento quest’anno alla conferenza annuale degli sviluppatori di Google, Google I/O. Oggi Google ha annunciato nuovi modi per migliorare l’accessibilità dell’apprendimento automatico per gli sviluppatori; Google sta inoltre estendendo i suoi strumenti di monitoraggio delle prestazioni per aiutare gli sviluppatori web ad accelerare le loro app web.

Google ha annunciato ML Kit all’I/O dello scorso anno per svelare il mistero dell’apprendimento automatico per gli sviluppatori. Hanno iniziato con un paio di API per i casi d’uso più comuni e quest’anno stanno espandendo l’SDK con l’aggiunta di 3 nuove API: un’API sul dispositivo per la traduzione, un’API per il rilevamento e il monitoraggio degli oggetti e un API per creare facilmente modelli ML personalizzati. Gli sviluppatori di app native possono integrare l’SDK di monitoraggio delle prestazioni nella loro app per raccogliere dati sulle prestazioni che possono quindi analizzare in Firebase Performance Monitoring; presto, gli sviluppatori web saranno anche in grado di monitorare le prestazioni delle loro app web in Firebase. Ho parlato con Francis Ma, Head of Product di Firebase, per saperne di più su questi cambiamenti.

Nuove API del kit ML

L’SDK ML di Google attualmente supporta 7 API: riconoscimento del testo, rilevamento del volto, scansione di codici a barre, etichettatura delle immagini, riconoscimento dei punti di riferimento, risposta intelligente e identificazione della lingua. Gli ultimi 2 sono stati aggiunti solo di recente ad aprile, ma ora saranno affiancati dalle 3 API sopra menzionate. Ecco un riepilogo di alto livello delle 3 nuove API ML per gli sviluppatori:

  • API sul dispositivo per la traduzione: utilizzando lo stesso modello che alimenta la traduzione offline dell’app Google Translate, questa nuova API consente agli sviluppatori di fornire traduzioni veloci e dinamiche tra 58 lingue.
  • API di rilevamento e tracciamento di oggetti: questa API consente a un’app di individuare e tracciare l’oggetto più prominente, contrassegnato da un riquadro attorno ad esso, in un feed della videocamera in tempo reale. Gli sviluppatori possono quindi identificare l’oggetto più importante eseguendo una query su un’API di ricerca di visione cloud. Ad esempio, si dice che IKEA stia sperimentando questa API per lo shopping visivo di mobili.
  • AutoML Vision Edge: per gli sviluppatori che desiderano un modello ML personalizzato con competenze minime necessarie, AutoML Vision Edge consente di creare e addestrare il proprio modello personalizzato da eseguire localmente sul dispositivo di un utente. Per addestrare un modello, è sufficiente caricare il proprio database (ad es. un set di immagini) nella console Firebase e fare clic su “addestra modello” per addestrare un modello TensorFlow Lite rispetto al database. Google ha annunciato che una società chiamata Fishbrain ha utilizzato questa API per addestrare un modello per identificare la razza di un pesce, mentre un’altra società chiamata Lose It! addestrato un modello per identificare le categorie di alimenti in un’immagine.

L’apprendimento automatico è un campo in rapida crescita nell’informatica, quindi è naturale che gli sviluppatori mostrino interesse per esso. Tuttavia, creare e addestrare efficacemente i modelli ML senza un data scientist nel personale può essere difficile, motivo per cui Google sta semplificando il processo automatizzando l’addestramento dei modelli con ML Kit. Gli sviluppatori possono concentrarsi sulla creazione di nuove app con potenti funzionalità utilizzando la potenza del machine learning senza dover dedicare tempo e sforzi significativi all’apprendimento della scienza dei dati. Con l’aggiunta di queste 3 nuove API in ML Kit, speriamo di vedere molte nuove app utili in Google Play.

Monitoraggio delle prestazioni di Firebase per sviluppatori Web

I consumatori richiedono buone prestazioni dalle app e dai siti Web che utilizzano, ma finora Firebase ha fornito solo agli sviluppatori di app native i mezzi per monitorare efficacemente le prestazioni dei loro prodotti. Al Google I/O 2019, Google ha annunciato che Firebase Performance Monitoring sarà reso disponibile per gli sviluppatori web che utilizzano Firebase Hosting. Gli sviluppatori web possono mantenere gli utenti coinvolti sulle loro piattaforme migliorando la velocità delle loro app web; per aiutare gli sviluppatori web a individuare i principali punti deboli nelle prestazioni dei loro siti, Firebase fornirà strumenti incentrati sul web e misurazioni di telemetria per mostrare come gli utenti del mondo reale sperimentano un sito web. Ad esempio, gli sviluppatori Web saranno in grado di monitorare aspetti come il tempo per la prima stesura e il ritardo di input, la velocità con cui le persone vedono e interagiscono per la prima volta con i contenuti di una pagina Web e la latenza media. La dashboard panoramica mostrerà queste e altre metriche per aiutare gli sviluppatori web a ottimizzare l’esperienza per i loro utenti, sia per paese che a livello globale.

Altri annunci

Generatore di segmenti di pubblico aggiornato in Google Analytics per Firebase

La creazione di un pubblico mirato è fondamentale per massimizzare il coinvolgimento degli utenti. Vuoi assicurarti di segmentare i tuoi utenti nelle categorie giuste in modo da sapere come indirizzarli al meglio con incentivi e incoraggiamenti personalizzati in modo che abbiano maggiori probabilità di continuare a utilizzare la tua app o il tuo servizio. Google Analytics per Firebase aiuta gli sviluppatori a comprendere meglio i propri utenti e il suo generatore di pubblico aggiornato semplificherà la creazione di nuovi segmenti di pubblico per il targeting tramite Remote Config o il coinvolgimento tramite la messaggistica in-app. Le funzionalità aggiornate del generatore di pubblico includono funzionalità come “sequenze, ambito, finestre temporali, [and] durata dell’iscrizione”. Ad esempio, Google afferma che ora è possibile creare un pubblico per gli utenti che riscattano un codice coupon e acquistano un prodotto entro 20 minuti dall’utilizzo del coupon.

  • Cloud Firestore, un database NoSQL completamente gestito, ottiene il supporto per le query sui gruppi di raccolte che consentono alla tua app di “cercare campi in tutte le raccolte con lo stesso nome, indipendentemente da dove si trovano nel database”. Le query sui gruppi di raccolte, ad esempio, consentiranno a un’app musicale con una struttura di dati costituita da artisti e dalle loro canzoni di eseguire query tra artisti per i campi nelle canzoni indipendentemente dall’artista.
  • Il nuovo emulatore di Cloud Functions consentirà agli sviluppatori di accelerare lo sviluppo e il test di app locali; comunica con l’emulatore Cloud Firestore.
  • Se devi eseguire il debug di arresti anomali nella tua app, Firebase Crashlytics può aiutarti a diagnosticare eventuali problemi di stabilità. L’avviso di velocità ti dice quando un particolare problema è improvvisamente aumentato di gravità e vale la pena esaminarlo, ma la sua soglia di avviso non potrebbe mai essere personalizzata fino ad ora.

Per ulteriori notizie su Firebase, resta sintonizzato sul blog ufficiale o unisciti al programma Alpha per avere un’anteprima delle funzioni imminenti.

Leave a Reply