Scopri le nuove funzionalità nella Ricerca Google

Google ha tenuto oggi un evento incentrato sulla tecnologia più nota, i motori di ricerca, e ha annunciato una serie di nuove modifiche. Evento chiamato Cerca ha spiegato gli aggiornamenti in corso nei prossimi mesi che potrebbero cambiare il modo in cui le persone cercano informazioni e la capacità di chiedi ai giganti della ricerca di trovarli.

Google ha anche mostrato come utilizza il suo nuovo sistema di intelligenza artificiale, MUM, o modello integrato multitasking, estende le capacità di ricerca per consentire agli utenti di esplorare meglio argomenti complessi.

Nonostante il suo strano nome, MUM, insieme ad altre innovazioni di intelligenza artificiale, mira a rendere la ricerca più naturale e intuitiva. Per fare ciò, MUM lavora per comprendere i singoli componenti associati all’argomento, come descrizioni di parole, immagini e video, e per tracciare connessioni tra questi diversi componenti. Quindi, per capire veramente cos’è un leone, ad esempio, MUM potrebbe dire come suona un leone, che aspetto ha, come si muove, cosa mangia, dove vive, Riassumi se fai parte di una famiglia di gatti (ma non un tipo di leone). Un gatto tenuto come animale domestico).

“Le persone guardano ai motori di ricerca per trovare informazioni affidabili”, ha detto a SearchOn il vicepresidente della fiducia di Google, Daniel Romaine. “Sappiamo anche che le persone non vogliono solo fatti semplici. Per molti argomenti, vogliono davvero capire le informazioni lì.

[Related: This new AI tool from Google could change the way we search online]

Innanzitutto, MUM consente agli utenti di cercare immagini attraverso l’obiettivo utilizzando la fotocamera del proprio smartphone. Questa modalità di ricerca è ciò che Google chiama “punta e chiedi”. Ciò significa che gli utenti iOS possono utilizzare l’obiettivo per indicare un oggetto o un’immagine e porre domande su elementi o modelli in quell’immagine nell’app Google. Ad esempio, se desideri trovare calzini con lo stesso motivo della tua maglietta, tocca l’icona della lente per ottenere le immagini della maglietta e inserisci il testo che chiede a Google di trovare lo stesso motivo sui tuoi calzini.

Google

Google afferma che questo strumento multimediale misto può aiutarti a trovare cose che potrebbero non essere spiegate esattamente a parole. È anche utile quando ci si concentra su motivi difficili da definire, come galloni e paisley. Non tutti conoscono quelle parole dall’alto della loro testa. Oltre all’abbigliamento, ti dice anche come vengono chiamate alcune parti della tua attrezzatura da bici nel caso in cui debbano essere sostituite o riparate. Questo viene fatto trovando altre immagini simili sul Web che potrebbero contenere la richiesta richiesta.

Google è desideroso di trovare nuovi modi per rendere la tua ricerca più coinvolgente ed estensibile associando gli utenti a informazioni relative a query che potrebbero non essere state trovate altrimenti. Una nuova funzione chiamata “Cosa devi sapere” apparirà presto nella parte superiore della prima pagina di Ricerca Google. Sembra uno schema comprimibile di come altri hanno esplorato l’argomento di cui vuoi saperne di più.

Ad esempio, se vuoi sapere come creare quadri acrilici per decorare il tuo appartamento, puoi cercare “quadri acrilici” su Google. La scheda “Cosa devi sapere” mostra i primi aspetti che le persone potrebbero vedere, come istruzioni dettagliate su come realizzare colori acrilici, suggerimenti per la pulizia, ecc. Utile per la navigazione. Voglio espanderlo ulteriormente.

I primi risultati della ricerca hanno anche una nuova scheda che consente di ingrandire e rimpicciolire l’argomento. Questa scheda mostra temi e tendenze completi che possono aiutarti ad ampliare la tua ricerca, come “Paint Style” o query più specifiche che ti aiutano a restringere la ricerca, come “Tecniche di pittura acrilica”.

Google ha anche ridisegnato la pagina dei risultati per renderla più visibile e visiva, sperando di ispirare ispirazione che potrebbe portare a query più specifiche. Invece di un elenco di link di solo testo al tuo sito web, le immagini appariranno presto sotto questi link web nella tua pagina di ricerca.

Google sta cercando di comprendere meglio domande complesse
Google

Google afferma che gli ingegneri stanno addestrando MUM a riconoscere la relazione tra parole e immagini. A questo evento, abbiamo annunciato che stiamo utilizzando MUM per analizzare i video, identificare argomenti correlati che non sono menzionati esplicitamente nella clip e fornire collegamenti per approfondire tali argomenti. Ad esempio, se un pinguino maccheroni (un tipo di vero nome per un pinguino) stava guardando un video di YouTube su come trovare una famiglia ed evitare i predatori, Google consiglierebbe l’argomento “Macaroni Penguin Life Story” sotto il video. c’è. , Anche se quelle parole esatte non sono apparse nel video. In precedenza, l’azienda utilizzava l’intelligenza artificiale per identificare i momenti chiave nei video e contrassegnava la barra di scorrimento del video per indicare quando si sarebbero verificati quei momenti.

La prima versione di questa nuova funzione video apparirà nei risultati di ricerca entro poche settimane e verrà ampliata nei prossimi mesi.

I 55 migliori programmi TV da guardare ora su Netflix I medici chiedono l’approvazione della FDA per la vendita di sigarette elettroniche, scienziati diffidenti nel marketing scoprono come i batteri usano goccioline di proteine ​​liquide per superare lo stress avvio TechCrunch G.Skill avvia la memoria Trident Z5 su Alder Lake DDR5-6600 Ultime notizie tecnologiche

    I 55 migliori programmi TV da guardare ora su Netflix I medici chiedono l’approvazione della FDA per la vendita di sigarette elettroniche, scienziati diffidenti nel marketing scoprono come i batteri usano goccioline di proteine ​​liquide per superare lo stress La startup TechCrunch G.Skill trasforma la memoria Trident Z5 in Alder Lake DDR5-6600

Leave a Reply