Questa settimana Google ha annunciato che la sua app Google Translate è stata utilizzata 4 volte rispetto all’anno scorso. Hanno suggerito che i loro ultimi progressi nella comprensione automatica delle immagini in Google Foto hanno permesso di visualizzare e apprezzare oltre 2 miliardi di “ricordi”. Google Lens viene utilizzato 3 miliardi di volte al mese. Fondamentalmente, Google è entusiasta di come la loro tecnologia viene utilizzata per tradurre e interpretare le informazioni in ogni momento.
L’utilizzo di WaveNet da parte di Google ha consentito a Google di distribuire 51 nuove lingue su Google Assistant dal lancio. Gli ultimi aggiornamenti di Google sulla comprensione del linguaggio naturale consentono di fornire “risposte sensate” nelle conversazioni che gli utenti hanno con Ricerca Google.
Questa settimana, Natural Language Understanding viene aggiornato con LaMDA. È un modello di linguaggio per applicazioni di dialogo. È ancora in fase di ricerca e sviluppo, ma sarà presto disponibile per i test di terze parti.
È un po’ come i chatbot originali, rivelati dieci anni fa. Ora, i sistemi di Google consentono a un computer non solo di selezionare da un elenco di risposte preconfigurate a una serie limitata di trigger, ma è anche in grado di apprendere e modificare.
LaMDA è stato dimostrato al Google I/O come modello linguistico con un pianeta. L’utente parla con il pianeta Terra e il pianeta Terra risponde. Google ha anche mostrato un utente che parlava con un aeroplanino di carta (di nuovo, addestrato da LaMDA).
AGGIORNAMENTO: resta in attesa mentre pubblichiamo la dimostrazione mostrata al Google I/O 2021 e aggiungiamo collegamenti ai processi e agli strumenti di cui un utente avrà bisogno per lavorare con LaMDA. Google alla fine inserirà LaMDA in Ricerca Google, Google Assistant e Workspace. AGGIORNAMENTO 2: Eccolo!