Gli utenti italiani ancora non ne conoscono appieno tutte le funzionalità, per via del fin qui assente supporto alla nostra lingua, mentre oltreoceano e in altri paesi l’Assistente Google è un’entità virtuale già ben nota e diffusa, su smartphone e non solo, anche in dispositivi come gli altoparlanti della linea Home. Oggi la tecnologia compie un ennesimo passo in avanti nel suo percorso d’evoluzione.
Questo grazie al team DeepMind e al sistema WaveNet di cui si è parlato su queste pagine circa un anno fa: è in grado di far parlare un’intelligenza artificiale con un tono del tutto naturale e molto simile a quello di un essere umano. La diretta conseguenza è un’interazione più armoniosa tra l’utente e i device, una sorta di colloquio.
WaveNet sfrutta una rete neurale per generare file audio molto più dettagliati dal punto di vista della risoluzione rispetto a quanto solitamente avviene con gli assistenti virtuali e con altre forme di IA. Niente più voci robotiche, dunque, almeno nelle intenzioni di bigG. Per capire la differenza è possibile riprodurre i due spezzoni allegati di seguito. Il primo non beneficia della tecnologia.
Il secondo, qui sotto, si basa invece su WaveNet.
Al momento il sistema è applicato solamente alle voci dell’Assistente Google nelle lingue inglese e giapponese, ma il gruppo di Mountain View e i membri del team DeepMind hanno in programma di estenderne il raggio d’azione nel prossimo periodo.
Garantire una qualità elevata dell’interazione vocale tra l’utente e l’intelligenza artificiale è di fondamentale importanza in uno scenario dove gli assistenti virtuali giocheranno un ruolo sempre più fondamentale nell’accesso ai servizi e alle informazioni online: non più solo da smartphone o tablet, ma anche dai dispositivi posizionati nell’ambiente domestico, dagli altoparlanti ai televisori. L’impiego di WaveNet ha proprio questo obiettivo.