BWM porta tanta innovazione al Mobile World Congress 2019 di Barcellona. Il costruttore automobilistico ha introdotto, infatti, alcune soluzioni che rivoluzionano il modo in cui i guidatori interagiscono con i loro veicoli. Alla fiera spagnola, il costruttore tedesco ha annunciato “BMW Natural Interaction”. Trattasi di una piattaforma che combina la tecnologia di comando vocale più avanzata sul mercato con controllo gestuale e riconoscimento facciale che permetteranno per la prima volta la totale multimodalità. Le prime funzioni di BMW Natural Interaction saranno disponibili sulla BMW iNEXT dal 2021.
Più nello specifico, “BMW Natural Interaction” consente al guidatore di usare voce, gesti e sguardo contemporaneamente e in varie combinazioni per interagire con il proprio veicolo. La modalità di funzionamento preferita può essere selezionata in modo intuitivo, in base alla situazione e al contesto. Comandi vocali, gesti e direzione dello sguardo possono essere rilevati e combinati in modo affidabile dal veicolo che eseguirà l’operazione desiderata. Questa interazione multimodale libera è resa possibile dal riconoscimento vocale, dalla tecnologia dei sensori ottimizzata e dall’analisi dei gesti sensibile al contesto. Attraverso il rilevamento preciso dei movimenti delle mani e delle dita, la direzione e il tipo di gesto viene registrata per la prima volta in uno spazio di interazione esteso che comprende l’intero ambiente operativo del conducente. Le istruzioni vocali sono registrate ed elaborate utilizzando la comprensione del linguaggio naturale. Un algoritmo di apprendimento intelligente, costantemente perfezionato, combina e interpreta le informazioni complesse in modo che il veicolo possa rispondere di conseguenza.
Combinando diverse modalità, le funzioni del veicolo possono essere avviate in modi differenti. Il conducente decide come devono interagire, in base alle proprie preferenze personali, alle proprie abitudini o alla situazione attuale. Quindi, se impegnato in una conversazione, il conducente probabilmente sceglierà il controllo con gesti e sguardi; quando gli occhi sono sulla strada, si affiderà alla parola e ai gesti. In questo modo, ad esempio, i finestrini dell’auto o il tetto possono essere aperti o chiusi, le prese d’aria regolate o una selezione effettuata sul Control Display. Se il conducente vuole saperne di più sulle funzioni del veicolo, può anche puntare ai pulsanti e chiedere cosa fanno.
Con il riconoscimento dei gesti migliorato e l’alto livello di connettività della vettura, lo spazio di interazione non è più limitato all’interno. Per la prima volta, conducente e passeggeri saranno in grado di interagire con i loro dintorni diretti, come edifici o parcheggi. Anche domande complesse possono essere risolte rapidamente e facilmente puntando un dito ed emettendo un comando vocale. “Cos’è questo edificio? Qual è l’orario di apertura di questa attività? Come si chiama questo ristorante? Posso parcheggiare qui e quanto costa?”