Build 2016: Microsoft Cognitive Services

I Microsoft Cognitive Services sono una collezione di API che permettono di sviluppare app intelligenti, sfruttando il machine learning e le reti neurali.
Build 2016: Microsoft Cognitive Services
I Microsoft Cognitive Services sono una collezione di API che permettono di sviluppare app intelligenti, sfruttando il machine learning e le reti neurali.

L’ultima parte del keynote di apertura della conferenza Build 2016 è stata dedicata ai Microsoft Cognitive Services, noti finora come Project Oxford. Si tratta di API che consentono agli sviluppatori di realizzare applicazioni in grado di “vedere, ascoltare, parlare, capire e interpretare le necessità degli utenti usando metodi di comunicazione naturale”. Al momento sono disponibili le preview di 22 API, suddivise in cinque categorie (Vision, Speech, Language, Knowledge e Search).

I Cognitive Services sono il risultato di anni di ricerca in diversi settori dell’intelligenza artificiale. L’obiettivo di Microsoft è offrire servizi che possano dare “un lato umano alle applicazioni”, sfruttando una combinazione di computer vision, natural language processing, image recognition, machine learning e deep neural network. L’azienda di Redmond ha già sviluppato app in grado di riconoscere l’età delle persone e le razze dei cani dalle immagini, ma quelle mostrate durante il keynote hanno raggiunto un livello di accuratezza ancora più elevato.

CaptionBot sfrutta le API Vision e Search per identificare il soggetto presente in un’immagine e aggiungere una didascalia descrittiva con linguaggio naturale. Microsoft ha realizzato un sito per consentire agli utenti di testare la web app anche con le proprie foto. Un’altra app sfrutta le API Speech per trascrivere le parole pronunciate da un bambino o in ambienti molto rumorosi. L’app che ha stupito maggiormente la platea di sviluppatori è Seeing AI, testata da un ingegnere del software non vedente nelle strade di Londra.

Seeing AI sfrutta la computer vision e l’elaborazione del linguaggio naturale per descrivere l’ambiente circostante, identificare età, sesso ed emozioni delle persone, e leggere il testo, ad esempio il menu del ristorante. L’app può essere usata sullo smartphone oppure con gli smartglass di Pivothead, come si può vedere nel video. Seeing AI è ancora un progetto di ricerca, ma potrebbe presto diventare un valido aiuto per non vedenti e ipovedenti che vogliono essere indipendenti al 100%.

Ti consigliamo anche

Link copiato negli appunti