Potenziare gli sviluppatori di Windows 11: Sviluppo AI reso facile

hardwareCon il lancio di Windows 11, Microsoft continua a investire in strumenti fondamentali per democratizzare il modo in cui le app vengono sviluppate in questa nuova era dell’intelligenza artificiale. Che tu stia sviluppando su x86/x64 o Arm64, vogliamo renderti facile implementare esperienze potenziate dall’AI nelle tue app per Windows, sia nel cloud che sul dispositivo.

L’anno scorso, durante l’evento Build, abbiamo annunciato Hybrid Loop, un nuovo modello di sviluppo che consente scenari ibridi di intelligenza artificiale attraverso Azure e i dispositivi client. Oggi siamo entusiasti di condividere che la nostra visione si è concretizzata grazie all’utilizzo di ONNX Runtime come gateway verso l’AI in Windows e Olive, un set di strumenti che abbiamo creato per semplificare l’ottimizzazione dei modelli per i diversi dispositivi Windows e non solo. Con ONNX Runtime, gli sviluppatori di terze parti hanno accesso agli stessi strumenti che utilizziamo internamente per eseguire modelli di intelligenza artificiale su Windows o su altri dispositivi, sfruttando CPU, GPU, NPU o una combinazione ibrida con Azure.

ONNX Runtime supporta ora la stessa API per l’esecuzione dei modelli sul dispositivo o nel cloud, consentendo scenari di inferenza ibrida in cui la tua app può utilizzare le risorse locali quando possibile e passare al cloud quando necessario. Con la nuova anteprima di Azure EP, puoi connetterti ai modelli distribuiti su AzureML o persino al servizio Azure OpenAI. Con poche righe di codice, puoi specificare il punto di collegamento al cloud e definire i criteri per decidere quando utilizzare il cloud. Ciò ti offre un maggiore controllo sui costi e sull’esperienza dell’utente, poiché Azure EP ti permette di scegliere tra l’utilizzo di modelli più grandi nel cloud o di modelli locali più piccoli durante l’esecuzione.

Puoi anche ottimizzare i tuoi modelli per diversi target hardware con Olive, una catena di strumenti estensibile che combina tecniche all’avanguardia per la compressione, l’ottimizzazione e la compilazione dei modelli. Inoltre, puoi utilizzare ONNX Runtime su piattaforme come Windows, iOS, Android e Linux, in modo che il tuo investimento nell’AI su Windows si estenda a tutte le tue piattaforme di app.

Sia ONNX Runtime che Olive contribuiscono a velocizzare la distribuzione dei tuoi modelli di intelligenza artificiale nelle app. ONNX Runtime ti permette di creare esperienze di intelligenza artificiale straordinarie su Windows e su altre piattaforme, riducendo l’ingegnerizzazione necessaria e migliorando le prestazioni.

Estendiamo la nostra visione di un futuro potenziato dall’AI in collaborazione con i nostri partner

Windows 11 vanta il più grande e potente ecosistema di GPU al mondo, con oltre 200 milioni di GPU discrete in grado di gestire l’AI. PC con Windows come Surface Studio 2+ e PC prodotti dai partner come Acer, ASUS, Dell, HP, Lenovo e Samsung sono dotati di GPU NVIDIA. Gli sviluppatori possono sfruttare queste GPU per eseguire modelli di trasformazione all’avanguardia come Dolly 2.0, Stable Diffusion e NeMo di NVIDIA, ottimizzati appositamente per Windows.

Le NPUs (Neural Processing Units) sono acceleratori appositamente progettati per l’esecuzione efficiente di modelli di intelligenza artificiale. I nostri partner continuano a innovare e a offrire soluzioni avanzate, come Qualcomm con la piattaforma di calcolo Snapdragon 8cx Gen3, che consente l’utilizzo di dispositivi Windows, inclusi Surface Pro 9 5G e il Windows Dev Kit 2023. Con Olive e ONNX Runtime, puoi mirare al kit di sviluppo AI Engine Direct di Qualcomm per eseguire modelli di intelligenza artificiale sulla piattaforma di calcolo 8cx Gen 3 NPU.

Siamo entusiasti di vedere tutti i nostri partner di silicio lanciare sul mercato nuovi dispositivi Windows con NPUs entro la fine dell’anno. Recentemente, AMD ha reso disponibile agli sviluppatori un accesso anticipato al software Ryzen™ AI per l’esecuzione di modelli di intelligenza artificiale su processori Ryzen™ 7040 Series con Ryzen™ AI. Intel ha presentato in anteprima il nuovo prodotto Meteor Lake, una nuova architettura SoC basata su chiplet che includerà la prima unità di elaborazione AI integrata di Intel e che verrà distribuita nell’ecosistema Windows a partire dalla seconda metà dell’anno, accompagnata da strumenti per gli sviluppatori, incluso il supporto di ONNX Runtime abilitato tramite OpenVino-EP e DirectML-EP.

Partner come WhatsApp, Luminar Neo e Camo stanno raggiungendo incredibili progressi in termini di prestazioni e stanno sbloccando nuove esperienze per gli utenti grazie all’utilizzo delle NPUs per l’esecuzione dei loro modelli di intelligenza artificiale. Porta le tue app sulla piattaforma Windows e sfrutta ONNX Runtime per offrire esperienze di intelligenza artificiale come Camo. Non vediamo l’ora di vedere cosa la comunità di sviluppatori di Windows creerà utilizzando queste nuove catene di strumenti AI e i progressi dell’hardware NPU.

Fonte Windows blog

Potenziare gli sviluppatori di Windows 11: Sviluppo AI reso facileultima modifica: 2023-05-23T22:03:36+02:00da puma1973a
Reposta per primo quest’articolo