Azure AI Studio (precedentemente denominato Azure OpenAI Studio) è l’interfaccia web che consente un'interazione diretta con il servizio Azure OpenAI ed è stata progettata appositamente per sperimentare con le capacità dei modelli OpenAI. L’interfaccia offre una varietà di funzionalità come un ambiente di chat per assistenti AI personalizzati e modelli di completamento per la generazione di un’ampia varietà di contenuti, ponendo l'accento sulla facilità d'uso per sperimentare con diversi modelli e rendendola ideale per esplorare il potenziale dell'AI, senza richiedere ampie conoscenze tecniche. In questo articolo vedremo più nel dettaglio cos’è, come funziona, con quali modelli permette di interagire e come.
Il mondo dei digital workplace aziendali sta cambiando volto di giorno in giorno al ritmo dei progressi nel campo dell’AI e, per restare all’avanguardia dei mercati digitali aziendali, anche Microsoft ha deciso di investire pesantemente nel mercato dell’intelligenza artificiale ed è diventata nel 2019 uno dei partner più grossi di OpenAI, con un investimento di oltre un miliardo di dollari.
Uno dei frutti di questa partnership è Azure OpenAI, che permette alle aziende e agli sviluppatori di integrare modelli di intelligenza artificiale avanzati sviluppati da OpenAI all’interno delle loro applicazioni tramite l'infrastruttura cloud di Microsoft Azure e, per sfruttare e sperimentare le funzionalità offerte dai modelli AI, Microsoft ha messo a disposizione degli utenti Azure AI Studio.
Azure AI Studio è un’interfaccia web dal design semplice e intuitivo, progettata da Microsoft per un facile utilizzo da parte di ogni fascia di utenti e che permette di toccare con mano e testare le potenzialità degli ultimi ritrovati nel campo dell’Intelligenza Artificiale (come gli ormai celebri modelli GPT-3.5, GPT-4), senza la necessità di conoscenze estensive sull’argomento.
Questa interfaccia offre agli utenti Azure che vogliono sfruttare al massimo i servizi di intelligenza artificiale un ambiente unico per esplorare e implementare soluzioni AI in maniera rapida e intelligente.
Azure AI Studio è costruito attorno a una serie di principi di design che mirano a rendere l'intelligenza artificiale accessibile, versatile e integrata nel flusso di lavoro degli utenti. Con il suo focus sull'esperienza utente, la facilità di sperimentazione e l'accessibilità per l'educazione e la personalizzazione, la piattaforma rappresenta un potente strumento per chiunque voglia esplorare e applicare le potenzialità dell’Intelligenza Artificiale.
Alla base di Azure AI Studio c’è il concetto di "playground" (letteralmente “parco giochi”), ovvero spazi interattivi e intuitivi dove gli utenti possono sperimentare liberamente con i modelli di intelligenza artificiale messi a disposizione dal servizio. I playground fungono da laboratori virtuali dove sviluppatori, educatori e creativi possono innovare e prototipare rapidamente idee, sfruttando la potenza dei modelli avanzati di OpenAI integrati nella piattaforma Azure.
Questi ambienti sono progettati per facilitare la creazione, la personalizzazione e il testing di applicazioni AI senza necessità di conoscenze tecniche avanzate e guidano gli utenti mediante un'interfaccia user-friendly attraverso il processo di configurazione e utilizzo dei modelli, permettendogli di esplorarne le capacità.
Tutti questi playground sono progettati per essere intuitivi e facili da usare, anche per chi non ha esperienza approfondita in programmazione o intelligenza artificiale, rendendo la sperimentazione accessibile a una vasta gamma di professionisti e appassionati.
L'integrazione con l'infrastruttura di Azure consente inoltre una facile implementazione dei modelli in ambienti di produzione. Gli utenti possono configurare, testare e distribuire i loro progetti AI utilizzando le risorse cloud di Azure, beneficiando delle capacità di scalabilità, sicurezza e gestione della piattaforma.
Il Playground di Chat è una piattaforma interattiva in cui gli utenti possono progettare e testare assistenti virtuali personalizzati utilizzando i modelli di linguaggio GPT-3.5 e GPT-4. Questo ambiente è particolarmente utile per esplorare le capacità di conversazione dei modelli di linguaggio naturale.
Nel Playground di Chat, gli utenti possono inserire domande, prompt o comandi e osservare come il modello risponde in modo naturale e coerente. Questo strumento è ideale per sviluppare chatbot e assistenti digitali che possono interagire con gli utenti in modo convincente. Gli sviluppatori possono configurare i prompt per simulare conversazioni specifiche, personalizzare le risposte e testare vari scenari di interazione.
Un esempio pratico potrebbe essere la creazione di un assistente per il servizio clienti. Gli utenti possono programmare l'assistente per rispondere a domande frequenti, guidare i clienti attraverso procedure di supporto o fornire informazioni su prodotti e servizi. La capacità del modello di comprendere e generare risposte pertinenti rende questo playground uno strumento potente per migliorare l'interazione con i clienti.
Il Playground di Completamento consente agli utenti di sperimentare con la generazione di testo utilizzando i modelli GPT. In questo ambiente, è possibile inserire un testo parziale o un prompt, e il modello completerà il testo in modo coerente e rilevante.
Questo strumento è particolarmente utile per una serie di applicazioni, come la scrittura automatica di contenuti, la generazione di riassunti o la creazione di risposte in contesti specifici. Gli utenti possono utilizzare il Playground di Completamento per generare email, descrizioni di prodotti e inserti pubblicitari. La capacità del modello di comprendere il contesto e continuare il testo in modo fluido rende questo playground ideale per migliorare l'efficienza nella produzione di contenuti.
Abbiamo creato il team Infra&Security, verticale sul cloud Azure, per rispondere alle esigenze dei clienti che ci coinvolgono nelle decisioni tecniche e strategiche. Oltre a configurare e gestire il loro tenant, ci occupiamo di:
Con Dev4Side, hai un partner affidabile in grado di supportarti sull'intero ecosistema applicativo di Microsoft.
GPT-4, acronimo di "Generative Pre-trained Transformer 4", è il modello più avanzato di intelligenza artificiale sviluppato ad oggi da OpenAI. Il modello è stato progettato utilizzando l'architettura Transformer, ed è stato pre-addestrato su enormi quantità di testi provenienti da Internet e altre fonti, consentendogli di apprendere modelli linguistici e conoscenze generali attraverso un vasto corpus di dati.
All'interno di Microsoft Azure, il modello è integrato per consentire agli utenti di sfruttare queste capacità avanzate attraverso l’interfaccia intuitiva di Azure AI Studio. Questo facilita l'esplorazione e l'applicazione delle funzionalità di GPT-4 in una varietà di contesti, dallo sviluppo di assistenti virtuali all'analisi dei dati, ampliando le possibilità di utilizzo dell'intelligenza artificiale per le soluzioni aziendali e creative.
GPT-4 rappresenta un avanzamento significativo nei modelli di intelligenza artificiale messi a disposizione dal servizio e uno dei suoi fiori all’occhiello, offrendo caratteristiche potenziate e capacità estese rispetto al suo predecessore, GPT-3.5. Vediamole meglio nell’elenco seguente.
È da segnalare inoltre come la versione di ChatGPT di Azure sia arricchita con una funzionalità di filtro dei contenuti, assente nella sua controparte pubblica. Questa caratteristica è cruciale nel prevenire fughe di dati durante le sessioni di chat filtrando informazioni sensibili, garantendo così la privacy degli utenti e la sicurezza dei dati aziendali.
Azure OpenAI è alimentato da un set diversificato di modelli con capacità e fasce di prezzo differenti e la loro disponibilità dei modelli può variare a seconda della regione geografica. Questo è importante da considerare per le aziende che operano in diverse parti del mondo o che hanno specifici requisiti di conformità regionale.
In questa sezione parleremo in linea generale dei modelli messi a disposizione dal servizio con cui è possibile interagire mediante l’interfaccia di Azure AI Studio e del costo per il loro utilizzo. Per ottenere un elenco completo dei modelli disponibili sia per l'inferenza che per il fine-tuning, ordinato per versione e regione di disponibilità vi invitiamo a consultare la comoda tabella all’interno della documentazione ufficiale di Microsoft dedicata a Azure OpenAI (consultabile qui).
Ovviamente, non si può non cominciare che con una panoramica dei modelli GPT, offerta principale del servizio.
GPT-4o (di cui abbiamo parlato più nel dettaglio nella sezione precedente) è l'ultimo modello sviluppato da OpenAI e integra testo e immagini in un unico modello, permettendogli di gestire simultaneamente diversi tipi di dati. Questo approccio multimodale migliora l'accuratezza e la reattività nelle interazioni uomo-computer.
GPT-4 Turbo è la sua versione più avanzata ed è un modello multimodale di grandi dimensioni (accetta input di testo o immagini e genera testo) che può risolvere problemi complessi con maggiore precisione rispetto a qualsiasi modello precedente di OpenAI. Come GPT-3.5 Turbo e i modelli GPT-4 precedenti, GPT-4 Turbo è ottimizzato per la chat e funziona bene per i compiti di completamento tradizionale. Tuttavia, la sua forza sta nell’arrivare là dove i suoi predecessori non riescono e viene generalmente utilizzato per compiti più specifici che richiedono soluzioni più complesse e raffinate.
Al momento Azure mette a disposizione i modelli GPT-4 solo in alcune regioni strategiche, tra cui:
I modelli GPT-3.5, seppure più antiquati, continuano a essere una scelta popolare per molteplici applicazioni grazie alla maggiore disponibilità in più regioni geografiche e alla loro capacità di comprendere e generare linguaggio naturale in modo efficace a costi più contenuti rispetto ai modelli GPT-4.
Il modello più capace e conveniente della famiglia GPT-3.5 messo a disposizione dal servizio è GPT-3.5 Turbo, che è stato ottimizzato per la chat e funziona bene anche per i compiti di completamento tradizionale.
Per le aziende che non hanno la possibilità di implementare i modelli GPT-4 o prediligono una soluzione economica è generalmente consigliato (se desiderano utilizzare questi modelli) di utilizzare GPT-3.5 Turbo e GPT-3.5 Turbo Instruct rispetto ai modelli GPT-3.5 legacy e GPT-3.
I modelli di embedding sono strumenti progettati per trasformare dati testuali in rappresentazioni numeriche compatte e ricche di informazioni. Questi modelli sono fondamentali per molte applicazioni di intelligenza artificiale, come la ricerca semantica, il clustering dei documenti e il miglioramento delle prestazioni dei modelli di machine learning attraverso la riduzione dimensionale.
Un embedding è una rappresentazione vettoriale di dati, dove ogni elemento viene mappato in uno spazio numerico continuo a dimensioni ridotte. Questo processo permette di catturare e rappresentare la semantica e le relazioni tra i dati in modo che possano essere utilizzati efficacemente in modelli di machine learning.
text-embedding-3-large è l'ultimo e più capace tra questi modelli e supporta la riduzione delle dimensioni dell'embedding tramite un nuovo parametro di dimensione. In genere, gli embedding più grandi sono più costosi dal punto di vista del calcolo, della memoria e dell'archiviazione. La possibilità di regolare il numero di dimensioni consente un maggiore controllo sui costi e sulle prestazioni complessivi.
I costi per l'uso dei modelli di Azure AI dipendono in gran parte dal modello specifico, dall'utilizzo e dai token processati durante le interazioni, sia per l'input che per l'output.
I token sono segmenti di testo, con ciascun token che solitamente corrisponde a circa quattro caratteri in inglese. Questo sistema di calcolo dei costi si applica ai vari modelli, indipendentemente dal fatto che si tratti di generare completamenti di testo o di condurre conversazioni.
Volendo fare un esempio di come funzionano, se un utente fornisce un prompt di 1.000 token e riceve una risposta di 1.000 token, il costo totale dell’operazione sarà per 2.000 token. I modelli più recenti supportano limiti di token più elevati, migliorando la loro capacità di gestire interazioni più complesse e lunghe.
Il costo dei modelli come GPT-3.5 e GPT-4 riflette le loro capacità e le risorse computazionali necessarie per utilizzarle. GPT-3.5 Turbo, ottimizzato per la chat, è spesso più conveniente per le applicazioni che richiedono interazioni frequenti o prolungate. GPT-4 Turbo, dalle prestazioni superiori, comporta ovviamente costi più elevati ma fornisce risultati migliori nella risoluzione di problemi complessi e nella gestione di input multimodali (testo e immagini).
I modelli di embedding di Azure, come text-embedding-ada-002 e il più recente text-embedding-3-large, hanno un costo basato sul numero di token processati. Il nuovo text-embedding-3-large offre dimensioni configurabili, permettendo agli utenti di bilanciare tra prestazioni e costi.
Il fine-tuning (limitato alla serie base GPT-3) comporta tre componenti di costo: ore di training, ore di hosting e utilizzo per token per l'inferenza. I costi di hosting sono continui e vengono sostenuti indipendentemente dall'uso attivo, rendendo essenziale il monitoraggio e la gestione attenta di queste distribuzioni per evitare spese inutili.
I clienti devono essere sempre consapevoli di potenziali costi aggiuntivi come lo stoccaggio dei dati e i servizi di monitoraggio. Azure fornisce strumenti per l'analisi dei costi e la gestione dei budget, permettendo agli utenti di tracciare e gestire le spese in modo efficace. Budget e avvisi possono aiutare a evitare spese eccessive notificando agli utenti anomalie di spesa o il raggiungimento di soglie di costo.
Per chi volesse qualche dettaglio specifico in più sul costo specifico del servizio, invitiamo a fare uso dello strumento messo a disposizione da Microsoft qui per calcolarlo in base alla regione e ai modelli che si desidera utilizzare.
In buona sostanza, Azure AI Studio rappresenta un importante passo avanti nel rendere le capacità avanzate di intelligenza artificiale accessibili e utilizzabili da un pubblico più ampio e rende il servizio offerto da Microsoft una delle soluzioni più convenienti ed efficaci sul mercato per integrare le potenzialità dell’intelligenza artificiale all’interno delle operazioni della propria compagnia.
Come abbiamo avuto modo di vedere, il design intuitivo dell’interfaccia e la flessibilità offerta dalla gestione dei modelli permettono a utenti e aziende di ogni dimensione di sperimentare e distribuire soluzioni basate su AI in maniera rapida e efficiente, senza la necessità di conoscenze tecniche troppo approfondite.
Non resta altro che invitarvi, quindi, a scoprire in prima persona le potenzialità del servizio e di Azure AI Studio, sperimentando con la sua interfaccia per vedere con i propri occhi come l’AI possa trasformare le infrastrutture digitali della vostra compagnia e proiettarla nel futuro.
Azure AI Studio è un'interfaccia web di Microsoft progettata per consentire agli utenti di sperimentare con i modelli OpenAI, tra cui GPT-3.5 e GPT-4, all'interno dell'infrastruttura cloud di Azure.
Azure AI Studio offre dei "playground" per testare varie funzionalità di AI, consentendo un facile setup e test di assistenti personalizzati e strumenti di generazione di contenuti senza richiedere competenze tecniche avanzate.
Azure AI Studio supporta lo sviluppo di agenti conversazionali, completamento del testo per la generazione di contenuti, modelli di embedding per il clustering dei dati e soluzioni di supporto clienti basate su AI.
Azure AI Studio include i modelli GPT-3.5, GPT-4 e di embedding, ciascuno adatto a diverse applicazioni, dalla generazione di testi complessi all'embedding di testo per attività di machine learning.
I costi dipendono dal tipo di modello e dall'uso, incluso il numero di token elaborati per sessione, rendendo Azure AI Studio scalabile per diverse necessità applicative.
Il team Infra & Security è verticale sulla gestione ed evoluzione dei tenant Microsoft Azure dei nostri clienti. Oltre a configurare e gestire il tenant, si occupa della creazione dei deployment applicativi tramite le pipelines di DevOps, monitora e gestisce tutti gli aspetti di sicurezza del tenant, supportando i Security Operations Centers (SOC).