Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Man mano che le organizzazioni si spostano oltre l'esperimento con l'IA, molte difficoltà a ridimensionare gli agenti di intelligenza artificiale in modo sicuro, misurabile e profondamente incorporato nel modo in cui viene eseguito il lavoro. L'intelligenza artificiale agentic aggiunge nuove funzionalità come il processo decisionale autonomo, l'orchestrazione a più passaggi e la collaborazione tra agenti umani, ma richiede anche un nuovo modello operativo aziendale.
Molte iniziative iniziali di IA hanno successo come piloti, ma faticano a superare i casi d'uso isolati. Le organizzazioni spesso chiedono:
- Come si passa dalla sperimentazione all'adozione su scala aziendale?
- Come si bilancia l'innovazione con sicurezza, governance e fiducia?
- In che modo si garantisce agli agenti un valore aziendale misurabile nel tempo?
- Quali funzionalità sono necessarie prima di aumentare l'autonomia dell'agente?
Il modello di maturità dell'intelligenza artificiale agentic offre un framework strutturato che consente di comprendere dove ci si trova nel percorso di adozione dell'agente e cosa è necessario eseguire successivamente. Invece di concentrarsi esclusivamente sulla tecnologia, il modello adotta un approccio olistico tra strategia, trasformazione dei processi, governance, realizzazione del valore, architettura, operazioni, prontezza organizzativa e IA responsabile.
Il modello è organizzato in livelli di maturità progressivi, dalla sperimentazione iniziale a uno stato ottimizzato per il primo agente. A ogni livello, descrive l'aspetto della maturità nella pratica ed evidenzia le lacune, i rischi e le opportunità che emergono comunemente. Usare questo framework per valutare lo stato corrente in modo obiettivo e identificare azioni concrete per procedere.
Soprattutto, il modello di maturità è progettato per essere utilizzabile. Aiuta i leader, gli architetti e i team di consegna ad allinearsi alle priorità, concentrarsi sugli investimenti in cui sono più importanti e creare le basi necessarie per ridimensionare gli agenti di IA in modo responsabile e sostenibile in tutta l'azienda.
Annotazioni
Questo modello di maturità è allineato con Agent Readiness Framework, che definisce le funzionalità di base necessarie per adottare gli agenti su larga scala.
Panoramica del modello di maturità
Le esperienze di Microsoft Copilot e le soluzioni agente create con Agent Builder in Microsoft 365 Copilot, Copilot Studio e Microsoft Foundry introducono nuovi modelli operativi per il funzionamento del lavoro. Non forniscono solo informazioni. Partecipano anche ai flussi di lavoro, attivano azioni e collaborano con gli esseri umani in tutti i sistemi.
Con l'aumentare dell'adozione, le organizzazioni devono evolversi in più dimensioni contemporaneamente, tra cui:
- Strategia e allineamento della leadership
- Riprogettazione e automazione dei processi
- Sicurezza, governance e conformità
- Basi tecnologiche e accesso ai dati
- Preparazione operativa e gestione del ciclo di vita
- Cultura e competenze dell'organizzazione
- Intelligenza artificiale responsabile e fiducia
Il modello di maturità per l'adozione dell'intelligenza artificiale agenti consente di comprendere dove ci si trova oggi, quali funzionalità sono necessarie e come procedere in modo sicuro e intenzionale.
Il modello è organizzato in cinque livelli di maturità e otto pilastri delle funzionalità. Questi livelli e pilastri offrono un modo coerente per valutare lo stato corrente, comprendere la progressione e identificare dove gli investimenti mirati avranno il maggiore impatto.
Livelli di maturità
Annotazioni
Il modello di maturità dell'intelligenza artificiale agentico si basa sul modello CMM (Capability Maturity Model), un modello di sviluppo ampiamente usato per lo sviluppo software, l'IT e altri settori per valutare e migliorare la maturità organizzativa. Un altro modello di questo tipo è il Platform Engineering Capability Model di Microsoft, progettato per migliorare le pratiche di progettazione della piattaforma.
Ogni pilastro delle funzionalità viene valutato in cinque livelli di maturità, dalla sperimentazione anticipata all'operazione ottimizzata su scala aziendale.
- Livello 100 - Iniziali: le iniziative di intelligenza artificiale agentico non sono pianificate e sperimentali. Le funzionalità sono incoerenti, compartimentate e dipendono da individui anziché da procedure ripetibili.
- Livello 200 - Ripetibile: iniziano a emergere modelli e procedure iniziali. I team possono ripetere determinate attività, ma gli approcci sono ancora informali e irregolari nell'intera organizzazione.
- Livello 300 - Definito: le funzionalità sono formalmente definite, documentate e supportate da modelli operativi, standard e governance. Le iniziative di intelligenza artificiale agentico si allineano in modo più chiaro agli obiettivi aziendali.
- Livello 400 - Capace: Gli agenti sono integrati nella pianificazione e nelle operazioni aziendali. Processi, governance e tecnologia supportano la scalabilità e la collaborazione tra team.
- Livello 500 - Efficiente: l'organizzazione opera come un'entità orientata agli agenti. Le funzionalità sono ottimizzate, migliorate continuamente e supportate da una forte leadership, cultura e fiducia.
Pilastri delle funzionalità
Il modello valuta la maturità tra otto pilastri delle funzionalità, ognuno dei quali rappresenta una dimensione importante di successo dell'adozione dell'IA:
- Allineamento della strategia di business e IA: allineamento delle iniziative di IA con obiettivi aziendali, priorità di leadership e strategia a lungo termine.
- Mapping dei processi aziendali: riprogettazione dei processi end-to-end per la collaborazione dell'agente umano e l'esecuzione guidata dall'agente.
- Sicurezza e governance: Stabilire protezioni, controlli e supervisione per gestire i rischi e la conformità man mano che l'intelligenza artificiale cresce.
- Realizzazione e risultati di valore: misurazione, monitoraggio e ottimizzazione dell'impatto aziendale delle iniziative di IA.
- Tecnologia e dati: creazione di basi tecniche, architetture e modelli di accesso ai dati scalabili e sicuri.
- Idoneità e cultura dell'organizzazione: abilitazione di persone, ruoli, incentivi e modi di lavorare che supportano l'adozione dell'IA.
- Intelligenza artificiale responsabile e attendibilità: incorporamento di procedure etiche, trasparenti e responsabili dell'IA nell'organizzazione.
- Gestione delle operazioni e del ciclo di vita: funzionamento, monitoraggio e miglioramento degli agenti in modo affidabile per tutto il ciclo di vita.
Annotazioni
Le operazioni e la gestione del ciclo di vita e l'IA responsabile e la fiducia sono funzionalità di governance trasversali. Anche se sono rappresentati come pilastri autonomi in questo modello per la chiarezza della valutazione, in pratica sono profondamente incorporati in controlli di sicurezza e governance, basi tecnologiche ed esecuzione dei processi aziendali. Separarli in pilastri distinti consente di valutare più precisamente la maturità ed evitare di sottostimare le discipline operative ed etiche necessarie per ridimensionare gli agenti di IA in modo sicuro.
Riferimento rapido
Questa panoramica di riferimento rapido consente di comprendere immediatamente le caratteristiche di maturità. Per indicazioni dettagliate, esempi, rischi e azioni di progressione, vedere i singoli articoli sui pilastri. Approfondiscono l'aspetto di ogni livello e come progredire.
| Livello di maturità | Allineamento della strategia di business e intelligenza artificiale | Mapping dei processi aziendali | Sicurezza e gestione | Realizzazione e risultati di valore | Tecnologia e dati | Gestione delle operazioni e del ciclo di vita | Idoneità e cultura dell'organizzazione | Intelligenza artificiale responsabile e fiducia |
|---|---|---|---|---|---|---|---|---|
| 100: Iniziale |
|
|
|
|
|
|
|
|
| 200: ripetibile |
|
|
|
|
|
|
|
|
| 300: Definito |
|
|
|
|
|
|
|
|
| 400: Capace |
|
|
|
|
|
|
|
|
| 500: Efficiente |
|
|
|
|
|
|
|
|
Per chi è questa guida
Questa guida è per:
- Leader aziendali e tecnologici che pianificano l'adozione dell'IA
- Centri di eccellenza (CoE) per intelligenza artificiale, copilota o automazione
- Architetti, responsabili della sicurezza e professionisti del rischio
- Modificare i manager e i team di abilitazione
- Proprietari di prodotti e lead di trasformazione
Sia che si stia iniziando con l'IA o con gli agenti già operativi nell'ambiente di produzione, il modello di maturità fornisce un linguaggio comune per valutare la preparazione e la pianificazione dei passaggi successivi.
Passo successivo
Nell'articolo successivo si apprenderà come usare il modello di maturità per l'adozione dell'IA agente per valutare lo stato corrente e pianificare il percorso di adozione.
Informazioni pertinenti
- Framework di idoneità dell'agente
- Valutazione dell'idoneità dell'agente
- Hub di apprendimento di Microsoft Copilot per professionisti IT e sviluppatori
- Microsoft 365 Copilot
- Microsoft Copilot Studio
- Adozione dell'agente di intelligenza artificiale
- Sito di adozione di Microsoft 365 Copilot
- Sito di adozione degli agenti di intelligenza artificiale