Condividi tramite


Modificare la versione e le impostazioni del modello

Questo articolo spiega come modificare la versione e le impostazioni del modello nel Generatore di richieste. La versione e le impostazioni del modello possono influire sulle prestazioni e sul comportamento del modello IA generativa.

Selezione del modello

È possibile modificare il modello selezionando Modello nella parte superiore del generatore di richieste. Il menu a discesa ti consente di selezionare tra i modelli di IA generativa che generano risposte per la tua richiesta personalizzata.

L'uso di prompt in Power Apps o Power Automate consuma crediti per la creazione di prompt, mentre quando si usano i prompt in Copilot Studio consuma Crediti Copilot. Per ulteriori informazioni, consultare Licenze e crediti per la creazione di prompt nella documentazione di AI Builder.

Informazioni generali

La tabella seguente descrive i diversi modelli disponibili.

Modello GPT Licenze Funzionalità Categoria
GPT-4.1 mini (modello predefinito) Tariffa di base Addestrato sui dati fino a giugno 2024. Inserisci fino a 128K token. Mini
GPT-4.1 Tariffa standard Addestrato sui dati fino a giugno 2024. Il contesto consentiva fino a 128.000 token. Generale
Chat GPT-5 Tariffa standard Addestramento sui dati fino a settembre 2024. Il contesto consentiva fino a 128.000 token. Generale
Ragionamento GPT-5 Tariffa Premium Addestramento sui dati fino a settembre 2024. Il contesto consentiva fino a 400.000 token. Profondo
Chat GPT-5.2 (sperimentale) Tariffa standard Il contesto consentiva fino a 128.000 token. Generale
Ragionamento GPT-5.2 (sperimentale) Tariffa Premium Addestramento effettuato sui dati fino a ottobre 2024. Il contesto consentiva fino a 400.000 token. Profondo
Claude Sonnet 4.5 (sperimentale) Tariffa standard Modello esterno di Anthropic. Il contesto ha consentito fino a 200.000 token. Generale
Claude Opus 4.5 (sperimentale) Tariffa Premium Modello esterno di Anthropic. Il contesto ha consentito fino a 200.000 token. Profondo

GPT-4o Mini and GPT-4o continuano ad essere utilizzati nelle aree governative degli Stati Uniti. Questi modelli seguono le regole di licenza e offrono funzionalità paragonabili rispettivamente a GPT-4.1 Mini e GPT-4.1.

Nota

I modelli hanno disponibilità diversa tra aree e vengono aggiornati periodicamente. Per altre informazioni, vedere Disponibilità del modello in base all'area e aggiornamenti.

I modelli antropici sono ospitati all'esterno di Microsoft e sono soggetti a termini e gestione dei dati antropici. Scopri di più in Scegli un modello esterno come modello AI principale.

Licenze

In agenti, flussi o app, i prompt che utilizzano modelli consumano Copilot Crediti, a prescindere dallo stadio di rilascio dei modelli. Scopri di più su tariffe e gestione della fatturazione.

Se si dispone di crediti AI Builder, il sistema li utilizza prima quando le richieste vengono usate in Power Apps e Power Automate. Il sistema non utilizza crediti AI Builder quando i prompt vengono usati in Copilot Studio. Per altre informazioni, vedere Panoramica delle licenze nella documentazione AI Builder.

Fasi di rilascio

I modelli attraversano diverse fasi di rilascio. Puoi provare nuovi modelli sperimentali e di anteprima all'avanguardia, oppure scegliere un modello affidabile e accuratamente testato e generalmente disponibile.

Tag Descrizione
Sperimentale Pensata per la sperimentazione, non per l'uso in produzione. In base alle condizioni di anteprima e possono avere limitazioni sulla disponibilità e sulla qualità.
Anteprima Alla fine diventa un modello disponibile a livello generale, ma attualmente non è consigliato per l'uso in produzione. In base alle condizioni di anteprima e possono avere limitazioni sulla disponibilità e sulla qualità.
Nessun tag Generalmente disponibile. Puoi utilizzare questo modello per l'uso in scala e in produzione. Nella maggior parte dei casi, i modelli disponibili a livello generale non presentano limitazioni sulla disponibilità e sulla qualità, ma alcuni potrebbero avere ancora alcune limitazioni, ad esempio la disponibilità a livello di area.
Importante: i modelli Anthropic Claude sono in fase sperimentale, anche se non visualizzano un tag.
Default Modello predefinito per tutti gli agenti e in genere il modello con prestazioni migliori disponibili a livello generale. Il modello predefinito viene aggiornato periodicamente man mano che nuovi modelli più idonei diventano disponibili a livello generale. Gli agenti usano anche il modello predefinito come fallback se un modello selezionato è disattivato o non disponibile.

I modelli sperimentali e di anteprima possono mostrare variabilità nelle prestazioni, nella qualità della risposta, nella latenza o nel consumo dei messaggi. Potrebbero scadere o essere non disponibili. Sono soggetti a condizioni di anteprima.

Categorizzazione

La tabella seguente descrive le categorie diverse di modelli.

Mini Generale Profondo
Prestazioni Buono per la maggior parte delle attività Superiore per attività complesse Formato per attività di ragionamento
Velocità Elaborazione più rapida Potrebbe essere più lento a causa della complessità Più lento poiché ragiona prima di rispondere
Casi d'uso Riepilogo, attività informative, elaborazione di immagini e documenti Elaborazione di immagini e documenti, attività avanzate di creazione di contenuti Attività di analisi e ragionamento dei dati, elaborazione di immagini e documenti

Scegli un mini modello quando hai bisogno di una soluzione economica per compiti moderatamente complessi, hai risorse computazionali limitate o richiede un'elaborazione più rapida. I mini modelli sono ideali per progetti con vincoli di budget e applicazioni come l'assistenza clienti o l'analisi efficiente del codice.

Scegli un modello generale quando ti occupi di compiti altamente complessi e multimodali che richiedono prestazioni superiori e analisi dettagliate. È la scelta migliore per i progetti su larga scala in cui la precisione e le funzionalità avanzate sono fondamentali. Un modello generale è anche una buona scelta quando hai il budget e le risorse computazionali a supportarlo. I modelli generali sono preferibili anche per progetti a lungo termine che potrebbero aumentare di complessità nel tempo.

I modelli profondi eccellono per progetti che richiedono capacità avanzate di ragionamento. Sono adatti a scenari che richiedono una risoluzione sofisticata dei problemi e un pensiero critico. I modelli profondi eccellono in ambienti in cui il ragionamento sfumato, il processo decisionale complesso e l'analisi dettagliata sono importanti.

Scegli tra i modelli in base alla disponibilità di regioni, alle funzionalità, ai casi d'uso e ai costi. Informazioni sui modelli disponibili nell'area e sulle pianificazioni di ritiro del modello in Disponibilità del modello in base all'area e agli aggiornamenti. Altre informazioni sui prezzi sono disponibili nella tabella AI Builder Capability Rate.

Impostazioni del modello

Puoi accedere alla finestra delle impostazioni selezionando i tre punti (...) >Impostazioni in cima al prompt builder. È anche possibile modificare le seguenti impostazioni:

  • Temperatura: temperature inferiori portano a risultati prevedibili. Temperature più elevate consentono risposte più diverse o creative.
  • Recupero record: numero di record recuperati per le fonti di conoscenza.
  • Includi collegamenti nella risposta: quando questa opzione è selezionata, la risposta include le citazioni dei collegamenti per i record recuperati.
  • Abilita l'interprete del codice: Quando selezionato, l'interprete del codice per generare ed eseguire il codice è abilitato.
  • Livello di moderazione dei contenuti: Il livello più basso genera il maggior numero di risposte, ma potrebbe contenere contenuti dannosi. Il livello più alto di moderazione dei contenuti applica un filtro più severo per limitare i contenuti dannosi e genera meno risposte.

Temperatura

Imposta la temperatura per il modello di IA generativa usando lo slider. Varia da 0 a 1. Questo valore guida il modello di IA generativa su quanta creatività (1) rispetto alla risposta deterministica (0) che fornisce.

Nota

L'impostazione della temperatura non è disponibile per il modello di ragionamento GPT-5. Per questo motivo, il slider viene disabilitato quando si seleziona il modello di ragionamento GPT-5.

La temperatura è un parametro che controlla la casualità dell'output generato dal modello AI. Una temperatura più bassa si traduce in risultati più prevedibili e conservativi. In confronto, una temperatura più alta permette maggiore creatività e diversità nelle risposte. È un modo per affinare l'equilibrio tra casualità e determinismo nell'output del modello.

Per impostazione predefinita, la temperatura è 0, come nei prompt creati in precedenza.

Temperatura Funzionalità Utilizzo in
0 Risultati più prevedibili e conservativi.
Le risposte sono più coerenti.
Richieste che richiedono elevata precisione e minore variabilità.
1 Più creatività e diversità nelle risposte.
Risposte più varie e talvolta più innovative.
Prompt che creano contenuti innovativi e originali.

Regolare la temperatura può influenzare l'output del modello, ma non garantisce un risultato specifico. Le risposte dell'intelligenza artificiale sono intrinsecamente probabilistiche e possono variare anche con la stessa impostazione della temperatura.

Livello di moderazione dei contenuti

Imposta il livello di moderazione dei contenuti per il prompt usando il cursore. Con un livello di moderazione più basso, il tuo prompt può fornire più risposte. Tuttavia, l'aumento delle risposte potrebbe influire sulla tolleranza di contenuti dannosi (odio e violazione dell'equità, contenuti sessuali, violenza, autolesionismo) causati dal prompt.

Nota

L'impostazione del livello di moderazione dei contenuti è disponibile solo per modelli gestiti. Per questo motivo, il dispositivo di scorrimento non è disponibile quando si selezionano i modelli Anthropic o Azure AI Foundry.

I livelli di moderazione vanno da basso a alto. Il livello predefinito di moderazione per i prompt è Moderato.

Una moderazione più bassa aumenta il rischio di contenuti dannosi nelle risposte del tuo prompt. Una maggiore moderazione riduce quel rischio, ma potrebbe diminuire il numero di risposte.

Livello di moderazione dei contenuti Descrizione Uso suggerito
Low Potrebbe permettere contenuti di odio, contenuti ingiusti, sessuali, di violenza o autolesionistici che mostrano istruzioni esplicite e gravi, azioni, danni o abusi dannosi. Include l'approvazione, la glorificazione o la promozione di atti gravi dannosi, forme estreme o illegali di danno, radicalizzazione o scambio o abuso di potere non consensuale. Utilizzare per l'elaborazione di prompt contenenti dati che potrebbero essere considerati dannosi (ad esempio, descrizioni di violenza o procedure mediche).
Moderato Potrebbe permettere contenuti di odio e equità, sessuali, violenza o autolesionismo che utilizzano linguaggio offensivo, offensivo, derisivo, intimidatorio o denigrante nei confronti di specifici gruppi identitari. Includono rappresentazioni di ricerca ed esecuzione di istruzioni dannose, fantasie, glorificazione, promozione del danno a media intensità. Filtro predefinito. Adatto per la maggior parte degli usi.
High Potrebbe permettere contenuti di odio e equità, sessuali, violenza o autolesionismo che esprimano opinioni pregiudiziate, giudicanti o con opinioni forti. Include uso offensivo del linguaggio, stereotipi, casi d'uso che esplorano un mondo di fantasia (ad esempio, videogiochi, letteratura) e rappresentazioni a bassa intensità. Usalo se serve un filtraggio più restrittivo rispetto al livello Moderato.

Per sovrascrivere l'impostazione di moderazione dei contenuti dell'agente quando si utilizza il prompt in un agente, imposta l'opzione 'Dopo l'esecuzione' nella schermata Completamento dello strumento prompt su Invia risposta specifica (specificare sotto) Il Messaggio da visualizzare dovrebbe contenere la variabile personalizzata Output.predictionOutput.text.

Screenshot della schermata 'Completamento' con l'impostazione 'Invia risposta specifica (specifica sotto)'.