Delen via


Overzicht van prompts

In dit artikel worden prompts en prompt engineering uitgelegd als sleutelconcepten om u te helpen krachtige generatieve AI-mogelijkheden te creëren die kunnen worden gebruikt in Copilot Studio.

Belangrijk

  • Prompts gebruiken modellen die mogelijk worden gemaakt door Azure Foundry.
  • Deze mogelijkheid kan onderworpen zijn aan gebruikslimieten of capaciteitsbeperking.

Vereiste voorwaarden

Wat is een prompt

Een prompt bestaat voornamelijk uit een natuurlijke taalinstructie die een generatief AI-model vertelt een taak uit te voeren. Het model volgt de prompt om de structuur en inhoud te bepalen van de tekst die het moet genereren. Prompt engineering is het proces van het maken en verfijnen van de prompt die door het model wordt gebruikt.

Een promptbuilder-ervaring stelt makers in staat herbruikbare prompts te bouwen, testen en opslaan. In deze ervaring kun je ook invoervariabelen en kennisdata gebruiken om dynamische contextgegevens tijdens runtime te leveren. Je kunt deze prompts delen met anderen en ze gebruiken in agenten, workflows of apps.

Deze prompts kunnen voor vele taken of zakelijke scenario's worden gebruikt, zoals het samenvatten van inhoud, het categoriseren van gegevens, het extraheren van entiteiten, het vertalen van talen, het beoordelen van gevoel of het formuleren van een reactie op een klacht. U kunt bijvoorbeeld een prompt maken om actie-items uit uw bedrijfse-mails te kiezen en deze te gebruiken in een Power Automate werkstroom om automatisering van e-mailverwerking te bouwen.

Schermafbeelding van de prompt builder prompts editor

In Copilot Studio kunnen prompts worden gebruikt als agenthulpprogramma's om de chatervaring te verbeteren of geavanceerde AI-automatiseringen of werkstroomknooppunten in te schakelen om AI-acties in deterministische automatiseringen te combineren.

Menselijk toezicht

Menselijk toezicht is een belangrijke stap bij het werken met content die is gegenereerd vanuit een generatief AI-model. Dergelijke modellen zijn getraind op enorme hoeveelheden data en kunnen fouten en biases bevatten. Een mens moet de inhoud beoordelen voordat u deze online plaatst, naar een klant stuurt of gebruikt om een zakelijke beslissing te onderbouwen. Menselijk toezicht helpt u mogelijke fouten en vooroordelen te identificeren. Bovendien wordt hiermee gewaarborgd dat de inhoud relevant is voor het beoogde gebruiksscenario en op één lijn ligt met de waarden van het bedrijf.

Menselijke review kan ook helpen om eventuele problemen met het model zelf te identificeren. Als het model bijvoorbeeld inhoud genereert die niet relevant is voor het beoogde gebruik, moet u mogelijk de prompt aanpassen.

Verantwoorde AI

We streven ernaar om verantwoordelijke AI vanaf het ontwerp te creëren. Bij ons werk worden we geleid door een reeks kernprincipes: eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoordingsplicht. We brengen deze principes in het hele bedrijf in de praktijk om AI te ontwikkelen en in te zetten die een positieve impact heeft op de samenleving. We hanteren een alomvattende aanpak, waarbij innovatief onderzoek, uitzonderlijke engineering en verantwoord bestuur worden gecombineerd. Naast het toonaangevende onderzoek van OpenAI naar AI-afstemming werken we aan een raamwerk voor de veilige inzet van onze eigen AI-technologieën dat is bedoeld om de industrie aan meer verantwoorde resultaten te helpen.

Meer informatie over transparantie in Transparency-notitie voor Azure OpenAI.