Week 11 · Fase 4: Orkestreren STRETCH

Offerte-agent: van briefing naar compleet voorstel

Offerte = drie bronnen: aanvraag, referenties, markt. Agent orkestreert in vijf minuten.

Tijd
28 min
Level
Level 5 🔥🔥🔥🔥🔥
Stappen
4
Minuten agent
5min
Weken review
12wkn
  • Copilot Studio
  • Researcher
  • SharePoint grounding
Wat je leert

Vier-stappen-orchestratie, drie bronnen, één concept-guard

Op niveau 5 orkestreer je meerdere Frontier-features in een expliciete volgorde. Een offerte is het archetype hoge-stakes-document: fout in prijs kost marge, fout in scope kost claim-risico, fout in concurrentie-positionering kost opdracht. De Offerte-agent combineert Researcher, SharePoint grounding en deep reasoning in één autonoom proces; maar met bewuste discipline over volgorde en output.

De drie informatie-bronnen die een offerte goed maken zijn: (1) klant-context en vraag uit de aanvraag, (2) markt-context uit Researcher (concurrentie, benchmarks, trends), (3) interne referenties uit SharePoint (eerdere offerte-templates, gewonnen voorstellen, prijs-referenties). Zonder een van de drie is het voorstel plat of off-the-mark.

De orchestratie-discipline: bronnen in expliciete volgorde raadplegen. Eerst aanvraag parseren, dan intern zoeken, dan markt-check, dan synthese. Elke stap verfijnt de scope voor de volgende. Parallel voelt sneller maar levert drift; serieel bouwt context op.

Deep reasoning spaarzaam inzetten: alleen op de synthese-stap gebruik je de keyword 'reason' in de Copilot Studio-instructies. Voor parse-en-zoek-stappen volstaan default-modellen. Dit houdt kosten en response-tijd beheersbaar terwijl je de zware denk-capaciteit inzet waar het er toe doet.

Voorbereiding · open als je wil checken Wat je vooraf klaar wil hebben
  • Een aanvraag-kanaal met consistente format (SharePoint-lijst, specifieke e-mail-tag, of Teams-kanaal) dat de agent als trigger gebruikt
  • Een SharePoint-archief van minimaal vijftien eerdere offertes met metadata (sector, scope, uitkomst) voor bruikbare grounding
  • Toegang tot Researcher in Microsoft 365 Copilot (GA sinds juli 2025 wereldwijd voor Copilot-licentie-houders)
  • Copilot Studio met deep reasoning aangezet in de agent-settings (preview, beschikbaar in US en EU excl UK, Azure OpenAI o3)
  • Een Word-offerte-template met vaste secties waar de agent content in invult; geen design-vrijheid voor de agent op dit moment
Prompts voor je agent

Prompts per bouw-stap

Gebruik deze prompts in Copilot Studio's natural-language designer. Ze beschrijven de agent in termen die Studio direct vertaalt naar trigger-config, topics en actie-definities.

Stap 2 : Offerte-agent instructies met bron-volgorde
Je bent een Offerte-agent voor [type-opdrachten]. Op elke trigger (nieuwe aanvraag in [lijst-URL]) voer je deze stappen in expliciete volgorde uit. Stap 1: parse de aanvraag. Extract: (a) klant-naam, (b) vraag in een zin, (c) scope-grootte-indicatie, (d) deadline, (e) speciale condities. Stap 2: zoek in SharePoint-archief [URL] naar drie eerdere gewonnen offertes met maximale overlap op (a) sector, (b) scope-grootte, (c) vraag-type. Citeer welke drie je vond plus waarom. Stap 3: query Researcher met de formulering: 'Wat zijn drie marktreferenties voor [vraag-type] in [sector] in [jaar]'. Log de drie bronnen die Researcher gebruikt. Stap 4: Use reason to integrate aanvraag-parse, SharePoint-matches, Researcher-findings into een voorstel-draft volgens template [URL]. Output: Word-document in OneDrive [map], nooit e-mail aan externe adressen.
Waarom werkt dit

De expliciete vier-stappen-volgorde plus het plaatsen van 'reason' alleen op stap 4 is de orchestratie-discipline van L5. De agent doet elke stap serieel; stap 2 bouwt voort op stap 1, stap 3 op stap 2, stap 4 synthetiseert. De citaat-eisen bij stap 2 en 3 maken de review-traceerbaar: jij ziet waar info vandaan komt en kunt gericht verifieren.

Stap 3 : SharePoint-grounding-query scherpen
Ik heb aanvraag [samenvatting] en zoek drie vergelijkbare eerdere offertes uit [SharePoint-archief-URL]. Gebruik deze filters in volgorde: eerst sector-match ([sector]), dan scope-grootte-match (binnen 25 procent van [scope-uren-of-bedrag]), dan uitkomst (alleen gewonnen). Rangschik matches op relevantie, niet op recency. Per match: titel, datum, een zin over scope, en waarom deze match telt.
Waarom werkt dit

Deze prompt geef je als tweede-stap-instructie aan de agent (of als custom-action). De filter-volgorde sector-scope-uitkomst is de standaard voor offerte-grounding, maar je kunt hem aanpassen per branche: in sommige sectoren weegt recency zwaar (tech-industrie), in andere niet (overheid-aanbesteden). Het expliciet maken van de volgorde voorkomt dat de agent gewonnen-maar-irrelevant of recent-maar-verloren matches opneemt.

Stap 4 : Review-check-lijst per draft
Ik heb een offerte-draft gegenereerd via mijn Offerte-agent. Help me een review doen via deze check-lijst. (A) Prijs: komt de prijs overeen met onze interne tarief-tabel, en als Researcher-data bronnen gebruikt voor marktvergelijk, zijn die cijfers verifieerbaar (geen hallucinaties). (B) Scope: beschrijft de scope exact wat de aanvraag vraagt, zonder uitbreiding of versmalling. (C) Referenties: citeert de draft drie SharePoint-matches plus drie Researcher-bronnen met werkende links. (D) Tone plus format: klopt met ons huisstijl-template. (E) Concept-markering: staat expliciet DRAFT in de header plus een waterschap-tag zodat niet per ongeluk verzonden. Wijs per categorie aan wat klopt en wat aangepast moet.
Waarom werkt dit

Deze review-check-lijst is mens-werk, niet agent-werk. De agent produceert het concept; jij loopt deze vijf punten door. De waarde: een gestructureerde review voorkomt dat je per offerte opnieuw moet bedenken waar je op let, en zorgt dat de vijf belangrijkste failure-modes (fout-prijs, scope-drift, hallucinatie, format-afwijking, per-ongeluk-verzenden) expliciet gecheckt worden.

BOW JE AGENT

Offerte-agent met vier stappen

Eigen aanvraag · 15 minuten · draft in OneDrive

Discovery · Oefening 01

Wat isoleer je?

Variabele: bron-volgorde-versus-parallel

Draai de oefening eerst met de standaardwaarde. Wijzig dan alleen deze variabele en draai opnieuw. Leg beide outputs naast elkaar; benoem de delta in één zin.

Jouw principe
Drie bronnen in een serieel-verfijnde volgorde (elke volgende bron wordt gestuurd door wat de vorige opleverde) geven scherpere output dan drie bronnen parallel-opgehaald. Parallel voelt sneller maar levert drift; serieel bouwt context op. Dit is het orchestratie-principe dat ook in mw-45 terugkeert.

Bouw de Offerte-agent in Copilot Studio. Zet een schedule-trigger of event-trigger op je aanvraag-kanaal. Voeg SharePoint-archief als knowledge source toe; zet Researcher-access aan; turn deep reasoning aan in agent-settings. Test met een historische aanvraag: controleer dat de agent de vier stappen serieel doorloopt en dat de draft-output een werkend Word-document in OneDrive is met DRAFT-watermerk.

Werkblad 3 stappen
  1. Scenario Stap 1 van 3

    Kies je scenario en bereid voor

    Kies welk scenario op jouw werk van toepassing is. Scenario A (B2B-sales): samengestelde offerte-aanvraag voor een implementatie-project, SharePoint-archief met vijftig gewonnen offertes, Researcher voor sector-trends. Focus: controleer of de vier-stappen-volgorde serieel draait. Scenario B (Consultancy): strategy-opdracht-aanvraag, kleiner SharePoint-archief met vijftien afgeronde opdrachten, Researcher voor industrie-context. Focus: test dat de synthese-stap de drie bronnen werkelijk integreert in plaats van naast elkaar te plakken.
  2. Copilot Studio Stap 2 van 3

    Agent aanmaken en trigger instellen

    Open Copilot Studio. Maak een nieuwe agent aan. Stel de trigger in op je aanvraag-kanaal. Voeg het SharePoint-archief toe als knowledge source. Activeer Researcher-access via de agent-settings. Zet Deep reasoning aan in agent-settings (preview; vereist generative orchestration aan).
  3. Test Stap 3 van 3

    Serieel-check in Activity-tab

    Test met een historische aanvraag. Open de Activity-tab in Copilot Studio na de test-run. Controleer: doorloopt de agent de vier stappen serieel (parse → SharePoint → Researcher → synthese) of lopen stappen parallel? Als stappen parallel lopen, check de instructie-formulering: verwijder 'and simultaneously' of vergelijkbare parallel-signalen. Bevestig dat de output een werkend Word-document is in jouw OneDrive met DRAFT in de header.

Hint: Als je merkt dat de agent alle bronnen tegelijk lijkt te raadplegen, kijk in de Activity-tab: waarschijnlijk heb je de 'use reason' per-stap-instructie te ruim gezet. Beperk 'reason' tot letterlijk de synthese-stap; laat parse-en-zoek met default lopen. Dat schrijft orchestratie naar serieel.

Neem een draft-offerte die je agent heeft gegenereerd. Ga naar de Researcher-bronnen-citaten in de draft. Klik elke bron-URL aan en verifieer: bestaat de pagina, ondersteunt hij de cijfer of claim in de draft, komt de datum overeen. Tel: drie van drie kloppen, twee van drie, een van drie, nul. Deel je score met de sprint-groep.

Opdracht
Neem een draft-offerte die je agent heeft gegenereerd. Ga naar de Researcher-bronnen-citaten in de draft. Klik elke bron-URL aan en verifieer: bestaat de pagina, ondersteunt hij de cijfer of claim in de draft, komt de datum overeen. Tel: drie van drie kloppen, twee van drie, een van drie, nul. Deel je score met de sprint-groep.

Hint: Researcher hallucineert soms autoritatief-klinkende cijfers die niet terug te vinden zijn in de geciteerde bron. Drie-van-drie is uitzonderlijk; twee-van-drie is typisch voor het best-presterende setup; nul-van-drie betekent dat je Researcher-query-formulering te vaag was of dat de sector-info gewoon niet goed beschikbaar is online. Los geen-van-drie op door de query specifieker te maken, niet door meer Researcher-aanroepen; de kwaliteit schaalt met query-precisie, niet met volume.

Waarom dit werkt

Waarom volgorde meer waard is dan snelheid

De verleiding bij een drie-bronnen-agent is om alles parallel te triggeren: tegelijk Researcher, SharePoint en aanvraag-parse, omdat het sneller voelt. In de praktijk leidt parallel tot drift: Researcher zoekt markt-info zonder te weten waar de aanvraag precies om vraagt, SharePoint vindt niet-relevante matches. Serieel bouwt context op; elke stap verfijnt de scope voor de volgende.

  • Stap 1: aanvraag parseren Agent extraheert klant-naam, vraag in één zin, scope-grootte, deadline en speciale condities; dit stuurt alle volgende stappen
  • Stap 2: SharePoint zoeken op basis van stap 1 Grounding-query is gescherpt op sector plus scope-grootte plus uitkomst (alleen gewonnen); geen irrelevante matches
  • Stap 3: Researcher raadplegen met query uit stap 1 en 2 Markt-referenties sluiten aan op de werkelijke aanvraag en bestaande interne ervaring; geen generieke sector-info
  • Stap 4: synthese met 'reason' keyword Deep reasoning integreert drie bronnen tot een coherent voorstel-draft; zware denk-capaciteit alleen op de stap die het vereist

Het resultaat: vijf minuten agent-werk, dertig tot veertig minuten expert-review. Zes uur werk is structureel teruggebracht naar een half uur, zonder de contractuele verantwoordelijkheid te verschuiven.

Een Offerte-agent verandert de tijd-kosten van een offerte maar niet de verantwoordelijkheids-kosten. Snellere drafts leveren niet automatisch beter offertes op, tenzij de expert-review-discipline strak gehandhaafd blijft.

Het resultaat: vijf minuten agent-werk, dertig tot veertig minuten expert-review. Zes uur werk is structureel teruggebracht naar een half uur, zonder de contractuele verantwoordelijkheid te verschuiven.

Tips

Tips die het verschil maken

Probeer: volgorde-diagram tekenen voor je Copilot Studio opent. Pak jouw laatste samengestelde offerte. Teken de drie bronnen (aanvraag, interne, markt) plus de synthese-stap als schema. Die schema-discipline is de les: de agent voert de volgorde uit die jij hebt uitgedacht, niet andersom.

Probeer: 'reason' keyword alleen op de synthese-stap zetten. Copilot Studio ondersteunt deep reasoning via de keyword 'reason' in agent-instructies. Gebruik hem niet voor parse-stappen of zoek-stappen; die zijn prima met default-modellen. Zet 'reason' alleen in de instructie van stap 4. Dit houdt response-tijd plus capacity-kosten beheersbaar.

Probeer: SharePoint-archief structureren voor je de agent bouwt. De agent vindt alleen bruikbare eerdere offertes als jouw archief gestructureerd genoeg is: mappen per opdracht-type, metadata-tags per offerte (sector, scope-grootte, jaar, uitkomst gewonnen-of-verloren), en documenten in PDF of DOCX. Een rommel-archief grondt niet tot scherpe referenties.

Probeer: concept-guard als permanente policy behandelen, niet als tijdelijke maatregel. Andere agents mogen na een shadow-run-week in productie; een Offerte-agent niet. Plan twaalf weken expert-review op elke output, daarna een quarterly review-moment: klopten de drafts, gaan we gedeeltelijk autonomie toestaan? Autonomie uitbreiden is een bewuste stap, geen default.

Let op

Wat vaak misgaat bij autonome agents

Morgen anders

Pak jouw laatste samengestelde offerte en teken de drie bronnen

Pak jouw laatste samengestelde offerte. Teken de drie bronnen (aanvraag, interne, markt) plus de synthese-stap uit als schema voor je de agent opent; de schema-discipline is de les.

  1. Aanvraag-kanaal checken: welk kanaal heeft een consistente format dat als trigger kan dienen?
  2. Archief-audit: heeft je SharePoint-archief minimaal vijftien offertes met metadata (sector, scope, uitkomst gewonnen)?
  3. Volgorde uitschrijven: teken de vier stappen op papier; welke informatie geeft stap 1 mee aan stap 2?
  4. Deep reasoning beperken: markeer in je uitgeschreven volgorde alleen stap 4 als 'reason'-stap.
  5. Eerste test met historische aanvraag: gebruik een aanvraag van drie maanden geleden zodat je het verwachte resultaat kent.

Meet na de eerste echte aanvraag: hoeveel minuten duurde de review versus de gebruikelijke bouw-tijd? Dat is je nul-meting voor de agent.

Check jezelf
Kernboodschap

Vier-stappen-orchestratie, deep reasoning alleen op synthese, SharePoint-archief voorbereid, twaalf-weken concept-guard. Snelheid zit in de orchestratie, niet in parallel-geforceerde bronnen.

Inleveren

Lever je werk in

Kies wat je wil inleveren voor MW-44.

Rubric
Output
Reflectie
Morgen
Rubric

Werkt het bij jou?

Drie korte vragen op je eigen output.