Tant que vous vendez sur une seule marketplace, la gestion des commandes reste souvent “supportable”. Vous avez un tableau de bord, une page commandes, parfois un outil pour imprimer les étiquettes, et une routine. Les problèmes existent déjà (annulations, retours, délais), mais ils restent ponctuels et vous les absorbez.
Le basculement arrive généralement à la deuxième ou troisième marketplace, quand la charge ne double pas… mais se multiplie. Les mêmes actions se répètent sur plusieurs interfaces, les mêmes données existent en plusieurs versions, et la moindre exception oblige à jongler entre outils. À ce moment, l’enjeu n’est plus “faire partir les colis”, mais tenir une qualité de service constante.
La centralisation des commandes marketplace devient alors un sujet très concret : délais de préparation, fiabilité du stock, promesse de livraison, qualité du tracking, gestion des retours, et capacité à absorber les pics. Une organisation qui fonctionne “à la main” peut être performante en faible volume, mais devient fragile en croissance.
La tentation est de chercher un outil miracle. Pourtant, la centralisation n’est pas qu’une question d’outil : c’est une question de responsabilité. Qui décide ? Qui est la source de vérité ? Qui orchestre ? Qui exécute ? Qui supervise ? Sans réponses claires, vous ne centralisez pas : vous déplacez le problème.
Dans la plupart des projets, la douleur qui déclenche la centralisation est toujours la même : l’entreprise ne sait plus “où en est” une commande sans demander à quelqu’un. Quand l’information devient orale, la charge explose, le support souffre, et la confiance s’érode.
L’objectif de ce guide est pédagogique : vous aider à comprendre ce qui casse à l’échelle, ce qu’une centralisation solide doit couvrir, et comment construire une architecture (OMS, ERP, WMS, API, middleware) qui accompagne votre croissance au lieu de la freiner.
“Centraliser” est un mot-valise. Pour certains, cela veut dire : voir toutes les commandes au même endroit. Pour d’autres : automatiser l’import et l’export de statuts. Pour d’autres encore : synchroniser le stock, générer les bons de livraison, facturer et piloter la marge. Si vous ne clarifiez pas ce que vous centralisez, vous allez choisir une solution inadaptée.
La clé, c’est de comprendre le rôle de chaque brique. Une architecture stable n’est pas celle qui “fait tout”, c’est celle qui donne à chaque système une mission claire et évite les chevauchements. Cette clarté réduit la complexité, simplifie les intégrations, et limite les zones grises.
Un OMS (Order Management System) est conçu pour gérer le cycle de vie des commandes : ingestion multi-canaux, priorisation, allocation de stock, préparation, split, retours, et parfois promesse de livraison. C’est une brique opérationnelle : elle parle flux, statuts, règles, et exceptions.
Un bon OMS n’est pas seulement une “boîte de réception”. Il impose un modèle de commande commun, et vous permet de traiter les commandes de manière homogène, même si les marketplaces ont des exigences différentes. Dans une organisation multi-marketplaces, c’est souvent l’OMS qui “tient” la qualité de service.
L’ERP est la colonne vertébrale de l’entreprise : achats, référentiel produit, stock comptable, facturation, comptabilité. Il excelle dans la cohérence, la traçabilité et la conformité. En revanche, il n’est pas toujours adapté à la volatilité des marketplaces : statuts fréquents, mises à jour en rafale, exceptions qui changent la commande après l’achat, etc.
Cela ne signifie pas qu’il faut “éloigner” l’ERP. Cela signifie qu’il faut le protéger : lui envoyer des informations stabilisées, et éviter d’y injecter du bruit opérationnel. Un ERP stable rend la finance stable. Et la finance stable soutient la croissance.
Le WMS (Warehouse Management System) gère la réalité du terrain : emplacements, picking, packing, vagues de préparation, contrôles, inventaires, et traçabilité. Son rôle est de garantir que le bon produit part, au bon moment, depuis le bon endroit.
Si votre complexité vient de l’entrepôt (plusieurs sites, préparation rapide, contrôle qualité, lots, sérialisation), le WMS devient un pivot. Mais il ne remplace ni OMS (orchestration multi-canaux) ni ERP (finance et référentiel). Il exécute, il ne décide pas.
La couche d’intégration est souvent sous-estimée, alors qu’elle détermine la robustesse. C’est elle qui relie les marketplaces, l’OMS, l’ERP, le WMS, les transporteurs. Elle gère les transformations, les règles, les limites de débit, les erreurs, et surtout la supervision.
Dans une approche API-first, cette couche apporte des garanties : idempotence, retries, replays, logs structurés, alerting, et capacité à isoler un incident sans casser toute la chaîne. À l’échelle, la centralisation n’est pas un écran : c’est une fiabilité.
Le point de rupture n’arrive pas toujours avec un “gros incident”. Il arrive souvent par accumulation : plus d’outils, plus de process, plus d’exceptions, plus de validation. L’entreprise “tient”, mais elle ralentit. Et cette perte de vitesse coûte cher.
Voici les signaux les plus fréquents (et les plus révélateurs) :
1) Vous ne savez plus répondre vite à “où en est cette commande ?”. Si la réponse nécessite d’ouvrir plusieurs outils, de croiser des exports ou d’interrompre quelqu’un, votre système d’information ne sert plus l’opérationnel.
2) Les statuts divergent selon les systèmes. “Expédié” dans un outil, “en préparation” dans un autre, “annulé” sur la marketplace. La divergence crée de la méfiance, et la méfiance crée du contrôle manuel.
3) Les ventes à découvert augmentent. Vous expédiez en retard, vous annulez, vous subissez des pénalités, et vous perdez en visibilité. Très souvent, ce n’est pas un problème de “stock faible”, mais de “stock mal synchronisé”.
4) Les retours ne sont plus maîtrisés. Produits non réintégrés, remboursements décalés, litiges qui s’empilent. À l’échelle, le retour doit être un flux officiel, pas un traitement “au cas par cas”.
5) Le support client devient un centre de tri. Une part importante des tickets concerne des sujets d’état, de tracking, ou de promesse. Si le support passe son temps à “retrouver l’info”, c’est que les flux ne sont pas fiables.
6) Vous multipliez les outils qui se chevauchent. Un outil pour les commandes, un outil pour l’expédition, un outil pour le stock, un outil pour la compta, un outil pour les retours… et des exports pour relier le tout. Ce n’est pas l’outil le problème, c’est l’absence d’architecture.
7) Chaque nouvelle marketplace “consomme” trop d’énergie. Si l’on doit re-mapper à la main, re-définir des règles, re-former l’équipe et re-bâtir des routines, vous ne capitalisez pas. Vous recommencez.
8) Vous avez des “personnes clés” qui savent réparer. Quand une ou deux personnes sont les seules à comprendre la chaîne, la centralisation est fragile. Votre système repose sur la mémoire, pas sur des flux.
9) Les délais se dégradent à chaque pic. Soldes, Black Friday, campagnes, saisons… Si chaque pic exige une mobilisation exceptionnelle, vous êtes à la limite du modèle.
10) Vous pilotez le chiffre d’affaires, pas le coût opérationnel. La vraie limite arrive quand la croissance masque la dérive : plus de ventes mais moins de marge, car l’opérationnel devient de plus en plus coûteux à maintenir.
Il existe plusieurs “niveaux” de centralisation. Ils ne sont pas bons ou mauvais en soi : ils sont adaptés à un contexte. Le piège, c’est de rester trop longtemps sur un scénario “débutant” alors que le volume et la complexité ont changé.
C’est souvent la phase 0 : on exporte les commandes, on recompose des tableaux, on met à jour des statuts à la main, on ajuste le stock “au ressenti”, et on corrige les incidents au fil de l’eau. Ça peut tenir tant que l’équipe est petite et le volume faible.
Le problème, c’est que cette approche ne s’améliore pas avec le volume. Plus vous grandissez, plus la variance grandit. Et la variance est l’ennemi de la qualité : elle crée des erreurs, des retards, et des coûts invisibles.
Les connecteurs apportent souvent un vrai gain : centraliser les commandes, synchroniser catalogue et stock, et uniformiser une partie des processus. Pour beaucoup de vendeurs, c’est l’étape naturelle après les exports.
Les limites apparaissent quand vos règles deviennent spécifiques : multi-entrepôts avec logique d’allocation, contraintes ERP, facturation avancée, bundles, stocks “vendables” avec contrôles, ou besoin de supervision fine. À ce moment, le connecteur peut devenir un frein si vous ne pouvez pas le faire évoluer.
Un OMS devient pertinent quand vous voulez standardiser le traitement des commandes : ingestion multi-canaux, règles par marketplace, priorités, split, retours, et workflows. Il vous aide à passer d’un pilotage “par outil” à un pilotage “par process”.
Un OMS est aussi une façon de rendre votre organisation plus prévisible. Vous définissez des règles et des états, plutôt que d’improviser. Les équipes gagnent en autonomie, et la qualité de service devient plus stable.
Quand vous atteignez un certain niveau de volumétrie, la question devient : comment garantir la fiabilité des flux malgré les pannes, les délais, les limites d’API ? C’est le moment où l’architecture prime sur l’outil.
Une approche API-first bien conçue isole les connecteurs marketplace, normalise les commandes dans un modèle pivot, sécurise les événements (idempotence), gère les erreurs (retries/replays), et supervise tout le système. C’est ce qui permet d’ajouter des marketplaces sans “repartir de zéro”.
Quand une centralisation “casse”, c’est rarement parce qu’un outil est mauvais. C’est parce que l’outil ou l’architecture ne couvre pas les réalités du terrain. À l’échelle, la difficulté vient de quatre éléments qui se combinent : les données, les statuts, les exceptions, et le rythme.
Chaque marketplace a son vocabulaire, son format, ses règles. Les adresses, les taxes, les services, les options, les bundles, les promotions… Même une information “simple” comme le mode de livraison peut avoir des implications très différentes.
Si vous ne normalisez pas, vous accumulez de la complexité dans les process. Si vous normalisez mal, vous perdez des informations importantes. La centralisation exige un modèle pivot : un langage commun qui capture l’essentiel, sans nier les spécificités.
À petite échelle, on s’en sort “en regardant”. À grande échelle, les statuts doivent être gouvernés : qui met à jour quoi, à quel moment, avec quelle preuve ? Si vous ne définissez pas une machine à états, vous aurez des statuts incohérents.
Et dès que les statuts sont incohérents, le support et l’opérationnel vont créer des contournements. Ces contournements créent des divergences, qui créent encore plus de tickets. C’est un cercle.
Annulation partielle, rupture, substitution, colis perdu, retour, remboursement partiel… En faible volume, ce sont des cas rares. En fort volume, c’est une part importante de l’activité. Une centralisation qui ne traite pas les exceptions comme un flux officiel est condamnée.
Les marketplaces imposent des délais : acceptation, expédition, tracking valide. Quand vous centralisez, vous ajoutez des étapes. Si votre architecture n’est pas performante (latence, files, traitements), vous ratez les SLA. Et rater les SLA a un coût direct : pénalités, perte de visibilité, baisse de la note vendeur.
La bonne question à l’échelle est donc : votre centralisation est-elle conçue comme un système fiable, capable d’encaisser les pics, de gérer les erreurs et de rattraper les décalages ? Si la réponse est non, “centraliser” peut aggraver la situation.
Si l’on devait désigner un point faible récurrent dans les projets de centralisation des commandes marketplace, ce serait la gestion des statuts et du tracking. Parce que le statut est la promesse visible : pour le client, pour la marketplace, pour vos équipes. Si le statut ment, tout le monde souffre.
Le piège, c’est de mapper des mots (“expédié”, “livré”) plutôt que des événements réels. Or, un événement est vérifiable : étiquette créée, colis scanné, transporteur pris en charge, livré, retour réceptionné. Un mot, lui, peut représenter des réalités différentes selon les outils.
Dans un WMS, “expédié” peut signifier “sorti de la zone de packing”. Chez le transporteur, “expédié” signifie “scanné en prise en charge”. Sur une marketplace, “expédié” peut nécessiter un tracking valide et une date cohérente. Si vous ne gérez pas ces nuances, vous déclenchez des litiges.
Résultat typique : l’outil central marque la commande expédiée à l’impression de l’étiquette, la marketplace attend un scan, le client ne voit rien, le support reçoit des tickets, et l’opérationnel doit “rattraper”. Vous perdez du temps, de l’argent, et de la crédibilité.
Une machine à états (state machine) décrit les états possibles et les transitions autorisées. Chaque transition est déclenchée par un événement, et idéalement associée à une preuve (timestamp, numéro de tracking, scan). Ainsi, vous ne “changez pas un statut”, vous enregistrez un fait.
Cette approche rend les incidents auditables. Quand un client demande “où est mon colis ?”, vous remontez les événements, pas les opinions. Quand une marketplace conteste une expédition, vous fournissez les preuves.
À l’échelle, c’est la différence entre un support qui “cherche”, et un support qui “répond”. Et c’est aussi la différence entre une centralisation fragile et une centralisation industrielle.
Le stock est souvent le premier sujet qui motive la centralisation. Parce que vendre sur plusieurs marketplaces avec un stock non synchronisé, c’est s’exposer à la vente à découvert. Et la vente à découvert coûte cher : annulations, pénalités, baisse de visibilité, et perte de confiance.
Le problème est que “le stock” n’est pas un chiffre unique. Il existe plusieurs stocks, et votre système doit les distinguer : stock physique, stock comptable, stock réservé, stock vendable, stock en contrôle, stock en transit. Sans ce vocabulaire, vous construisez des règles implicites… et donc des erreurs.
Le stock vendable est le stock que vous êtes prêt à promettre. Il peut être inférieur au stock physique, par prudence, par contrôle qualité, ou par stratégie (tampon). Dans une stratégie multi-entrepôts, le stock vendable peut varier selon la capacité d’expédition de chaque site.
Une centralisation efficace ne se contente pas de synchroniser un chiffre. Elle calcule le stock vendable en fonction de règles : réservations, priorités, buffers, et délais. C’est là que l’orchestration devient cruciale.
Lorsqu’une commande arrive, vous devez la réserver (allocation) pour éviter qu’une autre commande consomme le même stock. Mais si vous réservez trop tôt, vous bloquez du stock pour des commandes qui seront peut-être annulées. Si vous réservez trop tard, vous prenez le risque d’overbooking. La solution est un mécanisme explicite, avec des règles de timing et de libération.
Dans les architectures robustes, l’allocation s’appuie sur des transactions, des verrous, ou des mécanismes d’événements. Elle est aussi idempotente : traiter deux fois la même commande ne doit pas réserver deux fois. C’est un détail technique… qui devient vital à grande échelle.
En multi-entrepôts, une commande peut être expédiée depuis plusieurs sites ou splittée. Les priorités (proximité client, coût, disponibilité, cut-off) déterminent la meilleure allocation. Si les événements arrivent dans le mauvais ordre (stock mis à jour après allocation, retour réintégré trop tôt), vous créez des incohérences.
Une centralisation “qui scale” ne se contente pas d’afficher un stock central. Elle impose des règles d’allocation, trace les réservations, et gère l’ordre des événements. C’est ce qui réduit durablement les ventes à découvert et stabilise votre qualité de service.
À l’échelle, le “scale” ne veut pas dire “ça va vite”. Le “scale” veut dire “ça continue même quand ça se passe mal”. Pannes d’API, timeouts, rate limits, incidents ERP, erreurs de mapping… Ces choses arrivent. Et elles arriveront encore. La différence se joue sur votre capacité à absorber et à récupérer.
L’idempotence garantit qu’un événement traité plusieurs fois ne crée pas plusieurs effets. C’est indispensable pour les commandes : une commande importée deux fois ne doit pas apparaître en double. Un statut envoyé deux fois ne doit pas créer une incohérence. Une expédition ne doit jamais être déclenchée deux fois.
Dans les flux marketplace, les doublons existent : retries côté plateforme, latences, webhooks réémis. Votre architecture doit donc être défensive : clés d’idempotence, identifiants stables, et règles strictes.
Un retry est un mécanisme automatique : si l’API répond 502, si le réseau coupe, si un rate limit bloque, vous relancez après un délai (backoff). Bien fait, cela rend le système résilient. Mal fait, cela crée des tempêtes de requêtes et aggrave l’incident.
Les retries doivent être bornés, observables, et sécurisés par l’idempotence. Sinon, chaque relance devient un risque.
Un replay n’est pas un retry. Un replay intervient quand l’erreur est “métier” : mapping incorrect, règle manquante, donnée invalide. Vous corrigez, puis vous rejouez. Sans outil de replay, l’équipe fait du bricolage : exports, corrections manuelles, et pertes de traçabilité.
Un système non supervisé est un système opaque. À l’échelle, vous devez pouvoir répondre vite : quelles commandes sont bloquées, depuis combien de temps, sur quel canal, et pourquoi. Vous devez aussi suivre la latence de synchronisation, les taux d’erreur par marketplace, et les flux de stock.
C’est précisément là que l’expertise technique de Dawap fait la différence : une centralisation robuste repose sur une architecture API-first, des flux idempotents, des retries maîtrisés, et une supervision orientée métier. Ce sont ces fondations qui permettent une croissance durable sans explosion opérationnelle.
Beaucoup de projets échouent parce qu’ils demandent à un outil de faire le travail d’un autre. On veut que l’ERP fasse l’orchestration, que l’OMS fasse la compta, ou que le connecteur remplace une architecture. Le résultat : des contournements, des rigidités, et une complexité qui augmente.
La bonne approche est de distribuer les responsabilités : l’orchestration d’un côté, l’exécution de l’autre, la consolidation ailleurs, et une couche d’intégration pour fiabiliser. Cette distribution n’ajoute pas de complexité : elle la réduit, car elle clarifie.
Si vous avez plusieurs canaux, des règles d’allocation, des retours importants, des workflows, et un besoin de standardisation, l’OMS est un candidat naturel. Il peut porter la machine à états, les règles d’acceptation, et l’orchestration des préparations.
L’OMS excelle quand la commande est le cœur du problème. Il devient moins pertinent si vous n’avez qu’un canal, ou si votre complexité est presque exclusivement financière.
L’ERP doit rester la référence sur la finance, la facturation, et le stock comptable. Il peut recevoir les commandes stabilisées, les expéditions confirmées, et les retours validés. Il peut aussi fournir le référentiel produit et les règles de prix.
Si vous utilisez l’ERP comme outil opérationnel “temps réel” pour des flux marketplace volatiles, vous risquez d’alourdir son usage et de créer des contournements. La bonne pratique est souvent de filtrer et stabiliser les événements avant l’ERP.
Dès que vous avez plusieurs systèmes, le middleware est la pièce qui rend l’ensemble fiable. Il transforme, route, sécurise, supervise. Il vous permet d’absorber les limites d’API, de gérer les erreurs, et d’isoler les pannes.
Le middleware n’est pas un “outil en plus”. C’est une couche d’industrialisation. Il évite l’empilement de connecteurs fragiles, et vous donne un socle stable pour ajouter des marketplaces, changer d’ERP, ou faire évoluer votre logistique sans tout reconstruire.
Une centralisation réussie est un projet structuré. Pas un “quick win” posé en urgence. Votre objectif est double : améliorer l’opérationnel aujourd’hui, et éviter de recréer une dette demain. Cela passe par une méthode claire.
Faites une carte de vos flux réels : d’où vient la commande, où est-elle transformée, où est-elle exécutée, où est-elle facturée. Identifiez les sources de vérité (par donnée) : stock vendable, stock comptable, statut client, statut marketplace. C’est le point de départ pour éviter les contradictions.
Définissez un modèle de commande interne, stable et versionnable. Définissez la machine à états : états, transitions, événements déclencheurs, règles. Documentez les mappings par marketplace. C’est ce travail qui réduit ensuite les incidents et les tickets.
Définissez ce qu’est le stock vendable, comment vous réservez, comment vous libérez, comment vous gérez les retours, et comment vous gérez les ruptures. Assurez-vous que la logique est compatible multi-entrepôts et multi-canaux.
Mettez en place des dashboards : commandes en erreur, latence de synchronisation, taux d’annulation, retard d’expédition, tickets “statut”, ventes à découvert, divergence stock. Ajoutez des alertes : si une file grossit, si un canal tombe, si des statuts ne se mettent plus à jour.
Faites des tests de charge et des tests de panne. Simulez des erreurs d’API, des retours en masse, des annulations, des remboursements partiels. Testez le “replay”. Un système qui n’a pas été testé sur ses pires scénarios cassera en production.
Mesurez la réussite par des résultats : baisse du taux d’annulation, amélioration des délais, réduction des litiges, baisse des tickets support, amélioration de la note vendeur, stabilité du stock vendable, capacité à intégrer une nouvelle marketplace plus vite.
Si les KPI n’évoluent pas, votre centralisation est visuelle, pas structurelle. Si les KPI s’améliorent, vous avez réellement industrialisé.
Le terme “marketplace” recouvre des réalités très différentes. Une centralisation robuste ne suppose pas que tous les canaux se comportent de la même façon. Elle suppose au contraire que vous avez un pivot commun et des adaptations propres à chaque canal.
Amazon impose un niveau d’exigence élevé sur les délais et la qualité du tracking. À partir d’un certain volume, la moindre divergence de statut peut se transformer en baisse de performance. La centralisation doit donc être précise sur les événements : preuve d’expédition, tracking valide, retours et remboursements.
Les catégories et programmes (seller fulfilled, FBA, Prime) influencent fortement la logique. Votre modèle pivot doit être suffisamment flexible pour traiter ces différences sans exploser en exceptions.
Mirakl apporte une “uniformité” technique, mais chaque opérateur Mirakl (retailer) a ses propres règles : SLA, transport, retours, conditions de remboursement, documents. Une centralisation “au niveau Mirakl” doit prévoir des paramètres par opérateur, sinon vous traitez tout “comme si” c’était identique.
Dans les projets bien menés, on garde un pivot commun, et on décline les spécificités opérateur dans des règles versionnées. C’est ce qui permet d’ajouter un nouvel opérateur Mirakl sans réécrire la chaîne.
Ces marketplaces peuvent imposer des contraintes spécifiques : formats, suivi, documents, retours, exigences sur les délais, et parfois des processus très structurés. La centralisation doit donc être rigoureuse sur les statuts et sur les preuves.
La règle générale reste la même : un pivot commun solide, et des adaptateurs par canal. C’est ce qui transforme un empilement de marketplaces en une architecture multi-marketplaces scalable.
Centraliser les commandes marketplace est une évolution naturelle pour tout vendeur qui grandit. Mais ce n’est pas une simple “centralisation d’écran”. C’est une industrialisation : des flux fiables, des statuts gouvernés, un stock maîtrisé, une supervision claire. C’est ce socle qui permet d’ajouter des marketplaces sans exploser l’opérationnel.
Les causes de rupture sont connues : modèle de données trop simple, statuts flous, exceptions non traitées, synchronisations fragiles, absence de supervision, absence d’idempotence. Les solutions sont connues aussi : machine à états, règles d’allocation, middleware robuste, monitoring et replays.
Le bénéfice final est double. D’un côté, vous réduisez les coûts cachés : erreurs, retards, tickets, litiges. De l’autre, vous augmentez votre capacité de croissance : intégrer plus vite un canal, absorber des pics, et piloter la qualité de service avec des KPI concrets.
Si vous sentez que votre centralisation actuelle atteint ses limites, Dawap peut vous aider à cadrer l’architecture cible, industrialiser les flux (API-first), fiabiliser les synchronisations (idempotence, retries, supervision) et faire passer votre organisation multi-marketplaces à l’échelle, sans dette opérationnelle.
Nous accompagnons les opérateurs et les vendeurs dans la création, la gestion et l’évolution de leurs marketplaces. Notre mission : construire un écosystème performant, fluide et durable, où technologie et stratégie avancent ensemble.
Vous préférez échanger ? Planifier un rendez-vous
Plus de ventes, plus de canaux, plus de complexité opérationnelle. Tant que la croissance masque les failles, tout fonctionne. Ce guide explique comment la dette opérationnelle apparaît, s’accumule et comment l’éliminer avant qu’elle ne freine durablement votre business.
Vendre sur plusieurs marketplaces augmente les ventes, mais révèle des coûts cachés : commissions, logistique, retours, TVA, publicité. Ce guide explique comment mesurer, fiabiliser et piloter vos marges pour préserver durablement la rentabilité.
Le repricing est devenu essentiel pour rester compétitif sur les marketplaces. Ce guide 2025 vous aide à comprendre les leviers, stratégies et outils pour optimiser vos prix sans sacrifier votre rentabilité.
Marketplace Reporting offre une vision consolidée des ventes multi-marketplaces. Centralisez performances produits et publicitaires pour piloter vos marges avec précision et agilité.
Nous accompagnons les opérateurs et les vendeurs dans la création, la gestion et l’évolution de leurs marketplaces. Notre mission : construire un écosystème performant, fluide et durable, où technologie et stratégie avancent ensemble.
Vous préférez échanger ? Planifier un rendez-vous