Avant de traiter en profondeur la sécurité API, il est utile de poser le cadre global de conception avec le guide complet de création d’API sur mesure. Ce guide structure le cycle complet (cadrage, design, delivery, run). L’article présent zoome sur la couche sécurité: comment protéger les flux sans bloquer la vitesse de delivery ni dégrader l’expérience des consommateurs API.
Beaucoup d’organisations abordent la sécurité API comme un sujet d’implémentation: ajouter OAuth2, activer HTTPS, stocker les secrets dans un coffre, puis considérer le chantier terminé. Cette approche réduit certains risques immédiats, mais elle ne suffit pas à sécuriser durablement un écosystème d’intégration. La sécurité API est d’abord une discipline de gouvernance: décider qui accède à quoi, dans quel contexte, avec quelles preuves, quelles limites et quels mécanismes de réaction.
Une API expose des actifs métiers sensibles: données clients, statuts financiers, prix, stock, règles contractuelles, événements de commande, informations partenaires. Une faille d’accès, même ponctuelle, peut déclencher des impacts multi-dimensionnels: interruption d’activité, fraude, fuite de données, non-conformité réglementaire, pertes commerciales et atteinte de réputation. C’est pourquoi la sécurité ne peut pas rester confinée à une équipe isolée.
Le premier enjeu de gouvernance est l’alignement entre architecture, produit et sécurité. Si la roadmap fonctionnelle évolue sans revue des permissions, des écarts apparaissent rapidement: scopes trop larges, endpoints non segmentés, droits historiques non révoqués, secrets partagés entre environnements. À l’inverse, une gouvernance trop rigide peut ralentir les équipes et encourager des contournements risqués.
L’objectif n’est donc pas de multiplier les contrôles, mais de mettre en place des règles claires, automatisables et auditables. Une bonne gouvernance permet de livrer vite avec un niveau de risque maîtrisé. Une mauvaise gouvernance force des arbitrages à l’aveugle, où la sécurité est soit sacrifiée, soit instrumentalisée comme frein.
Toute architecture de sécurité API commence par un modèle d’identité explicite. Il faut distinguer les identités humaines (utilisateurs internes, opérateurs, partenaires), les identités applicatives (services backend, workers, connecteurs), et les identités déléguées (app agissant pour le compte d’un utilisateur). Sans cette distinction, les droits se mélangent et les traces d’audit deviennent ambiguës.
Le modèle doit répondre à des questions simples mais structurantes: qui initie l’action, qui porte la responsabilité, quel périmètre est autorisé, quelle durée de validité, quelles conditions contextuelles, et quel niveau de preuve d’authentification est requis. Ces réponses servent de base aux règles IAM, aux scopes OAuth et aux contrôles d’accès applicatifs.
Une pratique recommandée consiste à formaliser un catalogue d’acteurs et de capacités. Exemple: "service logistique peut lire statut commande", "service paiement peut créer transaction mais pas consulter PII complète", "partenaire X peut accéder uniquement à ses ressources". Ce catalogue permet d’éviter les scopes vagues de type `admin` ou `full_access`, qui deviennent des dettes de sécurité difficiles à résorber.
Le principe du moindre privilège doit être appliqué dès la conception. Cela implique des droits minimaux par rôle, des accès temporaires pour opérations exceptionnelles, et une révocation systématique des permissions obsolètes. Plus le système grandit, plus cette discipline devient critique.
Enfin, la séparation des environnements (dev, test, staging, prod) doit être stricte au niveau identité. Réutiliser des comptes techniques transverses entre environnements est un anti-pattern fréquent qui fragilise toute la posture sécurité.
OAuth2 et OIDC sont souvent adoptés comme standards de fait pour sécuriser les APIs, mais leur efficacité dépend des choix de flux et de la qualité de gouvernance des tokens. Choisir un flux inadapté ou définir des scopes trop larges crée une surface d’attaque significative malgré l’usage d’un standard reconnu.
Le point de départ est de choisir le bon flux selon le contexte. Pour les échanges service-à-service, le client credentials est souvent approprié, à condition de limiter strictement les permissions. Pour des applications agissant au nom d’un utilisateur, l’authorization code avec PKCE reste la référence. Les flux implicites hérités doivent être évités quand c’est possible, car ils augmentent le risque d’exposition des tokens.
La durée de vie des tokens est un levier clé. Des tokens longs simplifient l’intégration mais augmentent la fenêtre d’exploitation en cas de fuite. Des tokens courts réduisent le risque mais imposent une gestion de refresh robuste. Il faut trouver un équilibre basé sur la criticité du périmètre, la capacité d’auth server et les usages métier.
Les scopes doivent représenter des capacités métier concrètes, pas des catégories techniques génériques. Un scope "write" sans contexte ne suffit pas. Un scope "orders:create" ou "inventory:read" est plus gouvernable, plus testable et plus auditable. Cette granularité facilite aussi la revue périodique des permissions.
La validation des tokens côté resource server doit être stricte: signature, issuer, audience, expiration, scopes attendus, et idéalement vérification des claims contextuels critiques. Le moindre relâchement sur ces vérifications ouvre des scénarios d’usurpation ou de contournement.
Pour relier design et exécution, le guide contract-first OpenAPI est utile: il permet d’aligner les exigences de sécurité directement dans le contrat API, puis de les valider automatiquement dans les pipelines.
OAuth2 répond principalement à l’authentification et à la délégation. L’autorisation fine nécessite une couche IAM plus explicite. Il s’agit de décider non seulement "qui" peut appeler, mais aussi "dans quelles conditions" et "sur quelles ressources précises". C’est le passage de l’auth au contrôle d’accès métier.
Les politiques d’autorisation peuvent combiner plusieurs dimensions: rôle, attribut utilisateur, attribut ressource, contexte d’exécution (tenant, zone géographique, horaire, niveau de risque), et niveau de confiance de l’authentification. Cette approche permet d’éviter les modèles RBAC trop simplistes qui deviennent rigides dès que la complexité métier augmente.
Une bonne politique IAM doit être lisible pour les équipes. Si la règle est impossible à expliquer clairement, elle sera difficile à maintenir et à auditer. Les politiques doivent être versionnées, testées automatiquement, et soumises à revue lors des évolutions fonctionnelles majeures.
Il faut aussi gérer les accès d’urgence. Certaines interventions nécessitent des droits temporaires élargis. Ces accès doivent être bornés dans le temps, justifiés, tracés et revus après usage. Sans mécanisme encadré, les accès exceptionnels deviennent permanents, ce qui affaiblit progressivement la posture globale.
Enfin, l’IAM ne doit pas rester uniquement dans les gateways. Les règles critiques doivent être vérifiées jusqu’au domaine applicatif, car des appels internes peuvent contourner des protections d’entrée si l’architecture n’est pas défensive de bout en bout.
Les incidents de sécurité API sont très souvent liés à une mauvaise hygiène des secrets: clés API en clair dans des dépôts, tokens persistés sans chiffrement, variables d’environnement partagées sans rotation, secrets copiés entre environnements, absence d’inventaire ou de traçabilité. Corriger ce point apporte un gain de risque immédiat.
La règle de base est claire: aucun secret en dur dans le code, aucun secret non inventorié, aucun secret sans propriétaire. Un coffre de secrets centralisé doit fournir chiffrement au repos, contrôle d’accès fin, historique d’accès, rotation automatisable, et intégration avec les pipelines de déploiement.
La rotation doit être pensée par type de secret. Certaines clés peuvent être tournées mensuellement, d’autres hebdomadairement, d’autres à chaque déploiement. L’important est de documenter une politique réaliste, de l’automatiser autant que possible, et de vérifier régulièrement qu’elle fonctionne en conditions réelles.
Les workflows de rotation doivent éviter les interruptions. Une stratégie dual-key (ancienne + nouvelle clé temporairement valides) est souvent nécessaire pour garantir une transition sans coupure. Sans mécanisme de chevauchement, la rotation est repoussée, puis la dette de sécurité s’accumule.
La traçabilité des accès aux secrets est non négociable. Qui a lu quel secret, depuis quel environnement, pour quel service, à quel moment. Ces traces sont indispensables pour l’investigation incident et pour la conformité réglementaire.
La sécurité API ne se limite pas à l’identité. Le canal d’échange doit garantir confidentialité et intégrité. TLS est la base, mais son implémentation réelle compte: versions supportées, suites cryptographiques, gestion des certificats, renouvellement automatisé, politiques de redirection et de terminaison.
Pour les flux à forte criticité, la signature de message peut compléter la sécurité transport, notamment quand les messages traversent plusieurs intermédiaires ou sont stockés temporairement avant traitement. La signature garantit que le contenu n’a pas été modifié et que l’émetteur attendu est bien à l’origine du message.
Les mécanismes de protection contre la relecture (replay attacks) sont également importants. Horodatage, nonce, fenêtre de validité, identifiant unique de requête, et vérification côté serveur permettent de limiter ces scénarios. Sans ces contrôles, un message intercepté peut être rejoué avec des conséquences métier lourdes.
Les intégrations avec partenaires nécessitent une attention spécifique. Les contrats de sécurité doivent préciser les algorithmes autorisés, les politiques de renouvellement des certificats, les exigences de journalisation, et les procédures de gestion de compromission. Une sécurité unilatérale ne suffit pas dans un flux inter-organisation.
Les APIs exposées subissent des usages imprévus, parfois malveillants, parfois simplement excessifs. Sans mécanismes anti-abus, un comportement anormal peut dégrader le service pour tous les clients. La protection anti-abus est donc à la fois un sujet sécurité et résilience.
Le premier niveau repose sur le rate limiting multi-dimensionnel: par client, par endpoint, par type d’opération, et parfois par fenêtre temporelle. Les limites doivent être adaptées à la criticité métier. Bloquer trop tôt peut casser des parcours légitimes. Bloquer trop tard revient à laisser l’incident se propager.
Le deuxième niveau est l’analyse comportementale. Certains abus ne dépassent pas les quotas simples, mais révèlent des patterns suspects: scan d’endpoints, variation rapide d’identifiants, échecs d’auth répétés, distribution géographique inhabituelle, pics synchronisés sur des ressources sensibles. La détection doit combiner seuils et corrélation contextuelle.
Le troisième niveau est la réponse graduée: throttling temporaire, challenge additionnel, suspension de clé, segmentation réseau, escalade SOC/SRE selon criticité. Cette gradation évite les réactions extrêmes et maintient la continuité de service.
La protection anti-abus doit rester alignée avec la performance. Une politique agressive mal calibrée peut générer des faux positifs coûteux. Sur cet équilibre, le guide performance et résilience API complète les arbitrages opérationnels.
Une posture sécurité mature exige des preuves exploitables. En cas d’incident, il faut pouvoir reconstituer rapidement qui a fait quoi, quand, avec quel token, sur quelle ressource et avec quel résultat. Sans cette traçabilité, le diagnostic est lent, la remédiation imprécise et la communication de crise fragile.
Les logs de sécurité doivent être structurés et corrélés. Événements d’authentification, décisions d’autorisation, accès aux secrets, modifications de politiques IAM, erreurs de validation token, dépassements de quotas, changements d’état critiques. Chaque événement doit contenir les champs minimaux de contexte (identité, service, environnement, correlation_id, timestamp, résultat).
Il faut séparer les logs opérationnels des logs d’audit. Les premiers servent au monitoring temps réel. Les seconds servent à la conformité et au forensic. Cette séparation permet d’ajuster les rétentions, les accès et les politiques d’intégrité selon les usages. Mélanger les deux augmente le coût et réduit la lisibilité.
L’accès aux logs de sécurité doit être strictement contrôlé. Une journalisation parfaite perd sa valeur si n’importe quel acteur peut la modifier ou l’exfiltrer. Les mécanismes d’immutabilité, de signature des événements et de contrôle d’accès fin renforcent fortement la fiabilité des preuves.
Pour exploiter ces traces efficacement, il faut des runbooks d’investigation pré-définis. L’article observabilité API et runbooks détaille la dimension opérationnelle de ces procédures.
La conformité ne doit pas être traitée en fin de projet. Dans un contexte API, les flux de données traversent rapidement plusieurs systèmes, ce qui augmente les risques de non-conformité si les responsabilités ne sont pas explicites. Le RGPD impose notamment une maîtrise des finalités, de la minimisation des données, de la durée de conservation, et des droits d’accès/suppression.
La première étape consiste à classifier les données manipulées par l’API: données personnelles directes, données pseudonymisées, données sensibles, données purement techniques. Cette classification conditionne les exigences de chiffrement, de journalisation, de rétention et d’accès.
Les payloads doivent être minimisés. Exposer un objet complet quand seul un sous-ensemble est nécessaire augmente inutilement la surface de risque. Le design de contrat doit favoriser des réponses ciblées, avec filtrage explicite et contrôle de champs.
La politique de rétention des logs et traces doit intégrer le cadre conformité. Conserver trop longtemps sans justification crée un risque. Supprimer trop tôt peut empêcher un audit ou une investigation. L’équilibre repose sur des règles documentées, validées juridiquement, et implémentées techniquement dans les pipelines.
Pour approfondir cette articulation sécurité/compliance, l’article intégration API et RGPD apporte une grille de lecture complémentaire sur les obligations opérationnelles.
Une sécurité API fiable ne peut pas dépendre de contrôles manuels ponctuels. Elle doit être intégrée au cycle de delivery. Cela signifie des tests automatisés à plusieurs niveaux: validation du contrat sécurité, tests d’authentification/autorisation, scans dépendances, contrôle de configuration, vérification de politique secrets, tests dynamiques sur endpoints critiques.
Les quality gates doivent être proportionnés à la criticité. Tous les services n’ont pas le même profil de risque, mais les flux sensibles doivent imposer des blocages stricts en cas de non-conformité aux exigences minimales. Sans gate clair, les arbitrages se font dans l’urgence et les exceptions deviennent structurelles.
Les tests de sécurité doivent inclure les chemins dégradés. Exemple: token expiré, scope insuffisant, secret invalide, tentative de bypass sur endpoint interne, dépassement de quota, rotation de clé en cours. Ce sont ces scénarios qui révèlent la robustesse réelle du système.
Le maillage avec les tests E2E est crucial. Une faille peut apparaître uniquement dans une séquence inter-systèmes, pas dans un test isolé d’endpoint. Le guide testing API E2E, contrats et charge complète précisément cette dimension.
Enfin, les résultats sécurité du pipeline doivent être suivis dans le temps: dette ouverte, délais de correction, répétition de patterns, zones de code les plus exposées. Ce pilotage empêche la dérive silencieuse.
Même avec une posture solide, l’incident de sécurité reste possible. La maturité se mesure alors à la vitesse et à la qualité de réaction. Un plan d’incident API doit couvrir: détection, qualification, confinement, remédiation, communication, et retour à la normale contrôlé.
La qualification initiale doit être très rapide: type d’incident (compromission clé, abus API, élévation de privilège, fuite de données), périmètre impacté, flux métiers concernés, obligations de notification, actions immédiates de réduction de risque. Sans cette grille initiale, l’organisation perd un temps précieux.
Les actions de confinement typiques incluent: révocation de tokens, rotation de secrets, suspension de clients compromis, durcissement temporaire des rate limits, isolation de composants, activation de modes dégradés. Chaque action doit être documentée dans des runbooks testés, sinon l’exécution devient hasardeuse.
La communication est une composante de sécurité. Informer les équipes internes, partenaires et parties prenantes avec un message factuel et cadencé réduit les erreurs de coordination. Une communication tardive ou imprécise peut aggraver l’incident autant que la faille technique elle-même.
Après incident, le postmortem sécurité doit produire des améliorations concrètes: correction racine, durcissement de politique, nouveaux tests, ajustement de monitoring, évolution de gouvernance. Sans ce passage, l’incident est seulement refermé, pas réellement traité.
Pour industrialiser la sécurité API sans bloquer la livraison, une trajectoire en trois phases est généralement efficace.
Phase 1 (Jours 1 à 30): cadrage et socle minimum. Inventoriez les APIs critiques et les identités associées, formalisez la matrice acteur/capacité, mettez en place la séparation stricte des environnements, centralisez les secrets sensibles, définissez les premiers scopes métier, et déployez les dashboards de sécurité essentiels.
Phase 2 (Jours 31 à 60): durcissement et automatisation. Renforcez la validation des tokens, implémentez des politiques IAM fines, activez la rotation automatisée des secrets, déployez le rate limiting granulaire, instrumentez la journalisation d’audit, et intégrez les quality gates sécurité dans le CI/CD.
Phase 3 (Jours 61 à 90): gouvernance continue. Instituez des revues périodiques d’accès, des revues de dette sécurité, des exercices de réponse à incident, une revue coût/valeur de l’observabilité sécurité, et une mise à jour continue des runbooks. Cette phase transforme la sécurité en capacité durable, compatible avec la cadence produit.
Pour renforcer encore cette trajectoire, vous pouvez mailler avec authentification et sécurité API, performance et résilience API, testing E2E API, et API brief et cadrage métier.
Les programmes de sécurité API échouent rarement faute d’outils. Ils échouent surtout à cause de choix d’organisation et de priorisation. Le premier anti-pattern est la sécurité \"par ajout\": on empile OAuth, WAF, gateway, scans, sans modèle d’identité ni politiques cohérentes. L’illusion de protection est forte, mais les contrôles se contredisent et les contournements se multiplient. Le résultat typique est un système compliqué, coûteux à opérer, et pourtant vulnérable sur les fondamentaux.
Le deuxième anti-pattern est l’usage de scopes génériques et permanents. Un scope large conservé pendant des mois facilite l’intégration au départ, puis devient une dette de sécurité structurelle. Quand un incident survient, l’équipe découvre qu’il est impossible de limiter rapidement le périmètre d’accès sans casser des flux métier. Les permissions doivent être granulaires, révisables et temporisables. La granularité n’est pas un luxe d’architecte, c’est une assurance opérationnelle.
Le troisième anti-pattern est la confusion entre secret management et conformité minimale. Déplacer des secrets dans un coffre ne suffit pas si l’inventaire est incomplet, la rotation non testée, et les accès trop permissifs. Beaucoup d’organisations \"ont un vault\", mais conservent des copies de secours non tracées dans des scripts, wikis ou variables historiques. Le niveau de risque réel reste élevé. La maturité se mesure à la capacité de prouver qu’un secret est maîtrisé de bout en bout.
Le quatrième anti-pattern est l’absence d’alignement entre sécurité et performance. Des contrôles de sécurité mal conçus peuvent dégrader fortement la latence et pousser les équipes à les contourner en urgence. À l’inverse, des optimisations agressives peuvent supprimer des vérifications critiques. Le pilotage doit intégrer les deux dimensions: sécurité robuste et performance acceptable, avec des objectifs explicites et des arbitrages documentés.
Le cinquième anti-pattern est l’oubli des chemins dégradés. Beaucoup de politiques sécurité sont testées en nominal uniquement. Or les failles apparaissent souvent lors des incidents: rotation incomplète, bascule partielle, mode secours non documenté, token fallback trop permissif, endpoint interne exposé pendant une crise. Une sécurité résiliente se vérifie précisément dans ces situations contraintes.
Le sixième anti-pattern est la séparation stricte entre équipes sécurité, plateforme et produit. Quand la sécurité est perçue comme un \"contrôle externe\", les équipes delivery cherchent à passer en force. Quand le produit n’est pas impliqué, les exigences sont mal priorisées. Quand la plateforme n’est pas co-responsable, l’automatisation reste incomplète. La performance d’un programme sécurité API repose sur une responsabilité partagée et explicite.
Le septième anti-pattern est une journalisation abondante mais inexploitable. Accumuler des logs sans standard ni corrélation rend les investigations lentes et coûteuses. Le bon niveau n’est pas \"plus de logs\", mais \"meilleure capacité de preuve\": événements critiques normalisés, identifiants de corrélation stables, rétention adaptée, contrôles d’intégrité, accès strictement gouvernés. Une équipe capable d’investiguer en minutes a un avantage déterminant en incident.
Le huitième anti-pattern est la conformité documentaire déconnectée de la réalité technique. Avoir des politiques écrites sans preuves d’exécution ne protège pas l’organisation. Les audits sérieux demandent des éléments factuels: traces d’accès, historique de rotation, logs de changements IAM, preuves de révocation, résultats de tests de sécurité, suivi de remédiation. La conformité utile est une conséquence d’un système opérationnel maîtrisé.
Pour un pilotage CTO/Archi, une check-list trimestrielle courte apporte de la clarté: 1. Les APIs critiques disposent-elles d’une matrice acteur/capacité à jour? 2. Les scopes OAuth sont-ils granulaires et revus régulièrement? 3. Les secrets critiques sont-ils tous inventoriés avec rotation testée? 4. Les accès d’urgence sont-ils temporaires, justifiés et audités? 5. Les politiques anti-abus sont-elles calibrées avec données de production? 6. Les incidents récents ont-ils produit des correctifs durables? 7. Les obligations RGPD sont-elles reliées à des contrôles techniques vérifiables? 8. Les quality gates sécurité bloquent-ils réellement les dérives majeures?
Une check-list technique mensuelle peut compléter ce pilotage: 1. Validation stricte `iss/aud/exp/scope` sur tous les endpoints sensibles. 2. Interdiction et détection active des secrets exposés dans dépôts et artefacts. 3. Journalisation des décisions d’autorisation sur flux à risque. 4. Tests automatisés des scénarios de token expiré, scope insuffisant et révocation. 5. Vérification du chiffrement en transit sur l’ensemble des sauts réseau. 6. Revue des règles IAM devenues orphelines ou trop permissives. 7. Exercices de rotation en conditions réalistes avec plan de rollback. 8. Exercices incident sécurité incluant communication et escalade.
Cette discipline transforme la sécurité API en avantage de pilotage. L’organisation devient capable de décider rapidement sans compromettre ses engagements. Elle réduit les incidents sévères, améliore la prévisibilité des déploiements, et renforce la confiance des partenaires. Dans un écosystème d’intégration, cette confiance est un actif business majeur: elle conditionne la capacité à ouvrir de nouveaux flux, à accélérer les partenariats et à industrialiser durablement les opérations.
En pratique, la meilleure trajectoire consiste à avancer par incréments maîtrisés: sécuriser d’abord les flux les plus critiques, démontrer la valeur avec des indicateurs partagés, puis étendre le modèle progressivement au reste du portefeuille API. Cette approche évite les programmes \"big bang\" coûteux et peu adoptés. Elle crée une dynamique durable entre sécurité, architecture et produit, où chaque amélioration technique est reliée à un bénéfice opérationnel concret: moins d’incidents, moins d’interruptions, plus de confiance dans la capacité à livrer.
Sécuriser une API ne consiste pas à empiler des mécanismes techniques. C’est construire un système cohérent entre identité, autorisation, secret management, anti-abus, auditabilité, conformité, testing et opérations. La robustesse vient de l’alignement entre ces couches, pas de la sophistication d’un composant isolé.
Les organisations qui progressent durablement sont celles qui pilotent la sécurité comme une capacité produit: objectifs explicites, responsabilités claires, automatisation des contrôles, et apprentissage continu après incident. Cette approche réduit les risques réels tout en préservant la vitesse de delivery.
Si vous souhaitez structurer une architecture API sécurisée de bout en bout, de la conception au run, découvrez notre accompagnement en création d’API sur mesure. Nous intervenons avec une approche pragmatique orientée CTO, architectes et décideurs, pour concilier sécurité, performance et exécution produit.
Nous accompagnons les équipes produit et techniques dans la conception, l’intégration et l’industrialisation d’APIs. Notre mission : construire des architectures robustes, sécurisées et évolutives, alignées sur vos enjeux métier et votre croissance.
Vous préférez échanger ? Planifier un rendez-vous
Exposition des services, conformité et continuité imposent une sécurité API structurée. Ce guide explique comment cadrer IAM, OAuth2/OIDC, secrets, politiques d’accès et traçabilité pour réduire le risque, améliorer l’auditabilité et sécuriser les intégrations critiques.
Garantir la conformité RGPD lors d’une intégration API est essentiel. Découvrez comment protéger les données personnelles, encadrer les flux d’échanges et appliquer les bonnes pratiques de sécurité, traçabilité et consentement pour des intégrations fiables en 2025.
Tenir la charge sans dégrader l’expérience client impose une stratégie combinant idempotence, timeouts, retries et gouvernance des quotas. Le guide présente les bons réflexes d’architecture et d’exploitation pour éviter les effets domino lors des pics et incidents API.
Architecture, gouvernance et delivery exigent un cadre solide pour éviter les APIs fragiles. Ce guide détaille le cadrage domaine, le design contract-first, la sécurité, la résilience et les choix d’exploitation nécessaires pour construire un socle API durable à l’échelle.
Nous accompagnons les équipes produit et techniques dans la conception, l’intégration et l’industrialisation d’APIs. Notre mission : construire des architectures robustes, sécurisées et évolutives, alignées sur vos enjeux métier et votre croissance.
Vous préférez échanger ? Planifier un rendez-vous