Onze fournisseurs dans le monde. C'est le nombre d'acteurs dont les modèles d'IA dépassent le seuil critique de 10^25 FLOP, les plaçant automatiquement dans la catégorie "risques systémiques" selon l'AI Act européen. Pour les entreprises qui déploient un assistant téléphonique IA, la conformité n'est plus une option. Chaque appel traité engage désormais la responsabilité du dirigeant au titre du RGPD, avec des obligations précises de consentement vocal, de traçabilité et de bascule vers un opérateur humain. Les organisations qui maîtrisent ces exigences dès la phase pilote évitent les mauvaises surprises, les autres découvrent la réglementation par leurs amendes.
Pré-déploiement: évaluer les risques et obligations légales
La plupart des assistants téléphoniques IA n'atteignent pas le seuil fatidique des 10^25 FLOP. Bonne nouvelle ? Pas si vite. Les obligations de transparence s'appliquent quand même, et certains cas d'usage basculent directement dans la catégorie "haut risque".
Le guide pratique de l'ICB Institute détaille les critères de classification. Un assistant qui influence des décisions d'embauche, de crédit ou d'accès aux services essentiels nécessite un enregistrement dans la base de données européenne. Les systèmes non enregistrés doivent être signalés au fournisseur.
Le point crucial : dès qu'un agent vocal traite des données personnelles, l'entreprise devient Responsable de Traitement au sens du RGPD. En cas de fuite, c'est le dirigeant qui répond, pas le fournisseur technologique.
Les fonctionnalités sensibles méritent une attention particulière. La reconnaissance émotionnelle, la biométrie vocale, l'enregistrement des conversations : chacune implique une base légale distincte. L'identification biométrique à distance nécessite même une autorisation judiciaire ou administrative dans les 48 heures, avec documentation obligatoire.
Les entreprises les mieux préparées cartographient leurs traitements de données vocales avant le premier appel test. Nous détaillons cette approche dans notre charte éthique sur l'IA responsable. Le constat ? Les principes du RGPD et de l'AI Act convergent : contrôle humain, transparence, gouvernance des données. Une conformité bien pensée répond aux deux cadres simultanément.

Obligations d'information: ce que votre agent doit dire
L'AI Act ne laisse aucune place à l'ambiguïté. Toute personne interagissant avec un système d'IA doit en être informée dès les premières secondes de l'échange. Les agents vocaux conformes l'annoncent clairement : "Bonjour, je suis l'assistant vocal de [Entreprise]. Je suis un système d'intelligence artificielle. Comment puis-je vous aider ?"
Les entreprises qui simulent une voix humaine sans révéler la nature IA de leur assistant s'exposent à des sanctions. Même chose pour celles qui retardent l'information au-delà des premiers instants de la conversation. La règle est simple : transparence immédiate.
L'enregistrement des appels ajoute une couche supplémentaire. Les formulations efficaces ressemblent à : "Cet appel peut être enregistré pour améliorer notre service. Souhaitez-vous continuer ?" L'appelant garde le contrôle. Il comprend qui traite ses données et pourquoi.
Les précautions indispensables pour un usage responsable de l'IA convergent toutes vers ce principe : le RGPD et l'AI Act exigent la même chose. L'utilisateur doit savoir qu'il parle à une machine, quelles données sont collectées, et dans quel but. Les organisations qui intègrent ces éléments dès la conception de leurs scripts évitent les reprises coûteuses.
Le constat ? Une phrase d'accueil bien construite répond simultanément aux deux réglementations. Deux contraintes, une seule solution.

Lancement: configurer le consentement vocal et la bascule humain
Le consentement vocal explicite devient la pierre angulaire des déploiements conformes. Les assistants les plus robustes posent la question directement : "Acceptez-vous que je consulte votre dossier ?" et attendent une confirmation claire avant tout accès aux données sensibles. Pas de zone grise, pas d'interprétation.
L'identification biométrique vocale illustre bien les limites à ne pas franchir. Sans autorisation préalable de l'appelant, cette fonctionnalité reste interdite. Les seules exceptions ? Une autorisation judiciaire ou administrative obtenue dans les 48 heures, avec documentation complète. Les entreprises qui contournent cette règle s'exposent aux sanctions les plus lourdes de l'AI Act.
Le Code de bonnes pratiques pour l'IA à usage général impose la conservation des enregistrements de sécurité et de gestion des risques pendant minimum 10 ans. Chaque décision de consentement doit être tracée.
La bascule vers un agent humain répond à une logique similaire. Les configurations efficaces l'annoncent clairement : "Dites 'agent' ou appuyez sur 0 pour parler à un conseiller." Cette option reste accessible à tout moment de la conversation. Notre service de réponse IA avec bascule humain intègre ce mécanisme dès la conception.
Les parcours de refus méritent autant d'attention que les parcours standards. Que se passe-t-il quand l'appelant refuse le consentement ? Quand il demande la suppression immédiate de ses données ? Les organisations qui testent ces scénarios avant le lancement évitent les blocages en production. Celles qui improvisent découvrent les failles avec leurs premiers clients mécontents.
Production: traçabilité et conservation des enregistrements
Les exigences de conservation transforment chaque appel en actif documentaire. Le Code de bonnes pratiques IA impose dix ans minimum pour les enregistrements de sécurité. Les organisations qui anticipent cette durée structurent leurs journaux dès le premier jour.
-
Journal des interactions complet : horodatage précis, nature de la demande, consentements obtenus, transferts vers un agent humain. Les entreprises les mieux organisées incluent également les motifs de non-compréhension pour alimenter l'amélioration continue.
-
Anonymisation systématique : les enregistrements vocaux conservés au-delà du traitement immédiat passent par une pseudonymisation. Les bonnes pratiques pour une utilisation responsable des IA convergent toutes vers ce principe. Sans anonymisation, le risque RGPD reste entier.
-
Durées de conservation différenciées : conversations de service standard (6 mois), réclamations (2 ans), données contractuelles (5 ans), enregistrements de sécurité (10 ans). Chaque catégorie suit son propre cycle de vie.
-
Audits réguliers de qualité : les cas de non-compréhension, les transferts forcés vers un humain, les abandons d'appel. Ces indicateurs révèlent les failles du système avant qu'elles ne deviennent des plaintes.
-
Traçabilité des accès : qui consulte quoi, quand, pourquoi. En cas de contrôle, cette documentation fait la différence entre conformité démontrée et sanction.
Le constat ? La traçabilité bien pensée sert deux objectifs : la conformité réglementaire et l'amélioration du service. Les entreprises qui séparent ces deux dimensions perdent du temps.
Gestion des incidents: réagir vite et documenter
Les incidents sur un agent vocal ne préviennent pas. Fuite d'enregistrements, biais détecté dans les réponses, comportement inapproprié de l'IA face à un appelant vulnérable : chaque scénario exige une réponse calibrée. Les organisations qui disposent d'un plan spécifique au vocal gagnent des heures précieuses quand la crise survient.
Le délai de 72 heures pour notifier la CNIL en cas de violation de données personnelles vocales ne laisse aucune marge. Les équipes les mieux préparées ont déjà identifié leur référent, leurs canaux d'escalade et leurs modèles de déclaration. Notre politique de confidentialité et gestion des données détaille cette chaîne de responsabilités.
L'AI Act ajoute une obligation souvent méconnue : signaler au fournisseur toute utilisation de systèmes non enregistrés dans la base européenne. Les retours terrain montrent que cette notification passe parfois à la trappe dans l'urgence.
Le SGDSN recommande d'évaluer et sécuriser chaque système d'IA selon une méthodologie structurée. La documentation systématique des incidents, causes et mesures correctives, alimente les rapports annuels exigés par les régulateurs.
Les tests de crise réguliers révèlent les failles invisibles en production. Appel hostile, tentative d'extraction de données sensibles, surcharge système simultanée : les entreprises qui simulent ces scénarios trimestriellement réagissent deux fois plus vite en situation réelle.
Téléchargez notre checklist PDF pour auditer la conformité de votre assistant téléphonique IA et structurer votre plan de réponse aux incidents.
