Ce qu'il faut faire et ne pas faire pour déployer les LLM dans votre organisation
Ce qu'il faut faire et ne pas faire pour déployer les LLM dans votre organisation



Tous les quelques mois, un nouveau modèle de langage étendu (LLM) fait la une des journaux, qu'il s'agisse de Deepseek, de ChatGPT ou de la dernière version de Claude, chacun promettant un raisonnement amélioré, une conversation plus naturelle ou une expertise spécialisée. Les LLM sont des systèmes avancés d'intelligence artificielle (IA) qui génèrent du texte d'une manière qui ressemble à celle d'un être humain, ce qui en fait des outils puissants dans tous les domaines, du service à la clientèle à l'analyse de données. Cependant, bien que leur potentiel soit excitant, ils comportent des risques. Les LLM produisent parfois des "hallucinations" - des déclarations confiantes mais incorrectes - et les déploiements prématurés à l'échelle de l'entreprise peuvent engendrer des coûts inattendus.
Tous les quelques mois, un nouveau modèle de langage étendu (LLM) fait la une des journaux, qu'il s'agisse de Deepseek, de ChatGPT ou de la dernière version de Claude, chacun promettant un raisonnement amélioré, une conversation plus naturelle ou une expertise spécialisée. Les LLM sont des systèmes avancés d'intelligence artificielle (IA) qui génèrent du texte d'une manière qui ressemble à celle d'un être humain, ce qui en fait des outils puissants dans tous les domaines, du service à la clientèle à l'analyse de données. Cependant, bien que leur potentiel soit excitant, ils comportent des risques. Les LLM produisent parfois des "hallucinations" - des déclarations confiantes mais incorrectes - et les déploiements prématurés à l'échelle de l'entreprise peuvent engendrer des coûts inattendus.
Tous les quelques mois, un nouveau modèle de langage étendu (LLM) fait la une des journaux, qu'il s'agisse de Deepseek, de ChatGPT ou de la dernière version de Claude, chacun promettant un raisonnement amélioré, une conversation plus naturelle ou une expertise spécialisée. Les LLM sont des systèmes avancés d'intelligence artificielle (IA) qui génèrent du texte d'une manière qui ressemble à celle d'un être humain, ce qui en fait des outils puissants dans tous les domaines, du service à la clientèle à l'analyse de données. Cependant, bien que leur potentiel soit excitant, ils comportent des risques. Les LLM produisent parfois des "hallucinations" - des déclarations confiantes mais incorrectes - et les déploiements prématurés à l'échelle de l'entreprise peuvent engendrer des coûts inattendus.
En nous appuyant sur notre expérience pour aider les entreprises à adopter l'IA de manière responsable, ainsi que sur les conclusions de notre récent entretien avec Yoann, notre expert en LLM, nous avons compilé les choses à faire et à ne pas faire que chaque décideur doit prendre en compte avant de mettre en œuvre un LLM.
Action n° 1 : Commencer par un objectif commercial clair
Pourquoi c'est important :
Avant de vous précipiter pour intégrer le modèle le plus récent, définissez le problème exact que vous espérez résoudre. Il peut s'agir d'accélérer les temps de réponse du service clientèle, d'automatiser le traitement des factures ou de réduire les tâches manuelles. Les entreprises qui intègrent des LLM sans objectif précis se retrouvent souvent avec des solutions à la recherche de problèmes, ce qui leur fait perdre du temps et de l'argent.
Meilleures pratiques :
Décomposez votre objectif en cibles spécifiques et mesurables, comme "réduire de 30 % les délais de traitement du service clientèle en un an".
Si un outil d'automatisation ou d'analyse plus simple répond à vos besoins, déployez-le en premier. IA ou pas, la solution doit simplement fonctionner.
À ne pas faire n° 1 : se lancer dans tous les programmes d'apprentissage tout au long de la vie "révolutionnaires" sans avoir vérifié leur adéquation.
Pourquoi c'est important :
De nombreuses versions - ChatGPT 4.0 à 4.5, Claude 3.6 à 3.7, etc. - sont incrémentielles ou répondent à des cas d'utilisation limités. Bien que Claude puisse surpasser ChatGPT dans les tâches de codage, ChatGPT excelle dans les requêtes de connaissances générales. L'adoption de chaque nouvelle technologie peut conduire à un "coup de fouet technologique", où votre équipe investit plus de temps dans la mise à niveau qu'elle n'en retire un retour sur investissement (ROI).
Principales considérations :
Évaluez l'impact sur votre cas d'utilisation principal. Si la mise à jour n'apporte que des améliorations mineures ou des fonctionnalités spécialisées que vous n'utiliserez pas pleinement, attendez de recevoir un retour d'information avant de passer à autre chose.
Adaptez le modèle à vos tâches. Si votre priorité est l'assistance au codage, un LLM axé sur le code comme Claude pourrait être plus performant qu'un chatbot généraliste. Pour l'analyse ou l'extraction de données, optez pour des modèles conçus en fonction de ces points forts.
Restez stratégique. Le marché du LLM évolue rapidement. Une mise à jour majeure pourrait arriver bientôt, alors ne vous sentez pas obligé de changer de modèle à moins que vous ne voyiez des avantages clairs et mesurables.
Yoann : Si un nouveau modèle fait les gros titres, il s'agit généralement plus d'une question de marketing que d'une véritable avancée. Si votre modèle actuel fonctionne bien pour votre organisation, il est peu probable que la prochaine version change la donne. À moins qu'il n'y ait un saut significatif en termes de performances ou de rentabilité, il est souvent plus sage d'attendre plutôt que de se précipiter pour effectuer une mise à niveau à chaque fois.
Deuxième chose à faire : Toujours garder un humain dans la boucle
Pourquoi c'est important :
Les LLM répondent souvent avec une grande confiance, même lorsqu'ils se trompent. Pour les applications en contact avec la clientèle, en particulier dans les environnements réglementés comme la santé ou la finance, un robot non contrôlé peut produire des réponses trompeuses ou inexactes. Le fait que des employés ou des experts en la matière supervisent les interactions à fort enjeu permet de réduire ces erreurs.
Meilleures pratiques :
Ajoutez des règles d'escalade : si le modèle est "incertain" ou si la demande concerne une transaction de grande valeur, adressez-la à un agent humain.
Examiner régulièrement les journaux de conversation et les résultats pour assurer le contrôle de la qualité.
À ne pas faire #2 : Laisser libre cours aux chatbots en contact avec les clients
Pourquoi c'est important :
Même les meilleurs LLM peuvent être vulnérables aux hallucinations ou à l'"injection d'invite", lorsqu'un utilisateur malveillant manipule la conversation pour que le modèle accorde des actions non autorisées ou partage des informations restreintes. Une anecdote concerne le chatbot du service clientèle d'Air Canada, qu'un utilisateur astucieux a trompé en lui faisant accorder un remboursement non standard.
Meilleures pratiques :
Utilisez des autorisations strictes basées sur les rôles. Même si le MFR "croit" qu'il peut autoriser les remboursements, il ne doit pas avoir l'autorité réelle de le faire sans une seconde approbation.
Surveillez les demandes inhabituelles ou les propos suspects qui pourraient signaler une tentative d'injection.
Yoann : La technologie n'est pas encore tout à fait au point et la plupart des entreprises ne sont pas prêtes à prendre ce risque. Si les utilisateurs de chatbots internes peuvent dire en toute confiance : " Il ne fait jamais d'erreurs et comprend parfaitement le contexte ", alors vous pourrez envisager de rendre le chatbot orienté client. Mais pour l'instant, je recommande toujours de garder un humain dans la boucle pour éviter des erreurs coûteuses.
Faire #3 : Déployer d'abord des chatbots internes
Pourquoi c'est important :
Les chatbots orientés vers l'interne peuvent rationaliser les opérations, réduire les tâches routinières et stimuler la productivité des employés en offrant des réponses rapides aux questions internes. Qu'il s'agisse de questions relatives aux ressources humaines ou à l'assistance informatique, les chatbots peuvent faire gagner du temps aux employés et leur permettre de se consacrer à des tâches plus importantes.
En outre, le lancement d'un chatbot en interne permet à votre organisation de tester sa fiabilité, sa précision et son efficacité globale avant de le présenter aux clients. Cette approche réduit les risques tout en vous donnant la possibilité d'affiner les performances de votre chatbot.
Meilleures pratiques :
Déterminez les principales possibilités d'automatisation. Identifiez les tâches répétitives, telles que les demandes des RH ou de l'informatique, qui peuvent bénéficier de l'intégration d'un chatbot.
Assurer des connexions transparentes avec le système. Intégrez votre chatbot aux bases de données internes ou aux sites intranet pertinents, afin qu'il puisse fournir des réponses précises en temps réel.
Recueillir les commentaires des employés. Les commentaires réguliers des utilisateurs internes vous aident à améliorer les fonctionnalités du chatbot, jetant ainsi les bases d'un futur chatbot en contact avec les clients.
À ne pas faire n° 3 : négliger les coûts et les exigences en matière d'infrastructure
Pourquoi c'est important :
L'exécution des LLM peut nécessiter des ressources considérables. L'hébergement local d'un modèle open-source peut vous donner plus de contrôle mais nécessite du matériel supplémentaire. D'autre part, l'utilisation d'API externes peut entraîner des factures mensuelles imprévisibles en cas de pic d'utilisation.
Meilleures pratiques :
Effectuez une analyse coûts-avantages lorsque vous comparez l'auto-hébergement à une solution basée sur l'informatique dématérialisée.
Pour une utilisation modeste, un abonnement à l'API peut s'avérer moins cher. Pour des volumes importants, un modèle auto-hébergé peut s'avérer payant, même si vous devez assurer la maintenance du matériel.
Action n°4 : aligner votre stratégie de données sur votre déploiement LLM
Pourquoi c'est important :
Un point important à retenir de notre entretien est l '"hygiène des données". Des données propres, bien organisées et centralisées améliorent considérablement la fiabilité de tout système d'IA. Des données désordonnées ou incomplètes peuvent entraîner des résultats erratiques ou carrément nuisibles. Prévoyez des informations sensibles dès le départ, car de nombreuses API externes (y compris celles de ChatGPT ou de Deepseek) offrent moins de garanties de sécurité que les outils internes.
Meilleures pratiques :
Investissez dans la gouvernance des données et la gestion des données de référence (MDM) avant de tenter un déploiement à grande échelle du LLM.
Vérifiez que les sources de données ne comportent pas de valeurs manquantes, de formats incohérents ou d'enregistrements obsolètes.
Lorsque vous traitez des données confidentielles, veillez à la sécurité et à la conformité: mettez en place des contrôles d'accès stricts, un système de cryptage et des audits réguliers.
Conclusion
Déployés à bon escient, les LLM peuvent offrir des avantages considérables : un service plus rapide, des processus rationalisés et des coûts réduits. Cependant, comme le montre l'incident du chatbot d'Air Canada, il peut être risqué de se précipiter ou de négliger les mesures de protection.
Pour les décideurs, la diligence raisonnable est la clé :
Réévaluer fréquemment si le dernier modèle "révolutionnaire" convient réellement à vos stratégies.
Définir un cas d'utilisation clair et des objectifs de retour sur investissement dès le départ.
Adaptez l'approche à la sensibilité de vos données.
Gardez les gens dans la boucle, en particulier pour les processus critiques ou de grande valeur.
Commencez par des chatbots internes avant de vous tourner vers les clients.
Renforcer l'hygiène des données et la gestion des données de référence.
En suivant ces conseils, vous pourrez exploiter la technologie LLM tout en évitant les pièges qui peuvent entraîner des remboursements coûteux et nuire à votre réputation.
Prêt à déployer les MLD de manière responsable ?
Vous avez d'autres questions sur la gouvernance des données, la sélection des modèles ou les pratiques de déploiement sûres? N'hésitez pas à nous contacter pour discuter de la meilleure façon d'intégrer les LLM de manière sûre et transparente dans votre organisation.
En nous appuyant sur notre expérience pour aider les entreprises à adopter l'IA de manière responsable, ainsi que sur les conclusions de notre récent entretien avec Yoann, notre expert en LLM, nous avons compilé les choses à faire et à ne pas faire que chaque décideur doit prendre en compte avant de mettre en œuvre un LLM.
Action n° 1 : Commencer par un objectif commercial clair
Pourquoi c'est important :
Avant de vous précipiter pour intégrer le modèle le plus récent, définissez le problème exact que vous espérez résoudre. Il peut s'agir d'accélérer les temps de réponse du service clientèle, d'automatiser le traitement des factures ou de réduire les tâches manuelles. Les entreprises qui intègrent des LLM sans objectif précis se retrouvent souvent avec des solutions à la recherche de problèmes, ce qui leur fait perdre du temps et de l'argent.
Meilleures pratiques :
Décomposez votre objectif en cibles spécifiques et mesurables, comme "réduire de 30 % les délais de traitement du service clientèle en un an".
Si un outil d'automatisation ou d'analyse plus simple répond à vos besoins, déployez-le en premier. IA ou pas, la solution doit simplement fonctionner.
À ne pas faire n° 1 : se lancer dans tous les programmes d'apprentissage tout au long de la vie "révolutionnaires" sans avoir vérifié leur adéquation.
Pourquoi c'est important :
De nombreuses versions - ChatGPT 4.0 à 4.5, Claude 3.6 à 3.7, etc. - sont incrémentielles ou répondent à des cas d'utilisation limités. Bien que Claude puisse surpasser ChatGPT dans les tâches de codage, ChatGPT excelle dans les requêtes de connaissances générales. L'adoption de chaque nouvelle technologie peut conduire à un "coup de fouet technologique", où votre équipe investit plus de temps dans la mise à niveau qu'elle n'en retire un retour sur investissement (ROI).
Principales considérations :
Évaluez l'impact sur votre cas d'utilisation principal. Si la mise à jour n'apporte que des améliorations mineures ou des fonctionnalités spécialisées que vous n'utiliserez pas pleinement, attendez de recevoir un retour d'information avant de passer à autre chose.
Adaptez le modèle à vos tâches. Si votre priorité est l'assistance au codage, un LLM axé sur le code comme Claude pourrait être plus performant qu'un chatbot généraliste. Pour l'analyse ou l'extraction de données, optez pour des modèles conçus en fonction de ces points forts.
Restez stratégique. Le marché du LLM évolue rapidement. Une mise à jour majeure pourrait arriver bientôt, alors ne vous sentez pas obligé de changer de modèle à moins que vous ne voyiez des avantages clairs et mesurables.
Yoann : Si un nouveau modèle fait les gros titres, il s'agit généralement plus d'une question de marketing que d'une véritable avancée. Si votre modèle actuel fonctionne bien pour votre organisation, il est peu probable que la prochaine version change la donne. À moins qu'il n'y ait un saut significatif en termes de performances ou de rentabilité, il est souvent plus sage d'attendre plutôt que de se précipiter pour effectuer une mise à niveau à chaque fois.
Deuxième chose à faire : Toujours garder un humain dans la boucle
Pourquoi c'est important :
Les LLM répondent souvent avec une grande confiance, même lorsqu'ils se trompent. Pour les applications en contact avec la clientèle, en particulier dans les environnements réglementés comme la santé ou la finance, un robot non contrôlé peut produire des réponses trompeuses ou inexactes. Le fait que des employés ou des experts en la matière supervisent les interactions à fort enjeu permet de réduire ces erreurs.
Meilleures pratiques :
Ajoutez des règles d'escalade : si le modèle est "incertain" ou si la demande concerne une transaction de grande valeur, adressez-la à un agent humain.
Examiner régulièrement les journaux de conversation et les résultats pour assurer le contrôle de la qualité.
À ne pas faire #2 : Laisser libre cours aux chatbots en contact avec les clients
Pourquoi c'est important :
Même les meilleurs LLM peuvent être vulnérables aux hallucinations ou à l'"injection d'invite", lorsqu'un utilisateur malveillant manipule la conversation pour que le modèle accorde des actions non autorisées ou partage des informations restreintes. Une anecdote concerne le chatbot du service clientèle d'Air Canada, qu'un utilisateur astucieux a trompé en lui faisant accorder un remboursement non standard.
Meilleures pratiques :
Utilisez des autorisations strictes basées sur les rôles. Même si le MFR "croit" qu'il peut autoriser les remboursements, il ne doit pas avoir l'autorité réelle de le faire sans une seconde approbation.
Surveillez les demandes inhabituelles ou les propos suspects qui pourraient signaler une tentative d'injection.
Yoann : La technologie n'est pas encore tout à fait au point et la plupart des entreprises ne sont pas prêtes à prendre ce risque. Si les utilisateurs de chatbots internes peuvent dire en toute confiance : " Il ne fait jamais d'erreurs et comprend parfaitement le contexte ", alors vous pourrez envisager de rendre le chatbot orienté client. Mais pour l'instant, je recommande toujours de garder un humain dans la boucle pour éviter des erreurs coûteuses.
Faire #3 : Déployer d'abord des chatbots internes
Pourquoi c'est important :
Les chatbots orientés vers l'interne peuvent rationaliser les opérations, réduire les tâches routinières et stimuler la productivité des employés en offrant des réponses rapides aux questions internes. Qu'il s'agisse de questions relatives aux ressources humaines ou à l'assistance informatique, les chatbots peuvent faire gagner du temps aux employés et leur permettre de se consacrer à des tâches plus importantes.
En outre, le lancement d'un chatbot en interne permet à votre organisation de tester sa fiabilité, sa précision et son efficacité globale avant de le présenter aux clients. Cette approche réduit les risques tout en vous donnant la possibilité d'affiner les performances de votre chatbot.
Meilleures pratiques :
Déterminez les principales possibilités d'automatisation. Identifiez les tâches répétitives, telles que les demandes des RH ou de l'informatique, qui peuvent bénéficier de l'intégration d'un chatbot.
Assurer des connexions transparentes avec le système. Intégrez votre chatbot aux bases de données internes ou aux sites intranet pertinents, afin qu'il puisse fournir des réponses précises en temps réel.
Recueillir les commentaires des employés. Les commentaires réguliers des utilisateurs internes vous aident à améliorer les fonctionnalités du chatbot, jetant ainsi les bases d'un futur chatbot en contact avec les clients.
À ne pas faire n° 3 : négliger les coûts et les exigences en matière d'infrastructure
Pourquoi c'est important :
L'exécution des LLM peut nécessiter des ressources considérables. L'hébergement local d'un modèle open-source peut vous donner plus de contrôle mais nécessite du matériel supplémentaire. D'autre part, l'utilisation d'API externes peut entraîner des factures mensuelles imprévisibles en cas de pic d'utilisation.
Meilleures pratiques :
Effectuez une analyse coûts-avantages lorsque vous comparez l'auto-hébergement à une solution basée sur l'informatique dématérialisée.
Pour une utilisation modeste, un abonnement à l'API peut s'avérer moins cher. Pour des volumes importants, un modèle auto-hébergé peut s'avérer payant, même si vous devez assurer la maintenance du matériel.
Action n°4 : aligner votre stratégie de données sur votre déploiement LLM
Pourquoi c'est important :
Un point important à retenir de notre entretien est l '"hygiène des données". Des données propres, bien organisées et centralisées améliorent considérablement la fiabilité de tout système d'IA. Des données désordonnées ou incomplètes peuvent entraîner des résultats erratiques ou carrément nuisibles. Prévoyez des informations sensibles dès le départ, car de nombreuses API externes (y compris celles de ChatGPT ou de Deepseek) offrent moins de garanties de sécurité que les outils internes.
Meilleures pratiques :
Investissez dans la gouvernance des données et la gestion des données de référence (MDM) avant de tenter un déploiement à grande échelle du LLM.
Vérifiez que les sources de données ne comportent pas de valeurs manquantes, de formats incohérents ou d'enregistrements obsolètes.
Lorsque vous traitez des données confidentielles, veillez à la sécurité et à la conformité: mettez en place des contrôles d'accès stricts, un système de cryptage et des audits réguliers.
Conclusion
Déployés à bon escient, les LLM peuvent offrir des avantages considérables : un service plus rapide, des processus rationalisés et des coûts réduits. Cependant, comme le montre l'incident du chatbot d'Air Canada, il peut être risqué de se précipiter ou de négliger les mesures de protection.
Pour les décideurs, la diligence raisonnable est la clé :
Réévaluer fréquemment si le dernier modèle "révolutionnaire" convient réellement à vos stratégies.
Définir un cas d'utilisation clair et des objectifs de retour sur investissement dès le départ.
Adaptez l'approche à la sensibilité de vos données.
Gardez les gens dans la boucle, en particulier pour les processus critiques ou de grande valeur.
Commencez par des chatbots internes avant de vous tourner vers les clients.
Renforcer l'hygiène des données et la gestion des données de référence.
En suivant ces conseils, vous pourrez exploiter la technologie LLM tout en évitant les pièges qui peuvent entraîner des remboursements coûteux et nuire à votre réputation.
Prêt à déployer les MLD de manière responsable ?
Vous avez d'autres questions sur la gouvernance des données, la sélection des modèles ou les pratiques de déploiement sûres? N'hésitez pas à nous contacter pour discuter de la meilleure façon d'intégrer les LLM de manière sûre et transparente dans votre organisation.
En nous appuyant sur notre expérience pour aider les entreprises à adopter l'IA de manière responsable, ainsi que sur les conclusions de notre récent entretien avec Yoann, notre expert en LLM, nous avons compilé les choses à faire et à ne pas faire que chaque décideur doit prendre en compte avant de mettre en œuvre un LLM.
Action n° 1 : Commencer par un objectif commercial clair
Pourquoi c'est important :
Avant de vous précipiter pour intégrer le modèle le plus récent, définissez le problème exact que vous espérez résoudre. Il peut s'agir d'accélérer les temps de réponse du service clientèle, d'automatiser le traitement des factures ou de réduire les tâches manuelles. Les entreprises qui intègrent des LLM sans objectif précis se retrouvent souvent avec des solutions à la recherche de problèmes, ce qui leur fait perdre du temps et de l'argent.
Meilleures pratiques :
Décomposez votre objectif en cibles spécifiques et mesurables, comme "réduire de 30 % les délais de traitement du service clientèle en un an".
Si un outil d'automatisation ou d'analyse plus simple répond à vos besoins, déployez-le en premier. IA ou pas, la solution doit simplement fonctionner.
À ne pas faire n° 1 : se lancer dans tous les programmes d'apprentissage tout au long de la vie "révolutionnaires" sans avoir vérifié leur adéquation.
Pourquoi c'est important :
De nombreuses versions - ChatGPT 4.0 à 4.5, Claude 3.6 à 3.7, etc. - sont incrémentielles ou répondent à des cas d'utilisation limités. Bien que Claude puisse surpasser ChatGPT dans les tâches de codage, ChatGPT excelle dans les requêtes de connaissances générales. L'adoption de chaque nouvelle technologie peut conduire à un "coup de fouet technologique", où votre équipe investit plus de temps dans la mise à niveau qu'elle n'en retire un retour sur investissement (ROI).
Principales considérations :
Évaluez l'impact sur votre cas d'utilisation principal. Si la mise à jour n'apporte que des améliorations mineures ou des fonctionnalités spécialisées que vous n'utiliserez pas pleinement, attendez de recevoir un retour d'information avant de passer à autre chose.
Adaptez le modèle à vos tâches. Si votre priorité est l'assistance au codage, un LLM axé sur le code comme Claude pourrait être plus performant qu'un chatbot généraliste. Pour l'analyse ou l'extraction de données, optez pour des modèles conçus en fonction de ces points forts.
Restez stratégique. Le marché du LLM évolue rapidement. Une mise à jour majeure pourrait arriver bientôt, alors ne vous sentez pas obligé de changer de modèle à moins que vous ne voyiez des avantages clairs et mesurables.
Yoann : Si un nouveau modèle fait les gros titres, il s'agit généralement plus d'une question de marketing que d'une véritable avancée. Si votre modèle actuel fonctionne bien pour votre organisation, il est peu probable que la prochaine version change la donne. À moins qu'il n'y ait un saut significatif en termes de performances ou de rentabilité, il est souvent plus sage d'attendre plutôt que de se précipiter pour effectuer une mise à niveau à chaque fois.
Deuxième chose à faire : Toujours garder un humain dans la boucle
Pourquoi c'est important :
Les LLM répondent souvent avec une grande confiance, même lorsqu'ils se trompent. Pour les applications en contact avec la clientèle, en particulier dans les environnements réglementés comme la santé ou la finance, un robot non contrôlé peut produire des réponses trompeuses ou inexactes. Le fait que des employés ou des experts en la matière supervisent les interactions à fort enjeu permet de réduire ces erreurs.
Meilleures pratiques :
Ajoutez des règles d'escalade : si le modèle est "incertain" ou si la demande concerne une transaction de grande valeur, adressez-la à un agent humain.
Examiner régulièrement les journaux de conversation et les résultats pour assurer le contrôle de la qualité.
À ne pas faire #2 : Laisser libre cours aux chatbots en contact avec les clients
Pourquoi c'est important :
Même les meilleurs LLM peuvent être vulnérables aux hallucinations ou à l'"injection d'invite", lorsqu'un utilisateur malveillant manipule la conversation pour que le modèle accorde des actions non autorisées ou partage des informations restreintes. Une anecdote concerne le chatbot du service clientèle d'Air Canada, qu'un utilisateur astucieux a trompé en lui faisant accorder un remboursement non standard.
Meilleures pratiques :
Utilisez des autorisations strictes basées sur les rôles. Même si le MFR "croit" qu'il peut autoriser les remboursements, il ne doit pas avoir l'autorité réelle de le faire sans une seconde approbation.
Surveillez les demandes inhabituelles ou les propos suspects qui pourraient signaler une tentative d'injection.
Yoann : La technologie n'est pas encore tout à fait au point et la plupart des entreprises ne sont pas prêtes à prendre ce risque. Si les utilisateurs de chatbots internes peuvent dire en toute confiance : " Il ne fait jamais d'erreurs et comprend parfaitement le contexte ", alors vous pourrez envisager de rendre le chatbot orienté client. Mais pour l'instant, je recommande toujours de garder un humain dans la boucle pour éviter des erreurs coûteuses.
Faire #3 : Déployer d'abord des chatbots internes
Pourquoi c'est important :
Les chatbots orientés vers l'interne peuvent rationaliser les opérations, réduire les tâches routinières et stimuler la productivité des employés en offrant des réponses rapides aux questions internes. Qu'il s'agisse de questions relatives aux ressources humaines ou à l'assistance informatique, les chatbots peuvent faire gagner du temps aux employés et leur permettre de se consacrer à des tâches plus importantes.
En outre, le lancement d'un chatbot en interne permet à votre organisation de tester sa fiabilité, sa précision et son efficacité globale avant de le présenter aux clients. Cette approche réduit les risques tout en vous donnant la possibilité d'affiner les performances de votre chatbot.
Meilleures pratiques :
Déterminez les principales possibilités d'automatisation. Identifiez les tâches répétitives, telles que les demandes des RH ou de l'informatique, qui peuvent bénéficier de l'intégration d'un chatbot.
Assurer des connexions transparentes avec le système. Intégrez votre chatbot aux bases de données internes ou aux sites intranet pertinents, afin qu'il puisse fournir des réponses précises en temps réel.
Recueillir les commentaires des employés. Les commentaires réguliers des utilisateurs internes vous aident à améliorer les fonctionnalités du chatbot, jetant ainsi les bases d'un futur chatbot en contact avec les clients.
À ne pas faire n° 3 : négliger les coûts et les exigences en matière d'infrastructure
Pourquoi c'est important :
L'exécution des LLM peut nécessiter des ressources considérables. L'hébergement local d'un modèle open-source peut vous donner plus de contrôle mais nécessite du matériel supplémentaire. D'autre part, l'utilisation d'API externes peut entraîner des factures mensuelles imprévisibles en cas de pic d'utilisation.
Meilleures pratiques :
Effectuez une analyse coûts-avantages lorsque vous comparez l'auto-hébergement à une solution basée sur l'informatique dématérialisée.
Pour une utilisation modeste, un abonnement à l'API peut s'avérer moins cher. Pour des volumes importants, un modèle auto-hébergé peut s'avérer payant, même si vous devez assurer la maintenance du matériel.
Action n°4 : aligner votre stratégie de données sur votre déploiement LLM
Pourquoi c'est important :
Un point important à retenir de notre entretien est l '"hygiène des données". Des données propres, bien organisées et centralisées améliorent considérablement la fiabilité de tout système d'IA. Des données désordonnées ou incomplètes peuvent entraîner des résultats erratiques ou carrément nuisibles. Prévoyez des informations sensibles dès le départ, car de nombreuses API externes (y compris celles de ChatGPT ou de Deepseek) offrent moins de garanties de sécurité que les outils internes.
Meilleures pratiques :
Investissez dans la gouvernance des données et la gestion des données de référence (MDM) avant de tenter un déploiement à grande échelle du LLM.
Vérifiez que les sources de données ne comportent pas de valeurs manquantes, de formats incohérents ou d'enregistrements obsolètes.
Lorsque vous traitez des données confidentielles, veillez à la sécurité et à la conformité: mettez en place des contrôles d'accès stricts, un système de cryptage et des audits réguliers.
Conclusion
Déployés à bon escient, les LLM peuvent offrir des avantages considérables : un service plus rapide, des processus rationalisés et des coûts réduits. Cependant, comme le montre l'incident du chatbot d'Air Canada, il peut être risqué de se précipiter ou de négliger les mesures de protection.
Pour les décideurs, la diligence raisonnable est la clé :
Réévaluer fréquemment si le dernier modèle "révolutionnaire" convient réellement à vos stratégies.
Définir un cas d'utilisation clair et des objectifs de retour sur investissement dès le départ.
Adaptez l'approche à la sensibilité de vos données.
Gardez les gens dans la boucle, en particulier pour les processus critiques ou de grande valeur.
Commencez par des chatbots internes avant de vous tourner vers les clients.
Renforcer l'hygiène des données et la gestion des données de référence.
En suivant ces conseils, vous pourrez exploiter la technologie LLM tout en évitant les pièges qui peuvent entraîner des remboursements coûteux et nuire à votre réputation.
Prêt à déployer les MLD de manière responsable ?
Vous avez d'autres questions sur la gouvernance des données, la sélection des modèles ou les pratiques de déploiement sûres? N'hésitez pas à nous contacter pour discuter de la meilleure façon d'intégrer les LLM de manière sûre et transparente dans votre organisation.
Prêt à atteindre vos objectifs grâce aux données ?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'intelligence artificielle, vous êtes au bon endroit.
Prêt à atteindre vos objectifs grâce aux données?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'intelligence artificielle, vous êtes au bon endroit.
Prêt à atteindre vos objectifs grâce aux données?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'intelligence artificielle, vous êtes au bon endroit.
Prêt à atteindre vos objectifs grâce aux données?
Si vous souhaitez atteindre vos objectifs grâce à une utilisation plus intelligente des données et de l'intelligence artificielle, vous êtes au bon endroit.