Use this button to switch between dark and light mode.

L’innovation responsable en IA : L’engagement de LexisNexis®︎ pour une approche fondée sur des principes

By: LexisNexis Canada

L’émergence des outils d’IA générative (Gen AI) représente une percée révolutionnaire pour le secteur juridique. Cependant, il est crucial d’aborder cette nouvelle technologie avec la prudence appropriée. Tout comme les avocats supervisent le travail des stagiaires d’été ou des assistants juridiques, les résultats de l’IA générative ne peuvent être utilisés sans la supervision adéquate d’un avocat. 

Un moyen d’atténuer les risques liés à l’utilisation des résultats de l’IA générative (Gen AI) est de s’assurer que vous utilisez un outil d’IA juridique spécifiquement conçu pour la profession juridique. Les outils dIA juridique doivent être ancrés dans un contenu juridique faisant autorité et développés selon les principes d’une “IA responsable”. Ce fondement critique garantit que le système d’IA produit des résultats en réponse aux invites a été développé, déployé et géré conformément à toutes les règles d’éthique et lois applicables au domaine juridique. Cela contribue à atténuer les risques éthiques et de conformité lors de l’intégration des capacités de l’IA générative dans le travail juridique. 

“L’IA responsable” fait référence à une approche pour développer et déployer l’intelligence artificielle de manière éthique et légale, selon l’Organisation internationale de normalisation. L’objectif est d’utiliser l’IA de manière sûre, digne de confiance et éthique, en augmentant la transparence tout en atténuant les problèmes tels que les biais de l’IA. 

Un moyen d’atténuer les risques liés à l’utilisation des résultats de l’IA générative (Gen AI) est de s’assurer que vous utilisez un outil d’IA juridique spécifiquement conçu pour la profession juridique. Les outils dIA juridique doivent être ancrés dans un contenu juridique faisant autorité et développés selon les principes d’une “IA responsable”. Ce fondement critique garantit que le système d’IA produit des résultats en réponse aux invites a été développé, déployé et géré conformément à toutes les règles d’éthique et lois applicables au domaine juridique. Cela contribue à atténuer les risques éthiques et de conformité lors de l’intégration des capacités de l’IA générative dans le travail juridique. 

“L’IA responsable” fait référence à une approche pour développer et déployer l’intelligence artificielle de manière éthique et légale, selon l’Organisation internationale de normalisation. L’objectif est d’utiliser l’IA de manière sûre, digne de confiance et éthique, en augmentant la transparence tout en atténuant les problèmes tels que les biais de l’IA. 

Atténuer les risques avec une IA responsable 

L’IA responsable va au-delà du simple fait d’agir correctement - elle sert de garde-fou important en matière de gestion des risques. L’adoption d’un cadre d’IA responsable pour les outils d’IA juridique aide à accroître la confiance que la solution évitera les risques potentiels de réputation et financiers pour un cabinet d’avocats à l’avenir. Elle peut également favoriser la transparence, la responsabilité et l’utilisation éthique des systèmes d’IA conformément aux lois et réglementations. Pour la profession juridique, cette approche responsable est essentielle pour gérer les risques et maintenir la confiance du public lors de l’intégration des capacités de l’IA dans le travail juridique. 

 

Voici cinq clés pour le développement responsable d’un outil d’IA juridique, tirées des Principes d’IA responsable de RELX, la société mère de LexisNexis : 

 

Être en mesure d’expliquer le fonctionnement de la solution 

L’outil d’IA doit avoir un niveau de transparence approprié 

pour chaque application et cas d’utilisation afin de permettre aux différents utilisateurs de comprendre et de faire confiance aux résultats. 

 

Prévenir la création ou le renforcement de biais injustes 

La précision mathématique ne garantit pas l’absence de biais, donc l’IA doit être développée avec des procédures, des processus d’examen et de documentation approfondis, et l’utilisation d’outils de détection automatique des biais. 

 

Responsabilité grâce à la supervision humaine 

Les humains doivent avoir la propriété et la responsabilité du développement, de l’utilisation et des résultats des systèmes d’IA. Cela nécessite un niveau approprié de supervision humaine tout au long du cycle de développement et de déploiement, y compris une assurance qualité continue des résultats des machines pour prévenir toute utilisation involontaire. 

 

Respect de la vie privée et promotion de la gouvernance des données 

L’outil d’IA doit être développé avec des politiques et procédures robustes en matière de gestion et de sécurité des données, garantissant que les informations personnelles sont traitées conformément à toutes les lois et réglementations applicables en matière de protection de la vie privée - ainsi qu’aux principes de confidentialité qui exigent que le développeur agisse toujours en tant que gestionnaire responsable des données. Par exemple, LexisNexis a fait de la sécurité et de la confidentialité des données pour les clients une priorité en optant pour ne pas utiliser certaines fonctionnalités de surveillance de Microsoft® AI afin de garantir qu’OpenAI ne puisse pas accéder ou conserver les données confidentielles des clients. 

 

Considérer l’impact réel sur les personnes 

Lors du développement de nouvelles technologies d’IA comme les outils d’IA générative, il est essentiel de réfléchir d’abord à la sphère d’influence et aux impacts potentiels, de cartographier toutes les parties prenantes au-delà des simples utilisateurs directs, et d’examiner attentivement le domaine spécifique dans lequel l’outil fonctionnera – en particulier s’il pourrait affecter la santé, la carrière ou les droits des individus. 

LexisNexis est un leader dans le développement responsable d’outils d’IA dignes de confiance depuis des années. Son expérience a commencé avec des modèles d’IA extractive utilisant des techniques d’apprentissage automatique et s’est maintenant étendue à la technologie d’IA générative transformationnelle avec sa solution révolutionnaire Lexis+ AITm. Cela implique d’examiner minutieusement les impacts, les parties prenantes et les cas d’utilisation potentiels avant de déployer de nouvelles capacités d’IA afin de s’assurer qu’elles sont construites et appliquées de manière responsable dans le domaine approprié. 

Lexis+ AI est une plateforme d’IA juridique construite sur un cadre de principes d’IA éthiques et responsables. Elle s’appuie sur le référentiel de contenu juridique autorité de LexisNexis pour ancrer les résultats dans des sources précises comme la jurisprudence et les lois. Lexis+ AI fournit de manière unique des citations liées dans les réponses pour plus de transparence. Cette plateforme innovante offre une recherche conversationnelle, la synthèse, l’assistance à la rédaction intelligente et l’analyse de documents - le tout dans une expérience utilisateur transparente. Lexis+ AI soutient l’adoption éthique de l’IA générative pour les professionnels du droit grâce à son approche fondée sur des principes et à son expertise dans le domaine juridique. 

Pour en savoir plus sur la façon dont Lexis+ AI peut favoriser de meilleurs résultats juridiques, rejoignez le Programme privilège Lexis+ AI pour obtenir les dernières informations sur l’IA juridique.