Nos utilisations de données et de l’IA seront en harmonie avec notre Code de déontologie et d’éthique et notre Programme axé sur les effets.
L’IA responsable à Manuvie
Les principes ne se trouvent pas dans les documents. Ils se trouvent dans les mises en œuvre.
Instaurer la confiance grâce à l’IA éthique, transparente et axée sur l’humain
L’intelligence artificielle offre de formidables possibilités d’améliorer l’expérience client, de renforcer la prise de décision et d’optimiser le fonctionnement des organisations. À Manuvie, nous sommes conscients que pour tirer pleinement parti de ces avantages, il nous incombe d’utiliser l’IA de manière réfléchie, sûre et transparente.
Nous mettons l’IA au service de l’ensemble de nos activités dans le but d’améliorer les résultats pour nos clients et nos collègues, tout en maintenant une gouvernance solide, des normes éthiques et une supervision humaine.
Manuvie a défini six principes d’IA responsable afin d’orienter la manière dont nous développons, mettons en œuvre et utilisons l’intelligence artificielle. Nous allons au-delà de la théorie pour mettre ces principes en pratique au quotidien dans l’ensemble de nos activités à l’échelle mondiale.
Notre approche s’appuie sur des cadres de gouvernance et de gestion des risques à l’échelle de l’entreprise qui définissent les modalités d’évaluation, d’approbation, de mise en œuvre et de suivi de l’IA tout au long de son cycle de vie.
-
Plus de 37 000 collègues ont accès à l’IA
-
70 % Taux d’engagement du personnel
-
1 Md $ Valeur de l’IA d’entreprise* objectif d’ici 2027
Nous accorderons la priorité à la sécurité de nos clients, de nos collègues et de l’organisation au moyen de processus de gouvernance et de prestation de service solides.
Nous nous efforcerons d’harmoniser nos efforts en IA avec notre engagement envers un avenir durable, en concevant des solutions d’IA efficaces sur le plan énergétique et nous créerons des partenariats avec des entreprises qui ont les mêmes valeurs que nous.
Nous mettrons en place des pratiques pour faire en sorte que nos solutions d’IA et les utilisations de données qu’elles génèrent soient exemptes de préjugés, explicables et fiables, tout en nous assurant de conserver une responsabilité appropriée sur le plan de la prise de décisions.
Nous donnerons la priorité à l’humain et nous offrirons à nos collègues la possibilité d’améliorer leurs compétences et leur expérience grâce aux outils d’IA.
Nous continuerons à tirer des enseignements de nos partenaires du secteur et des experts en IA, et à collaborer avec eux, afin de favoriser l’innovation et de faire évoluer notre engagement en faveur d’une IA responsable, d’une gouvernance de l’IA et de bonnes pratiques, qui évoluent rapidement. Manuvie investit activement dans la formation continue afin de rester à la pointe des évolutions technologiques, éthiques et réglementaires.
À Manuvie, les modèles d’IA et d’apprentissage automatique sont régis par notre cadre de gestion des modèles de risque d’entreprise. La gestion des modèles de risque établit des normes cohérentes concernant la conception, les tests, la validation et le suivi des modèles dans le temps.
Avant d’être approuvés, les modèles doivent faire l’objet d’évaluations indépendantes de validation et de fiabilité, ainsi que d’un suivi continu une fois mis en œuvre. Des exigences claires en matière de documentation et de gouvernance favorisent la transparence, l’explicabilité et la responsabilité tout au long du cycle de vie du modèle.
La gestion des modèles de risque contribue également à intégrer les considérations éthiques dès les premières étapes du développement de l’IA. Les équipes effectuent des contrôles structurés afin de repérer les risques éthiques et les risques liés à la clientèle.
Ces mesures visent à garantir que les solutions d’IA soient évaluées non seulement en fonction de leur rendement, mais aussi au regard de leur conformité avec les exigences légales et les normes éthiques de Manuvie, ainsi qu’avec son engagement à préserver la confiance des clients et des parties prenantes.
Afin de garantir une responsabilité claire, Manuvie met en place une formation destinée aux responsables de modèles, qui vise à les aider à comprendre leurs responsabilités en matière d’utilisation éthique, de contrôles appropriés et de surveillance continue tout au long du cycle de vie d’un modèle.
La gestion des modèles de risque suit une approche de trois lignes de défense, avec des responsabilités clairement définies entre les responsables de modèles, les équipes de gestion des risques indépendantes et l’audit interne. L’objectif est de garantir que la fiabilité et l’explicabilité constituent des obligations permanentes, et non des évaluations ponctuelles.
Le résultat
Les modèles d’IA sont mis en œuvre avec une documentation claire, un contrôle indépendant et une surveillance continue. Cela favorise l’obtention de résultats fiables, la prise de décisions compréhensibles et une responsabilité clairement définie, conformément au Code de déontologie et d’éthique de Manuvie et aux attentes de l’entreprise en matière de gestion des risques.
Les partenariats de Manuvie avec Akka et Adaptive ML viennent directement en appui à notre principe de durabilité en intégrant l’efficacité et une conception soucieuse de la consommation d’énergie dans le processus de développement et de mise en œuvre des solutions d’IA.
Grâce à ces partenariats, nous :
- développons des solutions d’IA optimisées en termes de coûts, de rapidité et d’utilisation efficace des ressources;
- utilisons des modèles plus petits et plus efficaces lorsque cela est pertinent, ce qui permet de réduire la puissance de traitement et les besoins énergétiques;
- optimisons l’utilisation des ressources informatiques pendant l’entraînement et le réglage des modèles;
- réévaluons et améliorons régulièrement notre infrastructure afin de contribuer à réduire la consommation énergétique globale.
En optimisant la conception des solutions d’IA, en recourant à des modèles plus petits lorsque cela s’avère pertinent et en s’associant à des fournisseurs partageant les mêmes valeurs, Manuvie cherche à intégrer les considérations de
Manuvie dispose d’une équipe dédiée à la gouvernance de l’IA, chargée de définir les normes, les politiques et les exigences de contrôle applicables à l’IA à l’échelle de l’entreprise. Cette équipe travaille en étroite collaboration avec les équipes Services juridiques, Protection des renseignements personnels, Conformité et Gestion des risques, ainsi qu’avec les responsables de modèles. Les responsables de modèles font partie des équipes opérationnelles et fonctionnelles; ils ont pour mission de veiller à ce que les modèles soient conformes aux objectifs opérationnels et aux exigences de gouvernance, en définissant des limites de tolérance et des seuils de surveillance du rendement.
Le contrôle stratégique est assuré par le Conseil de gouvernance de l’IA, qui agit à titre de comité directeur au niveau mondial. Ce conseil rassemble les hauts dirigeants afin de :
- définir la stratégie de l’entreprise en matière d’adoption de l’IA;
- prioriser les cas d’utilisation de l’IA présentant un risque élevé ou une incidence importante;
- garantir la responsabilité et la cohérence entre les unités administratives et fonctionnelles.
Cette structure de gouvernance à plusieurs niveaux vise à garantir que les aspects liés à la sécurité, à la conformité et à l’éthique soient intégrés tout au long du processus, de la conception à la mise en œuvre, en passant par le contrôle continu.
Ce modèle de supervision à plusieurs niveaux permet de garantir que les solutions d’IA fonctionnent dans les limites définies de la tolérance au risque, tout en restant adaptables à l’évolution des technologies, de la réglementation et des attentes.
Manuvie mise sur la formation continue afin de rester en phase avec l’évolution des technologies d’IA, des pratiques de gouvernance et des exigences réglementaires.
Nous sommes conscients que l’IA générative évolue rapidement, et notre gouvernance, nos contrôles et nos pratiques sont conçus pour évoluer en parallèle. Cela permet d’établir une base de référence claire tout en tirant continuellement des enseignements des nouveaux risques, des nouvelles technologies et de l’évolution de la réglementation.
Nos responsables principaux de l’IA participent régulièrement à des conférences sur l’IA responsable et la gouvernance de l’IA, où ils interviennent pour faire part de leur expérience pratique et échanger avec leurs pairs sur l’utilisation sûre et éthique de l’IA.
Nous collaborons avec des établissements universitaires de premier plan, notamment l’université Harvard, le MIT, l’université York, l’université de Waterloo et l’université nationale de Singapour, afin de rester au fait des dernières avancées en matière de recherche et des meilleures pratiques appliquées.
Manuvie encourage également le débat public par le biais d’initiatives telles que les conférences « Hinton Lectures », qui réunissent des experts internationaux pour examiner les questions de sécurité, d’éthique et d’incidence sociétale liées à l’IA.
*Comprend la réduction des dépenses annualisées, l’augmentation du chiffre d’affaires grâce aux flux de travail propulsés par l’IA, la réduction de la fraude et l’absorption de la croissance