Agefi Luxembourg - novembre 2024
Novembre 2024 45 AGEFI Luxembourg Informatique financière Luxembourg for Finance Digital Finance Forum The digital transformation of the financial sector T hedigital transformationof theEuropean financial sector, initiatedadecade ago, is now gaining significant traction. Emer- ging regulations arehelping tode- fine this landscape,while techno- logies likeDistributedLedger Tech- nology (DLT) andblockchainhave demonstrated their value.Most cen- tral banks are also advancing to- wards the introductionofCentral BankDigital Currencies (CBDCs). RonitGhose,GlobalHeadofFutureofFi- nance at Citi Institute, notes: “Finance has alreadytransformeddramaticallyoverthe past 30years, and the evolutioncontinues withblockchain,DLT,andgenerativeAI.” In his book Future Money (March 2024), GhosearguesthatAIwillsoondrivemajor productivity gains in information man- agementandsoftwaredevelopment.Lux- embourg for Finance’s inaugural Digital FinanceForumbrought,on15October,to- gether leading figures to discuss key de- velopments in digital finance. What is clearisthatdigitalassetsarenolongerseen asathreatbytraditionalfinancialservices, but as anopportunity. JohnO’Neill,GlobalHeadofDigitalStrat- egy at HSBC, remarked on the growing investorinterestindigitalassets:“Thisshift hasbeenparticularlyevidentin2024.After a niche experimental phase, many more investors are now involved, and liquidity has grown significantly.” Similarly, Ami Nagata, CEO of Bitflyer Europe, noted that “traditional financial players are entering the cryptocurrency space, nowmore secure and structured. Regulations such as MiCA (Markets in Crypto-Assets) provide reassurance, which is a verypositive development.” Aprime example of this trend is Finality International, backed by a consortiumof 20 global financial institutions, exploring DLTandblockchain’spotential. Fnality’s Founder and CEO, Rhomaios Ram, stresses: “Now is the time for financial players to start their transformation, preparing for blockchain’s widespread adoption. The benefits, particularly the reduction in intermediaries and costs, will be significant.” This view is shared by Basak Toprak, EMEAHeadof CoinSystems atOnyx by J.P.Morgan,whoemphasiseshowdigital assets are revolutionising capitalmarkets. She highlighted that tokenisation and blockchain are streamlining settlement processes, reducing transaction costs, and fostering amore interconnected global fi- nancial system. Jochen Papenbrock, Nvidia’s Head of Fi- nancial Tech EMEA, highlighted AI’s transformative impact on financial ser- vices, particularly in handling vast amountsofdataandmanagingemerging risks. While some major institutions are adopting these technologies, much work remains to fully leverage them. Regarding regulation, Biba Homsy, FounderandPartneratHomsyLegal,ad- vocated for a gradual approach to crypto regulation: “Regulation is essential, but it must be applied reasonably and evolve gradually. This is still a young industry, barely tenyears old.” At theEuropean level, theCommission is developing PSD3, set for release by 2027. NadiaManzari, Partner at BochManzari Legal, explained: “It aims to clarify the definition of e-money, address open banking, andensure the continuedavail- ability of cash, despite the rise of digital payments.” Watchthe fullreplayhere :https://lc.cx/6savDW Source: Luxembourg for Finance ©Luxembourg forFinance Par Renaud BARBIER, Managing Director – Infinity & Beyond Group A lors que l'intelligence artificielle (IA) redéfinit le paysage des af- faires, les entreprises constatent unpotentiel transformateur et des avan- tages opérationnels sans précédent. Ce- pendant, ce déploiement rapide de l'IAsoulève également des considérations éthiques significatives. Comment les entreprises peuvent- elles s’assurer d’utiliser l’IAdemanière respon- sable, et quelles sont les implications d’unusage ir- responsable ? L’analyse qui suit explore les défis éthiques de l’IAdans lemonde des affaires et propose des pistes pour construire un cadre de déploiement responsable. L'adoption accélérée de l'IAdans divers secteurs a poussé les gouvernements et les organismes de réglementation dumonde entier à développer des cadres visant à gérer et à contrôler son impact. L’Union européenne, avec sonAI Act pionnier, se place à l’avant-garde de ces efforts. Cette législation impose des exigences strictes pour les applications d’IA, les classant par niveaux de risque et appli- quant des contrôles plus rigoureux pour les sys- tèmes «à haut risque». Ces domaines à risque élevé incluent des secteurs critiques tels que le recrute- ment, l'évaluation du crédit et la surveillance, où les impacts d'une utilisation biaisée ou défaillante de l'IA peuvent être particulièrement graves. Dans les industries déjà soumises à des exigences réglementaires élevées, comme la finance et la santé, les entreprises sont confrontées à des normes encore plus strictes. Dans ces secteurs, les risques associés à l'IA ne se limitent pas seulement à la conformité, mais touchent aussi la sécurité des données, la confidentialité des patients et même la stabilité financière. Respecter ces lignes directrices spécifiques aux secteurs est essentiel non seule- ment pour des raisons légales et éthiques, mais aussi comme un moyen de protéger la réputation de l’entreprise et la confiance des parties prenantes. Les entreprises qui négligent ces cadres risquent de voir leur crédibilité diminuée et leurs relations clients affaiblies, àmesure que les consommateurs deviennent plus conscients des enjeux éthiques et de la confidentialité des données. L'impact d'une utilisation non éthique de l'IA s’étend bien au-delà des amendes et des sanctions. Des systèmes d'IA mal gérés ont causé des dom- mages considérables à la réputation de grandes entreprises, remettant enquestion leur engagement envers l'équité et la transparence. Un exemplemar- quant est celui de l’outil de recrutement d’Amazon en 2018, qui s’est révélé discriminatoire envers les candidates. Ce typede casmet en évidence le risque très réel associé aux algorithmes biaisés. À une époque où les consommateurs sont plus informés et sensibles aux enjeux éthiques, les entreprises ne peuvent pas se permettre d'être associées à des pra- tiques de discrimination ou de partialité. La perte de confiance des consommateurs est peut-être la conséquence la plus dommageable d’une IA non éthique, car elle peut entraîner une diminution de la fidélité et, dans les cas les plus graves, un boycott organisé. Au-delà des dommages réputation- nels, les entreprises doivent égale- ment anticiper des répercussions juri- diques. Les violations impliquant la protection des données, les pra- tiques discriminatoires ou les décisions injustes peu- vent entraîner des pour- suites coûteuses, ainsi qu'une surveillance accrue des autorités réglementaires. Les litiges, en plus de drai- ner les ressources, peuvent également entraîner un suivi réglementaire accru, ce qui affecte la flexibilité opérationnelle de l'entreprise. À mesure que le public prend davantage conscience des pratiques éthiques de l'IA, la pression pour maintenir des normes éle- vées en matière d’éthique va s’intensifier. Par conséquent, adopter une posture transparente et proactive en matière d’éthique de l’IA est indis- pensable. Face à ces défis, les entreprises doivent adopter une approcheproactivedegestiondes risques liés à l’IA. Cela nécessite une surveillance continue des évolu- tions réglementaires et des développements éthiques, notamment dans les juridictions où l'en- treprise est active. Comprendre cepaysage juridique en mutation n'est que la première étape ; les entre- prises doivent également évaluer l'impact éthique de chaque système d'IA avant son déploiement. Une approche globale de la gestion des risques liés à l'IA comprend l'établissement de cadres de gou- vernance de l'IAefficaces au seindes organisations. Cette structure garantit une responsabilité et une supervision sur l'ensemble du cycle de vie de l'IA, de son développement à son déploiement et au- delà. De nombreuses entreprises commencent à mettre en place des comités d’éthique de l’IA, qui servent de forums de discussion approfondie sur les implications éthiques de l’utilisation de l’IA et formulent des recommandations pertinentes. Par exemple, l'agence pour l'emploi France Travail a mis enplace un comité d’éthique combinant exper- tise interne et externe pour assurer la conformité éthique tout en renforçant la transparence. Ces comités se composent généralement d'une équipe multidisciplinaire incluant des experts en IA, des conseillers juridiques, des spécialistes en éthique et des représentants de diverses fonctions commerciales. Cette diversité permet une vue d'en- semble des risques potentiels et des dilemmes éthiques, permettant à l'entreprise de traiter les questions sous divers angles. Une structure de gouvernance de l'IA aide non seulement à éviter les faux pas éthiques mais contribue également à sensibiliser en interne et à créer un consensus autour des pratiques éthiques en matière d’IA. Adopter une IA éthique ne consiste pas seule- ment à éviter les écueils ; cela apporte des avan- tages tangibles qui peuvent améliorer la perfor- mance et la réputation d'une entreprise. L'IA éthique favorise l'équité et la transparence dans les processus de décision, produisant des infor- mations plus fiables et soutenant une meilleure prise de décision. Par exemple, les entreprises qui utilisent l'IA de manière transparente peuvent renforcer la confiance des clients et des consom- mateurs dans les décisions prises, renforçant ainsi la fidélité et la confiance de la clientèle. L'IA éthique améliore également l'efficacité opé- rationnelle en identifiant et en réduisant les inef- ficacités dans les processus métier. Les entre- prises qui adoptent une approche éthique de l'IA peuvent l'utiliser comme un outil d'innovation responsable. En effet, les défis éthiques peuvent stimuler la créativité au sein des équipes de développement, les encourageant à réfléchir à des solutions qui privilégient l'équité, la trans- parence et l'inclusivité. En ce sens, l’éthique devient un catalyseur d'innovation, poussant les entreprises à redéfinir leur approche technolo- gique et décisionnelle. De plus, les entreprises qui intègrent des indica- teurs de performance clés (KPIs) éthiques pour mesurer l'impact de l'IA peuvent évaluer leur retour sur investissement non seulement en termes financiers, mais aussi en termes de contri- bution sociale et de réputation. Enmesurant l'im- pact éthique de l'IA, les entreprises peuvent ali- gner leur utilisation de la technologie sur des objectifs de responsabilité sociale plus larges et bâtir une image de leader éthique. Pour mettre en place des pratiques éthiques en matière d’IA, les entreprises peuvent prendre plusieurs mesures concrètes reflétant un enga- gement envers la responsabilité, la transparence et l’inclusivité. L’une de ces mesures consiste à réaliser régulièrement des audits algorithmiques et des tests de robustesse. Ces pratiques sont essentielles pour détecter et corriger les biais dans les modèles d'IA. Des évaluations régulières aident à garantir que l'IA reste alignée sur les valeurs de l'entreprise et les normes éthiques, réduisant le risque de faux pas qui pourraient sinon nuire à la réputation de la marque ou conduire à des défis juridiques. La transparence et l'explicabilité sont également indispensables. Documenter de manière exhaus- tive les modèles d'IA et créer des interfaces expli- catives conviviales permettent aux parties pre- nantes de comprendre comment et pourquoi les décisions prises par l’IA sont établies. Cette trans- parence satisfait non seulement aux exigences réglementaires, mais renforce également la confiance des clients, employés et autres parties prenantes. En montrant un engagement envers la clarté, les entreprises peuvent communiquer plus efficacement les valeurs qui sous-tendent leur utilisation de l’IA. Renforcer les compétences internes par des pro- grammes de formation et de sensibilisation est une autre composante clé. La formation des équipes dans toute l’entreprise, en particulier des cadres dirigeants, sur les implications éthiques de l'IA est cruciale pour bâtir une culture éthique. Une telle sensibilisation favorise une compréhen- sion partagée du potentiel et des limites de l'IA, renforçant la capacité de l’organisation à naviguer dans les défis éthiques. Le développement de cette vigilance éthique favorise une intégration naturelle des considérations éthiques dans toutes les décisions liées à l'IA. Pour relever les défis multiformes posés par l'IA, une approche collaborative impliquant des équipes multidisciplinaires est essentielle. Combiner l'expertise en science des données, éthique, droit et fonctions commerciales permet aux entreprises d’aborder les défis éthiques sous divers angles. Les partenariats avec des institu- tions académiques ou des experts externes peu- vent également apporter de nouvelles perspec- tives et faciliter le partage des connaissances. Cette collaboration enrichit les compétences internes et permet aux entreprises de rester à la pointe des nouvelles questions éthiques dans ce domaine. L'éthique de l'IAdoit être perçue comme une par- tie intégrante de la responsabilité sociale de l’en- treprise (RSE). L'usage éthique de l'IA doit s'ali- gner avec les objectifs RSE plus larges de l'entre- prise, qui incluent la prise en compte de son impact sur l'emploi, l'inclusivité et la diversité. Par exemple, à mesure que l'automatisation pro- gresse, les entreprises peuvent faire face à des défis liés à la substitution d'emplois. Cela néces- site une gestion réfléchie des effets de l’automati- sation sur l'emploi, associée à des programmes de reconversion et de formation qui préparent les employés aux rôles futurs. L’utilisation responsable de l'IA doit également contribuer positivement à la société. Les entre- prises peuvent orienter leurs projets d'IA pour soutenir des objectifs sociaux ou environnemen- taux, en phase avec les attentes croissantes de la société envers la responsabilité des entreprises. L’éthiquede l'IAn'est pas simplement une question de conformité réglementaire ; elle représente une opportunité pour les entreprises de redéfinir leur manière de créer de la valeur et de dialoguer avec leurs parties prenantes. Les organisations qui pla- cent les pratiques éthiques d’IA au cœur de leurs stratégies peuvent se protéger des risques juri- diques tout en renforçant leur réputation d'inno- vateurs responsables. Dans unmonde où les préoc- cupations sociales et environnementales façonnent de plus en plus les attentes, les entreprises qui adoptent une approche éthique de l’IA seront les mieux placées pour réussir et inspirer confiance. Les dirigeants d’entreprise doivent reconnaître que l’éthique n'est pas un obstacle au progrès mais un moteur d'innovation responsable et durable. En poursuivant activement des pratiques responsables enmatière d’IA, les entreprises peu- vent bâtir une base résiliente pour la croissance, posant ainsi des bases solides pour le succès à long terme. En naviguant dans un environnement réglementaire complexe, elles peuvent montrer l'exemple, en construisant un avenir où la tech- nologie sert le bien commun et renforce les valeurs humaines. Adopter une IA éthique et la considérer comme partie intégrante de la stratégie de l’entreprise améliore la transparence, la confiance et l'inclusi- vité. En favorisant une culture de l'éthique de l'IA, les entreprises ne répondent pas seulement aux attentes actuelles, mais préparent également le terrain pour un succès durable, prouvant qu'une utilisation responsable de la technologie peut avoir un impact positif durable. Intelligence artificielle et éthique : un enjeu stratégique
Made with FlippingBook
RkJQdWJsaXNoZXIy Nzk5MDI=