Le message de la directrice exécutive

 Sur Heather               À propos de la FCF             
 Archivé   
   

Juillet 2019


Bonjour à tous les membres de la FCF,

Ici, à la Fondation, nous passons beaucoup de temps à réfléchir à l’évolution des services professionnels. L’une de nos responsabilités les plus importantes est de nous assurer d’être à l’affût des nouvelles tendances afin de pouvoir offrir des services opportuns et pertinents à nos membres aujourd’hui et d’adapter nos services pour soutenir leur succès futur. L’effet perturbateur de la technologie est au cœur de cet effort et des questions intéressantes continuent de se poser.

Plus tôt cette année, la Corporate Management Tax Conference s’est tenue sous le thème central de la fiscalité et de la technologie. Toutes les séances étaient intéressantes, mais l’une des plus troublantes a été une table ronde sur l’intelligence artificielle (IA) et, en particulier, sur la question des principes et des garanties qui devraient guider l’élaboration et l’application de ces outils par les praticiens et l’appareil judiciaire. Une question connexe était de savoir si les règles d’éthique et les codes de déontologie existants fournissaient des lignes directrices suffisantes. Il est ressorti clairement de la discussion que, même si la voie à suivre demeure quelque peu incertaine, des mesures énergiques s’imposent pour éviter les pièges potentiels et les conséquences imprévues associés à ces puissantes applications et pour faire en sorte que le jugement et la surveillance professionnels conservent la place qui leur revient.

Les événements se sont poursuivis depuis, au Canada et ailleurs. Le droit fiscal est un candidat évident pour ces technologies, étant donné sa nature omniprésente, son état de changement constant et sa complexité inhérente. Je suis tombée récemment sur un nouvel exemple de technologie innovante : l’Artificial Intelligence Tax Treaty Assistant, qui est basé sur un algorithme prédictif conçu par Błażej Kuźniacki, un universitaire et avocat polonais. L’objectif de cet outil est de déterminer, sur la base d’une série de questions, la probabilité d’une utilisation abusive des conventions en vertu du critère de l’objet principal (COP) de l’instrument multilatéral à l’égard de transactions ou d’ententes internationales. Les opportunités d’innovation sont partout!

Certains se sont concentrés sur la limitation de l’utilisation de ces nouvelles technologies; d’autres ont saisi le potentiel qu’elles offrent pour analyser plus efficacement des questions difficiles. Un bon exemple de la première approche est la récente modification de la loi en France qui rend illégale l’utilisation des noms des juges pour « évaluer, analyser, comparer ou prédire » la manière dont les décisions sont prises. La mesure visait les sociétés de technologie qui utilisent l’analyse des données juridiques accessibles au public pour comparer les juges et offrir des prédictions sur l’issue probable des causes. La raison d’être de la modification de la loi était la crainte de miner la confiance du public dans l’intégrité du système judiciaire.

Il n’est pas certain que l’interdiction de l’analyse judiciaire permette d’atteindre cet objectif. Une réponse plus appropriée pourrait être de combiner une adoption prudente de l’inévitable technologie avec un appel à une plus grande transparence et à une meilleure compréhension des algorithmes (en particulier des prédispositions intégrées) qui sous-tendent ces méthodes d’analyse. Une telle approche pourrait offrir la possibilité d’améliorer, et non d’éroder, la confiance du public. Deux exemples récents très médiatisés aux États-Unis concernant le droit de l’immigration et l’accès différencié à la mise en liberté sous caution illustrent le pouvoir de l’analyse juridique pour exposer les problèmes systémiques et proposer des solutions correctives.

Cette approche équilibrée semble être celle privilégiée au Canada. Le gouvernement fédéral explore activement l’utilisation de l’IA dans les programmes et services gouvernementaux et a élaboré un ensemble de principes directeurs (disponibles en ligne), dans le but d’assurer une utilisation efficace et éthique de l’IA. La transparence, la formation et la mesure de l’impact sont spécifiquement intégrées dans ces principes. Bien que la page Web pertinente comprenne un énoncé sur le fait que l’IA est régie par des « valeurs, une éthique et des lois claires », d’autres détails à cet égard demeurent en suspens. L’automne dernier, dans le cadre de cet effort exploratoire, Justice Canada a lancé un projet pilote portant sur l’immigration, les pensions et le droit fiscal. Beaucoup d’entre nous attendent le résultat avec grand intérêt, d’autant plus que l’adoption de ces technologies dans le secteur privé est en pleine croissance.

Pour en revenir à la question de la responsabilité professionnelle, je suis encouragée par le temps considérable que les personnes travaillant dans le domaine de l’IA consacrent maintenant aux questions éthiques. Les questions les plus pertinentes pour l’utilisation de ces nouveaux outils – notamment la transparence, la surveillance, le rôle de l’intervention humaine dans le processus décisionnel et la responsabilité ultime – sont toutes essentielles. Je me réjouis à la perspective de la poursuite de cet important débat.

On se reparle le mois prochain.

Heather L. Evans,
Directrice exécutive et chef de la direction