Règlement d'Ottawa sur l'éthique de l'IA et audits de biais obligatoires
Ottawa, Ontario, voit une utilisation croissante de systèmes décisionnels automatisés et d'outils d'IA dans la prestation de services et la délivrance de permis. Ce guide explique comment les orientations éthiques municipales, les audits de biais obligatoires, les vérifications liées aux marchés publics et la supervision de la vie privée s'appliquent aux outils municipaux utilisés par le personnel et les contractants de la Ville d'Ottawa. Il s'appuie sur les normes fédérales pour la prise de décisions automatisée et le cadre de confidentialité et de responsabilité de la Ville d'Ottawa pour présenter des étapes pratiques d'évaluation, d'audit, de signalement et d'appel concernant les décisions fondées sur des systèmes algorithmiques. Utilisez cet article pour trouver les contacts d'application, les sanctions typiques indiquées ou non sur les pages officielles, et les procédures de conformité et de révision.
Sanctions et application
La Ville d'Ottawa ne publie pas de règlement municipal unique fixant des amendes standard pour les manquements en matière d'éthique de l'IA sur une page consolidée; les montants d'amende précis pour une mauvaise utilisation d'outils décisionnels automatisés ne sont pas indiqués sur les pages citées. Directive sur la prise de décisions automatisée (TBS)[1] et les documents sur la confidentialité et la responsabilité de la Ville d'Ottawa orientent la pratique municipale mais n'énumèrent pas de montants d'amende standard pour l'utilisation abusive de l'IA.
- Amendes : non spécifié sur la page citée; les sanctions pécuniaires dépendent de l'instrument applicable ou du règlement cité par l'organe chargé de l'application.
- Escalade : le traitement des premières, reprises et infractions continues n'est pas spécifié sur la page citée et dépendra de la politique ou du règlement applicable.
- Punitions non pécuniaires : ordres d'arrêt d'utilisation, plans d'action correctifs, suspension du déploiement d'un outil, correction des dossiers et renvoi aux instances juridiques ou administratives sont des mesures possibles bien que des mesures précises pour les outils d'IA municipaux ne soient pas précisées sur les pages citées.
- Autorité d'application : la responsabilité incombe typiquement au greffier et avocat général de la Ville, aux Services des règlements municipaux, ou au bureau de la vie privée selon l'enjeu; les voies de plainte sont décrites sur la page de confidentialité et responsabilité de la Ville.
- Recours et révisions : les voies d'appel formelles dépendent de la décision sous-jacente (par exemple, refus de permis ou de licence); les délais sont non spécifiés sur les pages citées et sont établis par le règlement ou le régime administratif applicable.
Violations courantes et approches d'application typiques :
- Absence d'audit de biais ou d'évaluation d'impact algorithmique lorsque requis par la procédure d'approvisionnement ou la politique.
- Utilisation d'un modèle non testé ou insuffisamment documenté pour des décisions affectant des licences, des permis ou des prestations.
- Atteintes à la vie privée impliquant des données personnelles utilisées pour l'entraînement ou le fonctionnement des systèmes d'IA.
Demandes et formulaires
Aucun formulaire municipal standardisé spécifique pour les déclarations d'éthique de l'IA ou les audits de biais n'est publié sur les pages citées de la Ville d'Ottawa; les processus d'approvisionnement et de confidentialité renvoient à des exigences documentaires et à des évaluations plutôt qu'à un formulaire public unique. Pour la prise de décisions automatisée au niveau fédéral, la directive du Conseil du Trésor impose des exigences documentaires obligatoires pour les ministères sous sa compétence, mais les municipalités doivent consulter leurs bureaux d'approvisionnement et de confidentialité locaux pour les méthodes de soumission. Vie privée et accès à l'information - Ville d'Ottawa[2]
Évaluation, audit et conformité
Les programmes municipaux et les fournisseurs devraient suivre un flux de conformité répétable pour réduire les risques juridiques et opérationnels. Les étapes ci-dessous sont des actions pratiques pour répondre aux attentes éthiques et d'audit utilisées par de nombreuses organisations publiques.
- Inventaire : enregistrez chaque système, son périmètre décisionnel, ses entrées de données et ses impacts.
- Évaluation : réalisez une évaluation d'impact algorithmique ou un examen des risques de biais avant le déploiement.
- Remédiation : mettez en place des contrôles techniques et politiques pour atténuer les risques identifiés.
- Audit : effectuez un audit indépendant de biais lors de l'achat, avant le déploiement complet et périodiquement en production.
- Transparence : publiez des résumés non sensibles des évaluations et des mécanismes de réparation pour les résidents concernés.
FAQ
- Les règlements d'Ottawa exigent-ils actuellement des audits de biais pour les outils d'IA municipaux ?
- Non, aucun règlement municipal unique exigeant des audits de biais municipaux n'est publié sur les pages citées; la pratique est guidée par les règles de confidentialité et d'approvisionnement et par les normes fédérales sur la prise de décisions automatisée.[1]
- Où signaler une préoccupation concernant une décision automatisée qui m'affecte ?
- Signalez les préoccupations en matière de vie privée ou de décision au bureau de la vie privée de la Ville d'Ottawa ou au service qui a pris la décision; les voies de contact se trouvent sur la page de vie privée et accès à l'information de la Ville.[2]
- Un résident peut-il faire appel d'une décision automatisée ?
- Oui, les appels dépendent de la décision administrative sous-jacente et suivent les délais de recours prévus par le règlement applicable ou la procédure administrative; les délais exacts ne sont pas spécifiés sur les pages citées.
Comment faire
- Inventoriez les systèmes : créez un inventaire de tous les systèmes décisionnels automatisés de votre programme, en indiquant l'objectif et les sources de données.
- Évaluez les risques : réalisez une évaluation d'impact algorithmique pour identifier les risques de biais et les groupes affectés.
- Commandez un audit : mandatez un audit indépendant de biais lorsque l'évaluation montre un impact élevé ou lorsque l'approvisionnement l'exige.
- Publiez les résultats : publiez un résumé non sensible des conclusions et du plan de remédiation; informez les résidents concernés de leurs droits et des options d'appel.
- Surveillez et répétez : conservez les dossiers, suivez les résultats et répétez les audits après des changements significatifs du modèle.
Points clés
- La pratique d'Ottawa est guidée par la confidentialité et les règles d'approvisionnement; les amendes municipales spécifiques pour l'utilisation abusive de l'IA ne sont pas indiquées sur les pages citées.
- Les audits de biais et les évaluations d'impact algorithmique sont des bonnes pratiques et fréquemment requis contractuellement.
- Contactez le bureau de la vie privée de la Ville ou le service concerné pour signaler un problème ou demander un examen.
Aide et ressources
- Services des règlements municipaux - Ville d'Ottawa
- Greffier et avocat général - Ville d'Ottawa
- Vie privée et accès à l'information - Ville d'Ottawa