Lignes directrices éthiques sur l'IA et audit de conformité à Toronto
Toronto, Ontario adopte des normes pratiques pour l'utilisation municipale de l'IA et des systèmes de décision automatisés afin de protéger les résidents et garantir la conformité aux règlements municipaux. Ce guide explique l'approche de la Ville de Toronto en matière d'éthique de l'IA, le processus d'audit des biais pour les outils utilisés dans les programmes municipaux, et la façon dont l'application, les plaintes et les appels fonctionnent pour les déploiements municipaux. Il résume les processus officiels disponibles, renvoie aux ressources d'évaluation de la Ville et explique les étapes à suivre par le personnel municipal, les fournisseurs et les intervenants communautaires avant le déploiement.
Vue d'ensemble des attentes de la Ville en matière d'éthique et d'audit
La Ville met l'accent sur la transparence, la supervision humaine, la protection de la vie privée et l'évaluation des biais lors du déploiement de systèmes décisionnels automatisés qui ont des répercussions sur les résidents. Les projets municipaux doivent documenter l'utilisation prévue, les sources de données, les points de décision et les mesures d'atténuation avant le déploiement. Les orientations de la Ville exigent une évaluation d'impact algorithmique ou un examen équivalent pour les systèmes qui affectent de manière significative des personnes ou des groupes. Orientations officielles
Sanctions et application
Les orientations publiques de la Ville portent sur la gouvernance, l'évaluation et l'atténuation; des amendes monétaires spécifiques pour les déploiements d'IA non conformes ne sont pas précisées sur les pages citées. L'application est gérée par les structures de gouvernance et de responsabilité de la Ville avec la participation opérationnelle de Data & Digital Services et des services juridiques, et les plaintes sont traitées via 311 ou le Bureau du greffier municipal. Voie de plainte
- Autorité compétente : Data & Digital Services, directeur de l'information et l'unité opérationnelle du programme concerné.
- Contrôles/conformité : examens internes, journaux d'audit et évaluations d'impact algorithmique.
- Amendes/sanctions : non précisées sur la page citée.
- Appel/réexamen : non précisé sur la page citée; les appels peuvent suivre les processus municipaux d'examen administratif ou de révision judiciaire selon le cas.
- Exceptions/discrétion : la documentation des évaluations et des atténuations, ainsi que les permis ou approbations valides, peuvent être invoqués; les détails ne sont pas précisés sur la page citée.
Demandes et formulaires
La Ville publie des orientations et des modèles d'évaluation plutôt qu'un formulaire réglementaire unique; les modèles d'évaluation d'impact algorithmique ou les listes de contrôle de déploiement sont accessibles via les pages d'orientation de la Ville, mais aucun formulaire d'amende monétaire n'est publié sur les pages citées.
Réaliser un audit de biais pour les outils municipaux
Un audit de biais pour un outil d'IA municipal identifie les impacts disparates, les problèmes de qualité des données et les différences de performance du modèle entre les groupes. L'audit doit être proportionnel au risque et documenté dans l'évaluation d'impact algorithmique utilisée par la Ville.
- Calendrier : réaliser l'évaluation pendant la conception, avant l'attribution du marché et avant le déploiement public.
- Inventaire des données : documenter les sources, l'exhaustivité, la représentativité et le lien aux caractéristiques protégées.
- Tests techniques : exécuter des métriques d'équité, des analyses de performance désagrégées et simuler les impacts opérationnels.
- Documentation : conserver les rapports d'audit, le code de test, la justification des décisions et la gestion des versions.
- Examen des intervenants : impliquer les services juridiques, l'accès et la vie privée, le personnel de programme concerné et des réviseurs communautaires si approprié.
Comment faire
- Définir le périmètre et le risque : identifier les décisions affectées et les populations concernées.
- Inventorier les données : documenter les sources et la provenance.
- Effectuer les tests : exécuter des tests statistiques d'équité et des contrôles de performance par sous-groupes.
- Rédiger des mesures d'atténuation : consigner les mesures dans l'évaluation d'impact algorithmique.
- Obtenir les approbations : sécuriser les approbations internes et planifier la surveillance post-déploiement.
FAQ
- La Ville de Toronto a-t-elle un règlement municipal obligatoire spécifiquement pour les systèmes d'IA?
- Non; la Ville fournit actuellement des politiques, des orientations et des exigences d'évaluation plutôt qu'un règlement municipal autonome spécifiquement nommé pour les systèmes d'IA.
- Comment signaler des préoccupations concernant un système d'IA municipal?
- Signalez les préoccupations via 311 ou le Bureau du greffier municipal; incluez des preuves et les détails du service concerné.
- Existe-t-il des modèles publiés pour les évaluations d'impact algorithmique?
- La Ville publie des orientations et des modèles d'évaluation sur ses pages consacrées aux systèmes de décision automatisés; consultez la page d'orientation pour les modèles actuels.
Aide et ressources
- Ville de Toronto — Orientations sur les systèmes de décision automatisés
- 311 Toronto — Portail de services et de plaintes
- Ville de Toronto — Accès et protection des renseignements
- Ville de Toronto — Greffe et règlements municipaux