L'IA responsable savoure une impulsion prééminente via la proclamation d'éthique de l'IA par la meilleure société professionnelle The ACM

Avez-vous vu ou entendu la nouvelle ?

Un autre ensemble de préceptes d'éthique de l'IA vient d'être proclamé.

Applaudissements rauques, s'il vous plaît.

Là encore, vous pourriez ne sauraient Je l'ai remarqué en raison du fait que tant d'autres décrets sur l'éthique de l'IA circulent depuis un certain temps maintenant. Certains disent que la percolation apparemment ininterrompue des proclamations de l'IA éthique devient un peu engourdissante. Combien avons-nous besoin? Quelqu'un peut-il tous les suivre? Lequel est le meilleur? Allons-nous peut-être trop loin sur les principes d'éthique de l'IA ? Etc.

Eh bien, dans ce cas particulier, je dis que nous devrions particulièrement accueillir ce dernier venu au club.

Je vais vous expliquer avec perspicacité pourquoi dans un instant.

Tout d'abord, à titre de clarification, je fais référence à l'ensemble de préceptes d'éthique de l'IA désormais connu officiellement sous le nom de "Déclaration sur les principes pour des systèmes algorithmiques responsables » qui a été récemment publié par l'ACM Technology Policy Council le 26 octobre 2022. Félicitations aux équipes d'experts qui ont élaboré ce document précieux, y compris les co-auteurs principaux Jeanna Matthews (Clarkson University) et Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Ceux d'entre vous qui sont au courant pourraient, après une inspection minutieuse, se rendre compte que ce document semble vaguement familier.

Bon oeil!

Cette dernière incarnation est essentiellement une variante mise à jour et élargie de la précédente « Déclaration sur la transparence algorithmique et la responsabilité » qui a été promulguée par le Comité américain de la politique technologique de l'ACM et le Comité européen de la politique technologique de l'ACM en 2017. Les lecteurs fidèles de mes articles se souviendront peut-être que J'ai de temps en temps mentionné le décret de 2017 dans ma chronique sur les facettes clés sous-jacentes à l'éthique et à la loi sur l'IA.

Pour mon évaluation approfondie et continue et mes analyses des tendances de l'éthique de l'IA et du droit de l'IA, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Cette dernière déclaration de l'ACM est particulièrement importante pour plusieurs raisons vitales.

Voici pourquoi.

L'ACM, qui est un acronyme pratique pour Association for Computing Machinery, est considérée comme la plus grande association mondiale axée sur l'informatique. Composé d'environ 110,000 1947 membres, l'ACM est un pionnier de longue date dans le domaine de l'informatique. L'ACM produit certaines des meilleures recherches universitaires dans le domaine de l'informatique, et fournit également un réseautage professionnel et fait également appel aux praticiens de l'informatique. En tant que tel, l'ACM est une voix importante représentant généralement ceux qui sont de haute technologie et s'est efforcé sans relâche de faire progresser le domaine informatique (l'ACM a été fondée en XNUMX).

Je pourrais ajouter une petite note personnelle à ce sujet aussi. Lorsque j'ai découvert l'informatique au lycée, j'ai rejoint l'ACM et participé à leurs programmes éducatifs, en particulier la chance passionnante de participer à leur concours annuel de programmation informatique (de tels concours sont largement courants de nos jours et généralement étiquetés comme hackathon). Je reste impliqué dans l'ACM pendant mes études collégiales via mon chapitre universitaire local et j'ai eu l'occasion d'en apprendre davantage sur le leadership en devenant un officier de chapitre étudiant. En entrant dans l'industrie, j'ai rejoint un chapitre professionnel et j'ai de nouveau assumé un rôle de leadership. Plus tard après cela, lorsque je suis devenu professeur, j'ai siégé aux comités et comités de rédaction de l'ACM, tout en parrainant le chapitre étudiant du campus. Aujourd'hui encore, je suis actif au sein de l'ACM, notamment au sein du comité américain sur la politique technologique de l'ACM.

Je savoure la vision attachante et durable d'ACM sur l'apprentissage tout au long de la vie et le développement de carrière.

Dans tous les cas, en ce qui concerne la dernière déclaration d'éthique de l'IA, le fait qu'elle ait été publiée par l'ACM a un poids considérable. Vous pourriez raisonnablement affirmer que les préceptes éthiques de l'IA sont la totalité ou la voix collective d'un groupe mondial de professionnels de l'informatique. Cela dit quelque chose là.

Il y a aussi l'aspect que d'autres dans le domaine informatique seront inspirés à se redresser et à écouter dans le sens de tenir dûment compte de ce que la déclaration déclare par leurs collègues informaticiens. Ainsi, même pour ceux qui ne font pas partie de l'ACM ou qui ne savent rien du tout sur le groupe vénéré, il y aura, espérons-le, un vif intérêt à découvrir de quoi parle la déclaration.

Pendant ce temps, ceux qui sont au contrôle du domaine informatique pourraient être attirés par la déclaration comme une sorte de regard d'initié sur les coulisses de ce que les informaticiens disent à propos de l'IA éthique. Je tiens à souligner cependant que la déclaration est destinée à tout le monde, pas seulement à ceux de la communauté informatique, et garde donc à l'esprit que les préceptes d'éthique de l'IA sont pour ainsi dire généraux.

Enfin, il y a une tournure supplémentaire que peu de gens envisageraient.

Parfois, les étrangers perçoivent les associations informatiques comme étant jusqu'aux genoux dans la technologie et ne connaissant pas particulièrement les impacts sociétaux des ordinateurs et de l'IA. Vous pourriez être tenté de supposer que ces entités professionnelles ne se soucient que des dernières avancées en matière de matériel ou de logiciel. Ils sont perçus par le public, d'une manière simplement grossière, comme des nerds de la technologie.

Pour remettre les pendules à l'heure, j'ai été immergé dans les impacts sociaux de l'informatique depuis que j'ai découvert les ordinateurs et, de même, l'ACM a également été profondément engagé sur ces sujets.

Pour tous ceux qui sont surpris que cette déclaration sur les préceptes d'éthique de l'IA ait été rédigée et publiée par l'ACM, ils ne prêtent pas attention aux recherches et aux travaux de longue date en cours sur ces questions. J'invite également les personnes intéressées à jeter un coup d'œil à l'ACM Code d'éthique, un code d'éthique professionnelle strident qui a évolué au fil des ans et souligne que les développeurs de systèmes doivent être conscients, respecter et être vigilants quant aux ramifications éthiques de leurs efforts et marchandises.

L'IA a attisé les incendies en s'informant sur l'éthique informatique.

La visibilité des considérations éthiques et juridiques dans le domaine informatique a considérablement augmenté avec l'émergence de l'IA d'aujourd'hui. Les membres de la profession sont informés et parfois harcelés pour accorder une attention appropriée aux questions d'éthique et de droit de l'IA. Les législateurs sont de plus en plus conscients des aspects de l'éthique de l'IA et des lois sur l'IA. Les entreprises prennent conscience de l'idée que l'IA qu'elles conçoivent ou utilisent est à la fois avantageuse et présente parfois d'énormes risques et inconvénients potentiels.

Déballons ce qui s'est passé au cours des dernières années afin qu'un contexte approprié puisse être établi avant de sauter dans ce dernier ensemble de préceptes d'éthique de l'IA.

La prise de conscience croissante de l'IA éthique

L'ère récente de l'IA a d'abord été considérée comme AI pour de bon, ce qui signifie que nous pourrions utiliser l'IA pour le bien de l'humanité. Sur les talons de AI pour de bon est venu la réalisation que nous sommes également immergés dans AI pour le mal. Cela inclut l'IA qui est conçue ou auto-modifiée pour être discriminatoire et fait des choix de calcul imprégnant des biais indus. Parfois, l'IA est construite de cette façon, tandis que dans d'autres cas, elle vire dans ce territoire fâcheux.

Je veux m'assurer que nous sommes sur la même page quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur l'IA sensible, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Je suggérerais fortement que nous gardions les choses sur terre et que nous considérions l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

Soyez très prudent lorsque vous anthropomorphisez l'IA d'aujourd'hui.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Tout cela a des implications particulièrement importantes sur l'éthique de l'IA et offre une fenêtre pratique sur les leçons apprises (avant même que toutes les leçons ne se produisent) lorsqu'il s'agit d'essayer de légiférer sur l'IA.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. Ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

Dans les colonnes précédentes, j'ai couvert les divers efforts nationaux et internationaux pour élaborer et promulguer des lois réglementant l'IA, voir le lien ici, par exemple. J'ai également couvert les divers principes et directives d'éthique de l'IA que divers pays ont identifiés et adoptés, y compris par exemple l'effort des Nations Unies tel que l'ensemble d'éthique de l'IA de l'UNESCO que près de 200 pays ont adopté, voir le lien ici.

Voici une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA que j'ai déjà explorés de près :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme souligné précédemment ici, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

J'ai aussi récemment examiné le Charte des droits de l'IA qui est le titre officiel du document officiel du gouvernement américain intitulé « Blueprint for an AI Bill of Rights : Making Automated Systems Work for the American People » qui est le résultat d'un effort d'un an par l'Office of Science and Technology Policy (OSTP ). L'OSTP est une entité fédérale qui sert à conseiller le président américain et le bureau exécutif américain sur divers aspects technologiques, scientifiques et d'ingénierie d'importance nationale. En ce sens, vous pouvez dire que cette déclaration des droits de l'IA est un document approuvé et approuvé par la Maison Blanche américaine existante.

Dans la Déclaration des droits de l'IA, il existe cinq catégories clés :

  • Des systèmes sûrs et efficaces
  • Protections contre la discrimination algorithmique
  • Confidentialité des données
  • Avis et explication
  • Alternatives humaines, considération et repli

J'ai soigneusement passé en revue ces préceptes, voir le lien ici.

Maintenant que j'ai posé des bases utiles sur ces sujets liés à l'éthique de l'IA et à la loi sur l'IA, nous sommes prêts à passer à la "Déclaration sur les principes pour des systèmes algorithmiques responsables" de l'ACM récemment publiée (en passant, puisque le titre du document fait référence à responsables systèmes algorithmiques, vous voudrez peut-être jeter un œil à mon évaluation de ce que signifie parler de IA digne de confiance, Voir le lien ici).

Préparez-vous pour un voyage dans ce dernier ensemble de principes d'éthique de l'IA.

Creuser attentivement les préceptes éthiques de l'IA déclarés par l'ACM

La déclaration de l'ACM sur l'IA éthique se compose de ces neuf éléments clés :

  • Légitimité et compétence
  • Minimiser les dommages
  • Sécurité et confidentialité
  • Transparence
  • Interprétabilité et explicabilité
  • Consommabilité
  • Contestabilité et vérifiabilité
  • Imputabilité et responsabilité
  • Limiter les impacts environnementaux

Si vous comparez ce dernier ensemble à d'autres ensembles particulièrement disponibles, il y a beaucoup de similitudes ou de correspondances apparentées entre eux.

D'une part, vous pouvez prendre cela comme un bon signe.

Nous pourrions généralement espérer que la multitude de principes d'éthique de l'IA qui planent autour se fondent tous vers la même couverture globale. Voir qu'un ensemble est quelque peu comparable à un autre ensemble vous donne un semblant de confiance que ces ensembles sont dans le même stade et non dans un champ gauche déroutant.

Une plainte potentielle de certains est que ces différents ensembles semblent être à peu près les mêmes, ce qui peut alors créer de la confusion ou au moins de la consternation en raison du scrupule que nous ne devrions pas avoir de nombreuses listes apparemment en double. Ne peut-il y avoir qu'une seule liste ? Le problème est bien sûr qu'il n'y a pas de moyen simple d'obtenir que toutes ces listes soient uniformément exactement les mêmes. Différents groupes et différentes entités ont abordé cela de différentes manières. La bonne nouvelle est qu'ils sont pratiquement tous parvenus à la même conclusion générale. Nous pouvons être soulagés que les ensembles n'aient pas d'énormes différences, ce qui nous mettrait peut-être mal à l'aise s'il n'y avait pas un consensus général.

Un anticonformiste pourrait exhorter que le caractère commun de ces listes est déconcertant, arguant qu'il y a peut-être une pensée de groupe en cours. Peut-être que tous ces groupes disparates pensent de la même manière et ne sont pas capables de regarder au-delà de la norme. Nous tombons tous dans un piège identique. Les listes ancrent ostensiblement notre pensée et nous ne sommes pas capables de voir au-delà de notre propre nez.

Regarder au-delà de notre nez est sans aucun doute une noble cause.

Je suis certainement ouvert à entendre ce que les contraires ont à dire. Parfois, ils ont vent de quelque chose qui a le Titanic se dirigeant vers un iceberg géant. Nous pourrions utiliser quelques belvédères. Mais, en ce qui concerne ces préceptes d'éthique de l'IA, il n'y a rien d'articulé de manière définitive par les contraires qui semble manifestement saper ou soulever des inquiétudes quant à une similitude excessive. Je pense que nous allons bien.

Dans cet ensemble ACM, il y a quelques points particulièrement notables ou remarquables qui, à mon avis, méritent particulièrement une attention particulière.

Tout d'abord, j'aime la formulation de haut niveau qui est quelque peu différente de la norme.

Par exemple, se référant à légitimité et compétence (le premier élément à puce) évoque un semblant d'importance des compétences de conception et de gestion associées à l'IA. De plus, le légitimité le slogan finit par nous emmener dans l'éthique de l'IA ainsi que Domaine du droit de l'IA. Je dis cela parce que de nombreux préceptes d'éthique de l'IA se concentrent presque entièrement sur les implications éthiques, mais semblent omettre ou hésiter à noter également les ramifications juridiques. Dans le domaine juridique, les considérations éthiques sont souvent présentées comme étant de la « loi non contraignante » tandis que les lois en vigueur sont interprétées comme des « lois dures » (ce qui signifie qu'elles portent le poids des tribunaux).

L'un de mes dictons préférés de tous les temps a été prononcé par le célèbre juriste Earl Warren : "Dans la vie civilisée, la loi flotte dans une mer d'éthique."

Nous devons nous assurer que les préceptes d'éthique de l'IA englobent et mettent également l'accent sur le côté strict des choses, comme dans la rédaction, la promulgation et l'application des lois sur l'IA.

Deuxièmement, j'apprécie que la liste comprenne contestabilité et auditabilité.

J'ai écrit à plusieurs reprises sur la valeur de pouvoir contester ou lever un drapeau rouge lorsque vous êtes soumis à un système d'IA, voir le lien ici. De plus, nous allons voir de plus en plus de nouvelles lois obligeant les systèmes d'IA à être audités, dont j'ai longuement parlé à propos de la loi de la ville de New York (NYC) sur les biais d'audit des systèmes d'IA utilisés pour l'embauche et les promotions des employés, voir le lien ici. Malheureusement, et selon ma critique ouverte de la nouvelle loi de New York, si ces lois sur la vérifiabilité sont défectueuses, elles créeront probablement plus de problèmes qu'elles n'en résolvent.

Troisièmement, il y a une prise de conscience progressive que l'IA peut imprégner les questions de durabilité et je suis heureux de voir que le environnementales le sujet a obtenu une facturation de haut niveau dans ces préceptes d'éthique de l'IA (voir le dernier point de la liste).

Le fait de créer un système d'IA peut à lui seul consommer beaucoup de ressources informatiques. Ces ressources informatiques peuvent directement ou indirectement être des usurpateurs de la durabilité. Il y a un compromis à considérer entre les avantages qu'offre une IA et les coûts qui accompagnent l'IA. Le dernier des éléments à puces de l'ACM prend note des considérations de durabilité et d'environnement qui se posent avec l'IA. Pour ma couverture des problèmes d'empreinte carbone liés à l'IA, voir le lien ici.

Maintenant que nous avons jeté un coup d'œil sur la liste ACM des préceptes d'éthique de l'IA, nous mettons ensuite nos orteils plus profondément dans les eaux.

Voici les descriptions officielles de chacun des préceptes éthiques de haut niveau de l'IA (cités de la déclaration officielle) :

1. »Légitimité et compétence : Les concepteurs de systèmes algorithmiques devraient avoir la compétence de gestion et l'autorisation explicite de construire et de déployer de tels systèmes. Ils doivent également avoir une expertise dans le domaine d'application, une base scientifique pour l'utilisation prévue des systèmes, et être largement considérés comme socialement légitimes par les parties prenantes impactées par le système. Des évaluations juridiques et éthiques doivent être menées pour confirmer que tous les risques introduits par les systèmes seront proportionnels aux problèmes traités et que tous les compromis avantages-dommages sont compris par toutes les parties prenantes concernées.

2. »Minimiser les dommages : Les gestionnaires, concepteurs, développeurs, utilisateurs et autres parties prenantes des systèmes algorithmiques doivent être conscients des éventuelles erreurs et biais impliqués dans leur conception, leur mise en œuvre et leur utilisation, ainsi que des dommages potentiels qu'un système peut causer aux individus et à la société. Les organisations doivent effectuer régulièrement des évaluations d'impact sur les systèmes qu'elles utilisent afin de déterminer si le système peut générer des dommages, en particulier des dommages discriminatoires, et d'appliquer les mesures d'atténuation appropriées. Dans la mesure du possible, ils devraient apprendre des mesures de la performance réelle, et non uniquement des modèles de décisions passées qui peuvent eux-mêmes avoir été discriminatoires. »

3. »Sécurité et confidentialité: Les risques liés aux parties malveillantes peuvent être atténués en introduisant les meilleures pratiques de sécurité et de confidentialité à chaque phase du cycle de vie des systèmes, y compris des contrôles robustes pour atténuer les nouvelles vulnérabilités qui surviennent dans le contexte des systèmes algorithmiques.

4. »Transparence: Les développeurs de systèmes sont encouragés à documenter clairement la manière dont les ensembles de données, les variables et les modèles spécifiques ont été sélectionnés pour le développement, la formation, la validation et les tests, ainsi que les mesures spécifiques qui ont été utilisées pour garantir la qualité des données et des résultats. Les systèmes doivent indiquer leur niveau de confiance dans chaque sortie et les humains doivent intervenir lorsque la confiance est faible. Les développeurs doivent également documenter les approches qui ont été utilisées pour explorer les biais potentiels. Pour les systèmes ayant un impact critique sur la vie et le bien-être, des procédures de vérification et de validation indépendantes devraient être requises. L'examen public des données et des modèles offre un maximum de possibilités de correction. Les développeurs devraient donc faciliter les tests par des tiers dans l'intérêt public.

5. »Interprétabilité et explicabilité : Les gestionnaires de systèmes algorithmiques sont encouragés à produire des informations concernant à la fois les procédures suivies par les algorithmes employés (interprétabilité) et les décisions spécifiques qu'ils prennent (explicabilité). L'explicabilité peut être tout aussi importante que l'exactitude, en particulier dans les contextes de politique publique ou dans tout environnement dans lequel on s'inquiète de la façon dont les algorithmes pourraient être faussés pour profiter à un groupe plutôt qu'à un autre sans reconnaissance. Il est important de faire la distinction entre les explications et les rationalisations après coup qui ne reflètent pas les preuves ou le processus décisionnel utilisé pour parvenir à la conclusion expliquée.

6. »Maintenabilité: Des preuves de la solidité de tous les systèmes algorithmiques doivent être collectées tout au long de leur cycle de vie, y compris la documentation des exigences du système, la conception ou la mise en œuvre des modifications, les cas de test et les résultats, ainsi qu'un journal des erreurs trouvées et corrigées. Un bon entretien peut nécessiter de recycler les systèmes avec de nouvelles données d'entraînement et/ou de remplacer les modèles utilisés.

7. »Contestabilité et auditabilité : Les régulateurs devraient encourager l'adoption de mécanismes permettant aux individus et aux groupes de remettre en question les résultats et de demander réparation pour les effets négatifs résultant de décisions fondées sur des algorithmes. Les responsables doivent s'assurer que les données, les modèles, les algorithmes et les décisions sont enregistrés afin qu'ils puissent être audités et que les résultats soient reproduits dans les cas où un préjudice est suspecté ou allégué. Les stratégies d'audit devraient être rendues publiques pour permettre aux individus, aux organisations d'intérêt public et aux chercheurs d'examiner et de recommander des améliorations.

8. »Imputabilité et responsabilité : Les organismes publics et privés devraient être tenus responsables des décisions prises par les algorithmes qu'ils utilisent, même s'il n'est pas possible d'expliquer en détail comment ces algorithmes ont produit leurs résultats. Ces organismes devraient être responsables de systèmes entiers tels qu'ils sont déployés dans leurs contextes spécifiques, et pas seulement des éléments individuels qui composent un système donné. Lorsque des problèmes dans les systèmes automatisés sont détectés, les organisations responsables du déploiement de ces systèmes doivent documenter les actions spécifiques qu'elles prendront pour résoudre le problème et dans quelles circonstances l'utilisation de ces technologies doit être suspendue ou résiliée.

9. »Limiter les impacts environnementaux : Les systèmes algorithmiques devraient être conçus pour rapporter les estimations des impacts environnementaux, y compris les émissions de carbone provenant à la fois de la formation et des calculs opérationnels. Les systèmes d'IA doivent être conçus pour garantir que leurs émissions de carbone sont raisonnables compte tenu du degré de précision requis par le contexte dans lequel ils sont déployés.

J'espère que vous donnerez à chacun de ces préceptes cruciaux de l'éthique de l'IA une lecture attentive et ancienne. Veuillez les prendre à cœur.

Conclusion

Il y a une partie subtile mais tout aussi cruciale de la déclaration de l'ACM que, je crois, beaucoup pourraient négliger par inadvertance. Permettez-moi de porter cela à votre attention.

Je fais allusion à une partie qui traite de l'énigme angoissante d'avoir à peser les compromis associés aux préceptes d'éthique de l'IA. Vous voyez, la plupart des gens font souvent beaucoup de hochements de tête insensés lorsqu'ils lisent les principes de l'IA éthique et supposent que tous les préceptes ont le même poids, et que tous les préceptes recevront toujours le même semblant optimal de déférence et de valeur.

Pas dans le monde réel.

Dès que le caoutchouc rencontre la route, tout type d'IA qui a même un minimum de complexité va tester méchamment les préceptes d'éthique de l'IA quant à certains des éléments étant suffisamment réalisables par rapport à certains des autres principes. Je me rends compte que vous pourriez vous exclamer bruyamment que toute l'IA doit maximiser tous les préceptes d'éthique de l'IA, mais ce n'est pas particulièrement réaliste. Si c'est la position que vous voulez adopter, j'ose dire que vous auriez probablement besoin de dire à la plupart ou presque tous les fabricants et utilisateurs d'IA de fermer boutique et de ranger complètement l'IA.

Des compromis doivent être faits pour faire sortir l'IA. Cela étant dit, je ne préconise pas de couper les coins ronds qui violent les préceptes d'éthique de l'IA, ni d'impliquer qu'ils devraient violer les lois sur l'IA. Un certain minimum doit être atteint, et au-dessus duquel l'objectif est de s'efforcer davantage. En fin de compte, un équilibre doit être soigneusement jugé. Cet équilibre doit être fait consciencieusement, explicitement, légalement et avec l'éthique de l'IA comme une conviction authentique et sincère (vous voudrez peut-être voir comment les entreprises utilisent les comités d'éthique de l'IA pour essayer d'obtenir cette approche solennelle, voir le lien ici).

Voici quelques points à puces que la déclaration de l'ACM mentionne sur les complexités des compromis (cités du document officiel) :

  • "Les solutions doivent être proportionnées au problème à résoudre, même si cela affecte la complexité ou le coût (par exemple, rejeter l'utilisation de la vidéosurveillance publique pour une simple tâche de prédiction)."
  • « Une grande variété de mesures de performances doivent être prises en compte et peuvent être pondérées différemment en fonction du domaine d'application. Par exemple, dans certaines applications de soins de santé, les effets des faux négatifs peuvent être bien pires que les faux positifs, tandis qu'en justice pénale, les conséquences des faux positifs (par exemple, emprisonner une personne innocente) peuvent être bien pires que les faux négatifs. La configuration de système opérationnel la plus souhaitable est rarement celle qui offre une précision maximale. »
  • "Les préoccupations concernant la confidentialité, la protection des secrets commerciaux ou la révélation d'analyses qui pourraient permettre à des acteurs malveillants de déjouer le système peuvent justifier de restreindre l'accès à des personnes qualifiées, mais elles ne doivent pas être utilisées pour justifier la limitation de l'examen par des tiers ou pour dispenser les développeurs de l'obligation. pour reconnaître et réparer les erreurs.
  • « La transparence doit être associée à des processus de responsabilisation qui permettent aux parties prenantes touchées par un système algorithmique de demander une réparation significative pour les préjudices causés. La transparence ne doit pas être utilisée pour légitimer un système ou pour transférer la responsabilité à d'autres parties.
  • « Lorsque l'impact d'un système est élevé, un système plus explicable peut être préférable. Dans de nombreux cas, il n'y a pas de compromis entre l'explicabilité et l'exactitude. Dans certains contextes, cependant, des explications incorrectes peuvent être encore pires que l'absence d'explication (par exemple, dans les systèmes de santé, un symptôme peut correspondre à de nombreuses maladies possibles, pas à une seule).

Ceux qui développent ou utilisent l'IA pourraient ne pas réaliser ouvertement les compromis auxquels ils sont confrontés. Les hauts dirigeants d'une entreprise pourraient naïvement supposer que l'IA respecte les maximums de tous les principes d'éthique de l'IA. Soit ils le croient parce qu'ils n'ont aucune idée de l'IA, soit ils veulent le croire et font peut-être un clin d'œil pour adopter facilement l'IA.

Il y a de fortes chances que le fait de ne pas affronter de manière substantielle et ouverte les compromis aboutira à une IA qui causera des dommages. Ces dommages à leur tour exposeront probablement une entreprise à des responsabilités potentiellement à grande échelle. En plus de cela, les lois conventionnelles peuvent s'appliquer pour d'éventuels actes criminels associés à l'IA, ainsi que les nouvelles lois axées sur l'IA qui martèlent également cela. Une tonne de briques attend au-dessus de la tête de ceux qui pensent pouvoir contourner les compromis ou qui ignorent profondément que les compromis existent (une réalisation écrasante leur tombera inévitablement dessus).

Je vais donner le dernier mot pour l'instant sur ce sujet à l'aspect concluant de la déclaration de l'ACM, car je pense qu'il fait un travail solide pour expliquer ce que ces préceptes éthiques de l'IA visent macroscopiquement :

  • « Les recommandations précédentes se concentrent sur la conception, le développement et l'utilisation responsables de systèmes algorithmiques ; la responsabilité doit être déterminée par la loi et l'ordre public. La puissance croissante des systèmes algorithmiques et leur utilisation dans des applications vitales et conséquentes signifient qu'une grande prudence doit être exercée lors de leur utilisation. Ces neuf principes instrumentaux sont censés être une source d'inspiration pour lancer des discussions, lancer des recherches et développer des méthodes de gouvernance pour apporter des avantages à un large éventail d'utilisateurs, tout en promouvant la fiabilité, la sécurité et la responsabilité. En fin de compte, c'est le contexte spécifique qui définit la conception et l'utilisation correctes d'un système algorithmique en collaboration avec des représentants de toutes les parties prenantes concernées » (cité du document formel).

Comme nous le disent astucieusement des paroles de sagesse, un voyage de mille kilomètres commence par un premier pas.

Je vous implore de vous familiariser avec l'éthique de l'IA et la loi sur l'IA, en faisant le premier pas qui vous permettra de démarrer, puis de vous aider à poursuivre ces efforts vitaux. La beauté est que nous en sommes encore aux balbutiements de glaner comment gérer et faire face à l'IA de manière sociétale, ainsi, vous entrez au rez-de-chaussée et vos efforts peuvent manifestement façonner votre avenir et l'avenir de nous tous.

Le voyage vers l'IA vient de commencer et les premières étapes vitales sont toujours en cours.

Source : https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-estied-computing- association-professionnelle-l-acm/