Voici pourquoi les entreprises entretiennent une relation amour-haine tumultueuse avec les comités d'éthique de l'IA

Une entreprise devrait-elle créer un comité consultatif sur l'éthique de l'IA ?

Vous pourriez être surpris de savoir que ce n'est pas une réponse facile par oui ou par non.

Avant d'entrer dans les complexités sous-jacentes aux avantages et aux inconvénients de la mise en place d'un comité consultatif sur l'éthique de l'IA, assurons-nous que nous sommes tous sur la même longueur d'onde quant à la composition d'un comité consultatif sur l'éthique de l'IA et pourquoi il a atteint le niveau des titres importance.

Comme tout le monde le sait, l'intelligence artificielle (IA) et l'utilisation pratique de l'IA pour les activités commerciales sont devenues incontournables pour les entreprises modernes. Vous auriez du mal à argumenter le contraire. Dans une certaine mesure, l'infusion de l'IA a amélioré les produits et services, et a parfois entraîné une baisse des coûts associés à la fourniture desdits produits et services. Une liste astucieuse de gains d'efficacité et d'efficacité peut être potentiellement attribuée à l'application sensée et appropriée de l'IA. En bref, l'ajout ou l'augmentation de ce que vous faites en incorporant l'IA peut être une proposition assez rentable.

Il y a aussi le dirons-nous grand splash cela vient avec l'ajout de l'IA dans vos efforts d'entreprise.

Les entreprises sont fières de leur utilisation de l'IA. S'il se trouve que l'IA améliore également vos marchandises, c'est formidable. Pendant ce temps, les allégations d'utilisation de l'IA attirent suffisamment l'attention pour que vous puissiez faire à peu près les mêmes choses que vous faisiez auparavant, tout en recueillant beaucoup plus d'argent ou de globes oculaires en jetant autour de la bannière de l'IA comme faisant partie de votre stratégie commerciale et hors- les marchandises de la porte.

Ce dernier point sur la question de savoir parfois si l'IA est vraiment utilisée nous fait entrer dans l'arène de l'éthique de l'IA. Il y a toutes sortes de fausses allégations pures et simples à propos de l'IA par les entreprises. Pire encore, peut-être, consiste à utiliser l'IA qui s'avère être la soi-disant AI pour le mal.

Par exemple, vous avez sans aucun doute entendu parler des nombreux cas de systèmes d'IA utilisant l'apprentissage automatique (ML) ou l'apprentissage en profondeur (DL) qui ont enraciné des préjugés raciaux, des préjugés sexistes et d'autres pratiques discriminatoires indues et inappropriées. Pour ma couverture continue et étendue de ces questions liées à l'IA défavorable et à l'émergence d'appels retentissants pour l'éthique de l'IA et l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Donc, nous avons ces moteurs aigres cachés dans l'utilisation apparemment tout rose de l'IA par les entreprises :

  • Allégations creuses d'utilisation de l'IA alors qu'en fait il n'y a pas d'IA ou une infusion d'IA insignifiante
  • Fausses déclarations sur l'utilisation de l'IA qui sont intentionnellement conçues pour induire en erreur
  • Inclusion involontaire d'IA qui s'avère imprégner des préjugés inappropriés et est discriminatoire
  • Une IA délibérément façonnée pour promulguer de mauvais préjugés et des actions discriminatoires méprisables
  • Autre

Comment ce genre de pratiques irréfléchies ou disgracieuses surgissent-elles dans les entreprises ?

Une pièce notable du puzzle est le manque de sensibilisation à l'éthique de l'IA.

Les cadres supérieurs pourraient ne pas être conscients de la notion même de concevoir une IA qui respecte un ensemble de préceptes éthiques de l'IA. Les développeurs d'IA d'une telle entreprise pourraient avoir une certaine conscience de la question, même s'ils ne connaissent peut-être que les théories de l'éthique de l'IA et ne savent pas comment combler le fossé dans les efforts quotidiens de développement de l'IA. Il y a aussi la situation des développeurs d'IA qui veulent adopter l'éthique de l'IA, mais qui sont ensuite fortement repoussés lorsque les gestionnaires et les dirigeants pensent que cela ralentira leurs projets d'IA et augmentera les coûts de conception de l'IA.

De nombreux cadres supérieurs ne réalisent pas qu'un manque d'adhésion à l'éthique de l'IA finira probablement par les frapper, ainsi que l'entreprise, dans leur dos lors de la sortie de l'IA, qui regorge de problèmes épineux et tout à fait laids. Une entreprise peut se faire prendre avec une mauvaise IA en son sein, ce qui sape terriblement la réputation autrement bâtie de longue date de l'entreprise (le risque de réputation). Les clients peuvent choisir de ne plus utiliser les produits et services de l'entreprise (risque de perte de clientèle). Les concurrents pourraient capitaliser sur cet échec (risque concurrentiel). Et il y a beaucoup d'avocats prêts à aider ceux qui ont été transgressés, visant à intenter de lourdes poursuites contre les entreprises qui ont autorisé l'IA pourrie dans leurs marchandises (risque juridique).

En bref, le retour sur investissement (ROI) de l'utilisation appropriée de l'éthique de l'IA est presque certainement plus avantageux que par rapport aux coûts en aval associés au fait de s'asseoir sur une puanteur de mauvaise IA qui n'aurait pas dû être conçue ni publiée.

Il s'avère que tout le monde n'a pas reçu ce mémo, pour ainsi dire.

L'éthique de l'IA ne gagne que progressivement du terrain.

Certains pensent qu'inévitablement, le bras long de la loi pourrait être nécessaire pour inspirer davantage l'adoption d'approches d'IA éthique.

Outre l'utilisation des préceptes éthiques de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois distinctes pour régir divers développements et utilisations de l'IA. De nouvelles lois sont en effet diffusées aux niveaux international, fédéral, étatique et local qui concernent la portée et la nature de la manière dont l'IA devrait être conçue. L'effort pour rédiger et promulguer de telles lois est mesuré. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux. Voir par exemple ma couverture sur le lien ici ainsi que le lien ici.

Assurons-nous que nous sommes tous sur la même longueur d'onde sur ce que contiennent les bases de l'éthique de l'IA.

Dans ma chronique, j'ai déjà discuté de diverses analyses collectives des principes d'éthique de l'IA, telles que cette évaluation à le lien ici, qui propose une liste clé utile de critères ou de caractéristiques éthiques de l'IA concernant les systèmes d'IA :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Ces principes d'éthique de l'IA sont sincèrement censés être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA.

Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Il faut un village pour concevoir et déployer l'IA, et pour laquelle tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Un moyen d'essayer d'introduire et de maintenir une attention soutenue concernant l'utilisation des préceptes d'éthique de l'IA peut être partiellement entrepris via la création d'un conseil consultatif d'éthique de l'IA.

Nous déballerons ensuite les facettes du comité consultatif d'éthique de l'IA.

Les comités d'éthique de l'IA et comment les faire correctement

Les entreprises peuvent se trouver à différentes étapes de l'adoption de l'IA, et également à différentes étapes de l'adoption de l'éthique de l'IA.

Imaginez une entreprise qui souhaite se lancer dans l'adoption de l'éthique de l'IA, mais qui ne sait pas comment le faire. Un autre scénario pourrait être une entreprise qui s'est déjà essayée à l'éthique de l'IA mais qui ne semble pas sûre de ce qui doit être fait pour poursuivre cet effort. Un troisième scénario pourrait être une entreprise qui a activement conçu et utilisé l'IA et qui a fait beaucoup en interne pour incarner l'éthique de l'IA, bien qu'elle se rende compte qu'il y a une chance qu'elle manque d'autres idées, peut-être en raison de la pensée de groupe interne.

Pour chacun de ces scénarios, la mise en place d'un comité consultatif sur l'éthique de l'IA pourrait être prudente.

La notion est plutôt simple (enfin, pour clarifier, la notion globale est la pointe proverbiale de l'iceberg et le diable est très certainement dans les détails, comme nous le verrons momentanément).

Un conseil consultatif d'éthique de l'IA se compose généralement principalement de conseillers externes qui sont invités à siéger à un conseil ou à un comité consultatif spécial pour l'entreprise. Il peut également y avoir des participants internes inclus dans le conseil d'administration, bien que l'idée soit généralement de recruter des conseillers extérieurs à l'entreprise et cela peut apporter une perspective semi-indépendante à ce que fait l'entreprise.

Je dis semi-indépendant car il y aura sans aucun doute des conflits d'indépendance potentiels qui peuvent survenir avec les membres choisis du conseil consultatif d'éthique de l'IA. Si l'entreprise paie les conseillers, cela soulève la question évidente de savoir si les membres rémunérés se sentent dépendants de l'entreprise pour un chèque de paie ou s'ils pourraient être mal à l'aise de critiquer le cheval cadeau qu'ils ont en main. D'un autre côté, les entreprises ont l'habitude de faire appel à des conseillers externes rémunérés pour toutes sortes d'opinions indépendantes et réfléchies, c'est donc quelque peu habituel et attendu de toute façon.

Le comité consultatif d'éthique de l'IA est généralement invité à se réunir périodiquement, soit en personne, soit à distance virtuellement. Ils sont utilisés comme caisse de résonance par la firme. Il y a aussi de fortes chances que les membres reçoivent divers documents internes, rapports et notes de service sur les efforts en cours liés à l'IA au sein de l'entreprise. Des membres particuliers du conseil consultatif d'éthique de l'IA pourraient être invités à assister à des réunions internes en fonction de leur expertise spécifique. Etc.

En plus de pouvoir voir ce qui se passe avec l'IA au sein de l'entreprise et d'offrir un regard neuf, le comité consultatif d'éthique de l'IA a généralement un double rôle d'être un fournisseur externe vers l'intérieur des dernières nouveautés en matière d'IA et d'IA éthique. Les ressources internes n'ont peut-être pas le temps de creuser ce qui se passe en dehors de l'entreprise et peuvent donc obtenir des points de vue de pointe très ciblés et personnalisés de la part des membres du conseil consultatif d'éthique de l'IA.

Il y a aussi les utilisations de l'intérieur vers l'extérieur d'un conseil consultatif d'éthique de l'IA.

Cela peut être délicat.

Le concept est que le comité consultatif d'éthique de l'IA est utilisé pour faire savoir au monde extérieur ce que fait l'entreprise en matière d'IA et d'éthique de l'IA. Cela peut être utile pour renforcer la réputation de l'entreprise. Les produits et services imprégnés d'IA pourraient être perçus comme plus dignes de confiance en raison du sceau d'or d'approbation du comité consultatif d'éthique de l'IA. En outre, les appels à l'entreprise pour qu'elle en fasse plus sur l'IA éthique peuvent être quelque peu émoussés en soulignant qu'un conseil consultatif sur l'éthique de l'IA est déjà utilisé par l'entreprise.

Les questions qui sont généralement soumises à un comité consultatif d'éthique de l'IA par l'entreprise utilisant un tel mécanisme incluent souvent :

  • L'entreprise devrait-elle utiliser l'IA pour un produit ou un service particulier, ou cela semble-t-il trop troublant ?
  • L'entreprise tient-elle compte de l'éventail complet des considérations d'éthique de l'IA dans ses efforts en matière d'IA ?
  • L'entreprise est-elle tombée dans la pensée de groupe et est-elle devenue réticente ou incapable de voir les chutes potentiellement dérangeantes de l'éthique de l'IA en attente de ces efforts ?
  • Quels types d'approches les plus récentes en matière d'éthique de l'IA l'entreprise devrait-elle chercher à adopter ?
  • Serait-il possible d'offrir une reconnaissance externe pour nos efforts en matière d'éthique de l'IA et l'engagement à cet égard ?
  • Autre

Faire appel à un conseil consultatif sur l'éthique de l'IA est assurément logique et les entreprises s'engagent de plus en plus dans cette voie.

S'il vous plaît soyez conscient qu'il y a un autre côté à cette médaille.

D'un côté de la médaille, les comités consultatifs d'éthique de l'IA peuvent être la meilleure chose depuis le pain tranché. Ne négligez pas le revers de la médaille, à savoir qu'ils peuvent aussi être un casse-tête monumental et vous pourriez regretter d'avoir viré sur ce terrain risqué (comme vous le verrez dans cette discussion, les inconvénients peuvent être gérés, si vous savez ce que vous faites).

Les entreprises commencent à se rendre compte qu'elles peuvent se retrouver dans une situation délicate lorsqu'elles choisissent de suivre la voie du conseil consultatif d'éthique de l'IA. Vous pourriez affirmer que cette machination s'apparente un peu à jouer avec le feu. Vous voyez, le feu est un élément très puissant que vous pouvez utiliser pour cuisiner des repas, vous protéger des prédateurs dans la nature, vous garder au chaud, apporter de la lumière et fournir une multitude d'avantages pratiques et vitaux.

Le feu peut aussi vous brûler si vous n'êtes pas capable de bien le gérer.

Il y a eu divers titres de presse récents qui démontrent clairement les dangers potentiels d'avoir un conseil consultatif sur l'éthique de l'IA. Si un membre décide sommairement qu'il ne croit plus que l'entreprise fait les bonnes activités d'IA éthique, le membre mécontent pourrait démissionner dans un énorme souffle. En supposant que la personne est susceptible d'être bien connue dans le domaine de l'IA ou dans l'ensemble de l'industrie, son navire sauteur ne manquera pas d'attirer l'attention des médias.

Une entreprise doit alors se mettre sur la défensive.

Pourquoi le député est-il parti?

Qu'est-ce que l'entreprise est en train de faire?

Certaines entreprises exigent que les membres du comité consultatif d'éthique de l'IA signent des NDA (accords de non-divulgation), qui apparemment protégeront l'entreprise si le membre décide de devenir "voyou" et de jeter l'entreprise. Le problème cependant est que même si la personne reste relativement silencieuse, il y a néanmoins une reconnaissance probable qu'elle ne siège plus au conseil consultatif d'éthique de l'IA. Cela, en soi, soulèvera toutes sortes de questions qui soulèvent les sourcils.

De plus, même si une NDA existe, le membre tentera parfois de contourner les dispositions. Cela pourrait inclure la référence à des "études de cas" génériques sans nom pour mettre en évidence les anomalies d'éthique de l'IA qu'ils pensent que l'entreprise a insidieusement réalisées.

Le membre déchu pourrait être complètement effronté et sortir directement en nommant ses préoccupations concernant l'entreprise. Qu'il s'agisse d'une violation claire de la NDA est peut-être un peu moins crucial que le fait que le mot se répande sur les scrupules de l'IA éthique. Une entreprise qui tente de poursuivre le membre pour violation de la NDA peut brutalement attirer l'eau chaude sur elle-même, attirant l'attention sur le différend et semblant être le duel classique David contre Goliath (l'entreprise étant le grand "monstre").

Certains hauts dirigeants supposent qu'ils peuvent simplement parvenir à un règlement financier avec n'importe quel membre du comité consultatif d'éthique de l'IA qui estime que l'entreprise fait de mauvaises choses, notamment en ignorant ou en minimisant les préoccupations exprimées.

Ce n'est peut-être pas aussi facile qu'on le suppose.

Souvent, les membres sont profondément soucieux de l'éthique et ne reculeront pas facilement devant ce qu'ils perçoivent comme un combat éthique entre le bien et le mal. Ils peuvent également être financièrement stables et ne pas vouloir rogner sur leurs préceptes éthiques ou ils peuvent avoir un autre emploi qui n'a pas été touché par leur départ du comité consultatif d'éthique de l'IA.

Comme cela peut être évident, certains se rendent compte plus tard qu'un conseil consultatif d'éthique de l'IA est une arme à double tranchant. Il y a une valeur énorme et un aperçu important qu'un tel groupe peut transmettre. En même temps, vous jouez avec le feu. Il se peut qu'un membre ou des membres décident qu'ils ne croient plus que l'entreprise effectue un travail crédible d'IA éthique. Dans les nouvelles, il y a eu des indications selon lesquelles tout un comité consultatif d'éthique de l'IA démissionnerait ensemble, tout d'un coup, ou aurait une prépondérance des membres annonçant leur départ.

Soyez prêt pour le bien et les problèmes qui peuvent survenir avec les comités consultatifs d'éthique de l'IA.

Bien sûr, il arrive parfois que les entreprises ne fassent pas ce qu'il faut en matière d'éthique de l'IA.

Par conséquent, nous espérons et nous nous attendons à ce qu'un comité consultatif d'éthique de l'IA de cette entreprise intervienne pour le faire savoir, probablement en interne au sein de l'entreprise d'abord. Si l'entreprise continue sur la mauvaise voie perçue, les membres sembleraient certainement éthiquement tenus (peut-être légalement aussi) de prendre d'autres mesures qu'ils jugent appropriées (les membres devraient consulter leur avocat personnel pour de tels conseils juridiques). Il se pourrait que ce soit le seul moyen d'amener l'entreprise à changer ses habitudes. Une action drastique d'un membre ou d'un groupe de membres peut sembler être le dernier recours dont les membres espèrent qu'il renversera la tendance. De plus, ces membres ne veulent probablement pas faire partie de quelque chose dont ils croient ardemment qu'il s'est éloigné de l'éthique de l'IA.

Une façon utile d'envisager ces possibilités est la suivante :

  • L'entreprise s'égare, le membre choisit de se retirer en raison d'un manque perçu de conformité de l'entreprise
  • L'entreprise ne s'égare pas, mais le membre pense que l'entreprise l'est et se retire donc en raison d'un manque de conformité perçu

Le monde extérieur ne saura pas nécessairement si le membre qui quitte a une bonne raison de s'inquiéter au sujet de l'entreprise ou s'il peut s'agir d'une idiosyncrasie ou d'une mauvaise impression de la part du membre. Il y a aussi la possibilité assez simple qu'un membre quitte le groupe en raison d'autres engagements ou pour des raisons personnelles qui n'ont rien à voir avec ce que fait l'entreprise.

L'essentiel est qu'il est important pour toute entreprise qui adopte un comité consultatif sur l'éthique de l'IA de réfléchir consciencieusement à l'ensemble des phases du cycle de vie associées au groupe.

Avec tout ce discours sur les aspects problématiques, je ne veux pas donner l'impression de rester à l'écart d'avoir un comité consultatif d'éthique de l'IA. Ce n'est pas le message. L'essentiel est d'avoir un comité consultatif sur l'éthique de l'IA et de s'assurer que vous le faites de la bonne manière. Faites-en votre mantra chéri.

Voici quelques-uns des avantages souvent mentionnés d'un comité consultatif sur l'éthique de l'IA :

  • Avoir à portée de main un moyen de faire rebondir des projets et des idées d'IA auprès d'un groupe privé semi-indépendant
  • Tirer parti de l'expertise en éthique de l'IA extérieure à l'entreprise
  • Viser à éviter les éclats de rire liés à l'éthique de l'IA et les catastrophes pures et simples de l'entreprise
  • Être un booster de relations publiques pour l'entreprise et ses systèmes d'IA
  • Éclatement de la réflexion de groupe interne sur l'IA et l'éthique de l'IA
  • Jetez un regard neuf sur les innovations de l'IA et leur aspect pratique
  • Améliorer la réputation et la stature de l'entreprise
  • Servir de voix débridée lorsque les efforts de l'entreprise en matière d'intelligence artificielle sont plus actifs
  • Autre

Voici des façons courantes que les entreprises gâchent et sapent leur conseil consultatif d'éthique de l'IA (ne faites pas ça !) :

  • Fournir des directives vagues et déroutantes quant à la mission et au but
  • Seulement consulté avec parcimonie et souvent au mauvais moment après que le cheval soit déjà sorti de l'écurie
  • Gardé dans le noir
  • Alimentez des informations fortement filtrées qui fournissent une représentation trompeuse des choses
  • Utilisé uniquement comme vitrine et dans aucun autre but de création de valeur
  • Interdit de faire un semblant d'exploration sur des questions internes
  • Privés de ressources suffisantes pour effectuer leur travail de manière adéquate
  • Manque de leadership explicite au sein du groupe
  • Manque d'attention de la direction de l'entreprise à l'égard du groupe
  • Devrait donner son approbation aveugle à tout ce qui est présenté
  • Hasard quant aux membres choisis
  • Traité avec peu de respect et apparemment une simple coche
  • Autre

Un autre problème souvent source de confusion concerne la nature et le comportement des différents membres qui siègent à un conseil consultatif d'éthique de l'IA, ce qui peut parfois poser problème de la manière suivante :

  • Certains membres pourraient être uniquement des conceptualisateurs de l'éthique de l'IA plutôt que versés dans l'éthique de l'IA en tant que pratique et, à ce titre, fournir des informations minimalistes et avisées sur les affaires
  • Certains peuvent être explosifs en matière d'éthique de l'IA et sont extrêmement difficiles à gérer tout au long de leur participation.
  • Les luttes intestines peuvent devenir un facteur de distraction important, souvent des affrontements de grands ego, et faire évoluer le groupe vers un dysfonctionnement
  • Certains pourraient être trop occupés et trop engagés, de sorte qu'ils sont à l'écart de l'effort de conseil en éthique de l'IA
  • Certains ont une opinion profondément ancrée sur l'éthique de l'IA qui est inflexible et irréaliste
  • Certains sont sujets à des considérations émotionnelles plutôt qu'analytiques et systémiques sous-jacentes à l'éthique de l'IA
  • Peut être apparenté au célèbre adage d'être comme un troupeau de chats qui ne se concentrent pas et errent sans but
  • Autre

Certaines entreprises semblent simplement créer un comité consultatif sur l'éthique de l'IA sur une base un peu bon gré mal gré. Aucune pensée ne va vers les membres à sélectionner. Aucune pensée ne va vers ce qu'ils apportent chacun à la table. Aucune pensée ne va vers la fréquence des réunions et comment les réunions doivent être conduites. Aucune pensée ne va vers la gestion du conseil consultatif d'éthique de l'IA, tout compte fait. Etc.

Dans un sens, par votre propre manque d'ingéniosité, vous êtes probablement en train de mettre en mouvement une épave de train.

Ne fais pas ça.

Peut-être que cette liste des bonnes choses à faire est maintenant ostensiblement évident pour vous sur la base du discours jusqu'à présent, mais vous seriez peut-être choqué de savoir que peu d'entreprises semblent avoir raison :

  • Identifier explicitement la mission et le but du comité consultatif d'éthique de l'IA
  • Veiller à ce que le groupe reçoive l'attention appropriée de la haute direction
  • Identifier le type de membres qui conviendraient le mieux au groupe
  • Approchez les membres souhaités et déterminez la compatibilité avec le groupe
  • Prendre les dispositions appropriées avec les membres choisis
  • Établir la logistique des réunions, la fréquence, etc.
  • Déterminer les tâches des membres, la portée et la profondeur
  • Anticiper les ressources internes nécessaires pour aider le groupe
  • Allouer des ressources suffisantes pour le groupe lui-même
  • Maintenir le comité consultatif d'éthique de l'IA actif et en boucle
  • Avoir des escalades planifiées à l'avance en cas de problème
  • Indiquez comment les événements d'urgence ou de crise seront traités
  • Faites pivoter les membres vers l'extérieur ou vers l'intérieur selon les besoins pour maintenir le mélange approprié
  • Prévoir au préalable des voies de sortie pour les membres
  • Autre

Conclusion

Il y a quelques années, de nombreux constructeurs automobiles et entreprises technologiques autonomes qui se lancent dans la conception de voitures autonomes basées sur l'IA ont soudainement été incités à adopter des conseils consultatifs sur l'éthique de l'IA. Jusqu'à ce moment-là, il semblait y avoir peu de conscience d'avoir un tel groupe. Il a été supposé que l'accent interne sur l'IA éthique serait suffisant.

J'ai longuement discuté dans ma chronique des divers manquements ou oublis malheureux de l'éthique de l'IA qui ont parfois conduit à des problèmes de conduite autonome tels que des accidents de véhicules mineurs, des collisions de voitures manifestes et d'autres calamités, voir ma couverture sur le lien ici. L'importance de la sécurité de l'IA et des protections similaires doit être la considération la plus importante pour ceux qui fabriquent des véhicules autonomes. Les comités consultatifs d'éthique de l'IA dans ce créneau contribuent à faire de la sécurité de l'IA une priorité essentielle.

Ma façon préférée d'exprimer ce genre de révélation sur l'éthique de l'IA est de comparer la question aux tremblements de terre.

Les Californiens sont sujets à des tremblements de terre de temps en temps, parfois assez violents. Vous pourriez penser que la préparation aux tremblements de terre serait une considération omniprésente. Pas si. Le cycle fonctionne ainsi. Un tremblement de terre substantiel se produit et les gens se souviennent qu'ils sont préparés aux tremblements de terre. Pendant un court instant, on se précipite pour entreprendre de tels préparatifs. Au bout d'un moment, l'attention à cela diminue. Les préparatifs tombent à l'eau ou sont autrement négligés. Boum, un autre tremblement de terre frappe, et tous ceux qui auraient dû être préparés sont pris « par surprise », comme s'ils n'avaient pas réalisé qu'un tremblement de terre pourrait un jour se produire.

Les entreprises font souvent un peu la même chose à propos des comités consultatifs d'éthique de l'IA.

Ils n'en commencent pas un et puis soudainement, lors d'une catastrophe concernant leur IA, ils sont réactifs pour passer à l'action. Ils mettent en place un conseil consultatif d'éthique de l'IA. Il a beaucoup des problèmes que j'ai cités plus tôt ici. Le conseil consultatif d'éthique de l'IA s'effondre. Oups, une nouvelle calamité de l'IA au sein de l'entreprise réveille le besoin du conseil consultatif d'éthique de l'IA.

Lavez, rincez et répétez.

Les entreprises trouvent définitivement qu'elles ont parfois une relation d'amour-haine avec les efforts de leur conseil consultatif d'éthique de l'IA. Quand il s'agit de faire les choses correctement, l'amour est dans l'air. Quand il s'agit de faire les choses dans le mauvais sens, la haine jaillit férocement. Assurez-vous de faire ce qui est nécessaire pour maintenir l'amour et éviter la haine lorsqu'il s'agit d'établir et de maintenir un conseil consultatif sur l'éthique de l'IA.

Transformons cela en une relation d'amour-amour.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/