L'éthique de l'IA bouleversée par ces éthiciens de l'IA qui "incitent" à des pratiques éthiques de l'IA

Le salage a beaucoup fait les manchettes ces derniers temps.

Je ne parle pas du sel que vous mettez dans votre nourriture. Au lieu de cela, j'évoque le « salage » qui est associé à une pratique provocatrice et apparemment très controversée associée à l'interaction entre le travail et l'entreprise.

Vous voyez, ce type de salage implique la circonstance dans laquelle une personne essaie d'être embauchée dans une entreprise pour initier ostensiblement ou certains pourraient sans doute dire inciter à la création d'un syndicat dans celle-ci. Les derniers comptes rendus d'actualités traitant de ce phénomène pointent vers des entreprises telles que Starbucks, Amazon et d'autres entreprises bien connues et même moins connues.

Je couvrirai d'abord les bases du salage, puis je passerai à un sujet similaire qui pourrait vous surprendre, à savoir qu'il semble y avoir une sorte de salage dans le domaine de l'intelligence artificielle (IA). Cela a des considérations cruciales en matière d'éthique de l'IA. Pour ma couverture continue et étendue de l'éthique de l'IA et de l'IA éthique, voir le lien ici ainsi que le lien ici, Juste pour en nommer quelques-uns.

Maintenant, entrons dans les principes fondamentaux du fonctionnement typique du salage.

Supposons qu'une entreprise n'ait aucun syndicat dans sa main-d'œuvre. Comment un syndicat pourrait-il d'une manière ou d'une autre prendre pied dans cette entreprise ? Un moyen serait d'agir à l'extérieur de l'entreprise et d'essayer de faire appel aux travailleurs pour qu'ils adhèrent à un syndicat. Cela peut impliquer de présenter des bannières à proximité du siège de l'entreprise ou d'envoyer des dépliants aux travailleurs ou d'utiliser les médias sociaux, etc.

Il s'agit d'une approche résolument de l'extérieur vers l'intérieur.

Une autre avenue serait de stimuler de l'intérieur une étincelle qui pourrait faire rouler la balle. Si au moins un employé pouvait être déclenché comme pom-pom girl pour avoir adhéré à un syndicat dans l'entreprise, cela déclencherait peut-être une éventuelle cavalcade interne de soutien à la syndicalisation là-bas. Même si un tel employé ne servait pas d'encouragement absolu, il pourrait être tranquillement en mesure d'obtenir un soutien interne parmi les travailleurs et d'être une force relativement cachée au sein de l'organisation pour poursuivre la syndicalisation.

Dans cette façon de penser, un syndicat pourrait envisager les moyens par lesquels un tel employé peut être ainsi activé. Le syndicat pourrait dépenser une énergie sans fin pour trouver cette aiguille dans la botte de foin. Parmi peut-être des centaines ou des milliers de travailleurs de l'entreprise, essayer de découvrir le soi-disant élu, en particulier, qui favorisera la syndicalisation pourrait être difficile à faire.

Il serait pratique de «découvrir» plus facilement ce travailleur induisant des étincelles (ou de les inventer, pour ainsi dire).

Cela nous amène à l'idée de voila qui peut amener l'entreprise à embaucher une telle personne pour un rôle quotidien dans l'entreprise. Essentiellement, implantez le bon type de syndicat qui stimule la personne dans l'entreprise. Vous n'avez pas besoin d'essayer de faire appel à la foule de travailleurs de l'extérieur et d'insérer à la place la seule personne qui active afin que vous sachiez avec certitude que votre étincelle est employée là-bas.

Le travailleur nouvellement embauché cherche alors à insuffler un intérêt syndical au sein de l'entreprise, tout en effectuant le travail pour lequel il a été autrement embauché (exprimant ce que l'on appelle souvent un «intérêt véritable» pour le travail). Notez que la personne est activement employée par l'entreprise et effectue activement le travail qui lui est demandé en tant qu'employé. Dans le domaine habituel du salage, ils ne sont pas uniquement des travailleurs syndiqués non spécifiques liés à un emploi qui sont peut-être intégrés à l'entreprise.

Certains ont annoncé cette approche.

Ils exhortent que cela permet d'économiser du temps et des ressources en termes d'un syndicat cherchant à inciter les travailleurs d'une entreprise à envisager d'adhérer à un syndicat. Les autres employés sont généralement plus susceptibles d'être disposés à écouter et à être activés par un collègue. L'approche alternative consistant à essayer de l'extérieur de gagner du terrain est considérée comme moins séduisante, dans laquelle un collègue de travail fournit une puissante motivation aux travailleurs de l'entreprise par rapport à certains "étrangers" qui sont en effet considérés comme un peu plus que des agendas indifférents et indifférents. étrangers.

Tout le monde n'est pas satisfait de l'approche de salage.

Les entreprises diront souvent qu'il s'agit d'une pratique extrêmement sournoise et malhonnête. La gestalt globale de l'approche est qu'un espion est placé au milieu de l'entreprise. Ce n'est pas pour cela que la personne a été embauchée. Ils ont vraisemblablement été embauchés pour faire leur travail déclaré, alors qu'au lieu de cela, toutes les manigances assorties ressemblent à l'implantation diabolique d'un véritable cheval de Troie.

La demande reconventionnelle des syndicats est que si la personne fait son travail déclaré, il n'y a pas de mal ni de faute. Vraisemblablement, un employé, ou dirons-nous tous employé de l'entreprise, peut généralement choisir de se syndiquer. Il se trouve que cet employé en particulier veut le faire. Le fait qu'ils soient entrés dans l'entreprise avec cette notion à l'esprit est simplement quelque chose que tout employé nouvellement embauché pourrait également envisager.

Attendez une seconde, les entreprises rétorqueront, c'est quelqu'un qui intentionnellement voulait venir dans l'entreprise dans le but d'amorcer une implantation syndicale. C'est leur désir poussé. L'employé nouvellement embauché s'est moqué du processus d'embauche et exploite indûment ses aspirations à la recherche d'un emploi comme un prétexte déguisé à l'avantage spécifique du syndicat.

Tour et tour ce discours passionné va.

Gardez à l'esprit qu'il existe une pléthore de considérations juridiques qui surviennent dans ces contextes. Toutes sortes de règles et de réglementations qui se rapportent, par exemple, à la loi nationale sur les relations de travail (NLRA) et au Conseil national des relations de travail (NRLB) font partie de ces stratagèmes. Je ne veux pas que vous ayez l'impression que les choses sont simples sur ces fronts. De nombreuses complications juridiques abondent.

Il faut aussi s'interroger sur la variété des variations qui viennent jouer avec le salage.

Prenons la possibilité que la personne qui souhaite se faire embaucher soit ouvertement un défenseur du syndicat tout au long du processus de recherche d'un emploi au sein de l'entreprise. Cette personne peut se présenter à l'entretien d'embauche vêtue d'une chemise ou d'un autre vêtement qui indique clairement qu'elle est pro-syndicale. Lors d'entretiens, ils pourraient exprimer leur espoir que l'entreprise adoptera un jour la syndicalisation. Etc.

Dans ce cas, certains affirmeraient que l'entreprise savait dans quoi elle s'embarquait. Dès le départ, l'entreprise disposait de nombreuses indications sur les intentions de la personne. Vous ne pouvez pas vous plaindre ensuite si, après avoir été embauché, le nouvel employé fera tout ce qu'il peut pour faire entrer le syndicat dans la porte. L'entreprise s'est tiré une balle dans le pied, pour ainsi dire, et tout le reste n'est que des larmes de crocodile.

La danse à ce sujet est encore une fois plus complexe qu'il n'y paraît. En raison des problèmes juridiques qui peuvent survenir, une personne autrement qualifiée pour être embauchée pourrait, si elle était refusée par l'entreprise qui l'embauche, faire valoir qu'elle a été intentionnellement ignorée en raison d'un parti pris antisyndical de la part de l'entreprise. Une fois de plus, la NRLA et la NRLB sont entraînées dans l'affaire désordonnée.

Je vais vous présenter rapidement une foule d'autres considérations qui surviennent dans le domaine du salage. J'aimerais également que vous sachiez que le salage n'est pas uniquement un phénomène américain. Cela peut aussi se produire dans d'autres pays. Bien sûr, les lois et les pratiques des pays diffèrent considérablement, et donc le salage n'est pas particulièrement utile ou peut-être même carrément interdit dans certains endroits, tandis que la nature du salage pourrait être considérablement modifiée en fonction des mœurs juridiques et culturelles de celui-ci et pourrait en fait ont encore de la puissance.

Consultez votre avocat bien-aimé en droit du travail dans la juridiction qui vous intéresse.

Certains facteurs supplémentaires concernant le salage comprennent :

  • Se faire payer. Parfois, la personne est payée par le syndicat pour effectuer la tâche d'être embauchée dans l'entreprise. Ils pourraient alors être payés à la fois par l'entreprise et le syndicat pendant leur mandat dans l'entreprise ou pourraient ne plus être payés par le syndicat une fois embauchés par l'entreprise.
  • Visibilité. Parfois, la personne reste discrète ou reste totalement silencieuse pendant le processus d'embauche quant à ses intentions de se syndiquer, tandis que dans d'autres cas, la personne exprime ouvertement ce qu'elle a l'intention de faire. Une approche apparemment à mi-chemin est que la personne dira ce qu'elle a l'intention de faire si on lui demande explicitement pendant les entretiens, et implique donc qu'il appartient à l'entreprise de découvrir de telles intentions, ce qui est un fardeau qui, selon les entreprises, est sournoisement connivence et dépasse les limites légales.
  • Timing. Une fois embauchée, la personne pourrait choisir d'attendre pour exercer sa capacité de syndicalisation. Ils pourraient potentiellement attendre des semaines, des mois, voire des années pour s'activer. Il y a de fortes chances qu'ils commencent plus probablement une fois qu'ils se sont acclimatés à l'entreprise et qu'ils se sont établis personnellement en tant qu'employés de l'entreprise. S'ils commencent immédiatement, cela pourrait saper leur tentative d'être considérés comme des initiés et les présenter comme des intrus ou des étrangers.
  • Mesures prises. Parfois, la personne annoncera explicitement au sein de l'entreprise qu'elle cherche maintenant à adopter la syndicalisation, ce qui pourrait se produire peu de temps après avoir été embauchée ou se produire un certain temps après (selon mon indication ci-dessus sur le facteur temps). D'un autre côté, la personne peut choisir de jouer un rôle d'infiltration, de fournir des informations au syndicat et de ne pas attirer l'attention sur elle-même. Ceci est parfois fustigé comme étant un taupe de salage, bien que d'autres soulignent que la personne pourrait autrement être exposée à des risques internes si elle s'exprime directement.
  • Tenure. Une personne qui entreprend un effort de salage pourrait finir par être en mesure d'amorcer une impulsion syndicale (c'est un «saleur»). Ils pourraient potentiellement rester au sein de l'entreprise tout au long du processus de syndicalisation. Cela étant dit, une telle personne choisit parfois de quitter l'entreprise qui a été déclenchée et choisit d'aller dans une autre entreprise pour recommencer les activités déclenchantes. Les arguments à ce sujet sont intenses. Un point de vue est que cela démontre clairement que la personne n'avait pas dans son cœur le travail au sein de l'entreprise. Le point de vue opposé est qu'ils sont susceptibles de se retrouver dans des eaux troubles et peut-être intenables en restant dans l'entreprise une fois que l'effort de soutien syndical a pris de l'ampleur.
  • Résultat. Une tentative de salage ne garantit pas un résultat particulier. Il se peut que la personne sensibilise à la syndicalisation et que l'effort soit lancé, ergo «réussi» salage a eu lieu. Un autre résultat est que la personne est incapable d'obtenir une telle traction. Soit ils abandonnent la poursuite et restent dans l'entreprise, attendant peut-être une autre chance plus tard, soit ils quittent l'entreprise et cherchent généralement à faire le salage dans une autre entreprise.
  • Saleur professionnel. Certaines personnes se considèrent comme de fervents défenseurs du salage et sont fières de servir de saleur, pour ainsi dire. Ils font le salage à plusieurs reprises, passant d'une entreprise à l'autre. D'autres le feront de manière ponctuelle, peut-être à cause d'une préférence particulière ou pour voir à quoi cela ressemble, puis choisiront de ne pas répéter dans un tel rôle. Vous pouvez assurément imaginer les types de pressions personnelles et de stress potentiel qui peuvent survenir lorsqu'ils sont dans une capacité de saleur.

Ces éléments suffiront pour l'instant à mettre en évidence la diversité et la dynamique du salage. Je reviendrai sur ces facteurs dans le contexte de l'IA et des considérations éthiques de l'IA.

L'essentiel est que certaines personnes cherchent à être embauchées dans une entreprise pour initier ou inciter à l'établissement de principes d'éthique de l'IA dans l'entreprise. C'est leur première motivation pour aller travailler dans l'entreprise.

En un sens, ils salent non pas à des fins de syndicalisation, mais plutôt «salent» pour essayer d'ancrer une entreprise dans les préceptes éthiques de l'IA.

J'en dirai beaucoup plus à ce sujet dans un instant.

Avant d'aborder un peu plus de viande et de pommes de terre sur les considérations sauvages et laineuses sous-jacentes au salage dans un contexte d'IA, exposons quelques principes fondamentaux supplémentaires sur des sujets profondément essentiels. Nous devons brièvement nous plonger dans l'éthique de l'IA et en particulier l'avènement de l'apprentissage automatique (ML) et de l'apprentissage en profondeur (DL).

Vous savez peut-être vaguement que l'une des voix les plus fortes ces jours-ci dans le domaine de l'IA et même en dehors du domaine de l'IA consiste à réclamer un plus grand semblant d'IA éthique. Voyons ce que signifie faire référence à l'éthique de l'IA et à l'IA éthique. En plus de cela, nous explorerons ce que je veux dire lorsque je parle d'apprentissage automatique et d'apprentissage en profondeur.

Un segment ou une partie particulière de l'éthique de l'IA qui a retenu l'attention des médias est l'IA qui présente des préjugés et des inégalités fâcheux. Vous savez peut-être que lorsque la dernière ère de l'IA a commencé, il y a eu un énorme élan d'enthousiasme pour ce que certains appellent maintenant AI pour de bon. Malheureusement, dans la foulée de cette excitation jaillissante, nous avons commencé à être témoins AI pour le mal. Par exemple, divers systèmes de reconnaissance faciale basés sur l'IA se sont révélés contenir des préjugés raciaux et des préjugés sexistes, dont j'ai discuté à le lien ici.

Des efforts pour lutter contre AI pour le mal sont activement en cours. En plus bruyant légal Dans le but de freiner les actes répréhensibles, il y a aussi une poussée substantielle vers l'adoption de l'éthique de l'IA pour redresser la méchanceté de l'IA. L'idée est que nous devons adopter et approuver les principes clés de l'IA éthique pour le développement et la mise en service de l'IA afin de saper le AI pour le mal et simultanément annonçant et promouvant le meilleur AI pour de bon.

Dans le même ordre d'idées, je préconise d'essayer d'utiliser l'IA dans le cadre de la solution aux problèmes de l'IA, en combattant le feu par le feu de cette façon de penser. Nous pourrions par exemple intégrer des composants d'IA éthique dans un système d'IA qui surveillera comment le reste de l'IA fait les choses et donc potentiellement détecter en temps réel tout effort discriminatoire, voir ma discussion sur le lien ici. Nous pourrions également avoir un système d'IA distinct qui agit comme un type de moniteur d'éthique de l'IA. Le système d'IA sert de surveillant pour suivre et détecter quand une autre IA entre dans l'abîme contraire à l'éthique (voir mon analyse de ces capacités sur le lien ici).

Dans un instant, je partagerai avec vous quelques principes fondamentaux qui sous-tendent l'éthique de l'IA. Il y a beaucoup de ce genre de listes qui flottent ici et là. On pourrait dire qu'il n'existe pas encore de liste unique d'appel universel et de concurrence. C'est la malheureuse nouvelle. La bonne nouvelle est qu'il existe au moins des listes d'éthique de l'IA facilement disponibles et qu'elles ont tendance à être assez similaires. Tout compte fait, cela suggère que par une sorte de convergence raisonnée, nous trouvons notre chemin vers une communauté générale de ce en quoi consiste l'éthique de l'IA.

Tout d'abord, couvrons brièvement certains des préceptes généraux de l'IA éthique pour illustrer ce qui devrait être une considération vitale pour quiconque élabore, met en service ou utilise l'IA.

Par exemple, comme l'a déclaré le Vatican dans le Appel de Rome pour l'éthique de l'IA et comme je l'ai couvert en profondeur à le lien ici, voici les six principaux principes éthiques de l'IA qu'ils ont identifiés :

  • Transparence: En principe, les systèmes d'IA doivent être explicables
  • Inclusion: Les besoins de tous les êtres humains doivent être pris en considération pour que chacun puisse en bénéficier, et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer et s'épanouir.
  • Responsabilité: Ceux qui conçoivent et déploient l'utilisation de l'IA doivent procéder avec responsabilité et transparence
  • Impartialité: Ne créez pas ou n'agissez pas selon des préjugés, préservant ainsi l'équité et la dignité humaine
  • Fiabilité: Les systèmes d'IA doivent pouvoir fonctionner de manière fiable
  • Sécurité et confidentialité: Les systèmes d'IA doivent fonctionner en toute sécurité et respecter la vie privée des utilisateurs.

Comme indiqué par le département américain de la Défense (DoD) dans leur Principes éthiques pour l'utilisation de l'intelligence artificielle et comme je l'ai couvert en profondeur à le lien ici, voici leurs six principes éthiques principaux en matière d'IA :

  • Responsable: Le personnel du DoD exercera des niveaux appropriés de jugement et de soin tout en restant responsable du développement, du déploiement et de l'utilisation des capacités d'IA.
  • Équitable: Le Département prendra des mesures délibérées pour minimiser les biais involontaires dans les capacités d'IA.
  • Traçable: Les capacités d'IA du Ministère seront développées et déployées de manière à ce que le personnel concerné possède une compréhension appropriée de la technologie, des processus de développement et des méthodes opérationnelles applicables aux capacités d'IA, y compris des méthodologies transparentes et vérifiables, des sources de données, ainsi que des procédures et de la documentation de conception.
  • Fiable: Les capacités d'IA du Ministère auront des utilisations explicites et bien définies, et la sûreté, la sécurité et l'efficacité de ces capacités seront soumises à des tests et à une assurance dans le cadre de ces utilisations définies tout au long de leur cycle de vie.
  • Gouvernable: Le Département concevra et mettra au point des capacités d'IA pour remplir leurs fonctions prévues tout en possédant la capacité de détecter et d'éviter les conséquences imprévues, et la capacité de désengager ou de désactiver les systèmes déployés qui présentent un comportement imprévu.

J'ai également discuté de diverses analyses collectives des principes d'éthique de l'IA, y compris avoir couvert un ensemble conçu par des chercheurs qui ont examiné et condensé l'essence de nombreux principes nationaux et internationaux d'éthique de l'IA dans un article intitulé "The Global Landscape Of AI Ethics Guidelines" (publié dans Nature), et que ma couverture explore à le lien ici, ce qui a conduit à cette liste clé :

  • Transparence
  • Justice et équité
  • Non-malfaisance
  • Responsabilité
  • Confidentialité
  • Bienfaisance
  • Liberté & Autonomie
  • La confiance
  • Durabilité
  • Dignité
  • Solidarité

Comme vous pouvez le deviner directement, essayer de cerner les spécificités sous-jacentes à ces principes peut être extrêmement difficile à faire. Plus encore, l'effort pour transformer ces principes généraux en quelque chose de suffisamment tangible et suffisamment détaillé pour être utilisé lors de la conception de systèmes d'IA est également un problème difficile à résoudre. Dans l'ensemble, il est facile de faire des signes de la main sur ce que sont les préceptes d'éthique de l'IA et comment ils doivent être généralement observés, alors que c'est une situation beaucoup plus compliquée dans le codage de l'IA devant être le véritable caoutchouc qui rencontre la route.

Les principes d'éthique de l'IA doivent être utilisés par les développeurs d'IA, ainsi que par ceux qui gèrent les efforts de développement de l'IA, et même ceux qui finissent par mettre en place et effectuer l'entretien des systèmes d'IA. Toutes les parties prenantes tout au long du cycle de vie de développement et d'utilisation de l'IA sont considérées dans le cadre du respect des normes en cours d'établissement de l'IA éthique. Il s'agit d'un point culminant important puisque l'hypothèse habituelle est que "seuls les codeurs" ou ceux qui programment l'IA sont soumis à l'adhésion aux notions d'éthique de l'IA. Comme indiqué précédemment, il faut un village pour concevoir et mettre en œuvre l'IA, et pour lequel tout le village doit connaître et respecter les préceptes d'éthique de l'IA.

Assurons-nous également que nous sommes sur la même longueur d'onde quant à la nature de l'IA d'aujourd'hui.

Il n'y a pas d'IA aujourd'hui qui soit sensible. Nous n'avons pas cela. Nous ne savons pas si l'IA sensible sera possible. Personne ne peut prédire avec justesse si nous atteindrons l'IA sensible, ni si l'IA sensible surgira d'une manière ou d'une autre miraculeusement spontanément sous une forme de supernova cognitive computationnelle (généralement appelée la singularité, voir ma couverture à le lien ici).

Le type d'IA sur lequel je me concentre est l'IA non sensible que nous avons aujourd'hui. Si nous voulions spéculer sauvagement sur sensible AI, cette discussion pourrait aller dans une direction radicalement différente. Une IA sensible serait censée être de qualité humaine. Vous devez considérer que l'IA sensible est l'équivalent cognitif d'un humain. Plus encore, puisque certains pensent que nous pourrions avoir une IA super intelligente, il est concevable qu'une telle IA puisse finir par être plus intelligente que les humains (pour mon exploration de l'IA super intelligente comme possibilité, voir la couverture ici).

Gardons les choses plus terre à terre et considérons l'IA computationnelle non sensible d'aujourd'hui.

Réalisez que l'IA d'aujourd'hui n'est pas capable de "penser" d'une quelconque manière à la hauteur de la pensée humaine. Lorsque vous interagissez avec Alexa ou Siri, les capacités conversationnelles peuvent sembler proches des capacités humaines, mais la réalité est qu'elles sont informatiques et manquent de cognition humaine. La dernière ère de l'IA a largement utilisé l'apprentissage automatique (ML) et l'apprentissage en profondeur (DL), qui tirent parti de la correspondance de modèles de calcul. Cela a conduit à des systèmes d'IA qui ont l'apparence de penchants humains. Pendant ce temps, il n'y a pas d'IA aujourd'hui qui ait un semblant de bon sens et ni l'émerveillement cognitif d'une pensée humaine robuste.

ML/DL est une forme de correspondance de modèle informatique. L'approche habituelle consiste à assembler des données sur une tâche de prise de décision. Vous introduisez les données dans les modèles informatiques ML/DL. Ces modèles cherchent à trouver des modèles mathématiques. Après avoir trouvé de tels modèles, le cas échéant, le système d'IA utilisera alors ces modèles lorsqu'il rencontrera de nouvelles données. Lors de la présentation de nouvelles données, les modèles basés sur les « anciennes » ou données historiques sont appliqués pour rendre une décision actuelle.

Je pense que vous pouvez deviner où cela se dirige. Si les humains qui ont pris des décisions calquées sur des modèles ont incorporé des préjugés fâcheux, il y a de fortes chances que les données reflètent cela de manière subtile mais significative. La mise en correspondance de modèles de calcul par apprentissage automatique ou apprentissage en profondeur tentera simplement d'imiter mathématiquement les données en conséquence. Il n'y a aucun semblant de bon sens ou d'autres aspects sensibles de la modélisation conçue par l'IA en soi.

De plus, les développeurs d'IA pourraient ne pas réaliser non plus ce qui se passe. Les mathématiques obscures du ML/DL pourraient rendre difficile la découverte des biais désormais cachés. Vous espérez et attendez à juste titre que les développeurs d'IA testent les biais potentiellement enfouis, bien que cela soit plus délicat qu'il n'y paraît. Il y a de fortes chances que même avec des tests relativement approfondis, des biais soient toujours intégrés dans les modèles de correspondance de modèles du ML/DL.

Vous pourriez en quelque sorte utiliser le célèbre ou tristement célèbre adage des ordures à l'intérieur et à l'extérieur. Le fait est que cela s'apparente davantage à des préjugés qui sont insidieusement infusés en tant que préjugés submergés dans l'IA. La prise de décision algorithmique (ADM) de l'IA devient axiomatiquement chargée d'iniquités.

Pas bon.

Revenons à notre concentration sur le salage dans un contexte d'IA.

Premièrement, nous supprimons tout semblant d'élément de syndicalisation de la terminologie du salage et n'utilisons plutôt le salage que comme paradigme ou approche généralisée comme modèle. Alors, s'il vous plaît, mettez de côté les facettes liées aux syndicats aux fins de cette discussion sur le salage liée à l'IA.

Deuxièmement, comme mentionné précédemment, le salage dans ce contexte d'IA implique que certaines personnes pourraient chercher à être embauchées dans une entreprise pour initier ou inciter à l'établissement de principes d'éthique de l'IA dans l'entreprise. C'est leur première motivation pour aller travailler dans l'entreprise.

Pour clarifier, il y en a absolument beaucoup qui sont embauchés dans une entreprise et ils ont déjà à l'esprit que l'éthique de l'IA est importante. Ce n'est cependant pas à l'avant-garde de leur base pour essayer d'être embauché par l'entreprise particulière qui les intéresse. Essentiellement, ils vont être embauchés pour faire une sorte de travail de développement ou de déploiement d'IA, et pour lesquels ils apportent facilement en eux une croyance stridente en l'IA éthique.

Ils travailleront ensuite du mieux qu'ils peuvent pour insuffler ou inspirer des considérations d'éthique de l'IA dans l'entreprise. Bien pour eux. Nous avons besoin de plus qui ont cela comme un désir sincère.

Mais ce n'est pas le salage auquel je fais allusion ici. Imaginez que quelqu'un choisisse une entreprise particulière qui semble ne pas faire grand-chose, voire rien, en ce qui concerne l'adoption de l'éthique de l'IA. La personne décide qu'elle va être embauchée par cette entreprise si elle peut le faire dans un travail quotidien d'IA (ou peut-être même un rôle non lié à l'IA), puis son objectif principal sera d'installer ou d'instiger les principes d'éthique de l'IA dans le compagnie. Ce n'est pas leur tâche principale et ce n'est même pas répertorié dans leurs tâches (je le mentionne parce que, évidemment, si quelqu'un est embauché pour provoquer intentionnellement l'éthique de l'IA, il ne "salage" pas la manière de connotation et d'apparence ici).

Cette personne ne se soucie pas particulièrement du travail en soi. Bien sûr, ils feront tout ce en quoi consiste le travail, et ils sont vraisemblablement qualifiés pour le faire. Pendant ce temps, leur véritable objectif est d'inciter Ethical AI à devenir une partie intégrante de l'entreprise. C'est la mission. C'est le but. Le travail lui-même n'est qu'un moyen ou un véhicule pour leur permettre de le faire de l'intérieur.

Vous pourriez dire qu'ils pourraient faire la même chose de l'extérieur de l'entreprise. Ils pourraient essayer de faire pression sur les équipes d'IA de l'entreprise pour qu'elles s'impliquent davantage dans l'éthique de l'IA. Ils pourraient essayer de faire honte à l'entreprise, peut-être en publiant sur des blogs ou en prenant d'autres mesures. Etc. Le fait est qu'ils seraient toujours un étranger, tout comme nous l'avons souligné précédemment lors de la discussion sur la prémisse primordiale du salage.

La personne qui sale l'IA est-elle trompeuse ?

On se rappelle à nouveau la même question posée sur le contexte syndical du salage. La personne pourrait insister sur le fait qu'il n'y a pas de tromperie du tout. Ils ont été embauchés pour faire un travail. Ils font le travail. Il se trouve qu'en plus, ils sont un défenseur interne de l'éthique de l'IA et travaillent puissamment pour amener les autres à faire de même. Pas de mal, pas de faute.

Ils souligneraient probablement également qu'il n'y a aucun inconvénient particulier à inciter l'entreprise à adopter l'IA éthique. En fin de compte, cela aidera l'entreprise à éviter potentiellement des poursuites qui pourraient autrement survenir si l'IA est produite sans respecter les préceptes d'éthique de l'IA. Ils sauvent ainsi l'entreprise d'elle-même. Même si la personne ne se soucie peut-être pas particulièrement de faire le travail à accomplir, elle fait le travail et rend simultanément l'entreprise plus sage et plus sûre via une poussée bruyante vers l'IA éthique.

Attendez une seconde, une réplique, cette personne est malhonnête. Ils vont apparemment quitter le navire une fois que l'adoption de l'éthique de l'IA aura lieu. Leur cœur n'est ni dans l'entreprise ni dans le travail. Ils utilisent l'entreprise pour faire avancer leur propre programme. Bien sûr, l'agenda semble assez bon, cherchant à mettre l'IA éthique en tête, mais cela peut aller trop loin.

Vous voyez, l'argument va plus loin que la poursuite de l'éthique de l'IA pourrait devenir trop zélée. Si la personne est venue pour lancer Ethical AI, elle pourrait ne pas avoir une vue d'ensemble de ce à quoi l'entreprise est confrontée dans son ensemble. À l'exclusion de tout le reste, cette personne pourrait distraire l'entreprise de manière myope et ne pas être disposée à permettre l'adoption de l'éthique de l'IA sur une base raisonnée et à un rythme prudent.

Ils pourraient devenir un mécontent perturbateur qui se chamaille continuellement sur la position de l'entreprise en termes de préceptes éthiques de l'IA. D'autres développeurs d'IA pourraient être distraits par le bavardage à un seul accord. Il est certainement judicieux d'intégrer l'éthique de l'IA dans le mélange, bien que les théâtraux et autres perturbations potentielles au sein de l'entreprise puissent entraver les progrès de l'IA éthique plutôt que de les aider.

Nous tournons en rond.

Nous pouvons maintenant revoir ces facteurs supplémentaires sur le salage que j'ai précédemment proposés :

  • Se faire payer. Il est concevable que la personne soit initialement payée par une entité qui souhaite amener une entreprise à adopter l'éthique de l'IA, peut-être dans le but de le faire de manière inoffensive ou peut-être de vendre à l'entreprise un ensemble particulier d'outils ou de pratiques d'éthique de l'IA. Généralement peu probable, mais mérite d'être mentionné.
  • Visibilité. La personne peut ne pas particulièrement évoquer sa mission de dévotion à l'éthique de l'IA lors du processus d'embauche. Dans d'autres cas, ils peuvent s'assurer qu'il est à l'avant-plan, de sorte que l'entreprise de recrutement comprenne sans aucune ambiguïté quant à leur objectif de dévotion. Cependant, cela est plus susceptible d'être formulé comme si l'éthique de l'IA était une préoccupation secondaire et que le travail était leur principale préoccupation, plutôt que l'inverse.
  • Timing. Une fois embauchée, la personne peut choisir d'attendre pour entreprendre ses débuts en matière d'éthique de l'IA. Ils pourraient potentiellement attendre des semaines, des mois, voire des années pour s'activer. Il est fort probable qu'ils commenceront plus probablement une fois qu'ils se seront acclimatés à l'entreprise et auront établi une base personnelle en tant qu'employé de l'entreprise. S'ils commencent immédiatement, cela pourrait saper leur tentative d'être considérés comme des initiés et les présenter comme des intrus ou des étrangers.
  • Mesures prises. Parfois, la personne annoncera explicitement au sein de l'entreprise qu'elle cherche maintenant à attirer l'attention sur l'éthique de l'IA, ce qui pourrait se produire peu de temps après son embauche ou se produire un certain temps après (selon mon indication ci-dessus sur le facteur temps). D'un autre côté, la personne peut choisir de jouer un rôle d'infiltration, de travailler discrètement au sein de l'entreprise et de ne pas porter d'attention particulière à elle-même. Ils peuvent également fournir des informations à la presse et à d'autres personnes extérieures sur les omissions ou les défaillances de l'éthique de l'IA au sein de l'entreprise.
  • Tenure. Une personne qui entreprend un effort de salage pourrait finir par être en mesure de lancer une impulsion en matière d'éthique de l'IA. Ils pourraient potentiellement rester au sein de l'entreprise tout au long du processus d'adoption de l'IA éthique. Cela étant dit, une telle personne choisit parfois de quitter l'entreprise qui a été déclenchée et choisit d'aller dans une autre entreprise pour recommencer les activités déclenchantes. Les arguments à ce sujet sont intenses. Un point de vue est que cela démontre clairement que la personne n'avait pas dans son cœur le travail au sein de l'entreprise. Le point de vue opposé est qu'ils sont susceptibles de se retrouver dans des eaux troubles et peut-être intenables en restant dans l'entreprise s'ils sont maintenant étiquetés comme des voix fortes ou des fauteurs de troubles.
  • Résultat. Une tentative de salage ne garantit pas un résultat particulier. Il se peut que la personne sensibilise à l'IA éthique et que l'effort commence, donc un salage «réussi» a eu lieu. Un autre résultat est que la personne est incapable d'obtenir une telle traction. Soit ils abandonnent la poursuite et restent dans l'entreprise, attendant peut-être une autre chance plus tard, soit ils quittent l'entreprise et cherchent généralement à faire le salage dans une autre entreprise.
  • Saleur professionnel. Certaines personnes pourraient se considérer comme un ardent défenseur du salage de l'éthique de l'IA et elles sont fières de servir de saleur, pour ainsi dire. Ils font le salage à plusieurs reprises, passant d'une entreprise à l'autre. D'autres pourraient le faire de manière ponctuelle, peut-être en raison d'une préférence particulière ou pour voir à quoi cela ressemble, puis choisir de ne pas répéter dans un tel rôle. Vous pouvez assurément imaginer les types de pressions personnelles et de stress potentiel qui peuvent survenir lorsqu'ils sont dans une capacité de saleur.

Reste à savoir si ce type de salage axé sur l'éthique de l'IA se propagera. Si les entreprises tardent à favoriser l'IA éthique, cela pourrait inciter les fervents éthiciens de l'IA à entreprendre des efforts de salage. Ils ne réalisent peut-être pas tout à fait directement qu'ils font du salage. En d'autres termes, quelqu'un se rend dans l'entreprise X et essaie de faire avancer l'éthique de l'IA, le fait peut-être et se rend compte qu'il devrait faire de même ailleurs. Ils passent ensuite à la société Y. Rincez et répétez.

Encore une fois, l'accent est mis sur le fait que l'adoption de l'éthique de l'IA est leur priorité absolue. Décrocher le travail est secondaire ou même pas particulièrement important, à part pouvoir entrer et faire les efforts d'initiés de salage liés à l'IA éthique.

J'ajouterai également que ceux qui étudient et analysent les aspects de l'éthique de l'IA ont maintenant un ajout quelque peu nouveau aux sujets des recherches sur l'IA éthique :

  • Ces efforts de salage de l'éthique de l'IA devraient-ils être globalement tolérés ou évités ?
  • Qu'est-ce qui motive ceux qui souhaiteraient effectuer du salage dans ce contexte d'IA ?
  • Comment les entreprises devraient-elles réagir à un acte perçu de salage du contexte de l'IA ?
  • Y aura-t-il des méthodologies conçues pour encourager le salage lié à l'IA comme celui-ci ?
  • Etc

Dans une certaine mesure, c'est pourquoi l'éthique de l'IA et l'IA éthique sont un sujet si crucial. Les préceptes de l'IA Ethics nous incitent à rester vigilants. Les technologues en IA peuvent parfois devenir préoccupés par la technologie, en particulier l'optimisation de la haute technologie. Ils ne tiennent pas nécessairement compte des ramifications sociétales plus larges. Avoir une mentalité d'éthique de l'IA et le faire intégralement pour le développement et la mise en service de l'IA est essentiel pour produire une IA appropriée, y compris (peut-être de manière surprenante ou ironique) l'évaluation de la façon dont l'éthique de l'IA est adoptée par les entreprises.

Outre l'utilisation des préceptes d'éthique de l'IA en général, il y a une question correspondante de savoir si nous devrions avoir des lois pour régir les diverses utilisations de l'IA. De nouvelles lois circulent aux niveaux fédéral, étatique et local concernant la portée et la nature de la conception de l'IA. L'effort pour rédiger et promulguer de telles lois est graduel. L'éthique de l'IA sert à tout le moins de solution provisoire envisagée et sera presque certainement, dans une certaine mesure, directement intégrée à ces nouvelles lois.

Sachez que certains soutiennent catégoriquement que nous n'avons pas besoin de nouvelles lois qui couvrent l'IA et que nos lois existantes sont suffisantes. En fait, ils préviennent que si nous promulguons certaines de ces lois sur l'IA, nous tuerons la poule aux œufs d'or en réprimant les progrès de l'IA qui offrent d'immenses avantages sociétaux.

À ce stade de cette discussion importante, je parierais que vous êtes désireux d'exemples illustratifs qui pourraient présenter ce sujet. Il y a un ensemble d'exemples spéciaux et assurément populaires qui me tiennent à cœur. Vous voyez, en ma qualité d'expert sur l'IA, y compris les ramifications éthiques et juridiques, on me demande fréquemment d'identifier des exemples réalistes qui présentent les dilemmes de l'éthique de l'IA afin que la nature quelque peu théorique du sujet puisse être plus facilement saisie. L'avènement de véritables voitures autonomes basées sur l'IA est l'un des domaines les plus évocateurs qui présentent de manière vivante ce dilemme éthique de l'IA. Cela servira de cas d'utilisation pratique ou d'exemple pour une discussion approfondie sur le sujet.

Voici donc une question remarquable qui mérite d'être méditée : L'avènement de véritables voitures autonomes basées sur l'IA éclaire-t-il quelque chose sur le salage lié à l'IA, et si oui, qu'est-ce que cela met en valeur ?

Permettez-moi un instant pour décortiquer la question.

Tout d'abord, notez qu'il n'y a pas de conducteur humain impliqué dans une véritable voiture autonome. Gardez à l'esprit que les vraies voitures autonomes sont conduites via un système de conduite IA. Il n'y a pas besoin d'un conducteur humain au volant, et il n'y a pas non plus de disposition pour qu'un humain conduise le véhicule. Pour ma couverture étendue et continue des véhicules autonomes (VA) et en particulier des voitures autonomes, voir le lien ici.

J'aimerais clarifier davantage ce que l'on entend lorsque je fais référence à de vraies voitures autonomes.

Comprendre les niveaux des voitures autonomes

Pour clarifier, les vraies voitures autonomes sont celles où l'IA conduit la voiture entièrement seule et il n'y a aucune assistance humaine pendant la tâche de conduite.

Ces véhicules sans conducteur sont considérés comme des niveaux 4 et 5 (voir mon explication à ce lien ici), tandis qu'une voiture qui nécessite un conducteur humain pour partager l'effort de conduite est généralement considérée au niveau 2 ou au niveau 3. Les voitures qui partagent la tâche de conduite sont décrites comme étant semi-autonomes et contiennent généralement une variété de modules complémentaires automatisés appelés ADAS (Advanced Driver-Assistance Systems).

Il n'y a pas encore de véritable voiture autonome au niveau 5, et nous ne savons même pas encore si cela sera possible d'y parvenir, ni combien de temps il faudra pour y arriver.

Pendant ce temps, les efforts de niveau 4 tentent progressivement d'obtenir une certaine traction en subissant des essais routiers publics très étroits et sélectifs, bien qu'il y ait une controverse sur la question de savoir si ces tests devraient être autorisés en soi (nous sommes tous des cobayes à vie ou à mort dans une expérience. se déroulant sur nos autoroutes et routes, certains prétendent, voir ma couverture à ce lien ici).

Étant donné que les voitures semi-autonomes nécessitent un conducteur humain, l'adoption de ces types de voitures ne sera pas très différente de la conduite de véhicules conventionnels, il n'y a donc pas beaucoup de nouvelles en soi à couvrir à ce sujet (cependant, comme vous le verrez dans un instant, les points suivants sont généralement applicables).

Pour les voitures semi-autonomes, il est important que le public soit averti d'un aspect inquiétant qui est apparu récemment, à savoir que malgré ces conducteurs humains qui continuent à publier des vidéos d'eux-mêmes s'endormant au volant d'une voiture de niveau 2 ou de niveau 3 , nous devons tous éviter d'être induits en erreur en leur faisant croire que le conducteur peut détourner son attention de la tâche de conduite tout en conduisant une voiture semi-autonome.

Vous êtes la partie responsable des actions de conduite du véhicule, quelle que soit la quantité d'automatisation pouvant être lancée dans un niveau 2 ou 3.

Voitures autonomes et salage de l'éthique de l'IA

Pour les vrais véhicules autonomes de niveau 4 et de niveau 5, aucun conducteur humain ne sera impliqué dans la tâche de conduite.

Tous les occupants seront des passagers.

L'IA fait la conduite.

Un aspect à discuter immédiatement est le fait que l'IA impliquée dans les systèmes de conduite d'IA d'aujourd'hui n'est pas sensible. En d'autres termes, l'IA est tout à fait un collectif de programmation et d'algorithmes informatiques, et certainement pas capable de raisonner de la même manière que les humains.

Pourquoi cet accent supplémentaire sur le fait que l'IA n'est pas sensible ?

Parce que je veux souligner que lorsque je discute du rôle du système de pilotage de l'IA, je n'attribue pas des qualités humaines à l'IA. Sachez qu'il existe une tendance continue et dangereuse de nos jours à anthropomorphiser l'IA. En substance, les gens attribuent une sensibilité de type humain à l'IA d'aujourd'hui, malgré le fait indéniable et incontestable qu'aucune IA de ce type n'existe encore.

Avec cette clarification, vous pouvez imaginer que le système de conduite AI ne «saura» pas nativement d'une manière ou d'une autre les facettes de la conduite. La conduite et tout ce que cela implique devront être programmés dans le cadre du matériel et des logiciels de la voiture autonome.

Plongeons dans la myriade d'aspects qui viennent jouer sur ce sujet.

Tout d'abord, il est important de réaliser que toutes les voitures autonomes IA ne sont pas identiques. Chaque constructeur automobile et entreprise de technologie autonome adopte son approche pour concevoir des voitures autonomes. En tant que tel, il est difficile de faire des déclarations radicales sur ce que les systèmes de conduite IA feront ou ne feront pas.

De plus, chaque fois qu'il déclare qu'un système de conduite d'IA ne fait pas quelque chose en particulier, cela peut, plus tard, être dépassé par les développeurs qui programment en fait l'ordinateur pour faire cette même chose. Étape par étape, les systèmes de conduite d'IA sont progressivement améliorés et étendus. Une limitation existante aujourd'hui pourrait ne plus exister dans une future itération ou version du système.

J'espère que cela fournira une litanie suffisante de mises en garde pour étayer ce que je suis sur le point de raconter.

Esquissons un scénario qui présente une situation de salage liée à l'IA.

Un constructeur automobile qui s'efforce de développer des voitures autonomes entièrement autonomes se précipite avec des essais sur la voie publique. L'entreprise subit une forte pression pour le faire. Ils sont surveillés par le marché et s'ils ne semblent pas être à la pointe du développement des voitures autonomes, le cours de leur action en souffre en conséquence. De plus, ils ont déjà investi des milliards de dollars et les investisseurs s'impatientent du jour où l'entreprise pourra annoncer que leurs voitures autonomes sont prêtes pour un usage commercial quotidien.

Un développeur d'IA surveille de loin de près les efforts du constructeur automobile. Les cas signalés de confusion ou d'erreurs du système de conduite de l'IA sont de plus en plus vus dans les actualités. Divers exemples incluent des collisions avec d'autres voitures, des collisions avec des cyclistes et d'autres incidents austères.

L'entreprise essaie généralement de garder ce silence. Le développeur d'IA s'est entretenu en privé avec certains des ingénieurs de l'entreprise et a appris que les préceptes d'éthique de l'IA ne sont, au mieux, que du bout des lèvres. Pour ma couverture sur ces questions de contournement de l'IA éthique par les entreprises, voir le lien ici.

Que va faire ce développeur d'IA ?

Ils se sentent obligés de faire quelque chose.

Faisons un peu d'effort de bifurcation et considérons deux voies que chacune pourrait être entreprise par ce développeur d'IA.

Une voie est que le développeur d'IA s'adresse aux médias pour essayer de mettre en lumière le manque apparent d'attention appropriée aux préceptes d'éthique de l'IA par le constructeur automobile. Peut-être que ce spécialiste de l'IA concerné choisit d'écrire des blogs ou de créer des vlogs pour mettre en évidence ces préoccupations. Une autre possibilité est qu'ils demandent à un membre existant de l'équipe d'IA de devenir une sorte de lanceur d'alerte, un sujet que j'ai couvert à le lien ici.

Il s'agit décidément d'une approche extérieure considérée par ce développeur d'IA.

Une autre voie est que le développeur d'IA croit en son instinct qu'il pourrait être en mesure d'en faire plus au sein de l'entreprise. L'ensemble de compétences du développeur d'IA est bien adapté aux facettes de l'IA impliquant des voitures autonomes et ils peuvent facilement postuler aux offres d'emploi d'ingénieur en IA affichées dans l'entreprise. Le développeur d'IA décide de le faire. De plus, l'impulsion se concentre uniquement sur le fait que le constructeur automobile soit plus sérieux au sujet de l'IA éthique. Le travail lui-même n'a pas d'importance particulière pour ce développeur d'IA, à part qu'il pourra désormais travailler de manière convaincante de l'intérieur.

Il se peut que le développeur d'IA décroche le poste, mais découvre ensuite qu'il existe une énorme résistance interne et que l'objectif de l'IA éthique est inutile. La personne quitte l'entreprise et décide de viser un autre constructeur automobile qui pourrait être plus disposé à comprendre ce que le développeur d'IA vise à réaliser. Une fois de plus, ils le font pour atteindre les considérations d'éthique de l'IA et non pour le pilier de tout ce qui compose le travail de l'IA.

Conclusion

L'idée de se référer à ces efforts liés à l'IA comme une forme de salage est susceptible de provoquer chez certains des brûlures d'estomac à cause de l'utilisation excessive d'une terminologie ou d'un vocabulaire déjà établi. Le salage est à peu près ancré dans les activités de syndicalisation liées au travail et aux affaires. Les tentatives de surcharger le mot avec ces autres types d'activités apparentées bien qu'elles n'ont aucun rapport avec la syndicalisation sont potentiellement trompeuses et déroutantes.

Supposons que nous arrivions à une phraséologie différente.

Poivrer ?

Eh bien, cela ne semble pas invoquer tout à fait le même sentiment que le salage. Ce serait une bataille difficile d'essayer de faire en sorte que cela soit stipulé et inclus dans notre lexique quotidien de la langue.

Quoi que nous trouvions, et quel que soit le nom ou le slogan qui semble approprié, nous savons une chose avec certitude. Essayer d'amener les entreprises à adopter l'éthique de l'IA est toujours une bataille difficile. Nous devons essayer. L'essai doit être fait de la bonne manière.

On dirait que peu importe de quel côté de la clôture vous tombez, nous devons prendre cet avertissement avec un grain de sel approprié.

Source : https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/