Le gouvernement australien lance une consultation pour évaluer l'interdiction de l'IA "à haut risque"

Le gouvernement australien a lancé une période de consultation inattendue de huit semaines visant à déterminer si certains outils d'intelligence artificielle (IA) «à haut risque» devraient être interdits. Cette décision fait suite à des mesures similaires prises par d'autres régions, notamment les États-Unis, l'Union européenne et la Chine, pour faire face aux risques associés au développement rapide de l'IA.

Le 1er juin, le ministre de l'Industrie et des Sciences, Ed Husic, a dévoilé deux articles pour examen public : l'un sur "l'IA sûre et responsable en Australie" et l'autre sur l'IA générative du Conseil national des sciences et de la technologie. Ces documents ont été publiés parallèlement à une période de consultation qui restera ouverte jusqu'au 26 juillet.

Le gouvernement australien sollicite des commentaires sur les stratégies visant à promouvoir «l'utilisation sûre et responsable de l'IA», en explorant des options telles que des cadres éthiques volontaires, des réglementations spécifiques ou une combinaison des deux approches. Notamment, la consultation demande directement si certaines applications ou technologies d'IA à haut risque doivent être complètement interdites et sollicite des commentaires sur les critères d'identification de ces outils.

Le document de travail complet comprend un projet de matrice des risques pour les modèles d'IA, catégorisant les voitures autonomes comme "à haut risque" et des outils d'IA génératifs pour créer des dossiers médicaux de patients comme "à risque moyen". Le document met l'accent à la fois sur les applications positives de l'IA dans des secteurs comme la médecine, l'ingénierie et le droit, ainsi que sur les dommages potentiels associés aux outils deepfake, à la génération de fausses nouvelles et aux cas où les robots IA ont encouragé l'automutilation.

Gouvernement australien contre IA

Les préoccupations concernant les biais dans les modèles d'IA, ainsi que la génération d'informations absurdes ou fausses appelées "hallucinations" par les systèmes d'IA, sont également abordées dans le document de discussion. Il reconnaît que l'adoption de l'IA en Australie est actuellement limitée en raison du faible niveau de confiance du public. Le document fait référence aux réglementations sur l'IA mises en œuvre dans d'autres juridictions et à l'interdiction temporaire de ChatGPT par l'Italie à titre d'exemples.

En outre, le rapport du Conseil national des sciences et de la technologie met en évidence les capacités avantageuses de l'Australie en matière de robotique et de vision par ordinateur, mais note des faiblesses relatives dans des domaines essentiels tels que les grands modèles de langage. Cela soulève des inquiétudes quant à la concentration des ressources d'IA générative dans un petit nombre d'entreprises technologiques principalement basées aux États-Unis, ce qui présente des risques potentiels pour l'Australie.

Le rapport explore plus en détail la réglementation mondiale de l'IA, fournit des exemples de modèles d'IA génératifs et suggère que ces modèles auront probablement des impacts considérables sur des secteurs allant de la banque et de la finance aux services publics, à l'éducation et aux industries créatives.

Avertissement. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous recommandons fortement une recherche indépendante et/ou une consultation avec un professionnel qualifié avant de prendre toute décision d'investissement.

Source : https://www.cryptopolitan.com/australian-government-on-ai-consultation/