Le pouvoir de voir au-delà des capacités de l'œil humain

Les différentes couleurs que nous pouvons voir sont basées sur différentes longueurs d'onde de lumière. L'œil humain peut détecter et différencier les longueurs d'onde dans trois bandes (rouge, verte et bleue) couvrant la plage de 450 à 650 nanomètres, mais nous ne pouvons pas voir la lumière des centaines d'autres bandes de lumière qui existent en dehors de cette plage. Il existe une technologie appelée imagerie hyperspectrale qui peut donner une meilleure vision de ce qui se passe dans le monde qui nous entoure. Il existe des caméras spécialisées qui séparent jusqu'à 300 bandes de lumière avec des prismes, puis numérisent l'énergie qu'elles détectent sur une base spécifique à la longueur d'onde. Ces caméras ont une vaste gamme d'applications potentielles. Par exemple, ils peuvent être utilisés pour surveiller les émissions de gaz à effet de serre, faire la différence entre des plastiques transparents mélangés ou mesurer la maturité des fruits sur une chaîne de conditionnement.

Il existe plusieurs fabricants de ces caméras hyperspectrales, mais au moins pour l'instant, elles sont assez chères - à partir d'environ 20,000 XNUMX $. Le logiciel spécifique à la caméra qu'ils utilisent n'est pas si facile à intégrer à d'autres systèmes. L'autre défi qui accompagne cette vision élargie du monde concerne le volume de données : ces caméras génèrent environ un gigabit de données par seconde !

Il existe une société appelée Metaspectral qui cherche à étendre le potentiel de l'imagerie hyperspectrale en offrant une combinaison de matériel et de logiciels pour rendre cette source de données plus conviviale. Ils utilisent des dispositifs périphériques « indépendants de l'appareil » exécutant des algorithmes de compression qui peuvent être connectés à n'importe quelle caméra hyperspectrale et transformer sa sortie de données en un flux gérable. Leur plate-forme exclusive Fusion AI peut être utilisée pour s'interfacer avec des logiciels utilisateur familiers, piloter la robotique ou alimenter des systèmes d'intelligence artificielle et d'apprentissage en profondeur.

Metaspectral a récemment levé 4.7 millions de dollars en financement de démarrage auprès de SOMA Capital, d'Acequia Capital, du gouvernement du Canada et d'investisseurs providentiels, dont Jude Gomila et Alan Rutledge. La société a été co-fondée par Francis Doumet (CEO) et Migel Tissera (CTO). Tissera décrit son offre comme suit : « Nous avons développé de nouveaux algorithmes de compression de données qui nous permettent de transporter les données hyperspectrales mieux et plus rapidement, que ce soit de l'orbite au sol ou au sein des réseaux terrestres. Nous combinons cela avec nos avancées en matière d'apprentissage en profondeur pour effectuer une analyse au niveau des sous-pixels, ce qui nous permet d'extraire plus d'informations que la vision par ordinateur conventionnelle, car nos données contiennent plus d'informations sur la dimension spectrale.

En effet, l'imagerie hyperspectrale peut être employée à des échelles très différentes. Par exemple, l'une des applications les plus développées du système de Metaspectral concerne les caméras rapprochées sur les lignes de tri pour les matériaux de recyclage mixtes où il peut différencier les plastiques transparents par composition chimique afin qu'ils puissent être triés dans les flux extrêmement purs nécessaires au retraitement. .

Le plus grand recycleur de déchets canadien utilise maintenant ce système. Il existe d'autres applications rapprochées pour l'assurance qualité dans les chaînes de montage ou le tri des fruits.

À l'autre extrême, la caméra peut générer des données à partir d'un satellite où chaque pixel de l'image représente 30 mx 30 m² (900 mètres carrés). L'Agence spatiale canadienne utilise cette approche pour suivre les émissions de gaz à effet de serre et même pour estimer la séquestration du carbone dans le sol des terres agricoles ou forestières en comparant les taux de flux au fil du temps. La technologie est également prévue pour un déploiement futur sur la Station spatiale internationale. Les évaluations des risques d'incendie de forêt sont une autre application potentielle pour guider des actions telles que les brûlages normatifs.

Une autre option qui serait particulièrement utile pour l'agriculture consiste à déployer les caméras avec des drones volant à 50-100 mètres. Dans ce cas, chaque pixel de données peut représenter une zone de 2 cm sur 2 cm et la capacité de surveiller autant de longueurs d'onde différentes pourrait permettre une détection précoce des mauvaises herbes envahissantes, de l'activité des insectes, des infections fongiques à des stades avant qu'elles ne soient visibles pour l'homme, des indications précoces d'eau ou des carences en éléments nutritifs, ou des paramètres de maturité des cultures pour guider le moment de la récolte. Il pourrait être possible de suivre les émissions de gaz à effet de serre ou d'ammoniac des sols cultivés pour mieux comprendre comment celles-ci sont influencées par des pratiques agricoles spécifiques telles que le travail réduit du sol, les cultures de couverture, la fertilisation à taux variable ou la « circulation contrôlée des roues ». À l'heure actuelle, une bonne partie de la recherche de «vérification au sol» est nécessaire pour relier les données d'imagerie aux mesures des variables en question, mais cela sera beaucoup plus facile avec les capacités de compression de données et d'interface disponibles auprès de Metaspectral.

L'un des espoirs est que les diverses applications de l'imagerie hyperspectrale facilitées par la plate-forme Metaspectral créeront une demande suffisante pour les caméras afin de pousser la fabrication plus loin sur la courbe d'apprentissage des coûts.

Source : https://www.forbes.com/sites/stevensavage/2022/12/14/the-power-of-seeing-beyond-the-capabilities-of-the-human-eye/