banner

Nouvelles

Jul 12, 2023

Un haut

Communications Biology volume 5, Article number: 1318 (2022) Citer cet article

3035 accès

1 Citations

71 Altmétrique

Détails des métriques

Nous présentons un système d'imagerie économique avec matériel et logiciel intégrés pour capturer des images multispectrales de lépidoptères avec une grande efficacité. Cette méthode facilite la comparaison des couleurs et des formes entre les espèces à des échelles taxonomiques fines et larges et peut être adaptée pour d'autres ordres d'insectes avec une plus grande tridimensionnalité. Notre système peut imager à la fois les faces dorsale et ventrale des spécimens épinglés. Avec notre pipeline de traitement, les données descriptives peuvent être utilisées pour étudier systématiquement les couleurs et les formes multispectrales basées sur la reconstruction de l'aile complète et un plan au sol universellement applicable qui quantifie objectivement les modèles d'ailes pour les espèces avec différentes formes d'ailes (y compris les queues) et les systèmes de nervation. Les mesures morphologiques de base, telles que la longueur du corps, la largeur du thorax et la taille de l'antenne sont générées automatiquement. Ce système peut augmenter de manière exponentielle la quantité et la qualité des données sur les traits extraites des spécimens de musée.

Les nanostructures dans les cuticules d'insectes ont inspiré de nombreuses nouvelles conceptions techniques1,2,3,4,5. Étant donné que les insectes sont connus pour être capables de percevoir des longueurs d'onde au-delà du spectre visible, des données importantes peuvent être manquées à moins que les systèmes d'imagerie utilisés pour étudier les cuticules des insectes soient capables de détecter une gamme complète de longueurs d'onde électromagnétiques potentiellement pertinentes. Les études actuelles sur la couleur des ailes des lépidoptères (papillons et papillons de nuit) (que nous utilisons dans cet article comme raccourci pour la réflectance, indépendante de tout système visuel) et leur forme sont souvent limitées à moins de 100 spécimens3,6 en raison de procédures chronophages basées sur un seul spécimen7,8,9 telles que la nécessité de détacher les ailes des spécimens2,4,10 ou d'organiser et d'imager des spécimens individuels avec leurs étiquettes. Concevoir des systèmes qui s'adaptent à la diversité des formes d'ailes9,11 a également présenté un sérieux défi.

Les lépidoptères fournissent une cible d'imagerie idéale puisque la nature bidimensionnelle des spécimens épinglés de la plupart des papillons et de nombreux papillons de nuit les rend plus faciles à analyser. Des méthodes appropriées sont nécessaires pour traiter des images multispectrales de lépidoptères de manière objective, systématique et efficace. Les principaux défis sont doubles : (1) le développement d'un système d'imagerie à haut débit et (2) l'identification d'un plan au sol ou d'un archétype universellement applicable qui peut être généralisé pour capturer les caractéristiques des ailes dans toutes les familles.

Classiquement, les propriétés multispectrales de la surface d'un objet peuvent être mesurées de deux manières12,13,14,15. Un spectrophotomètre hyperspectral fournit une résolution spectrale élevée (~ 0,1 nm) pour un seul point, tandis que l'imagerie multispectrale peut créer rapidement des images bidimensionnelles avec une résolution spatiale élevée à un certain coût pour la résolution spectrale en divisant le spectre en plusieurs bandes de longueur d'onde d'environ 100 à 200 nm chacune (ci-après dénommées «bandes») et en prenant des mesures de type photo sur une grande surface à l'aide d'une caméra. Certains systèmes d'imagerie de pointe ont une résolution spectrale 10 à 20 fois plus fine (~ 5 à 10 nm), mais coûtent 70 fois plus cher que notre appareil (~ 350 000 $). En télédétection, les satellites utilisent l'imagerie multispectrale pour collecter efficacement des données sur de vastes zones du monde (par exemple, le radiomètre avancé à très haute résolution [AVHRR] et le spectroradiomètre imageur à résolution modérée [MODIS]). De même, les caméras multispectrales commerciales peuvent fournir des mesures multispectrales objectives sur des surfaces bidimensionnelles, mais celles équipées d'une résolution spatiale élevée sont d'un coût prohibitif pour la plupart des laboratoires individuels ou des collections de musées et ont une efficacité d'imagerie relativement lente, ce qui complique leur utilisation dans l'imagerie d'échantillons à haut débit. Nous avons donc développé un système d'imagerie évolutif à haut débit basé sur un appareil photo reflex numérique grand public modifié pouvant accueillir un tiroir à spécimens de musée de style Cornell (450 × 390 × 67 mm) et capable de collecter des données multispectrales à partir d'un grand nombre de spécimens biologiques à la fois.

Un autre élément crucial pour comparer un ensemble taxonomiquement diversifié d'insectes est l'utilisation d'un cadre analytique approprié qui est robuste à une gamme de morphologies. À ce jour, l'approche la plus courante pour comparer les formes d'ailes et les motifs de couleur chez les lépidoptères a été largement basée sur la nervation des ailes9,16,17, qui est fortement corrélée à la fois à l'histoire évolutive et au développement physiologique de l'espèce étudiée. Dans son étude historique, Frederick Nijhout a décrit un "plan général" pour analyser le développement des modèles chez les Nymphalidae et d'autres papillons en fonction de la variation du modèle de nervation et d'autres caractéristiques morphologiques, guidé par un ensemble relativement restreint de règles de développement18. Des approches développementales évolutives plus récentes se sont détournées de l'analyse de la forme et de la morphologie en soi et se sont plutôt concentrées sur l'identification des gènes régulateurs maîtres (par exemple, optix, cortex Wnt A) associés à la structuration de la couleur des ailes, ainsi que les multiples éléments cis-régulateurs qui renforcent leurs effets4,10,19,20,21.

Bien que ces progrès aient amélioré notre compréhension des fondements du développement des modèles de couleur des ailes, ils n'ont pas résolu le problème pratique de savoir comment faire des comparaisons robustes de morphologies d'ailes très variables. Par exemple, le nombre de nervures des ailes varie entre les différentes familles de papillons16,22, il n'est donc pas possible d'employer un seul système de nervation pour tous les papillons. La forme des ailes varie également d'une espèce à l'autre, de nombreux Lycaenidae se distinguant par des queues d'ailes postérieures que l'on ne trouve pas chez les parents proches23,24. En conséquence, la plupart des études sur la morphologie des ailes interfamiliales ont été menées uniquement sur les ailes antérieures, en utilisant des paramètres d'aile qui affectent le vol, tels que le rapport d'aspect et le moment de l'aire25,26. Pour les couleurs et les motifs multispectraux, de nombreux outils sont disponibles27,28,29, mais leur application est largement limitée à des clades uniques partageant une nervation alaire similaire2,9,28 ou une forme7,28.

Les musées biologiques préservent la richesse des spécimens biologiques du monde, mais à ce jour, les études sur les motifs de couleur des ailes se sont généralement concentrées sur des spécimens non muséaux, car de telles recherches nécessitent des ailes antérieures et postérieures intactes2,4,10. De plus, les méthodes d'imagerie pour ces études nécessitent souvent des spécimens désarticulés, ce qui limite leur utilité pour les recherches futures. Notre système d'imagerie surmonte certaines de ces difficultés en imageant de manière non destructive des spécimens épinglés entiers sur une gamme personnalisable de bandes de longueurs d'onde, et en les traitant automatiquement avec un cadre analytique qui est robuste pour diverses morphologies à travers les lépidoptères, y compris des formes variables de queue et d'aile.

La nature bidimensionnelle de nombreux spécimens de lépidoptères épinglés nous permet d'omettre certaines considérations techniques, telles que les angles d'incidence variables qui doivent être soigneusement pris en compte lors de l'imagerie d'objets 3D, et notre plate-forme d'imagerie multispectrale avec sa plate-forme conçue sur mesure peut imager les côtés dorsal et ventral des spécimens (Figs. 1a, 2 et 3). Les données descriptives initiales peuvent être utilisées pour l'exploration générale des propriétés multispectrales et la numérisation des spécimens de musée (Fig. 1b); les données traitées, qui sont construites sur les données descriptives initiales, peuvent être utilisées pour étudier les couleurs multispectrales. Après la reconstruction des ailes antérieures et postérieures (Fig. 1c), la conception du cadre analytique universellement applicable (Figs. 1d et 4a) peut quantifier objectivement les queues d'ailes et s'adapter à différentes formes d'ailes et systèmes de nervation (Figs. 1e et 4b). Le cadre peut également être appliqué pour étudier systématiquement les modèles de couleurs multispectraux (Fig. 1g, h et 5) tout en fournissant des mesures morphologiques de base (Fig. 1f).

Le flux de travail s'exécute de haut en bas et les principales fonctionnalités sont mises en évidence. a Une image exemplaire montrant la capacité de débit élevé de notre système d'imagerie. b Les images multispectrales (deux rangées supérieures) peuvent être résumées comme des images en fausses couleurs (rangée inférieure) par analyse en composantes principales, où le rouge correspond à PC1, le vert à PC2 et le bleu à PC3. c La forme complète de l'aile peut être virtuellement reconstruite à l'aide des informations de la segmentation dorsale et ventrale. d Un système de coordonnées universel pour chaque aile peut être généré automatiquement sur la base de quatre points de repère (marqués par des points rouges). e Formes d'ailes résumées de deux groupes de papillons : Lycaenidae à gauche et Papilionidae et Nymphalidae à droite. Les probabilités de queue (Tail Prob.), la courbure (Curv.) et l'erreur standard de la courbure de la queue (SE de Tail Curv.) sont codées par couleur en conséquence. f Les morphologies corporelles et antennaires peuvent être mesurées automatiquement lors du traitement de l'image. g Le résumé de la réflectance de quatre exemples de bandes spectrales (RVB et UV) de trois spécimens est affiché. h La variation de la réflectance UV d'un groupe de papillons est résumée en « signal UV », qui représente les contrastes moyens de la réflectance UV. Le bleu indique un signal faible et le rouge un signal élevé.

a Les fentes prédécoupées cachées sont illustrées en bleu. Les lignes pointillées blanches, indiquant la région qui apparaît dans l'image, ont été étiquetées par des lignes cousues noires sur la plate-forme d'imagerie pour guider l'utilisateur. La barre d'échelle et les références standard noir/blanc se trouvent dans le coin inférieur gauche. Les détails du support en mousse multicouche peuvent être trouvés sur la Fig. 6. b Les exemples montrant comment les côtés dorsal et ventral des échantillons sont placés sur la plate-forme d'imagerie.

a Un ensemble de sept images brutes au format NEF ; b Reconnaissance automatique de la barre d'échelle et des références blanches et noires standard ; c Étalonnage de la réflectance selon les références standards blanc et noir ; d Les images d'échantillons individuels sont extraites par des boîtes englobantes rouges.

a La forme de l'aile complète peut être virtuellement reconstruite selon la segmentation dorsale et ventrale. a, b Des grilles d'ailes peuvent alors être générées après c Définition des régions de queue. Dans le panneau de gauche, la limite rouge représente la forme approximative reconstruite d'une aile postérieure basée sur les cinq harmoniques supérieures après avoir été projetée dans le domaine fréquentiel par analyse de Fourier elliptique. b Les grilles d'ailes universelles peuvent accueillir des ailes déformées ou cassées (par exemple, IV et VIII). I. Smerinthus cerisyi (Sphingidés) ; II. Catocala connubialis (Erebidae); III. Evenus coronata (Lycaenidae); IV. Heliconius melpomene (Nymphalidae); V. Allancastria cerisyi (Papilionidés); VI. Atrophaneura hector (Papilionidés); VII. Kallima inachus (Nymphalidae); VIII. Corades medeba (Nymphalidés).

a Les réflectances maillées résumées dans les bandes bleues, vertes et rouges peuvent être projetées sur les formes moyennes des ailes d'un groupe sélectionné de spécimens. c, d Signal UV (le contraste UV moyen parmi les espèces) montrant les régions les plus courantes probablement très variables en UV sur les ailes. e, f Variation des régions variables UV entre les espèces, indiquant les régions de motifs UV qui sont hautement conservées (bleu) par rapport à celles qui changent plus activement (rouge).

Notre système d'imagerie multispectrale à haut débit représente un compromis entre la vitesse de l'imagerie traditionnelle et le besoin de données spectrales objectives. Le système se compose d'un appareil photo reflex haute résolution (Nikon D800) dont le filtre UV-IR interne a été retiré pour permettre l'imagerie UV-visible-IR, équipé d'un objectif zoom Nikkor autofocus 28–80 mm f/3,3–5,6 G (méthodes). La plate-forme d'imagerie personnalisée a été conçue pour accueillir les deux extrémités d'une broche, de sorte que les spécimens montés peuvent être positionnés sur la plate-forme dorsalement ou ventralement (Méthodes ; Fig. 2). Une barre de référence contenant des références standard en noir et blanc et une barre d'échelle est fixée à la plate-forme d'imagerie à chaque tour d'imagerie par une attache auto-agrippante (Méthodes ; Fig. 6a). Le coût approximatif hors coût de calcul est d'environ 4 500 $ (informations supplémentaires).

a Barre de référence et b Matériaux correspondants. c Plate-forme d'imagerie avec les fentes prédécoupées cachées indiquées en bleu et d Matériaux correspondants. (1) Références standards noir (spectralon black standard AS-001160-960, Labsphere) et blanc (spectralon white standard AS-001160-060, Labsphere) ; (2) Bandes de boucles à crochets avec adhésif (2,4″ × 2,4″); (3) Étiquettes adhésives pour preuves médico-légales (mesure de 2 cm; A-6243); (4) Papier photo kraft résistant aux déchirures et adhésif; (5) Coussinets en mousse noire éponge néoprène avec adhésif (12″ × 8″ × 1/4″); (6) Fil de coton noir; (7) Kit de barres de civière en toile (16″ × 20″); (8) mousse de caoutchouc noir éponge néoprène avec adhésif (12″ × 8″ × 1/8″); (9) Coussinets anti-vibrations en mousse néoprène avec adhésif (6″ × 6″ × 1/4″); (10) Mousse de polyéthylène (18″ × 16″ × 1,5″). Des informations détaillées peuvent être trouvées dans les informations supplémentaires.

Pour chaque ensemble d'échantillons, une série de sept images (ci-après dénommées "images de tiroir" ; Fig. 3a) sont prises au format brut (*NEF) pendant deux minutes. Ces sept images de tiroir correspondent aux plages d'imagerie spectrale suivantes (avec des détails sur les paramètres de lumière inclus dans les méthodes) : UV uniquement (λ = 360 nm ; lumière réfléchie filtrée à travers un filtre passe-UV Hoya U-340 sur la caméra ; réflectance UV combinée et fluorescence visible non filtrée (appelée ci-après UVF) composée à la fois d'UV réfléchi et de toute la fluorescence visible induite par UV ; deux bandes proches de l'IR (lumière réfléchie non filtrée de λ = 740 nm [NIR] et 940 nm [fNIR] LED) ; et trois dans le visible (lumière LED blanche à large bande réfléchie, λ = 400–700 nm, une image RVB non filtrée et deux images RVB filtrées par des polariseurs linéaires à des angles orthogonaux pour détecter la polarisation le long de cet axe), qui sont ensuite décomposées en canaux rouges, verts et bleus. Jusqu'à trente-cinq spécimens épinglés peuvent être imagés simultanément, en fonction de leur taille, les côtés des ailes faisant face dorsalement ou ventralement.

Toutes les images de tiroir brutes (multispectrales) sont téléchargées dans un environnement informatique haute performance, où nous avons développé un pipeline pour traiter automatiquement les images. Cependant, un petit nombre d'images (<5) peut être traité sur un poste de travail avec des ressources raisonnables et une durée d'exécution plus longue (Méthodes). Pour préserver le dégradé de couleurs des spécimens, les images sont d'abord converties au format TIFF 16 bits linéarisé30 par dcraw31 (un programme open source pour la gestion des formats d'images brutes). Ces images TIFF 16 bits sont ensuite analysées à l'aide de scripts MATLAB. Un ensemble de sept images de tiroir est considéré comme une unité de calcul, et le même groupe de spécimens dans l'unité dorsale a une unité ventrale correspondante (Méthodes).

Chaque unité de calcul (Fig. 3a) est lue en mémoire, et les références standard noir et blanc sont reconnues sur l'image blanche (RVB régulière) par leurs formes circulaires (Fig. 3b). Plutôt que de calculer le nombre exact de photons absorbants à chaque capteur13,27, nous utilisons la technique de télédétection32 consistant à convertir toutes les valeurs de pixel en unités de réflectance (albédo) (entre 0 et 1) selon les normes de référence noir et blanc (Méthodes ; Fig. 3c). L'échelle sur l'image du tiroir est reconnue automatiquement par une correspondance locale des caractéristiques avec une image de référence de la même échelle, et le nombre de pixels par centimètre est dérivé (Méthodes ; Fig. 3b).

La variabilité d'épinglage des spécimens et l'aberration optique du système d'objectif de la caméra introduiraient une erreur de mesure pendant le processus d'imagerie. Nous estimons que cette marge d'erreur dans la mesure de la longueur est inférieure à 0,4 % (ou 0,16 mm d'un papillon de 4 cm (Méthodes ; Fig. 7). Même si l'erreur est minime, nous laissons une marge claire de 5 cm autour des bords de la scène lorsque les spécimens sont imagés afin d'éviter une aberration relativement élevée à proximité des limites de l'image (Fig. 7d).

a Illustration d'étalons d'échelle placés à différentes hauteurs sur des épingles. b Vue de l'image prise par le système d'imagerie. c, d Distribution fréquentielle c et distribution spatiale d des anomalies de taille en pourcentage absolu par rapport à un papillon de 4 cm. e, f La valeur brute pour d & e est fournie. La ligne pointillée dans c & e indique la médiane et zéro, respectivement. La région délimitée par la ligne pointillée rouge en d, f est l'endroit où nous plaçons nos spécimens pour l'imagerie.

Le post-traitement est appliqué aux bandes UV, NIR (740 nm), fNIR (940 nm) et UVF pour tenir compte de la sensibilité différentielle du capteur à ces longueurs d'onde dans les canaux rouge, vert et bleu (Méthodes ; Fig. 3c), sauf pour la bande blanche RVB, qui ne nécessite pas de post-traitement. Un indice de polarisation est calculé comme la différence absolue entre les deux images blanches RVB polarisées orthogonalement. Cette mesure unique de polarisation peut également fournir une indication de l'occurrence de colorations induites par la structure, suggérant si des études supplémentaires doivent être menées pour étudier la polarisation à d'autres angles de vision ou de lumière incidente33.

Nos observations préliminaires ont montré que les lépidoptères ont le contraste le plus élevé avec l'arrière-plan dans la bande fNIR (940 nm), nous avons donc exploité cette propriété pour aider à reconnaître et à extraire des images de spécimens individuels à partir d'images de tiroirs. (Méthodes ; Fig. 3d). Les images multibandes de chaque spécimen ont été alignées dans une pile d'images en couches (Fig. 8a, b) basée sur des transformations géométriques affines, telles que la translation, la rotation, l'échelle et le cisaillement. Cette étape prend relativement du temps, et le temps de traitement s'adapte approximativement à la taille de l'échantillon. À ce stade, la pile d'images d'échantillons multibandes enregistrées, nos données descriptives initiales, peut soit être archivée dans le cadre des données étendues d'un échantillon, soit être transformée par notre pipeline en données traitées de niveau supérieur qui produisent des données sur la forme, la couleur et le motif. Pour plus de commodité, nous avons inclus une couche de masque binaire supplémentaire avec les informations nécessaires à la suppression de l'arrière-plan (Méthodes).

a Le format multicouche (« format de cellule », le terme technique utilisé dans MATLAB) est appliqué pour contenir les données descriptives d'un seul côté d'un spécimen. b L'apparition de quelques couches exemplaires pour le lycaenide d'Afrique du Sud, Chrysoritis pyramus. L'ordre réel des couches de sortie peut être trouvé dans les informations supplémentaires. c La variation des propriétés de l'échelle affectant la réflectance UV peut être trouvée dans un seul spécimen d'Hebomoia glaucippe, comparé ici avec C. pyramus à gauche et A. wildei à droite.

Les données descriptives initiales complétées contiennent des images multibandes enregistrées (y compris UV, bleu, vert, rouge, NIR, fNIR, fluorescence [RVB] et polarisation [RVB]), un masque de suppression de fond et la barre d'échelle) (Fig. 3a et 8a, b). Bien qu'une analyse plus approfondie soit nécessaire pour extraire des données de traits spécifiques de ces ensembles de données, ils peuvent être de puissantes aides visuelles dans la découverte de nouveaux types et structures d'écailles d'ailes. Par exemple, les taches orange aux extrémités des ailes antérieures d'Hebomoia glaucippe (L.) présentent une forte réflectance UV14,15 (Figs. 3c et 8c), mais pas les taches orange sur Chrysoritis pyramus (Pennington), ce qui suggère une différence dans le mécanisme physique sous-jacent produisant ces couleurs. De même, le fond blanc sur Hebomoia glaucippe montre une faible réflectance UV14, mais les taches blanches sur Arhopala wildei Miskin (et de nombreuses autres espèces avec des taches blanches) montrent une réflectance UV importante. (Fig. 8c). Avec un convertisseur approprié, ces données descriptives initiales peuvent être utilisées dans des progiciels27,29 pour des analyses prenant en compte une gamme de systèmes visuels animaux. Il existe un immense potentiel de découverte de phénomènes multispectraux actuellement cachés dans les collections des musées du monde entier depuis des siècles en utilisant uniquement ces données descriptives initiales.

Une série de pipelines analytiques plus complexes ont été conçus pour quantifier davantage la réflectance multispectrale et les traits de forme. Après une segmentation détaillée des différentes parties du corps, des pipelines personnalisés de "quantification de la queue" et de "coordonnées de la grille des ailes" sont appliqués pour enregistrer des informations sur les queues, la forme des ailes et les traits de réflectance multibande.

Nos données descriptives initiales incluent un contour global du spécimen, mais afin de segmenter ce contour en différentes parties du corps, des points de repère clés sont identifiés sur la base de la géométrie conventionnelle, y compris, mais sans s'y limiter, la recherche mathématique de la topologie du contour du spécimen (étiqueté comme croix et cercles sur la figure 9b). Nous incluons deux méthodes de segmentation. La segmentation de base (segmentation entièrement automatisée des formes d'échantillons en fonction de points de repère avec des lignes droites) peut être utilisée en l'absence de données provenant de la segmentation manuelle plus intensive des ailes antérieures et postérieures. Le pipeline de segmentation des ailes antérieures et postérieures défini manuellement est semi-automatisé, avec une entrée humaine via un progiciel autonome adapté d'un référentiel GitHub nommé "moth-graphcut"32, et les segmentations qui en découlent sont plus naturelles (Fig. 9c). La segmentation de base est très efficace, ne nécessitant aucune intervention humaine, mais moins précise (l'inspection et la correction sont abordées plus loin). En revanche, la segmentation manuelle des ailes antérieures et postérieures offre une grande précision de la forme naturelle de l'aile et de la reconstruction complète de l'aile, avec un débit d'environ 100 images d'échantillons traitées par heure. Dans les deux méthodes, d'autres informations morphologiques, telles que la taille du corps, la longueur du corps, la largeur du thorax, la longueur des antennes, la largeur des antennes et la courbure des antennes, sont également automatiquement mesurées et collectées avec la segmentation des parties du corps (Méthodes ; Fig. 1f).

a Suppression de l'arrière-plan basée sur l'image fNIR. b Avec des points de repère primaires (représentés par des croix et des cercles) et des vecteurs identifiant les axes symétriques (représentés par des segments dans la ligne continue rouge et la ligne pointillée bleue), le masque de spécimen peut être automatiquement segmenté c Avec ou sans division de l'aile avant-arrière définie manuellement de la région de chevauchement. L'espèce indiquée en (a–c) est Oxylides faunus. d Un résumé statistique (moyenne, variation et taille du patch) de toutes les bandes pour les deux côtés (dorsal et ventral) de toutes les parties du corps (quatre ailes et le corps) peut être calculé. e Résultats statistiques de bandes exemplaires basées sur 17 spécimens de 7 familles différentes. La ligne centrale représente la médiane ; limites de la boîte, quartiles supérieur et inférieur ; moustaches, intervalle interquartile 1,5x ; points, valeurs aberrantes. Les niveaux de différence statistiquement significatifs entre les côtés dorsal et ventral (sous le test t bilatéral) sont indiqués par des astérisques : *, 0,05 ; **. 0,01.

Une fois que les spécimens sont segmentés en parties du corps, la réflectance multispectrale de chaque partie du corps peut être résumée (Fig. 9d). En plus des analyses qui peuvent être faites au niveau individuel avec les données descriptives initiales, des comparaisons plus détaillées peuvent être faites entre les faces dorsale et ventrale des différentes parties du corps. Par exemple, en analysant la réflectance de 17 spécimens de 7 familles différentes, nous pouvons observer que l'aile postérieure dorsale présente une réflectance UV significativement plus élevée que sa face ventrale (Fig. 9e), peut-être pour aider à la signalisation, tandis que la face ventrale du corps et les ailes antérieures montrent une réflectance fNIR plus élevée que la face dorsale (Fig. 9e), peut-être pour aider à la thermorégulation. Cependant, un traitement supplémentaire est nécessaire pour produire des données de traits cohérentes dans des parties du corps individuelles qui sont comparables entre des taxons plus éloignés.

Pour comparer les traits d'ailes multispectraux entre différentes formes d'ailes, nous avons développé un pipeline généralisable composé de quatre composants principaux (Fig. 4) : (1) reconstruction complète de la forme de l'aile, (2) identification de points de repère secondaires, (3) génération de grille d'aile et (4) résumé de la queue de l'aile postérieure. Ce système surmonte la difficulté particulière de comptabiliser et de quantifier diverses queues d'ailes postérieures, et les données traitées générées à partir de ce pipeline peuvent également être directement appliquées dans les analyses de forme.

Chez les lépidoptères et de nombreux autres insectes ailés, une région de l'aile postérieure chevauche souvent une partie de l'aile antérieure, ce qui complique la reconstruction automatisée de la forme. Dans notre paradigme d'imagerie, l'aile postérieure d'un spécimen est recouverte par l'aile antérieure dans l'image du côté dorsal, et l'aile antérieure est recouverte par l'aile postérieure dans l'image du côté ventral (Fig. 4a). Dans notre algorithme, les limites de l'aile antérieure définies manuellement sont utilisées pour reconstruire le bord manquant de l'aile postérieure sur la face dorsale et le bord incomplet de l'aile antérieure sur la face ventrale d'un spécimen. Après reconstruction d'une aile complète, des repères secondaires sont identifiés automatiquement (Fig. 1d et 4a). Les queues sur les ailes postérieures sont séparées par calcul des corps des ailes avant un traitement ultérieur (des détails sur les analyses de la queue peuvent être trouvés dans les méthodes). Un ensemble de grilles d'ailes est ensuite créé en fonction des repères secondaires de chaque aile (Fig. 1d et 4a). Ce système de grille, qui divise la silhouette d'un spécimen selon le centroïde d'un ensemble de quatre coins, est robuste aux différences de forme entre différentes espèces, même pour les lépidoptères éloignés (par exemple, Sphingidae et Lycaenidae ; Fig. 4b). De plus, la majorité de ces grilles restent stables même en présence de dommages modérés aux ailes (IV & VIII sur la Fig. 4b). La résolution par défaut de ces matrices est de 32 × 32, mais elle peut également être ajustée pour s'adapter aux spécimens avec des surfaces d'ailes plus grandes.

La quantification des queues des ailes postérieures et des formes des ailes repose également sur ce système de grille (Méthodes ; Figs. 1e et 4c) et peut être appliquée à tous les lépidoptères (Fig.1e), sans qu'il soit nécessaire d'identifier a priori la présence ou l'absence de queues. Contrairement à d'autres packages28, notre pipeline de grille d'aile permet des comparaisons de diverses formes d'ailes, en particulier les ailes postérieures, avec des systèmes de nervation et des queues différents (Fig. 4b). Le nombre pair d'ancres maillées (par exemple, 128 points dans un système de grille 32 × 32) sur la silhouette d'une aile peut être utilisé comme "repères" pour la comparaison de forme dans d'autres applications9,11,34 (Fig. 4b). Il peut également être utilisé pour résumer les modèles d'ailes multispectraux.

Sur la base de ce système de grille d'aile, la réflectance moyenne et la variation de chaque grille peuvent être calculées (Fig. 1g et 5a), et les résultats d'une analyse d'aile peuvent être stockés dans une matrice 32 × 32 par N (où N est le nombre de bandes de longueur d'onde). La résolution 32 × 32 a été déterminée par la taille des petits spécimens que nous avons manipulés ; par exemple, il devient inutile de résumer les données d'une aile avec 50 × 50 pixels en utilisant une résolution plus fine (par exemple, 64 × 64). Ce format standard facilite d'autres analyses statistiques parmi une grande variété de groupes de lépidoptères avec différentes formes d'ailes.

Les résultats des analyses de la configuration des ailes peuvent être projetés sur une forme d'aile moyenne d'un groupe pour une interprétation plus intuitive (Figs. 1h et 5b). Par exemple, la réflectance moyenne moyenne identifie des régions d'ailes généralement plus lumineuses (Fig. 5b) pour les bandes RVB. Les régions à contraste UV élevé semblent être importantes dans la signalisation intraspécifique UV35, et nous constatons que de telles régions sont plus susceptibles d'être vues sur la face dorsale des Lycaenidae, mais sur la face ventrale des Papilionidae (Fig. 5c, d). Nous pouvons également comparer la variabilité de l'emplacement de ces régions variables à UV élevé pour un groupe de taxons donné afin de montrer où elles sont hautement conservées (valeurs faibles) par rapport à où elles sont plus labiles (valeurs élevées; Fig. 5e, f). Ces régions conservées indiquent que la variation UV (qui pourrait être impliquée dans la signalisation) dans cette région de l'aile (qu'elle soit présente ou non) est fortement contrainte et donc stable entre les différentes espèces. Bien qu'il s'agisse d'exemples choisis pour illustrer une grande variété de formes d'ailes plutôt que de cibler une question scientifique spécifique, ils commencent déjà à fournir des informations biologiques pour une étude plus approfondie, démontrant l'utilité de mener des études systématiques sur les traits des lépidoptères en utilisant cette approche.

Compte tenu de la taille relativement importante des fichiers (~240 Mo par image) et des pipelines de post-traitement chronophages, la plupart de nos protocoles sont conçus pour être exécutés dans des environnements informatiques hautes performances (c'est-à-dire des clusters) ; cependant, l'inspection et la correction manuelle des images ne sont pas pratiques dans de tels environnements. Nous avons donc conçu le pipeline pour permettre à une petite partie de l'ensemble de données d'être téléchargée sur une machine locale pour inspection et correction manuelle. Au total, notre pipeline a cinq points potentiels où l'inspection et la correction manuelle sont possibles (Méthodes). À chaque point d'inspection, nous avons également développé des scripts et des interfaces utilisateur correspondants pour corriger manuellement l'ensemble de données sur des machines locales avec des besoins en ressources minimaux (faible stockage, mémoire et CPU). Des scripts pour les paramètres de visualisation personnalisés ont également été développés pour la forme des ailes (y compris les queues) et les modèles d'ailes (méthodes, informations supplémentaires et disponibilité des données).

Ce système permet aux chercheurs de produire et d'archiver efficacement des images multispectrales de haute qualité et informatives de spécimens de musée. Après l'avoir appliqué à plus de 10 000 spécimens à ce jour, nous avons constaté qu'un tiroir Cornell de spécimens (~ 60 à 80 individus) peut être imagé en 2 heures compte tenu de notre flux de travail actuel. Cette estimation comprend la manipulation, la récupération et la réintégration des spécimens dans les collections, bien que le temps d'imagerie évolue généralement en sens inverse de la taille des spécimens. La numérisation des collections des musées est devenue une mission des institutions du monde entier, avec un grand nombre de spécimens traités au cours des dernières décennies36,37. Ces documents numérisés ont été appliqués à des fins scientifiques et sociales avec le soutien des gouvernements et des citoyens via différents systèmes et plateformes de conservation, tels que GBIF (http://www.gbif.org), iDigBio (http://www.idigbio.org), MCZBase (https://mcz.harvard.edu/database), Atlas of Living Australia (http://www.ala.org.au/), Map of life (https://mol.org/) et ButterflyNet (http://www.butterflynet.org/). Les systèmes et pipelines d'imagerie, allant de la photographie traditionnelle 2D37 à la tomodensitométrie 3D38,39 et à la photogrammétrie 3D39,40 avec ou sans interfaces utilisateur pratiques, ont également connu de vastes améliorations, souvent avec des prix élevés en conséquence. Notre système d'imagerie multispectrale constitue une avancée importante pour ceux qui s'intéressent au phénotypage spectral à haut débit ou à la numérisation de spécimens de manière rentable, que nous espérons continuer à adapter à mesure que le domaine de la numérisation des archives mûrit.

Nous prévoyons un certain nombre d'améliorations potentielles au système actuel. Du côté matériel, l'incorporation d'un plan de rotation dans notre plate-forme d'imagerie actuelle permettra aux chercheurs d'étudier la réflectance à différents angles d'incidence33, que nous n'avions initialement pas inclus en raison de la nature bidimensionnelle de la plupart des spécimens de lépidoptères. Les ailes qui ont été détachées du corps d'un insecte ne peuvent pas être prises en charge par notre pipeline actuel, de sorte que le développement d'une plate-forme d'imagerie pour monter des ailes individuelles élargira également l'utilité potentielle de ce système.

Du côté logiciel, l'efficacité serait grandement améliorée en réduisant le besoin de saisie manuelle41. Par exemple, avec un nombre suffisamment important d'images précédemment traitées comme ensemble d'apprentissage, un système d'inspection et d'autocorrection automatique peut être développé sur la base de l'apprentissage automatique. Une approche similaire pourrait être appliquée dans le cas de la segmentation aile antérieure-arrière. L'utilité de ce protocole d'imagerie dans les études morphologiques à grande échelle des lépidoptères sera encore avancée si une segmentation plus détaillée des parties du corps (par exemple, les yeux, les jambes et la trompe) pourrait également être développée.

La version actuelle ne prend en charge que les spécimens dont la tête est positionnée vers le haut d'une image. Une correction de rotation automatique pourrait aider à orienter les échantillons pour un traitement optimal en aval. L'interface utilisateur pourrait également être améliorée, car la conception actuelle nécessite une communication aller-retour entre un cluster informatique et la machine locale de l'utilisateur. Une interface utilisateur unifiée pourrait aider à simplifier le fonctionnement des protocoles complexes.

Pour connecter les résultats des analyses d'images décrites ici avec les connaissances existantes dans les domaines de l'évolution et de la biologie du développement, l'intégration des données avec les connaissances évolutives des systèmes de nervation des ailes semble essentielle. Le système de grille d'aile fournit des coordonnées universellement applicables pour la comparaison de la forme et de la réflectance entre divers taxons de lépidoptères. En enregistrant les systèmes de nervation des ailes sur ces grilles d'ailes, les relations entre la nervation, la réflectance multispectrale et les formes peuvent être explorées plus avant.

Les collections des musées sont de vastes dépôts d'informations biologiques de valeur à la fois fondamentale et appliquée, attendant simplement d'être exploitées. Le matériel d'imagerie relativement peu coûteux et convivial et le logiciel de traitement de la grille des ailes présentés ici permettront aux chercheurs du musée d'explorer avec une grande efficacité les propriétés multispectrales non seulement des lépidoptères, mais également de nombreux autres groupes d'insectes. Il facilitera également la comparaison des couleurs et des formes entre les espèces aux formes d'ailes très diverses, contrairement aux autres packages disponibles pour l'étude des couleurs et des motifs. Ces méthodes peuvent être facilement adaptées pour étudier d'autres sujets similaires en deux dimensions, tels que les feuilles de plantes ou des micro-organismes cultivés. Nos méthodes ont le potentiel de révolutionner l'efficacité et l'accessibilité de la collecte de données de réflectance et de forme pour les spécimens biologiques, fournissant une riche source d'informations pour la bio-innovation à partir de collections du monde entier.

Le système se compose d'un appareil photo reflex haute résolution (Nikon D800), équipé d'un objectif zoom Nikkor autofocus 28–80 mm f/3,3–5,6 G. La caméra est montée à l'intérieur d'une boîte à lumière rectangulaire constituée d'une feuille d'aluminium 6061 de 0,125″ d'épaisseur (McMaster-Carr : 89015K18), montée sur une extrusion de cadre en aluminium à fentes en T (McMaster-Carr : 47065T101), qui mesure 36 pouces de hauteur et 24 pouces de largeur et de profondeur, et ouverte en bas. À l'intérieur de la boîte à lumière, 4 bancs d'émetteurs LED sont montés à 18 pouces de haut sur les côtés, sur des dissipateurs thermiques en aluminium épais qui peuvent être tournés de haut en bas pour fournir un éclairage direct ou indirect. Chaque banque de LED est composée de 4 cartes de circuits imprimés à noyau métallique en étoile (MCPCB, OSRAM Opto Semiconductors Inc.), une pour chaque bande de longueur d'onde, et chacune avec 6 LED individuelles. Les quatre bandes de longueur d'onde sont l'ultraviolet (UV 365 nm : LZ1-30UV00-0000), le blanc (Blanc froid : LZ1-10CW02-0065), l'IR 740 nm (740 nm Rouge : LZ4-40R308-0000) et l'IR 940 nm (940 nm Rouge : LZ1-10R702-0000). La caméra est vissée sur un monopode (Sinvitron Q-555) fixé à un morceau d'extrusion de cadrage s'étendant au milieu de la boîte à lumière, l'objectif étant maintenu à 28,25 pouces du bas. Une roue à filtres motorisée avec quatre fentes est montée directement sous l'objectif, avec une fente vide pour l'imagerie RVB blanc, UVF, NIR et fNIR non filtrée, un filtre passe-UV Hoya U-340 pour les images UV uniquement et deux polariseurs circulaires B + W KSM montés à des angles orthogonaux, pour une imagerie polarisée blanche différentielle.

Un microcontrôleur (PJRC, Teensy ++ 2.0) et un pilote pas à pas (Sparkfun, ROB-12779) contrôlent un moteur (Mercury Motor, SM-42BYG011-25) qui fait tourner une roue à filtre sur mesure référencée à un interrupteur d'origine. Les LED sont pilotées par des bancs de contrôleurs de courant (LEDdynamics, 3021-DI-100) avec un microcontrôleur coordonnant la synchronisation d'éclairage (PJRC, Teensy 3.2). La caméra est contrôlée par le logiciel open-source DigiCamControl (DigiCamControl V2.0.0). La coordination du fonctionnement de la caméra, de l'éclairage LED, du positionnement de la roue à filtres et du transfert d'image est effectuée par un ordinateur de bureau exécutant un programme LabView personnalisé42. Toutes les conceptions logicielles et matérielles sont disponibles sur demande.

Pour minimiser la réflectance de fond, le matériau utilisé dans la construction de la plate-forme a été soigneusement choisi et testé pour la neutralité spectrale de l'ultraviolet aux bandes du proche infrarouge (Fig. 1a et 6). Nous avons inclus une série de fentes prédécoupées dans le support en mousse multicouche sous-jacent afin que les spécimens épinglés puissent être facilement poussés et maintenus par le haut ou la pointe de la broche, pour permettre une imagerie dorsale et ventrale efficace (Fig. 2b). Une barre de référence contenant des références standard noires (spectralon 2 % de réflexion AS-001160-960, Labsphere) et blanches (spectralon 99 % de réflexion AS-001160-060, Labsphere) dans des couleurs de fond contrastées et une échelle est jointe (Fig. 6). Nous avons testé le système en utilisant des spécimens de lépidoptères de la collection d'entomologie du Museum of Comparative Zoology. La surface d'imagerie de chaque échantillon a été ajustée approximativement à la même hauteur que la barre de référence standard.

Un ensemble de sept images de tiroir est considéré comme une unité de calcul, et le même groupe de spécimens dans l'unité dorsale a une unité ventrale correspondante. Chaque unité est traitée indépendamment de sorte que toutes les unités peuvent être traitées en parallèle sur le cluster. Les ressources allouées à chaque travail/unité sont définies sur deux cœurs avec une mémoire de vingt-quatre gigaoctets pendant douze heures. La plupart des images peuvent être entièrement traitées en six heures, mais les spécimens plus grands (par exemple, Papilionidae, Nymphalidae et Saturniidae) prennent plus de temps. Ici, plusieurs approches ont été choisies pour maximiser le degré d'automatisation pour des conditions d'échantillons très variées, augmentant le temps de traitement de l'image de quelques minutes à plusieurs heures. Bien que des algorithmes simples puissent être efficaces, ils ne sont pas généralisables. Dans des conditions plus rapides mais plus simplistes, le nombre de valeurs aberrantes qui devraient être traitées manuellement augmenterait, consommant finalement plus de temps et de travail humain que celui consacré au calcul dans une situation à haut débit.

Pour chaque unité, un ensemble de sept images de tiroir (Fig. 3a) est traité après la reconnaissance des références standard en noir et blanc (Fig. 3b). La réflectance d'un patch circulaire au centre de chaque standard peut être extraite pour toutes les bandes (en évitant les marges, qui peuvent être plus facilement déformées ou contaminées accidentellement en tant que sous-produit de l'imagerie fréquente) (Fig. 3b). En comparant l'intensité des pixels imagés avec les valeurs de réflectance connues des normes d'étalonnage, nous pouvons redimensionner et calibrer tous les pixels de l'image13,30 (Fig. 3c) avec les réflectances des références standard fournies par le fournisseur (informations supplémentaires). Les valeurs peuvent différer légèrement d'une norme à l'autre, elles doivent donc chacune être mesurées indépendamment pour fournir une référence initiale. L'échelle sur l'image du tiroir peut être reconnue automatiquement par une correspondance locale des caractéristiques avec une image de référence donnée de la même échelle. Les points caractéristiques des deux images (l'image de référence et l'image du tiroir) peuvent être extraits et les points correspondants identifiés par le descripteur de caractéristiques robustes accélérées (SURF)43, qui est une version avancée de la transformation de caractéristiques invariante à l'échelle (SIFT)44. D'autres procédures de traitement d'image conventionnelles (par exemple, érosion, dilatation et filtrage d'objet) sont ensuite appliquées à l'échelle détectée afin de dériver le nombre de pixels représentés dans un centimètre (Fig. 3b).

Le post-traitement de chacune des bandes restantes est le suivant : en raison de la conception en mosaïque sans chevauchement des filtres RVB Bayer, il y a plus de récepteurs de lumière verte que rouge et bleue dans les appareils photo reflex grand public13,30,45. Dans des environnements à faible luminosité RVB, les signaux reçus par les capteurs verts sont donc plus susceptibles d'être utilisés pour estimer les valeurs de couleur manquantes, ce qui compense les signaux insuffisants détectés dans les capteurs rouges et bleus. Ce phénomène se manifestait dans nos images UV, de sorte que le canal vert était exclu chaque fois qu'une image UV était calibrée. Pour le NIR (740 nm), qui n'est pas loin de la plage spectrale détectée des capteurs bleus d'une caméra, le canal bleu n'a pas été inclus dans la dérivation du produit NIR (740 nm), car les capteurs bleus de la caméra peuvent toujours être capables de détecter des signaux NIR minuscules et donc d'introduire du bruit. En revanche, le fNIR (940 nm) est plus éloigné de la détection des capteurs bleus, donc l'étalonnage RVB normal a été appliqué. Pour la fluorescence dans tous les canaux RVB, nous avons calculé la différence de réflectance entre les images UVF et UV (UVF déduit UV). Nous n'avons pas évité le canal vert des images UV dans ce cas, ou nous n'aurions pas obtenu des valeurs d'intensité raisonnables pour la fluorescence verte. La fluorescence quantifiée par notre approche ne doit être comparée qu'à des objets mesurés à l'aide d'une approche similaire. Étant donné que la fluorescence et certaines bandes de longueur d'onde (par exemple, les UV et la polarisation) sont généralement faibles par rapport à d'autres longueurs d'onde, les images présentées dans cet article ont été ajustées pour une meilleure visibilité humaine.

Nous utilisons des lentilles conventionnelles dans notre système d'imagerie pour la rentabilité et la convivialité, mais ces lentilles sont sujettes à des distorsions spatiales et optiques, généralement vers les limites de l'image. Afin de quantifier l'ampleur de ces distorsions sur les mesures prises par notre système d'imagerie, trente barres d'échelle ont été épinglées à différentes hauteurs (pour simuler une variabilité extrême de la hauteur d'épinglage) et réparties sur la plate-forme d'imagerie (Fig. 7a, b). Différentes hauteurs épinglées ont été incluses pour chaque colonne et rangée, bien que cela ait eu pour résultat que les barres d'échelle aux quatre coins étaient toutes près du haut de l'épingle. L'image RVB (Fig. 7b) a ensuite été analysée dans le pipeline de traitement d'image. Pour chaque barre d'échelle, l'emplacement sur la plate-forme d'imagerie et le nombre moyen de pixels indiquant un centimètre ont été enregistrés.

Étant donné que notre approche a été conçue pour s'adapter à la grande diversité des lépidoptères, des spécimens avec diverses formes d'ailes peuvent être imagés ensemble (Fig. 3). La position approximative de chaque spécimen est déterminée en fonction de l'image fNIR, et une boîte englobante rectangulaire est générée avec l'inclusion de zones tampons sur les quatre bords (1/5 hauteur du spécimen vers le haut ; 1/15 hauteur vers le bas ; 1/20 largeur vers les limites gauche et droite). Les spécimens sont recadrés selon les boîtes englobantes correspondantes (Fig. 3d), et les cibles difficiles (par exemple, les pattes et les antennes, et les taches formées par les écailles tombées) sur la plate-forme d'imagerie sont automatiquement filtrées par l'algorithme de recadrage. Cette fonction peut supprimer accidentellement de minuscules échantillons, de sorte que la valeur seuil est conçue pour être spécifiée manuellement en fonction de la taille minimale de l'échantillon à imager sur la plate-forme d'imagerie. Les efforts pour automatiser cette étape n'étaient pas réalisables. Si la procédure de filtrage est automatisée, les petits spécimens seront automatiquement filtrés en tant qu'objet non-spécimen lorsque les grands et les petits spécimens sont imagés ensemble. Par exemple, la taille d'une partie du corps d'un papilionide tombé peut être aussi grande que la taille d'un petit lycaenide avec une aile manquante, et nous voudrions filtrer la première mais conserver la seconde.

La suppression de l'arrière-plan, où un spécimen est sélectivement recadré de l'arrière-plan de l'image, fait partie du processus de segmentation et implique de nombreuses étapes, de sorte que seules les grandes lignes de la procédure sont fournies ici. Étant donné que l'intensité de la réflectance diffère d'une espèce à l'autre, une approche consensuelle basée sur trois techniques de segmentation a été utilisée pour gérer la diversité des lépidoptères : k-means clustering28,46, filtrage gaussien29,47 et contouring actif48,49. La technique de clustering K-means divise une image RVB en fausses couleurs composée d'une bande NIR et de deux bandes fNIR, en cinq clusters (k = 5). La couleur de fond et l'emplacement sont ensuite identifiés, et les régions restantes sont étiquetées comme spécimen. La technique du filtre gaussien utilise un filtre gaussien sur toute l'image pour lisser les variations relativement mineures au sein d'un spécimen tout en maintenant un contraste élevé entre les limites d'un spécimen et l'arrière-plan, facilitant les techniques de segmentation conventionnelles. La technique de contournage actif (alias Snakes) a également été appliquée pour trouver un contour objectif d'un spécimen en augmentant de manière itérative de la région spécifiée initiale vers les limites de l'objet (Fig. 9a).

Les antennes et les abdomens nécessitent parfois une attention supplémentaire pendant la phase de segmentation, en particulier lorsqu'ils se chevauchent ou touchent d'autres parties du corps en cours de segmentation. Les pattes s'étendant sous l'abdomen peuvent interférer avec le recadrage précis des ailes postérieures. En utilisant une simple érosion d'image (déduction avec une certaine logique de base), les antennes touchant le bord d'attaque de l'aile antérieure sont préservées autant que possible sans endommager la forme de l'aile antérieure. Cependant, les pattes qui croisent d'autres parties du corps sont automatiquement supprimées pour préserver la forme des ailes postérieures. Dans de rares cas, des masques de délimitation rectangulaires ont été générés en tant que masques d'espace réservé lorsque le spécimen ne pouvait pas être excisé de l'arrière-plan en une seule pièce ou lorsque de graves erreurs se sont produites dans le processus de formation des masques de spécimen. Des exemples détaillés et des descriptions peuvent être trouvés dans les informations supplémentaires.

Les codes à barres des échantillons ont été utilisés comme nom de fichier pour un ensemble d'images d'échantillons (faces dorsale et ventrale). Un ensemble de données (au format csv) contenant les informations de tous les noms d'image et des spécimens imagés, qui peuvent être générés manuellement, était nécessaire au stade du traitement de l'image (trouver le protocole dans les informations supplémentaires) ; sinon, des codes-barres temporaires (par exemple, « Tmp-1 » et « Tmp-2 ») ont été automatiquement attribués pour nommer un ensemble d'images d'échantillons.

Les informations concernant la taille du corps, la longueur du corps et la largeur du thorax sont mesurées après le retrait virtuel des quatre ailes (Fig. 1f). Pour une antenne, une série de mesures ont été développées (Fig. 1f) : la longueur d'un trajet suivi le long d'un masque antennaire courbe correspond à la longueur antennaire ; la largeur moyenne d'une antenne peut être dérivée de la surface de masque d'une antenne divisée par sa longueur ; et la courbure antennaire est calculée comme la longueur antennaire divisée par la distance linéaire directe entre sa pointe et sa base. La taille d'un bulbe antennaire peut également être obtenue à partir de la largeur de la pointe d'une antenne. Ces morphologies ont également été quantifiées pour une antenne cassée, donc dans l'application des traits antennaires, il faut soigneusement filtrer les données d'antenne cassée manuellement ou systématiquement. Pour comparer raisonnablement ce trait entre différents individus, nous suggérons d'utiliser le rapport entre la taille du bulbe antennaire et la largeur antennaire globale comme quantification comparable significative.

Une érosion générale de N pixels (qui est mise à l'échelle par la taille de l'échantillon de manière algorithmique ; une valeur haute fréquence est de 5 dans nos échantillons imagés) a d'abord été appliquée pour supprimer les minuscules caractéristiques de silhouette créées par les poils et les pièces jointes (par exemple, les produits chimiques cristallisés et les gros grains de poussière). Le contour du masque du spécimen est ensuite projeté dans le domaine fréquentiel par analyse de Fourier elliptique50, et les cinq harmoniques supérieures sont utilisées pour reconstruire la forme approximative d'une aile postérieure. Les zones étendues à partir de ces régions d'ailes reconstruites sont définies comme des queues (Fig. 4c). La morphologie (longueur et courbure) de ces zones indépendantes peut être davantage quantifiée et enregistrée selon le système de grille des ailes (Fig. 4c).

Au total, notre pipeline a cinq points potentiels lorsque l'inspection et la correction manuelle sont possibles : (1) la boîte englobante ; (2) le masque de spécimen ; (3) la segmentation des ailes antérieures et postérieures ; (4) l'identification des repères primaires; et (5) l'application de grilles d'aile. Le module qui génère des images pour l'inspection est intégré dans le pipeline de traitement d'image, de sorte que ces images peuvent être facilement trouvées dans les répertoires de résultats spécifiés. La plupart des outils de correction manuelle pour l'ordinateur local ont été écrits en MATLAB, à l'exception de la correction du masque de spécimen qui nécessite un logiciel de peinture commercial (tel qu'Adobe Photoshop) et la tâche de segmentation des ailes avant et arrière (écrite en Python). Des scripts correspondants ont également été préparés pour mettre à jour l'ensemble de données sur le cluster avec les informations corrigées manuellement.

De nombreuses visualisations sont générées automatiquement dans le pipeline de traitement d'image. Cependant, certaines espèces ont une taille et des formes d'ailes spéciales, donc des paramètres plus personnalisés peuvent être nécessaires pour une meilleure visualisation. Un script développé pour la visualisation personnalisée de la forme de l'aile et de la queue est également fourni (informations supplémentaires).

Les structures de données des données descriptives initiales ainsi que les données traitées et la matrice récapitulative du groupe sont fournies dans les informations supplémentaires.

En suivant le pipeline avec les données brutes fournies dans les informations supplémentaires, tous les produits intermédiaires et finaux sont facilement reproductibles. Les figures et les légendes des figures donnent les tailles d'échantillon, le nombre de spécimens et d'espèces, ainsi que l'approche statistique appliquée.

De plus amples informations sur la conception de la recherche sont disponibles dans le résumé des rapports sur le portefeuille Nature lié à cet article.

Les ensembles de données générés et/ou analysés au cours de la présente étude sont disponibles sur DryAd (https://doi.org/10.5061/dryad.37pvmcvp5)51.

Des instructions détaillées étape par étape sont documentées sur Protocols.io avec des vidéos didactiques pour certaines étapes cruciales. Tous les codes sources sont fournis sur GitHub. Veuillez trouver des informations supplémentaires pour plus de détails.

Mandal, J. et al. Revêtements polymères poreux hiérarchiquement pour un refroidissement radiatif diurne passif très efficace. Sciences 362, 315–319 (2018).

Article CAS PubMed Google Scholar

Mazo-Vargas, A. et al. Les changements macroévolutifs de la fonction WntA potentialisent la diversité des modèles d'ailes de papillon. Proc. Natl Acad. Sci. États-Unis 114, 10701–10706 (2017).

Article CAS PubMed PubMed Central Google Scholar

Osotsi, MI et al. Les architectures d'ailes de papillon inspirent les applications de capteurs et d'énergie. Natl Sci. Rév. 8, nwaa107 (2021).

Article CAS PubMed Google Scholar

Reed, RD et al. optix conduit l'évolution convergente répétée du mimétisme des motifs d'ailes de papillon. Sciences 333, 1137-1141 (2011).

Article CAS PubMed Google Scholar

Shi, NN et al. Rester au frais : Réflexion optique améliorée et dissipation thermique radiative chez les fourmis argentées sahariennes. Sciences 349, 298–301 (2015).

Article CAS PubMed Google Scholar

Pomerantz, AF et al. Base développementale, cellulaire et biochimique de la transparence chez les papillons à ailes claires. J. Exp. Biol. 224, https://doi.org/10.1242/jeb.237917 (2021).

Hegedus, M., DeVries, P. & Penz, CM L'influence du mimétisme sur l'évolution de la forme des ailes chez le papillon Papilio dardanus (Lepidoptera : Papilionidae). Ann. Société d'entomologie Suis. 112, 33-43 (2019).

Article Google Scholar

Le Roy, C. et al. Evolution adaptative du vol chez les papillons Morpho. Sciences 374, 1158-1162 (2021).

Article PubMed Google Scholar

Owens, HL, Lewis, DS, Condamine, FL, Kawahara, AY & Guralnick, RP La phylogénétique comparative de la forme et de la taille des ailes de papillon papilio démontre une évolution indépendante des ailes postérieures et antérieures. Syst. Biol. 69, 813–819 (2020).

Article CAS PubMed Google Scholar

Zhang, L., Mazo-Vargas, A. & Reed, RD Un gène régulateur maître unique coordonne l'évolution et le développement de la couleur et de l'irisation des papillons. Proc. Natl Acad. Sci. États-Unis 114, 10707–10712 (2017).

Article CAS PubMed PubMed Central Google Scholar

Cespedes, A., Penz, CM & DeVries, PJ Croisière sur le sol de la forêt tropicale : évolution de la forme des ailes de papillon et glissement dans l'effet de sol. J. Anim. Écol. 84, 808–816 (2015).

Article PubMed Google Scholar

Imafuku, M., Hirose, Y. & Takeuchi, T. Couleurs des ailes des papillons Chrysozephyrus (Lepidoptera; Lycaenidae): réflexion ultraviolette par les mâles. Zool. Sci. 19, 175-183 (2002).

Article Google Scholar

Stevens, M., Párraga, CA, Cuthill, IC, Partridge, JC & Troscianko, TS Utilisation de la photographie numérique pour étudier la coloration des animaux. Biol. J. Linn. Soc. 90, 211–237 (2007).

Article Google Scholar

Wijnen, B., Leertouwer, HL & Stavenga, DG Couleurs et pigmentation ptérine des ailes de papillon pierid. J. Insect Physiol. 53, 1206-1217 (2007).

Article CAS PubMed Google Scholar

Wilts, BD, Pirih, P. & Stavenga, DG Propriétés de réflectance spectrale des ailes de papillon pierid irisé. J. Comp. Physiol. Un Neuroéthol. Comportement Neural Sens. Physiol. 197, 693–702 (2011).

Article PubMed PubMed Central Google Scholar

Borror, DJ, Triplehorn, CA & Johnson, NF Une introduction à l'étude des insectes. (éditions du collège Saunders, 1989).

McKenna, KZ, Kudla, AM & Nijhout, HF Motif antérieur-postérieur dans les ailes de lépidoptères. Devant. Écol. Évolution 8, 146 (2020).

Article Google Scholar

McMillan, WO, Monteiro, A. & Kapan, DD Développement et évolution sur l'aile. Tendances Écol. Évolution 17, 125–133 (2002).

Article Google Scholar

Lewis, JJ et al. L'évolution parallèle d'anciens activateurs pléiotropes sous-tend le mimétisme des motifs d'ailes de papillon. Proc. Natl Acad. Sci. États-Unis 116, 24174–24183 (2019).

Article CAS PubMed PubMed Central Google Scholar

Martin, A. et al. Diversification des modèles complexes d'ailes de papillon par évolution régulatrice répétée d'un ligand Wnt. Proc. Natl Acad. Sci. États-Unis 109, 12632–12637 (2012).

Article CAS PubMed PubMed Central Google Scholar

Nadeau, NJ et al. Le cortex des gènes contrôle le mimétisme et le cryptisme chez les papillons et les mites. Nature 534, 106-110 (2016).

Article CAS PubMed PubMed Central Google Scholar

Patil, S. & Magdum, S. Aperçu de la nervation des ailes chez les papillons appartenant aux familles Papilionidae, Nymphalidae et Pieridae de Dang Dist Gujarat, Inde. J. Entomol. Zool. Étalon. 5, 1596-1607 (2017).

Google Scholar

Novelo, EG, Luis, MM & Cordero, C. Complexité de la fausse tête et preuves d'attaques de prédateurs chez les papillons porte-queue mâles et femelles (Lépidoptères : Theclinae : Eumaeini) du Mexique. PeerJ 7, e7143–e7143 (2019).

Article Google Scholar

Robbins, RK L'hypothèse de la « fausse tête » : la prédation et la variation du motif des ailes des papillons lycaenidés. Suis. Naturaliste 118, 770–775 (1981).

Article Google Scholar

Betts, C. & Wootton, R. Forme des ailes et comportement de vol chez les papillons (Lépidoptères : Papilionoidea et Hesperioidea) : une analyse préliminaire. J. Exp. Biol. 138, 271-288 (1988).

Article Google Scholar

Le Roy, C., Debat, V. & Llaurens, V. Évolution adaptative de la forme des ailes de papillon : de la morphologie au comportement. Biol. Rév.94, 1261-1281 (2019).

Google Scholar PubMed

Maia, R., Gruson, H., Endler, JA & White, TE pavo 2 : nouveaux outils pour l'analyse spectrale et spatiale de la couleur dans R. Methods Ecol. Évol. 10, 1097-1107 (2019).

Article Google Scholar

Van Belleghem, SM et al. patternize : un package R pour quantifier la variation du motif de couleur. Méthodes Écol. Évol. 9, 390–398 (2018).

Article PubMed Google Scholar

van den Berg, CP, Troscianko, J., Endler, JA, Marshall, NJ & Cheney, KL Analyse quantitative des modèles de couleur (QCPA): un cadre complet pour l'analyse des modèles de couleur dans la nature. Méthodes Écol. Évolution 11, 316–332 (2020).

Article Google Scholar

Troscianko, J. & Stevens, M. Boîte à outils d'étalonnage et d'analyse d'images - une suite logicielle gratuite pour mesurer objectivement la réflectance, la couleur et le motif. Méthodes Écol. Évol. 6, 1320-1331 (2015).

Article PubMed PubMed Central Google Scholar

Cercueil, D. dcraw v9.28, https://www.dechifro.org/dcraw/ (2018).

Wu, S. et al. L'intelligence artificielle révèle les contraintes environnementales sur la diversité des couleurs chez les insectes. Nat. Commun. 10, 4554 (2019).

Article PubMed PubMed Central Google Scholar

Pirih, P., Wilts, BD & Stavenga, DG Schémas de réflexion spatiale des ailes irisées des papillons pierides mâles : les écailles courbes réfléchissent à un angle plus large que les écailles plates. J. Comp. Physiol. Un Neuroéthol. Comportement Neural Sens. Physiol. 197, 987–997 (2011).

Article PubMed PubMed Central Google Scholar

Breuker, CJ, Gibbs, M., Van Dongen, S., Merckx, T. & Van Dyck, H. dans Morphometrics for nonmorphometricians 271–287 (Springer, 2010).

Bybee, SM et al. Les photorécepteurs UV et les pigments d'aile jaune UV chez les papillons Heliconius permettent à un signal de couleur de servir à la fois le mimétisme et la communication intraspécifique. Suis. Naturaliste 179, 38-51 (2012).

Article Google Scholar

Blagoderov, V., Kitching, IJ, Livermore, L., Simonsen, TJ & Smith, VS Aucun spécimen laissé de côté : numérisation à l'échelle industrielle des collections d'histoire naturelle. ZooKeys, 133 (2012).

Flemons, P. & Berents, P. Numérisation basée sur l'image des collections d'entomologie : mobiliser des bénévoles pour augmenter la capacité de numérisation. Zookeys, 203–217, (2012).

Faulwetter, S., Vasileiadou, A., Kouratoras, M., Dailianis, T. & Arvanitidis, C. Micro-tomographie : introduction de nouvelles dimensions à la taxonomie. ZooKeys, 1 (2013).

Metallo, A. & Rossi, V. L'avenir de l'imagerie tridimensionnelle et des applications muséales. Conservateur. : Mus. J. 54, 63–69 (2011).

Article Google Scholar

Médine, JJ et al. Un pipeline rapide et rentable pour la numérisation des spécimens de musée avec la photogrammétrie 3D. PLoS ONE 15, e0236417 (2020).

Article CAS PubMed PubMed Central Google Scholar

Lürig, MD, Donoughe, S., Svensson, EI, Porto, A. & Tsuboi, M. Vision par ordinateur, apprentissage automatique et promesse de la phénomique en écologie et biologie évolutive. Devant. Écol. Évolution 9, 148 (2021).

Article Google Scholar

Bitter, R., Mohiuddin, T. & Nawrocki, M. LabVIEW™ Techniques de programmation avancées. (CRC press, 2017).

Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. Fonctionnalités robustes accélérées par SURF Computer Vision and Image Understanding (CVIU). (2008).

Lowe, DG dans Actes de la septième conférence internationale IEEE sur la vision par ordinateur. 1150–1157 (Ieee).

Gunturk, BK, Altunbasak, Y. & Mersereau, RM Interpolation du plan couleur à l'aide de projections alternées. IEEE Trans. Processus d'image. 11, 997-1013 (2002).

Article PubMed Google Scholar

Arthur, D. & Vassilvitskii, S. k-means++: The Advantages of Careful Seeding, SODA'07 Actes du dix-huitième symposium annuel ACM-SIAM sur les algorithmes discrets, Nouvelle-Orléans, Louisiane, 2007. https://theory.stanford.edu/~sergei/papers/kMeansPP-soda.pdf, 1027–1035.

Deng, G. & Cahill, L. en 1993, la conférence IEEE enregistre un symposium sur les sciences nucléaires et une conférence sur l'imagerie médicale. 1615–1619 (IEEE).

Caselles, V., Kimmel, R. & Sapiro, G. Contours actifs géodésiques. Int. J. Computer Vis. 22, 61–79 (1997).

Article Google Scholar

Chan, TF & Vese, LA Contours actifs sans bords. IEEE Trans. Processus d'image. 10, 266-277 (2001).

Article CAS PubMed Google Scholar

Crampton, JS Analyse de la forme de Fourier elliptique des bivalves fossiles : quelques considérations pratiques. Lethaia 28, 179–186 (1995).

Article Google Scholar

Chan, W.-P. et al., Un système d'imagerie multispectrale à haut débit pour les spécimens de musée, Dryad, Dataset. https://doi.org/10.5061/dryad.37pvmcvp5 (2022).

Télécharger les références

Nous remercions Chen-Ming Yang d'avoir partagé le code source et de nous avoir conseillé lors du développement de l'outil de segmentation manuelle des ailes antérieures et postérieures ; Zoe Flores pour avoir testé tous les pipelines et scripts ; Josh Sanes pour ses conseils et ses encouragements par le biais du Center for Brain Science de Harvard ; et David Lohman pour ses conseils et son assistance dans l'identification du personnel approprié pour la saisie des données ainsi que pour la détermination de la nomenclature appropriée. Nous remercions Joel Greenwood pour son aide dans le développement précoce du système d'imagerie. Nous remercions Sarah Maunsell, Jalen Winstanley, Amy Wu, Even Dankowicz, Clayton Ziemke, Christian Alessandro Perez, Ling Fang, Avalon Owens, Zhengyang Wang, Cong Liu, Katherine Angier, Evan Hoki, Francisco Matos, Beaziel Ombajen, Zoe Flores, Jocelyn Wang, Han-Ting Yang, Jingqian Wang, Jiale Chen, Annina Kennedy-Yoon, Atreyi Mukherji pour tester et aider à optimiser différents protocoles et outils d'inspection et de correction manuelle. W-PC a été soutenu par une bourse d'études supérieures du Département de biologie de l'organisme et de l'évolution de l'Université de Harvard ; SA a été soutenue par une bourse Herchel-Smith de l'Université de Harvard ; Le RARC a été soutenu par une bourse de recherche d'études supérieures (GRFP) de la National Science Foundation (NSF), le C-CT a été soutenu par une bourse d'études supérieures du Département de physique appliquée et de mathématiques de l'Université de Columbia. Cette recherche a été soutenue par l'Air Force Office of Scientific Research FA9550-14-1-0389 (Multidisciplinary University Research Initiative) et FA9550-16-1-0322 (Defense University Research Instrumentation Program) à NY, et par NSF PHY-1411445 à NY et NSF PHY-1411123 à NEP et NSF DEB-0447242 à NEP. Publié avec une subvention en libre accès du Wetmore Colles Fund du Museum of Comparative Zoology.

Ces auteurs ont contribué à parts égales : Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe.

Département de biologie de l'organisme et de l'évolution, Université de Harvard, Cambridge, MA, États-Unis

Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe, Caroline Elson & Naomi E. Pierce

Musée de zoologie comparée, Université de Harvard, Cambridge, MA, États-Unis

Wei-Ping Chan, Richard Rabideau Childers, Rachel L. Hawkins Sipe, Crystal A. Maier et Naomi E. Pierce

Département de physique appliquée et de mathématiques appliquées, Columbia University, New York, NY, États-Unis

Cheng-Chia Tsai et Nanfang Yu

Département des forêts et des ressources environnementales, North Carolina State University, Raleigh, Caroline du Nord, États-Unis

Kirsten J. Keleher

Département de neurobiologie et comportement, Université Cornell, Ithaca, NY, États-Unis

Kirsten J. Keleher

McGuire Center for Lepidoptera and Biodiversity, Florida Museum of Natural History, University of Florida, Gainesville, FL, USA

Andreï Sourakov

Bureau des systèmes informatiques et division d'entomologie, Peabody Museum of Natural History, Yale University, New Haven, CT, États-Unis

Lawrence F. Gall

Département de génie électrique et informatique, Université de Washington, Seattle, WA, États-Unis

Gary D.Bernard

Center for Brain Science, Harvard University, Cambridge, MA, États-Unis

Edward R. Soucy

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Conceptualisation : RRC, C.-CT, GDB, ERS, NY, NEP, Collecte de données : W.-PC, SA, CE, KJK, RRC, ERS, Conservation des données : RLHS, CAM, AS, LFG, Développement matériel : RRC, ERS, Développement logiciel : W.-PC, Analyse formelle : W.-PC, Visualisation : W.-PC, Validation : W.-PC, SA, Rédaction — projet original : W.-PC, RRC, SA, NEP , Rédaction—révision et édition : tous les auteurs

Correspondance avec Wei-Ping Chan ou Naomi E. Pierce.

Les auteurs ne déclarent aucun intérêt concurrent.

Communications Biology remercie Bodo Wilts et les autres examinateurs anonymes pour leur contribution à l'examen par les pairs de ce travail. Rédacteurs en chef de la manipulation principale : Veronique van den Berghe et Luke R. Grinham. Les rapports des pairs examinateurs sont disponibles.

Note de l'éditeur Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International License, qui permet l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur n'importe quel support ou format, tant que vous donnez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.

Réimpressions et autorisations

Chan, WP., Rabideau Childers, R., Ashe, S. et al. Un système d'imagerie multispectrale à haut débit pour les spécimens de musée. Commun Biol 5, 1318 (2022). https://doi.org/10.1038/s42003-022-04282-z

Télécharger la citation

Reçu : 04 août 2022

Accepté : 18 novembre 2022

Publié: 01 décembre 2022

DOI : https://doi.org/10.1038/s42003-022-04282-z

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.

PARTAGER