Vous pouvez utiliser le Deep Learning pour classer des nuages de points au format LAS et classer de nombreuses sortes d'entités. Il n’utilise pas de règles prédéfinies pour identifier des éléments spécifiques tels que les bâtiments ou le sol. C’est vous qui allez fournir des exemples d’entités d’intérêt, qui entraîneront un réseau neuronal, lequel pourra à son tour reconnaître et classer ces entités dans d’autres données.
Vous pouvez utiliser des modèles de Deep Learning créés ailleurs ou par vos propres moyens. La plupart des utilisateurs opteront probablement pour des modèles créés par des scientifiques spécialistes des données, car ce travail demande beaucoup de temps et de travail. Recherchez parmi les modèles disponibles dans ArcGIS Living Atlas s’il y en a qui pourraient convenir pour votre projet. Si ce n’est pas le cas, envisagez de créer votre propre modèle. Pour plus d’informations sur la création de votre propre modèle, consultez la rubrique Entraîner un modèle de Deep Learning à la classification de nuage de points. Vous pouvez utiliser l’outil Évaluer le modèle de classification du nuage de points pour voir, d’un point de vue statistique, si un modèle entraîné est adapté à des données spécifiques vous appartenant.
Que vous utilisiez votre propre modèle de Deep Learning ou celui de quelqu’un d’autre, vous devez veillez à ce que les données que vous avez l’intention de classer sont similaires à celles qui servent à entraîner le modèle. Dans l’idéal, elles seront issues du même projet de collecte de données. Si ce n’est pas le cas, elles doivent au moins partager des qualités. Par exemple, un modèle entraîné par lidar aéroporté conviendrait pour classer des nuages de points de lidars aéroportés, mais pas des nuages de points photogrammétriques/SfM. L’espacement de points nominal doit être similaire, et si d’autres attributs ont été inclus dans la modélisation, comme l’intensité ou le numéro de retour, ils doivent également être similaires.
Utilisation de l’outil Classer le nuage de points à l’aide du modèle entraîné
L’outil de géotraitement Classify Point Cloud Using Trained Model (Classer le nuage de points à l’aide du modèle entraîné) prend en entrée un jeu de données LAS et un modèle de Deep Learning. Le jeu de données LAS fait référence à un ou plusieurs fichiers LAS, qui seront mis à jour par l’outil. Le modèle peut être un fichier de définition de modèle Esri (*.emd) ou un package de Deep Learning (*.dlpk). Les deux sont générés par l’outil d’entraînement. La différence est que vous pouvez publier et partager les fichiers .dlpk en ligne ; ils sont autonomes. En revanche, les fichiers *.emd font référence à d’autres données, plus précisément à des fichiers *.pth, dont la présence est indispensable au fonctionnement du modèle.
Une fois le modèle ajouté dans l’outil comme entrée, la liste des classes qu’il a été entraîné à classer s’affichent dans la boîte de dialogue de l’outil. Par défaut, toutes les classes sont sélectionnées. Vous pouvez décocher celles qui n’ont pas d’intérêt.
Un autre paramètre appelé Existing Class Code Handling (Gestion des codes de classes existants) vous permet de contrôler ce qui peut être modifié dans le nuage de points LAS cible. Par défaut, tous les points du nuage de points cible peuvent être mis à jour. Vous pouvez également définir que seuls les points associés à certains codes de classe peuvent être modifiés. Les autres restent inchangés malgré les prédictions du modèle de Deep Learning à leur égard. À l’inverse, vous pouvez également choisir d’empêcher la modification des points associés à certains codes, si cela est plus opportun. Par exemple, si le nuage de points cible a déjà été classé dans la catégorie Sol et que vous souhaitez les laisser en l’état, choisissez de préserver les points de classe 2 (qui correspond à la catégorie Sol).
Le paramètre Batch Size (Taille de lot) influe sur les performances du processus de classification. Il représente le nombre de blocs de données qui sont fournis au GPU à la fois. Plus la valeur est élevée et plus le processus est rapide car le GPU les traite en parallèle. Le coût est lié à la mémoire. Vous ne pouvez traiter que le nombre de blocs autorisé par la mémoire GPU disponible. Par défaut, lorsque la taille de lot n’est pas spécifiée, l’outil tente de trouver une valeur raisonnable par lui-même. La valeur qu’il utilise est écrite dans les messages en sortie. Il est possible d’utiliser une valeur supérieure. Dans ce cas, vous pouvez la spécifier pour remplacer la valeur par défaut. Au cours d’une phase de test, vous pouvez surveiller l’utilisation de la mémoire de GPU. Si une grande quantité de mémoire de GPU reste disponible pendant la classification, vous pouvez augmenter sans problème la taille des blocs afin d’en traiter plus à la fois.
Rubriques connexes
Vous avez un commentaire à formuler concernant cette rubrique ?