Clasificación de imágenes de teledetección
Los siguientes son varios métodos de clasificación de imágenes de teledetección comúnmente utilizados:
1. Clasificación de máxima verosimilitud
La clasificación de máxima verosimilitud es un método basado en el criterio bayesiano. El método de clasificación supervisada no lineal requiere conocer la probabilidad previa P(wi) y la función de densidad de probabilidad condicional P(wi, x) del estándar típico en el área de muestra de entrenamiento. Por lo general, se da o se supone que P (wi) es igual en función de diversos conocimientos previos; P (wix) primero determina su forma de distribución y luego utiliza muestras de entrenamiento para estimar sus parámetros. Generalmente se supone que es una distribución normal o se convierte matemáticamente en una distribución normal. El conjunto de funciones discriminantes es:
Di(x)=P(wix), i=1, 2,…,m (2-2)
Si Di(x) ≥ Dj(x), entonces X pertenece a la categoría wi. Donde j≠i, j = 1, 2, ..., m es el número de categorías.
De la descripción anterior de la clasificación de máxima verosimilitud, la clave radica en la definición de categorías conocidas, la determinación de probabilidades previas, la calidad de las variables involucradas en la clasificación y la evaluación de los errores de resultados. Hasta ahora, la clasificación de máxima verosimilitud tiene al menos dos desventajas: una es que un gran número de personas conocen de antemano la selección y definición de clases espectrales y la otra es que los cálculos de clasificación por computadora llevan mucho tiempo; De hecho, esto también limita la aplicación de la detección remota de clasificación de máxima verosimilitud, por lo que muchas personas se especializan en mejorar algoritmos para resolver y acortar el tiempo de clasificación de imágenes y mejorar la precisión de la clasificación. Para resolver la desventaja de que la definición de clases conocidas requiere mucha mano de obra, Solst y Lillesand (1991) desarrollaron un método de entrenamiento semiautomático para definir clases espectrales conocidas. Fabio Maselli et al. (1992) utilizaron el clasificador no paramétrico propuesto por Skidmore y Tumer para calcular la probabilidad previa de cada conjunto de entrenamiento de clase conocido y luego lo insertaron en el proceso de clasificación de máxima verosimilitud convencional para la clasificación. Este método combina las ventajas de los procesos de clasificación paramétricos y no paramétricos y mejora la precisión de la clasificación.
Normalmente, el terreno afectará los datos del conjunto de entrenamiento, por lo que los datos espectrales del conjunto de entrenamiento se desvían de la distribución normal supuesta de la clasificación de máxima verosimilitud. Por lo tanto, el método de clasificación de máxima verosimilitud convencional no funcionará bien en áreas. con grandes fluctuaciones del terreno el efecto regional no es muy bueno. Para resolver este problema, C.Conese, G.Maracchi y F.Maselli (1993) propusieron un algoritmo mejorado de clasificación de máxima verosimilitud, que elimina la información relacionada con el primer componente principal (información del terreno) en cada conjunto de datos, y luego clasificar. Los experimentos muestran que este método es eficaz y mejora la precisión de la clasificación.
Karai (1993) utilizó información espectral y espacial para mejorar la clasificación de máxima verosimilitud. Este método es simple y fácil de operar y mejora en gran medida la probabilidad de una clasificación correcta. C. Conese y Fabio Maselli (1992) utilizaron matrices de error para mejorar la precisión de la estimación del área de clasificación de máxima verosimilitud. Irina Kerr (1996) aumenta la precisión de la clasificación de máxima verosimilitud, es decir, el método de comparación de probabilidades múltiples. Utilizó el método de máxima verosimilitud para clasificar las bandas originales, los componentes principales y los índices de vegetación de los mismos datos de teledetección, y descubrió que ninguna combinación de bandas podía dar una clasificación precisa de todos los tipos de uso de la tierra en la imagen, y cada combinación de bandas sólo clasificaba uno de los tipos de uso del suelo en la imagen. Son válidas dos clasificaciones de tipos de uso del suelo. Por lo tanto, propuso combinar los resultados de clasificación de varias combinaciones de bandas que puedan distinguir efectivamente el tipo de uso del suelo que se determinará para clasificar la imagen, y llamó a este método método de comparación de probabilidad múltiple. Este método se basa en diferentes combinaciones de bandas de imágenes. Comparación de probabilidades de clasificación entre resultados de clasificación.
Este método mejora la precisión de la clasificación.
2. Clasificación de distancia mínima.
La clasificación de distancia mínima es un método de clasificación supervisada discriminante lineal, que también requiere un análisis estadístico de muestras de patrones del área de entrenamiento. Este es un caso especial extremadamente importante en la clasificación de máxima verosimilitud. La clasificación de distancia mínima es algorítmicamente relativamente simple. Primero, debe seleccionar las muestras de entrenamiento que se van a clasificar, calcular la media y la desviación estándar de cada banda de varias muestras de entrenamiento a partir de los datos de la imagen y luego calcular el vector de valor de gris de otros píxeles en la imagen y el vector medio de todos. distancias de entrenamiento conocidas. Un píxel se clasifica como una clase si la distancia es menor que un umbral especificado (normalmente un múltiplo de la desviación estándar) y la distancia es la más cercana a una clase. Por eso se llama clasificación de distancia mínima. La precisión de este método depende principalmente del número de áreas de muestra de entrenamiento de clases conocidas y de la precisión estadística del área de muestra. Además, diferentes métodos de medición de distancias conducen a diferentes resultados de clasificación. Los más comunes son:
(1) Distancia de Minkowski
Identificación y extracción de información de alteración de objetivos de detección remota hiperespectrales en Asia Central
Cuando q=2, es la distancia euclidiana Cuando q tiende al infinito, se obtiene la distancia de Chebyshev. La distancia brillante, especialmente la distancia euclidiana, se usa ampliamente en la práctica, pero tiene dos desventajas: primero, está relacionada con la dimensionalidad de cada indicador, para superar esta deficiencia, generalmente se usa el método de normalizar primero los datos; En segundo lugar, no tiene en cuenta la correlación entre variables. La distancia mejorada es la distancia de Mahalanobis.
(2) Distancia de Mahalanobis
Identificación y extracción de información de alteración de objetivos de teledetección hiperespectrales en Asia Central
Cuando no existe correlación entre características, distancia de Mahalanobis La distancia euclidiana es la distancia euclidiana.
En resumen, el método de clasificación de distancia mínima es un método simple que se puede implementar en un programa de manera rentable. A diferencia del método de máxima verosimilitud, teóricamente no minimiza el error de clasificación promedio. La precisión obtenida es equivalente al método de clasificación de máxima verosimilitud, pero el tiempo de cálculo es solo la mitad que este último.
3. Clasificación en paralelo
La clasificación de tuberías en paralelo es el método de clasificación más simple, que se clasifica estudiando el histograma de cada componente espectral de los datos de la muestra de entrenamiento. Los límites superior e inferior del valor de escala de grises en el histograma de la imagen describen el rango de valores de escala de grises de esta categoría en cada banda de la imagen. La clase Spectral define una tubería paralela multidimensional en el rango de valores de gris para todas las bandas. Mediante el cálculo de clasificación, los píxeles desconocidos de la imagen se dividen en tuberías paralelas que pertenecen a una clase espectral conocida, por lo que este método se denomina clasificación de tuberías paralelas. Este método es simple y factible, pero también tiene varias desventajas: ① Debe haber un cierto intervalo entre tubos paralelos de niveles espectrales conocidos. Si los píxeles de la imagen se encuentran dentro de estos intervalos, no se clasificarán. ② Para clases espectrales con fuerte correlación en la imagen, debe haber una cierta superposición entre los tubos paralelos definidos. Como resultado, estos píxeles que caen en el área de superposición no pueden separarse bien. ③No se considera la probabilidad previa de categorías espectrales conocidas. ④ Los tubos paralelos de una clase espectral conocida definida en términos de histogramas son sólo una representación aproximada del plano elíptico comúnmente utilizado para definir las características de la clase espectral.
T.w Kellenberger y K.I.Iten (1996) propusieron un método mejorado. El método de canalización paralela mejorado separa automáticamente las clases objetivo conocidas en función de la diferencia máxima en los histogramas porcentuales acumulados de las dos clases en cada banda de imagen, y selecciona automáticamente este valor de separación y banda de imagen. Utilizó una clasificación mejorada de tuberías paralelas para clasificar la cubierta forestal en datos de teledetección TM, logrando buenos resultados y mejorando la precisión de la clasificación.
4. Clasificación difusa
La teoría difusa es un término general para las teorías que tratan sobre la borrosidad y se basa en la teoría de conjuntos difusos propuesta por Zadeh en 1965. La clasificación difusa es un método de clasificación basado en la teoría difusa. En la clasificación de imágenes de teledetección convencional, cada píxel de la imagen se clasifica como un determinado tipo de característica, y existe una correspondencia uno a uno entre píxeles y categorías. El problema real de los píxeles mixtos en las imágenes de teledetección no se considera. Es decir, hay varios tipos de objetos terrestres en un píxel al mismo tiempo, por lo que los resultados de este método de clasificación inevitablemente tendrán errores, lo que también es una limitación de los métodos convencionales de clasificación de imágenes de teledetección. La clasificación difusa simplemente supera esta deficiencia: utiliza el grado de pertenencia de los píxeles para representar los atributos de los píxeles.
Cuando el grado de pertenencia de un píxel a un determinado tipo de objeto de superficie es 0, significa que el píxel no pertenece a esa clase; cuando el grado de pertenencia de un píxel a un determinado tipo de objeto de superficie es 1, significa que el el píxel pertenece a esa clase; cuando el píxel pertenece a esa clase. Cuando el grado de membresía de un determinado tipo de característica es un número entre 0 y 1, significa que el píxel pertenece a la categoría con el grado de membresía, es decir, el píxel es un píxel mixto. Existen muchos métodos de clasificación difusa, la mayoría de los cuales son extensiones de los métodos de clasificación tradicionales. Wang (1990) analizó en detalle la importancia de la clasificación supervisada difusa de imágenes de teledetección. Él cree que la clasificación supervisada difusa tiene tres mejoras en comparación con los métodos de clasificación tradicionales: ① Es más razonable utilizar conjuntos difusos para representar información geográfica; ② División difusa del espacio espectral; ③ Estimación difusa de los parámetros de clasificación;
Paolo Gamba et al. (1996) utilizaron cadenas de clasificación totalmente difusas para clasificar imágenes de teledetección multiespectrales. No solo consideran las características espectrales de los píxeles de la imagen, sino que también consideran la relación espacial entre los píxeles adyacentes de la imagen, mejorando así la precisión de la clasificación de la imagen.
5. Clasificación de redes neuronales.
La estructura de una red neuronal incluye una capa de entrada, una capa de salida y una o más capas ocultas. La cantidad de nodos en la capa de entrada es la misma que la cantidad de entidades que participan en la clasificación, la cantidad de nodos en la capa de salida es la misma que la cantidad de nodos en la categoría final y la cantidad de nodos en la capa intermedia oculta. La capa se determina experimentalmente. La clasificación de redes neuronales es principalmente una iteración de entrenamiento de la red. Para lograr una cierta precisión, a menudo se requieren múltiples iteraciones, lo que requiere mucho tiempo. Pero una vez que se completa la capacitación en red, se puede aplicar rápidamente al reconocimiento de clasificación.
F.Amar et al. (1995) compararon cuatro redes neuronales para aplicaciones de detección remota en función del porcentaje de error de clasificación y el tiempo de CPU del usuario. Descubrió que el algoritmo de red neuronal de retropropagación requiere la mayor cantidad de iteraciones y es el algoritmo más lento para obtener una precisión de clasificación del 88%. El algoritmo de red neuronal de aprendizaje dinámico solo necesita dos iteraciones y se necesitan 591 s de tiempo de CPU para obtener una precisión de clasificación de 85. Se necesitan 5 iteraciones y 1613,7 s de tiempo de CPU para lograr una precisión de clasificación de 86. La precisión de clasificación del algoritmo de red neuronal de conexión funcional es menor que la del algoritmo de red neuronal de aprendizaje rápido, pero requiere menos tiempo de CPU. El algoritmo de red neuronal de aprendizaje rápido proporciona la mayor precisión de clasificación, pero después de dos iteraciones, requiere más tiempo de CPU que el algoritmo de red neuronal de unión funcional y el algoritmo de red neuronal de aprendizaje dinámico. Además, muchos investigadores utilizan algoritmos de redes neuronales para clasificar datos de imágenes de sensores remotos (Mcclellan et al., 1989; Benediktsson et al., 1990; Kanellopoulos et al., 1991; Herman y Hazeny, 1992; cf. Schoff et al., 1992), estos estudios han demostrado que la clasificación de redes neuronales puede dar un buen resultado de clasificación con una precisión de clasificación aproximadamente equivalente a la obtenida por los algoritmos de clasificación de máxima verosimilitud convencionales. Si el algoritmo de clasificación de la red neuronal se aplica correctamente, la precisión de la clasificación será mayor. K Sanjo (1996) estudió la clasificación de imágenes de teledetección basada en tecnología de redes neuronales y descubrió que la disposición de los datos de muestra de entrenamiento en la clasificación supervisada afecta la precisión de la clasificación. Por lo tanto, en la fase de aprendizaje del algoritmo de la red neuronal, se debe prestar atención a la clasificación. Problemas causados por la simple reorganización de los datos de la muestra de entrenamiento. Cambios en los resultados de clasificación. Además, también estudió el problema de los píxeles mixtos y los resultados mostraron que el algoritmo de red neuronal puede reducir eficazmente los errores de clasificación al aprender datos mixtos.
Función de densidad de probabilidad de 6.n dimensiones.
Haluk Cetin y Donald w. Levandowski (1991) utilizaron funciones de densidad de probabilidad N-dimensionales para clasificar y mapear datos de teledetección multidimensionales. La función de densidad de probabilidad de n dimensiones es un algoritmo para mostrar, analizar y clasificar datos. Se deriva de la llamada perspectiva de frecuencia pero supera las limitaciones inherentes de los métodos anteriores. El proceso de clasificación interactivo que utiliza el algoritmo de función de densidad de probabilidad N-dimensional es un nuevo método de clasificación de datos multidimensional que proporciona una visión clara de la distribución de datos de teledetección y la distribución de áreas de entrenamiento seleccionadas en la clasificación supervisada.
Después de mapear los datos multidimensionales y la función de densidad de probabilidad N-dimensional distribuida en el área de entrenamiento, el espacio de la función de densidad de probabilidad N-dimensional se divide de acuerdo con la distribución de los datos del área de entrenamiento, y luego la función de densidad de probabilidad N-dimensional se divide en una tabla de búsqueda para clasificar los datos de imágenes de detección remota. Para la clasificación no supervisada, el gráfico de la función de densidad de probabilidad N-dimensional puede proporcionar una representación valiosa de la distribución de datos. La distribución de datos se puede utilizar directamente para seleccionar el número de clases y la posición de la media de clase en la agrupación inicial de los datos. En comparación con los métodos de clasificación estadística tradicionales, como la clasificación de máxima verosimilitud y la clasificación de distancia mínima, que requieren una gran cantidad de memoria de computadora, tienen una velocidad de cálculo lenta y tienen una capacidad limitada para mostrar clases superpuestas, la función de densidad de probabilidad N-dimensional tiene un efecto extremadamente rápido. Velocidad de clasificación y puede utilizar un número infinito de bandas. Muestra gráficamente la distribución de datos y clases. Haluk Cetin, Timothy A. Warner y Donald W. Levandowski (1993) utilizaron funciones de densidad de probabilidad N-dimensionales para clasificar, visualizar y mejorar la MT y otras fuentes de datos de teledetección, logrando mejores resultados y mayor precisión que los métodos de clasificación tradicionales.
7. Otros métodos de clasificación
Sustantivo (abreviatura de sustantivo) B.Venkateswarlu y P.S.V.S.K.Raju (1993) propusieron un nuevo clasificador rápido para imágenes de teledetección. Este clasificador es un clasificador no paramétrico llamado clasificador promedio de conjunto que utiliza el concepto de distancia mínima. Los pasos del algoritmo son los siguientes:
① Calcular el promedio general (promedio general) de cada grupo, Mi, i = 1, 2,..., c.
② Si se satisfacen las dos ecuaciones siguientes, cualquier píxel aleatorio X se clasificará en el grupo wi.
XT(Mi-Mj)< Tij, j≠I (2-5)
Identificación y extracción de información de alteración de objetivos de teledetección hiperespectrales en Asia Central
Donde Tij=-Tij.
③Después de los pasos ① y ②, el píxel aleatorio X se clasifica en la categoría correcta.
Además, teniendo en cuenta el ordenamiento de las variables que intervienen en el cálculo y la lógica de sumas parciales, se puede reducir considerablemente el tiempo de cálculo del algoritmo. En comparación con los clasificadores de distancia mínima (distancia euclidiana) y de máxima verosimilitud, el clasificador promedio general toma menos tiempo y la precisión de la clasificación es aproximadamente equivalente a la distancia mínima. Es muy eficaz para la clasificación de tipos nominales como áreas de tierras de cultivo y. bosque.
Haluk Cetin (1996) propuso un método de clasificación: la distribución de frecuencia de distancia entre clases, que es un método de clasificación no paramétrico para datos multiespectrales. El proceso de distribución de frecuencia de distancia entre clases es simple y es una poderosa tecnología de visualización que muestra gráficamente datos multiespectrales y distribución de clases. Primero se seleccionan las categorías de interés y se puede obtener información estadística para estas categorías a partir de áreas de muestra de capacitación típicas. La distancia a cada píxel en los datos multiespectrales se calcula utilizando el vector de medición promedio de esta clase y se almacena en una matriz de distribución de datos 2D. Seleccione otros tipos de áreas de entrenamiento y la distribución de los datos del área de entrenamiento se podrá obtener mediante el cálculo de la distancia. Al inspeccionar visualmente los resultados, se crea una tabla de búsqueda y luego los datos de la imagen multiespectral se clasifican utilizando la tabla de búsqueda. Consulte el artículo original para obtener más detalles.
H.N.Srikanta Prakash et al. (1996) mejoraron el análisis de agrupamiento aglomerativo de datos de teledetección, que es un algoritmo de análisis de agrupamiento no paramétrico, jerárquico y aglomerativo basado en el concepto de vecino mutuo para clasificación de datos multiespectrales. . El método primero define una región de interés alrededor de cada píxel y luego encuentra dentro de ella los K vecinos más cercanos necesarios para la operación de fusión inicial en la clasificación. Teniendo en cuenta el valor de la característica del píxel, el valor de la banda y el valor de la posición relativa, se propone una medida de distancia mejorada, que reduce en gran medida el tiempo de cálculo y los requisitos de memoria, y reduce la probabilidad de error de clasificación.
Steven E.Franklin y Bradley A.Wilson (1992) diseñaron un clasificador de tres niveles para clasificar imágenes de sensores remotos, que consiste en un operador de segmentación basado en quadtree y una prueba promedio de distancia mínima gaussiana y una prueba final. prueba que consta de datos auxiliares de la red geográfica y mediciones de curvas espectrales.
En comparación con las técnicas de clasificación de máxima verosimilitud, el clasificador de tres niveles ha mejorado la precisión de la clasificación general, ha reducido el tiempo de cálculo y requiere datos de muestra de entrenamiento mínimos (son difíciles de obtener en áreas con terreno complejo).