Título: Algunas extensiones del método de vectores comunes discriminantes para la clasificación de imágenes
Autores: Diaz Chito, Katerine
Fecha: 2011
Publicador: Dialnet (Tesis)
Fuente:
Tipo: text (thesis)
Tema:
Descripción: Los métodos basados en subespacios son una herramienta muy utilizada en aplicaciones de visión por computador. Aquí se presentan y validan algunos algoritmos que hemos propuesto en este campo de investigación. El primer algoritmo está relacionado con una extensión del método de vectores comunes discriminantes con kernel, que hemos llamado el método de vectores comunes discriminantes extendidos con kernel (RKDCV, Rough Discriminative Common Vector with Kernels). RKDCV reinterpreta el espacio nulo de la matriz de dispersión intra-clase del conjunto de entrenamiento para obtener las características discriminantes. Este método también se puede ver como una versión no lineal de los vectores comunes discriminantes extendidos. Dentro de los métodos basados en subespacios existen diferentes tipos de entrenamiento. Uno de los más populares, pero no por ello uno de los más eficientes, es el aprendizaje por lotes. En este tipo de aprendizaje, todas las muestras del conjunto de entrenamiento tienen que estar disponibles desde el inicio. De este modo, cuando nuevas muestras se ponen a disposición del algoritmo, el sistema tiene que ser reentrenado de nuevo desde cero. Una alternativa a este tipo de entrenamiento es el aprendizaje incremental. En los últimos años, y debido a la necesidad de poder actualizar los sistemas de clasificación, muchos de los métodos basados en subespacios, que utilizan el aprendizaje por lotes, han sido modificados para un aprendizaje incremental. Aquí se proponen diferentes algoritmos incrementales del método de vectores comunes discriminantes. El método DCV ha sido propuesto originalmente de dos formas diferentes, pero equivalentes. En esta tesis se formula un algoritmo incremental para cada uno de ellos. Además, se muestra una versión incremental propia para calcular los vectores comunes discriminantes. El primer algoritmo se basa en la eigendescomposición y lo hemos abreviado con las siglas IDCV-EVD del inglés Incremental Discriminative Common Vectors by Eigendecomposition. El segundo algoritmo emplea subespacios diferencia y la ortogonalización de Gram-Schmidt incremental (IDCV-GSO). El tercer algoritmo esta basado en subespacios diferencia y ortogonalización (IDCV-O). Cuando la dimensión del espacio de las muestras es menor o igual a la diferencia entre el tamaño del conjunto de entrenamiento y el número de clases, la dimensión del subespacio discriminante en el método DCV es pequeña. Esto ocasiona que los vectores comunes discriminantes no sean representativos. En este caso, nosotros utilizamos el método de vectores comunes discriminantes extendidos (RDCV, Rough Discriminative Common Vector). RDCV relaja las bases del método DCV a partir de ampliar el subespacio discriminante. Aquí se presenta una versión incremental del método RDCV que permite actualizar la base de conocimiento desde un modelo precalculado. Los algoritmos propuestos se validan empíricamente para diferentes casos de estudio, a partir de clasificar bases de datos que presentan características complejas.
Idioma: spa