space.template.SISTEMA+DE+RECONOCIMIENTO+FACIAL

media type="youtube" key="6uPttMaHFYo" width="425" height="350" Los humanos a menudo utilizan los rostros para reconocer individuos y los avances en las capacidades de computación en las últimas décadas, ahora permiten reconocimientos similares en forma automática. Los algoritmos de reconocimiento facial anteriores usaban modelos geométricos simples, pero el proceso de reconocimiento actualmente ha madurado en una Ciencia de Sofisticadas representaciones matemáticas y procesos de coincidencia. Importantes avances e iniciativas en los pasados diez a quince años han propulsado a la tecnología de reconocimiento facial al centro de la atención.
 * SISTEMA DE RECONOCIMIENTO FACIAL **



El **sistema de reconocimiento facial** es una aplicación dirigida por ordenador que identifica automáticamente a una persona en una imagen digital. Esto es posible mediante un análisis de las características faciales del sujeto extraídas de la imagen o de un fotograma clave de una fuente de video, y comparándolas con una BASE DE DATOS..

media type="youtube" key="RObewzW5POE" width="425" height="350" ** Historia ** El reconocimiento facial automatizado es relativamente un concepto nuevo. Desarrollado en los años 60, el primer sistema semiautomático para reconocimiento facial requería del administrador para localizar rasgos (como ojos, orejas, nariz y boca) en las fotografías antes de que este calculara distancias a puntos de referencia en común, los cuales eran comparados luego con datos de referencia. En los años 70 Goldstein, Harmon, & Lesk [1], usaron 21 marcadores subjetivos específicos tales como el color del cabello y grosor de labios para automatizar el reconocimiento facial. El problema con estas soluciones previas era que se computaban manualmente. En 1988 Kirby & Sirobich aplicaron análisis de componentes principales, una técnica estándar del álgebra lineal, al problema del reconocimiento facial. Esto fue considerado algo así como un hito al mostrar que eran requeridos menos de 100 valores para cifrar acertadamente la imagen de una cara convenientemente alineada y normalizada. En 1991 Turk & Pentland utilizando las técnicas Eigenfaces, el error residual podía ser utilizado para detectar caras en las imágenes un descubrimiento que permitió sistemas automatizados de reconocimiento facial en tiempo real fidedignos. Si bien la aproximación era un tanto forzada por factores ambientales, creó sin embargo un interés significativo en posteriores desarrollos de éstos sistemas. La tecnología inicialmente capturó la atención del público a partir de la reacción de los medios a una prueba de implementación en el Super Bowl de la NFL en enero de 2001, la cual capturó imágenes de vigilancia y las comparó con una base de datos de fotoarchivos digitales. Esta demostración inició un muy requerido análisis sobre cómo usar la tecnología para satisfacer necesidades nacionales, mientras se tomaban en consideración las preocupaciones sociales y de privacidad del público. Hoy la tecnología de reconocimiento facial está siendo utilizada para combatir el fraude de pasaportes, soporte al orden público, identificación de niños extraviados y minimizar el fraude en las identificaciones.

** Enfoques predominantes ** Hay dos enfoques predominantes en el problema de reconocimiento facial: El geométrico (basado en rasgos) y el fotométrico (basado en lo visual). Conforme a que el interés investigador en reconocimiento facial continuó, fueron desarrollados muchos algoritmos diferentes, tres de los cuales han sido bien estudiados en la literatura del reconocimiento facial:
 * Analisis de componentes principales (Principal Components Analysis, PCA),
 * Análisis lineal discriminante (Linear Discriminant Analysis, LDA), y
 * Correspondencia entre agrupaciones de grafos elásticos Elastic Bunch Graph Matching, EBGM).

** Análisis de componentes principales (Principal Component Analysis, PCA) ** PCA, comúnmente referida al uso de Eigenfaces, es la técnica impulsada por Kirby & Sirivich en 1988. Con PCA, el sondeo y la galería de imágenes deben ser del mismo tamaño y deben ser normalizadas previamente para alinear los ojos y bocas de los sujetos en las imágenes. La aproximación de PCA es luego utilizado para reducir la dimensión de los datos por medio de fundamentos de compresión de datos y revela la mas efectiva estructura de baja dimensión de los patrones faciales. Esta reducción en las dimensiones quita información que no es útil y descompone de manera precisa la estructura facial en componentes ortogonales (no correlativos) conocidos como Eigenfaces. Cada imagen facial puede ser representada como una suma ponderada (vector de rasgo) de los eigenfaces, las cuales son almacenadas en un conjunto 1D. Una imagen de sondeo es comparada con una gallería de imágenes midiendo la distancia entre sus respectivos vectores de rasgos. La aproximación PCA típicamente requiere la cara completa de frente para ser presentada cada vez; de otra forma la imagen dará un resultado de bajo rendimiento. La ventaja primaria de esta técnica es que puede reducir los datos necesarios para identificar el individuo a 1/1000 de los datos presentados.

Figura 1: Eigenfaces estándar. Los vectores de los rasgos son derivados utilizando Eigenfaces ** ANÁLISIS LINEAL DISCRIMINANTE (LINEAR DISCRIMINANT ANALYSIS, LDA) ** LDA es una aproximación estadística para clasificar muestras de clases desconocidas basadas en ejemplos de entrenamiento con clases conocidas [4]. (Figura 2) Esta técnica tiene la intención de maximizar la varianza entre clases (ej. Entre usuarios) y minimizar la varianza de cada clase (Ej. De cada usuario). En la figura 2 donde cada bloque representa una clase, hay grandes variaciones entre clases, pero pequeñas en cada clase. Cuando se trata con datos faciales de alta dimensión, esta técnica enfrenta el problema de muestras de tamaño pequeño que surge donde hay u numero pequeño de ejemplos de entrenamiento comparados a la dimensionalidad del espacio de muestra [7]. Figura 2: ejemplo de seis clases usando LDA ** Correspondencia entre agrupaciones de grafos elásticos Elastic Bunch Graph Matching, EBGM) ** EBGM tiene en cuenta que las imágenes faciales reales tienen muchas características no lineales que no son tratadas en los métodos lineales de análisis discutidos previamente, tales como variaciones en la iluminación (Iluminación de exteriores vs. Interior fluorescente), postura (frontal vs. inclinada) y expresión (sonrisa vs. ceño fruncido).  Una ondeleta de transformación Gabor crea una arquitectura de enlace dinámico que proyecta el rostro sobre la planilla elástica. El Jet Gabor es un nodo en la planilla elástica, manifestado por círculos en la imagen debajo. El cual describe el comportamiento de la imagen alrededor de un píxel.  Este es el resultado de una convulsión de la imagen con un filtro Gabor, el cual es usado para detectar formas y extraer características utilizando procesamiento de imagen.(Una convulsión expresa la suma de solapamientos de las funciones en la mezcla de funciones entre si) El reconocimiento esta basado en la similitud de la respuesta del filtro Gabor a cada nodo Gabor [4]. Este método biológicamente basado utilizando filtros Gabor es un proceso ejecutado en la corteza visual de los mamíferos más grandes. La dificultad con este método es el requerimiento de la precisa localización del punto de referencia el cual puede ser algunas veces logrado combinando los métodos PCA y LDA [4]. Figura 3: Correspondencia entre agrupaciones de grafos elásticos

 **// AVANCES //** ** RECONOCIMIENTO FACIAL Y LA PRÓXIMA GENERACIÓN DE BUSCADORES ** En los últimos años, el desarrollo de nuevas tecnologías informáticas para sistemas de seguridad ha experimentado un gran avance. Entre estos, se destacan los sistemas biométricos para el reconocimiento facial, que se perfilan como los más prometedores. Ya hace algún tiempo Google hizo un sorprendente anuncio, está desarrollando una que permitirá determinar el sexo de las personas a partir de fotografías utilizando diversos patrones de reconocimiento. Esto supone un primer paso para la búsqueda de información dentro de las imágenes basadas en sistemas inteligentes capaces de determinar qué es lo que las fotos contienen. El objetivo del buscador será devolver imágenes no en función del texto que les rodea (como se viene haciendo hasta ahora), sino a partir del contenido de la imagen. Esta es la siguiente evolución de las herramientas para la indexación de información, compuestas por sistemas expertos que serán entrenados para incrementar la habilidad de determinar, interpretar y organizar el contenido de los documentos (archivos de texto y páginas web, imágenes, vídeos, audio, etc.), superando tecnologías basadas en los tags (como Technorati o del.icio.us) o en los enlaces (Google PageRank). Google espera robustecer su servicio y software de gestión para fotografías a través del popular Picasa con la adquisición de Neven Vision, una compañía desarrolladora de software para la extracción de información sobre imágenes. El acuerdo fue anunciado por Adrian Graham, responsable de Picasa, en un blog oficial de Google: “Podría ser tan simple como detectar cuando una foto contiene una persona, o, en un futuro, tan complejo como reconocer gente, sitios y objetos”, asegura Graham. La idea es incorporar estas tecnologías en la localización de imágenes del buscador para mejorar y facilitar el modo en que trabajamos con ellos. El mismo que tiene por objetivo detectar lo que es o no una foto, si contiene personas, reconocer gente, lugares y objetos. Entendamos que no es fácil buscar a través de las fotos personales, y es ciertamente mucho más duro buscarlo por la web. A menos que nos tomemos el tiempo para insertar tags y organizar la fotos pero esto resulta contraproducente en un mundo donde el tiempo vale oro. Para que el Reconocimiento Facial funcione se necesita entrenar a un agente de reconocimiento en primer plano. En primer lugar el agente explorará las fotos o los álbumes seleccionados, y posteriormente enumerará las caras distinguidas en los grupos que representan a una persona. Por supuesto el resultado está lejos de ser perfecto, y necesita inteligencia humana para mejorar los resultados. Por ejemplo, las fotografías de una persona A se pueden mezclar con una B y así con una tercera o más, en diversos grupos con diversas personas. Entonces necesitaremos nombrar a esos grupos y arrastrar las caras alrededor. Estos grupos formarán una base de datos del reconocimiento facial. Picasa entonces etiquetará las fotos con los tags de los nombres de éstos grupo. Muchos usuarios han estado marcando manualmente las fotos con etiquetas, con este nuevo método para marcar con etiquetas inteligentes a través del reconocimiento facial reducirá grandemente la cantidad de trabajo en un 95% en mi opinión un margen satisfactorio. En una próxima fase, el reconocimiento facial de Picasa también adaptará caras de la misma persona en diversas edades. En este mismo sentido, nació el nuevo Riya.com, un servicio que permite crear automáticamente tags dentro de las fotos gracias a un sistema de reconocimiento facial. La tecnología requiere que el propio usuario vaya entrenando al sistema experto a base de identificar manualmente a las personas que hay dentro de las imágenes. MyHeritage es otro investigador en este campo y uno de los primeros servicios del mundo en aplicar tecnología de reconocimiento facial avanzada a fotos personales e historia de familia; este sistema esta compuesto por un banco de más de 4000 fotografías de personajes del mundo artístico. Como podemos observar el reconocimiento de imágenes será unos de los siguientes pasos para la evolución del Internet, la mismaque nos obliga a crear nuevos métodos para realizar búsquedas mucho más especializadas, sorprendente no!!! Buscar imágenes con imágenes y sin usar texto para encontrarlas, grandioso. ** En Japón diseñaron un sistema de reconocimiento facial para actuar como un Avatar **

Un grupo de estudiantes de la Universidad de Keio, Japón, diseñó una tecnología de reconocimiento facial y de gestos de bajo costo que sólo utiliza una pc estándar y una webcam para identificar avatares al estilo MMORPG Everquest II. El software utiliza un algoritmo que se actualiza de acuerdo a los movimientos de la cara, con un nivel de precisión y actualización impresionantes. Los encargados del desarrollo del equipo de trabajo del profesor Mitsukura esperan que este concepto pueda masificarse debido al bajo costo de funcionamiento y requerimientos de hardware sobre en tareas que hoy en día son de alta complejidad tanto a nivel conocimientos como requerimientos de equipo, como la animación o los controles de juegos estilo SOEmote.

APLICACION EN LOS CELURARES

media type="youtube" key="XH05hkkDBMw" width="425" height="350"