/ viernes 13 de diciembre de 2019

Visión Artificial

Por: Ely Judith Rosina Gallo Ramírez (CIO)

Foto: Especial

La curiosidad del ser humano dio nacimiento a esta disciplina alrededor de los años sesenta cuando algunos investigadores se preguntaban si podrían entender y replicar el funcionamiento de nuestro cerebro al momento de percibir imágenes de nuestro mundo real.

Notaron que nuestro cerebro puede resaltar ciertas características de una escena observada y en otro momento resaltar diferentes cualidades de la misma escena. Imaginemos el desafío de encontrar objetos en una foto: para localizarlas con rapidez buscamos características particulares de los objetos (como formas o colores); o cuando llenamos un vaso con agua: inconscientemente nuestra atención se centra en el borde del recipiente y poco antes de llegar a él finalizamos el llenado. Y así como en la vida cotidiana nuestro cerebro comprende la información que perciben nuestros ojos, la visión artificial pretende que una computadora interprete la información contenida en una imagen o en una secuencia de ellas.

El ojo humano recibe rayos de luz reflejados por los objetos presentes en una escena y el cerebro recibe una imagen a color cuando hay suficiente luz, o monocromática cuando la escena es oscura.

Para explicar cómo se forman las imágenes analógicas o digitales, pensemos en una cámara en cuyo interior se encuentra un sensor en forma de malla cuadriculada, donde cada cuadrito de la misma puede tener un filtro para permitir pasar determinada longitud de onda de la luz reflejada de los objetos de una escena exterior y la convierte a una señal eléctrica que es representada en un rango de valores. Supongamos que toda la malla permite pasar la misma longitud de onda, y que el valor más bajo representado es un 0 y el más alto es un 255; en este ejemplo, la cuadrícula generará una imagen monocromática donde el 0, que es la ausencia de luz, se verá como tono negro; el 255, que es la saturación de luz, se verá como tono blanco, y el rango intermedio se compondrá por grises oscuros, intermedios y claros.

Ahora consideremos que el primer cuadrito de la malla de otro sensor tiene un filtro que permite pasar la longitud de onda de luz correspondiente al color verde, que el siguiente cuadrito permite pasar la longitud de onda de luz perteneciente al color azul, y los siguientes cuadritos permiten pasar verde, azul, repetidamente hasta terminar el renglón; y que en el renglón posterior el primer cuadrito tiene un filtro que permite pasar la longitud de onda de luz correspondiente al color rojo y el siguiente permite pasar la perteneciente al verde, y de nuevo rojo, verde, de forma sucesiva. En este ejemplo, que a propósito contiene más verde porque el ojo humano es más sensible a los tonos verdes, la cuadrícula generará información a color de la escena observada, pero la información del contenido rojo, verde y azul no corresponderán a los mismos puntos espaciales de la escena, así que los fabricantes de este tipo de cámaras, aplican técnicas de interpolación de datos para generar estimaciones de tres mallas de color: una para el color rojo, otra para el verde y una más para el azul, para los mismos puntos de una escena.

Otra forma de captar información de distintas longitudes de onda de una escena es con un prisma o arreglo óptico que permita descomponer la luz incidente a la cámara y dirigir dichas componentes hacia sensores colocados en la posición donde se forma cada imagen; tal como ocurre con las cámaras que poseen tres CCDs (Charge-Coupled Device), un sensor capta toda la información del rojo, otro la información del verde y el último, la del azul; o bien, los sensores satelitales, donde no sólo se capta el reflejo de color de la escena, sino también de otras longitudes de onda del espectro electromagnético que nuestros ojos no distinguen, como es el caso del infrarrojo.

Aunque existe gran variedad de cámaras y sensores, una imagen queda representada en una malla de números para el caso monocromático, o por un conjunto de mallas de números para imágenes de color, multiespectrales, o multibandas. Por lo que el siguiente paso consiste en manipular estos arreglos de números para obtener la información que se busca y con ello tomar decisiones de manera automática.

Foto: Especial

Como se imaginarán, cuando se habla de números uno piensa en matemáticas y, efectivamente, hay que aplicar operaciones matemáticas sobre estos números, algunas de ellas muy sencillas y algunas otras tan complejas que requieren de alto desempeño computacional.

Afortunadamente, la tecnología ha avanzado enormemente en las últimas décadas y la visión artificial se ha beneficiado de ello. Cámaras, iluminadores, equipos de procesamiento y accesorios son fabricados para trabajar en ambientes específicos: laboratorios, espacios con polvo, vibración, humedad, agua, altas temperaturas, etcétera; incluso, surgieron las cámaras inteligentes que son la fusión de cámaras y procesador embebido con posibilidad de enviar señales a elementos externos.

Las aplicaciones de visión artificial son cada vez más comunes en distintos ámbitos de nuestra vida cotidiana, en la industria, en medicina, en investigaciones científicas, entre otras, y han dado lugar a sistemas de seguridad, sistemas de bio-identificación, sistemas de control de calidad en producción, sistemas de selección y clasificación de productos, sistemas OCR (reconocimiento óptico de caracteres), sistemas de visión que guían a brazos robóticos en tareas industriales, sistemas semiautomáticos de asistencia médica, sistemas de visión para metrología, sistemas de seguimiento de objetos y un sinfín de ejemplos de los que el propósito final puede ser predecir alguna acción subsecuente, dar aviso a personas o a otros sistemas automáticos, tomar decisiones o realizar tareas determinadas siendo interconectados con elementos externos como sensores, PLCs -controladores lógicos programables-, mecanismos mecánicos o neumáticos, etcétera.

En particular, en el Centro de Investigaciones en Óptica hemos atendido necesidades de la industria regional desarrollado varios proyectos de visión artificial, a saber: (a) un sistema que clasifica zanahorias por tamaño, forma y color, distinguiendo entre zanahorias de consumo nacional (ovaladas) y de exportación (en pico), detectando blemish y defectos; (b) un sistema de visión para medir y seleccionar tornillos tipo M3, el cual se utiliza en el ensamble de piezas automotrices, en el que analizamos diversas características y su calidad; (c) desarrollamos un sistema de visión para medir el perímetro de plantillas de suajes para calzado y digitalizarlas en formato CAD para su posterior corte en metal con plasma; (d) integramos un sistema de visión artificial tipo bin picking para guiar a un robot en la carga de piezas automotrices de hierro forjado desde un contenedor a una máquina polimerizadora en línea de producción, permitiendo agregar al sistema nuevos modelos de piezas y transportar el equipo a otras ubicaciones de la planta, de acuerdo a sus necesidades.

Foto: Especial

Algunos títulos y páginas de interés


- Rafael C. González y Richard E. Woods, “Digital Image Processing”.

- Emanuele Trucco y Alessandro Verri, “Introductory Techniques for 3D Computer Vision”

- Sucar, L. Enrique, y Giovani Gómez. "Visión computacional". Puebla: Instituto Nacional de Astrofísica, Óptica y Electrónica. https://ccc.inaoep.mx/~esucar/Libros/vision-sucar-gomez.pdf

- Vision Systems Design https://www.vision-systems.com/


Autora

Ely Judith Rosina Gallo Ramírez es Maestra en Ciencias con especialidad en Ciencias de la Computación y Matemáticas Industriales. Labora en el Centro de Investigaciones en Óptica (CIO), adscrita a la Dirección de Tecnología e Innovación donde se ha desempeñado trabajando en equipo desarrollando proyectos vinculados con la industria oftálmica, industria automotriz, industria del calzado y agroindustria. Desde 2013, cuenta con la Certificación Internacional PMP® (Project Management Professional) que expide el PMI. En 2015 obtuvo una Certificación Internacional de National Instruments y cuenta con una solicitud de patente ante el IMPI. Contacto: Eleonor Leon Torres en el correo eleon@cio.mx.

***

El blog México es ciencia da la más cordial bienvenida al Centro de Investigaciones en Óptica (CIO), que se suma a los Centros Conacyt que colaboran en este esfuerzo de difusión y divulgación de la ciencia. ¡Síganos en Facebook y Twitter en esta nueva etapa!

Por: Ely Judith Rosina Gallo Ramírez (CIO)

Foto: Especial

La curiosidad del ser humano dio nacimiento a esta disciplina alrededor de los años sesenta cuando algunos investigadores se preguntaban si podrían entender y replicar el funcionamiento de nuestro cerebro al momento de percibir imágenes de nuestro mundo real.

Notaron que nuestro cerebro puede resaltar ciertas características de una escena observada y en otro momento resaltar diferentes cualidades de la misma escena. Imaginemos el desafío de encontrar objetos en una foto: para localizarlas con rapidez buscamos características particulares de los objetos (como formas o colores); o cuando llenamos un vaso con agua: inconscientemente nuestra atención se centra en el borde del recipiente y poco antes de llegar a él finalizamos el llenado. Y así como en la vida cotidiana nuestro cerebro comprende la información que perciben nuestros ojos, la visión artificial pretende que una computadora interprete la información contenida en una imagen o en una secuencia de ellas.

El ojo humano recibe rayos de luz reflejados por los objetos presentes en una escena y el cerebro recibe una imagen a color cuando hay suficiente luz, o monocromática cuando la escena es oscura.

Para explicar cómo se forman las imágenes analógicas o digitales, pensemos en una cámara en cuyo interior se encuentra un sensor en forma de malla cuadriculada, donde cada cuadrito de la misma puede tener un filtro para permitir pasar determinada longitud de onda de la luz reflejada de los objetos de una escena exterior y la convierte a una señal eléctrica que es representada en un rango de valores. Supongamos que toda la malla permite pasar la misma longitud de onda, y que el valor más bajo representado es un 0 y el más alto es un 255; en este ejemplo, la cuadrícula generará una imagen monocromática donde el 0, que es la ausencia de luz, se verá como tono negro; el 255, que es la saturación de luz, se verá como tono blanco, y el rango intermedio se compondrá por grises oscuros, intermedios y claros.

Ahora consideremos que el primer cuadrito de la malla de otro sensor tiene un filtro que permite pasar la longitud de onda de luz correspondiente al color verde, que el siguiente cuadrito permite pasar la longitud de onda de luz perteneciente al color azul, y los siguientes cuadritos permiten pasar verde, azul, repetidamente hasta terminar el renglón; y que en el renglón posterior el primer cuadrito tiene un filtro que permite pasar la longitud de onda de luz correspondiente al color rojo y el siguiente permite pasar la perteneciente al verde, y de nuevo rojo, verde, de forma sucesiva. En este ejemplo, que a propósito contiene más verde porque el ojo humano es más sensible a los tonos verdes, la cuadrícula generará información a color de la escena observada, pero la información del contenido rojo, verde y azul no corresponderán a los mismos puntos espaciales de la escena, así que los fabricantes de este tipo de cámaras, aplican técnicas de interpolación de datos para generar estimaciones de tres mallas de color: una para el color rojo, otra para el verde y una más para el azul, para los mismos puntos de una escena.

Otra forma de captar información de distintas longitudes de onda de una escena es con un prisma o arreglo óptico que permita descomponer la luz incidente a la cámara y dirigir dichas componentes hacia sensores colocados en la posición donde se forma cada imagen; tal como ocurre con las cámaras que poseen tres CCDs (Charge-Coupled Device), un sensor capta toda la información del rojo, otro la información del verde y el último, la del azul; o bien, los sensores satelitales, donde no sólo se capta el reflejo de color de la escena, sino también de otras longitudes de onda del espectro electromagnético que nuestros ojos no distinguen, como es el caso del infrarrojo.

Aunque existe gran variedad de cámaras y sensores, una imagen queda representada en una malla de números para el caso monocromático, o por un conjunto de mallas de números para imágenes de color, multiespectrales, o multibandas. Por lo que el siguiente paso consiste en manipular estos arreglos de números para obtener la información que se busca y con ello tomar decisiones de manera automática.

Foto: Especial

Como se imaginarán, cuando se habla de números uno piensa en matemáticas y, efectivamente, hay que aplicar operaciones matemáticas sobre estos números, algunas de ellas muy sencillas y algunas otras tan complejas que requieren de alto desempeño computacional.

Afortunadamente, la tecnología ha avanzado enormemente en las últimas décadas y la visión artificial se ha beneficiado de ello. Cámaras, iluminadores, equipos de procesamiento y accesorios son fabricados para trabajar en ambientes específicos: laboratorios, espacios con polvo, vibración, humedad, agua, altas temperaturas, etcétera; incluso, surgieron las cámaras inteligentes que son la fusión de cámaras y procesador embebido con posibilidad de enviar señales a elementos externos.

Las aplicaciones de visión artificial son cada vez más comunes en distintos ámbitos de nuestra vida cotidiana, en la industria, en medicina, en investigaciones científicas, entre otras, y han dado lugar a sistemas de seguridad, sistemas de bio-identificación, sistemas de control de calidad en producción, sistemas de selección y clasificación de productos, sistemas OCR (reconocimiento óptico de caracteres), sistemas de visión que guían a brazos robóticos en tareas industriales, sistemas semiautomáticos de asistencia médica, sistemas de visión para metrología, sistemas de seguimiento de objetos y un sinfín de ejemplos de los que el propósito final puede ser predecir alguna acción subsecuente, dar aviso a personas o a otros sistemas automáticos, tomar decisiones o realizar tareas determinadas siendo interconectados con elementos externos como sensores, PLCs -controladores lógicos programables-, mecanismos mecánicos o neumáticos, etcétera.

En particular, en el Centro de Investigaciones en Óptica hemos atendido necesidades de la industria regional desarrollado varios proyectos de visión artificial, a saber: (a) un sistema que clasifica zanahorias por tamaño, forma y color, distinguiendo entre zanahorias de consumo nacional (ovaladas) y de exportación (en pico), detectando blemish y defectos; (b) un sistema de visión para medir y seleccionar tornillos tipo M3, el cual se utiliza en el ensamble de piezas automotrices, en el que analizamos diversas características y su calidad; (c) desarrollamos un sistema de visión para medir el perímetro de plantillas de suajes para calzado y digitalizarlas en formato CAD para su posterior corte en metal con plasma; (d) integramos un sistema de visión artificial tipo bin picking para guiar a un robot en la carga de piezas automotrices de hierro forjado desde un contenedor a una máquina polimerizadora en línea de producción, permitiendo agregar al sistema nuevos modelos de piezas y transportar el equipo a otras ubicaciones de la planta, de acuerdo a sus necesidades.

Foto: Especial

Algunos títulos y páginas de interés


- Rafael C. González y Richard E. Woods, “Digital Image Processing”.

- Emanuele Trucco y Alessandro Verri, “Introductory Techniques for 3D Computer Vision”

- Sucar, L. Enrique, y Giovani Gómez. "Visión computacional". Puebla: Instituto Nacional de Astrofísica, Óptica y Electrónica. https://ccc.inaoep.mx/~esucar/Libros/vision-sucar-gomez.pdf

- Vision Systems Design https://www.vision-systems.com/


Autora

Ely Judith Rosina Gallo Ramírez es Maestra en Ciencias con especialidad en Ciencias de la Computación y Matemáticas Industriales. Labora en el Centro de Investigaciones en Óptica (CIO), adscrita a la Dirección de Tecnología e Innovación donde se ha desempeñado trabajando en equipo desarrollando proyectos vinculados con la industria oftálmica, industria automotriz, industria del calzado y agroindustria. Desde 2013, cuenta con la Certificación Internacional PMP® (Project Management Professional) que expide el PMI. En 2015 obtuvo una Certificación Internacional de National Instruments y cuenta con una solicitud de patente ante el IMPI. Contacto: Eleonor Leon Torres en el correo eleon@cio.mx.

***

El blog México es ciencia da la más cordial bienvenida al Centro de Investigaciones en Óptica (CIO), que se suma a los Centros Conacyt que colaboran en este esfuerzo de difusión y divulgación de la ciencia. ¡Síganos en Facebook y Twitter en esta nueva etapa!