viernes, 12 de septiembre de 2014

Procesasamiento de Imágenes Digitales



¿Qué es el Procesamiento de Imágenes Digitales?

Una imagen puede ser definida como una función dos-dimensional f(x,y), donde x e y son coordenadas espaciales, y la amplitud de f en cualquier par de coordenadas se denomina intensidad o nivel de gris de la imagen en el punto. Cuando x, y y los valores de la amplitud de f son todos finitos, cantidades discretas, estaremos ante una imagen digital. El procesamiento de imágenes digitales concierne al uso del ordenador en el procesamiento de imágenes. Note que una imagen digital está compuesta de un número finito de elementos, cada uno de ellos teniendo una particular localización y valor. Esos elementos se llaman elementos pictóricos, elementos unidad de imagen o píxeles.

Ejemplo de Procesamiento de imagenes


Diferentemente a los seres humanos, que están limitados a la banda visual del espectro electromagnético (EM), las máquinas de imagen cubren prácticamente todo el espectro EM desde los rayos gamma hasta las ondas de radio. Pueden trabajar también con imágenes generadas por fuentes que los humanos no están acostumbrados a asociar con imágenes. Estas fuentes incluyen las imágenes ultrasónicas, la microscopía electrónica y las imágenes generadas por ordenador. En definitiva, el procesamiento de imágenes digitales concierne a un amplio y variado elenco de campos de aplicación. No existe un acuerdo unánime de cuáles son los tópicos que cubre el Procesamiento de Imágenes Digitales y cuáles son sus interrelaciones con otras áreas como Visión por Ordenador o Informática Gráfica.



Desde los años sesenta del siglo pasado, el procesamiento de imágenes digitales se ha convertido gradualmente en una de las áreas de investigación científica más importantes. Sin embargo, como cualquier algoritmo de procesamiento de imágenes requiere una vasta capacidad de procesamiento, su desarrollo limitado ha estado en las manos de unos pocos expertos. Pero con el desarrollo rápido de los ordenadores, muchas personas han ido apuntando su gran interés por el procesamiento de imágenes. El desarrollo del procesamiento de imágenes está siendo acelerado aún más con el rápido avance de las tecnologías relacionadas con la computación en paralelo, la maximizada capacidad de memoria de los chips, y el sistema de visualización en color de alta-resolución.



Que es una Interfaz Gráfica de Usuario (GUI).

En los sistemas informáticos, la relación humano-computadora se realiza por medio de la interfaz, que se podría definir como mediador. Cuando existen dos sistemas cualesquiera que se deben comunicar entre ellos la interfaz será el mecanismo, el entorno o la herramienta que hará posible dicha comunicación.
Podríamos definir básicamente dos tipos de interfaces:

  • La interfaz física: un ratón y un teclado que sirven para introducir y manipular datos en nuestro ordenador.
  • La interfaz virtual o interfaz gráfica (GUI) que permite, mediante iconos (cursor + objetos gráficos metafóricos), interactuar con los elementos gráficos convirtiendo al ser humano en usuario de la aplicación.
Estas dos mediaciones son relaciones del tipo entrada de datos (input). Al igual que tenemos una entrada, necesitamos algo que facilite la salida de datos (output), para esto tenemos, por ejemplo, la pantalla de la computadora, donde se visualizan estas interfaces gráficas, o la impresora, donde se imprimen los datos.

En definitiva GUI es una interfaz de usuario en la que una persona interactúa con la información digital a través de un entorno gráfico de simulación. Este sistema de interactuación con los datos se denomina WYSIWYG (What you see is what you get, ‘lo que ves es lo que obtienes’), y en él, los objetos, iconos (representación visual) de la interfaz gráfica, se comportan como metáforas de la acción y las tareas que el usuario debe realizar (tirar documento = papelera). Estas relaciones también se denominan interfaces objetos-acción (object-action-interface, OAI).

Para diseñar una interfaz es necesario pasar por cuatro etapas:

  1. Análisis de requerimientos del producto, análisis de las tareas. Conocimiento del usuario. Generación de posibles metáforas y análisis del tipo de diálogo. Revisión.
  2. Generación de prototipos virtuales (layouts) o físicos para investigar desde lo general hasta el detalle. Desarrollo de la aplicación, del sitio o del sistema.
  3. Planificación (desarrollo del plan, definición de las medidas, selección de participantes, formación de observadores, preparación de los materiales). Test (prueba piloto, test con usuarios).
  4. Conclusión (análisis de los datos, elaboración del informe, resultados y recomendaciones). Comparación con estándares (internos y/o externos), versiones anteriores del mismo producto y productos competidores. Verificación de las diferencias. Generación de nuevas metas.

Coimo Funciona una GUI

Con todas estas fases cubiertas conseguiremos ajustar las necesidades y acercarnos más a la meta deseada de transparencia y flexibilidad de uso de una interfaz gráfica de usuario.



Formatos gráficos de almacenamiento
 
Al momento de almacenar una imagen digital podemos elegir de entre varios formatos en que la información de tonos, brillos y contrastes va a ser recogida. Unos de ellos son comprimidos: algunos con pérdidas y otros sin ellas; otros en cambio no tienen compresión alguna. En algunos casos nos importará que ocupen poco espacio porque tengamos memoria limitada, o porque queramos que tarden poco en descargarse desde Internet. En otros casos, nos interesará tener la máxima calidad posible y poco importará el espacio que puedan ocupar.
Características de una imagen digital

Dos son las características fundamentales que varían entre los diferentes formatos:
·         Profundidad de color: se trata del número máximo de colores diferentes que puede contener una imagen en un formato.

·         Compresión: si el almacenamiento de la información binaria es tal cual, o previo paso por una etapa de compactación de la información.

¿Compresión o no compresión?

Obviamente, las imágenes en formatos comprimidos de un tamaño y profundidad de color dados ocupan menos que las no comprimidas. Al mismo tiempo, sucede que al abrirlas y escribirlas tras haberlas modificado hay que descomprimirlas en el primer caso y comprimirlas en el otro. Sin embargo, estos procesos de compresión/descompresión no llevan apenas tiempo.

Realmente, la pregunta no es tanto: ¿Compresión o No compresión? sino ¿Compresión con pérdidas o no? 

¿Qué significa compresión con pérdidas?

Se trata de un mecanismo de compactación de la información de las imágenes digitales en que se consiguen unos elevados ratios de compresión. Aunque conllevan una pérdida en la información y por tanto en la calidad de la imagen. En los formatos de compresión con pérdidas se aplican algoritmos que permiten decidir cuál es la información menos relevante para el ojo humano y la desechan. A mayor cantidad desechada mayor compresión, menor espacio, pero también menor calidad.

Formatos de ficheros de imágenes digitales

TIFF (Tagged Image File Format o formato de archivo de imágenes con etiquetas): es uno de los formatos de almacenamiento sin pérdidas que usan muchas cámaras digitales. También se usa en los programas de retoque de imágenes digitales. Es un formato de almacenamiento de la más alta calidad. Admite una profundidad de color de 64 bits, aunque gracias al uso de un algoritmo de compresión sin pérdidas consigue reducir su nivel de espacio.

RAW (en inglés significa crudo): se usa como alternativa a TIFF. Consiste en almacenar directamente la información que procede del sensor de la cámara digital. Si hubiera que convertirla a TIFF el proceso tendría una mayor demora y requeriría mayor espacio de almacenamiento. Los formatos RAW suelen ser distintos entre los fabricantes. Como inconveniente tiene que para poder trabajar con las imágenes en un PC o para imprimirlas hay que llevar a cabo su conversión a otro formato estándar, lo cual lleva un cierto tiempo. Sin embargo, el nivel de calidad que tienen las imágenes en RAW es semejante al de las imágenes TIFF.

JPEG (Joint Photographic Experts Group o Grupo de Expertos en un Conjunto de Fotografías): es uno de los formatos más populares, siendo uno de los más usados también en Internet. Permite almacenar y transmitir las imágenes ocupando muy poco espacio, aunque con pérdidas de calidad. Afortunadamente se puede decidir el nivel de pérdidas (y por tanto de calidad) que se desea tener. Aún con los niveles de calidad más altos en JPEG el ahorro de espacio es considerable frente a, por ejemplo, un fichero TIFF.

GIF (Graphics Interchange Format o Formato de intercambio de gráficos): es el otro gran conocido de los internautas. Utiliza un algoritmo de compresión sin pérdidas. Sin embargo, la calidad en las imágenes no llega a ser muy alta por su limitada profundidad de color (sólo 8 bits). Permite transparencias e imágenes rodantes (que reciben el nombre de GIF’s animados).

PNG (Portable Network Graphics o Gráficas Portables para Red): otro de los formatos de Internet, aunque no tan popular como los dos anteriores. Ha sido concebido como el sustituto de GIF, incrementando su profundidad de color (hasta los 48 bits) y usando un mecanismo de compresión sin pérdidas mejorado.

PSD (Extensión de los ficheros creado por Photoshop): se trata del formato nativo del conocido programa de retoque fotográfico Photoshop. Admite capas, texto y almacena el estado de edición / manipulación en que puede haber quedado una imagen. Permite almacenar las imágenes con la calidad más alta, aunque a costa del uso de un gran espacio en disco.




Hardware y Software disponibles para la Graficacion

Hardware:

Un sistema gráfico tradicional consta de cuatro componentes: procesador, unidad de procesamiento gráfico, dispositivos de entrada y dispositivos de salida. El procesador desempeña un papel central en cualquier sistema gráfico y cada uno de los demás componentes debe comunicarse en algún momento con otro, o con el procesador mediante un canal de datos.

Generalmente el dispositivo principal de salida de un sistema gráfico es un monitor de video. El tipo más común es un CRT y actualmente se incrementa el uso de los LCD.
La pantalla de video que utilizan la mayoría de las microcomputadoras se dividen en pequeños puntos. Cada uno de esos puntos se denomina pixel (picture element). Discretamente, el CRT es representado por una rejilla de líneas verticales y horizontales.
A cada línea horizontal se le conoce como línea de barrido mientras que la presentación de video se denomina presentación por barrido.


Pantalla LCD


La calidad de una presentación por barrido se describe de acuerdo a su resolución. La resolución se determina por el número de líneas de barrido y pixeles por línea. Cuanto mayor sea la resolución más detallada resultará la imagen. Las presentaciones de baja resolución tienen cerca de 300 líneas de barrido, cada una con aproximadamente 400 pixeles. Las presentaciones de alta resolución tienen por lo menos 1000 líneas de barrido, con más de 1000 pixeles por línea.

La cantidad de memoria de video requerida para almacenar una pantalla se determina multiplicando el número de pixeles horizontales, el número de pixeles verticales y el número de bytes usados para codificar un pixel. Memoria de video = Res. H x Res. V x Núm. de bytes por pixel.

El controlador de video es un dispositivo de hardware que lee el contenido de la memoria de video y lo deposita en un buffer de video, para luego convertir la representación digital de una cadena de valores de pixeles en señales analógicas de tensión que se envían en serie a la pantalla de video. Siempre que el controlador encuentra un valor de 1 en la memoria de video, se envía una señal de alta tensión al CRT, el cual enciende el pixel correspondiente en pantalla.
Tarjeta de Video


El usuario de un sistema gráfico se comunica con el programa por medio de ciertos dispositivos de entrada y obtiene los resultados en los dispositivos de salida, el hardware gráfico también incluye a las tarjetas gráficas.




Software:

Una representación gráfica consisten en un conjunto de pixeles que se obtiene a partir de una idea de más alto nivel; como puede ser la descripción de la gráfica en términos de líneas, arcos, colores etc. o incluso en términos de objetos tridimensionales, puntos de vista e iluminación.

El cómo llegar de estas descripciones de alto nivel al conjunto de pixeles final es algo de lo que las diferentes partes del sistema se deberán encargar; por lo general el programador dispone de una serie de librerías de programación gráfica que le permiten escribir aplicaciones sin tener que llegar a conocer en detalle el hardware sobre el que se ejecutará su código, y sin tener que escribir desde el principio miles de procedimientos que, además, distan de ser triviales. Ejemplos de estas librerías podrían son OpenGL de SGI y Direct3D de Microsoft.

Por lo general, estas librerías permiten trabajar creando estructuras en un sistema de coordenadas local, integrar estas estructuras en una escena más compleja que utilizan un sistema de coordenadas global o “de mundo”. De algún modo, el software transformara estas coordenadas de dispositivo normalizado (independiente de las dentaduras características físicas del dispositivo real) y en un último paso estas se ajustaran el rango de salida del dispositivo final.

Los bloques de construcción básicos se conocen como primitivas y pueden incluir desde un mínimo de líneas, círculos, caracteres, etc. En dos dimensiones hasta mallas de polígonos tridimensionales, definiciones de luces, etc.

Graficacion con fismatlab


Conclusión.

Como conclusión el procesamiento de imágenes digitales, en términos generales, envuelve al reconocimiento de imágenes 2D, 3D y secuencias de imágenes mejor conocidas como animaciones. El procesamiento de imágenes se caracteriza principalmente por el uso de software editor de imágenes el más popular y conocido es Photoshop de adobe, con el cual se pueden retocar, reconstruir, aplicar diferentes filtros, etc, a una imagen previamente seleccionada e incluso podemos crear nuevas imágenes con este software.

Con el constante avance de la tecnología de computadoras, el entorno grafico es lo de hoy, y es que el entorno de línea de comandos ha quedado prácticamente obsoleto, y es que las interfaces graficas de usuario están presentes en nuestra vida diaria y no necesariamente tenemos que ser afines a las ciencias de computación, basta con ver nuestro móvil o Smartphone y este está completamente diseñado en una interfaz gráfica de usuario, también con el auge que han traído las tablets y es que están diseñadas completamente en interfaces graficas de usuario, y que decir de los sistemas operativos que cada día son más fáciles de utilizar gracias a su ambiente gráfico y basta con ver las versiones más nuevas de Windows y Mac.

Los dispositivos de hardware y software son muy necesarios para para poder utilizar esta técnica de graficación, cada componente del hardware tiene una función específica, la tarjeta gráfica se encarga del procesamiento de la imagen y el monitor de mostrarnos dicha imagen, al igual que existen distintos software desde los más sencillos como un visor de imágenes que nos permiten verlas, o software más complicado que nos permita manipular las imágenes.

Bibliografía
http://www.vicomtech.org/t1/e7/procesamiento-de-imagenes
http://www.ecured.cu/index.php/Interfaz_gr%C3%A1fica_de_usuario_%28GUI%29
http://giga.cps.unizar.es/~spd/work/curso_hs/
https://sites.google.com/site/ticvalcarcel/optimizacion-de-imagenes-para-internet/tipos-de-imagenes-y-formatos

No hay comentarios:

Publicar un comentario