Trabajo con Datos de Color para procesamiento de imagenes HDR

Post date: abril 01, 2016 | Category: Décima Tercera Edición Abril 2013

Trabajo con Datos de Color para procesamiento de imágenes HDR

Autor: Natalia Gurieva

Co-autor: Cynthia Villagómez

CA   Sistemas Computacionales Aplicados al comportamiento Ético

Las imágenes HDR o el procesamiento de imágenes HDR es el nombre genérico de la tecnología usada para la captura digital, almacenamiento y edición de imágenes cuyo rango de luminosidad excede las capacidades del estándar tecnológico que se tiene. Esto permite registrar un rango de detalles tonales mucho más grande de lo que una cámara puede capturar con una sola exposición, Las fotos con rango dinámico standard permiten mostrar un rango luminoso de cerca de  1000:1, mientras que las escenas reales que vemos a diario poseen normalmente un rango dinámico de 1000 000:1 o más. La meta de nuestra investigación es administrar correctamente el uso del color en las fotografías HDR que capturan el rango tonal de las escenas del mundo real. El uso de ésta tecnología nos permite trabajar con un rango completo de la luminosidad de la escena, pues las imágenes HDR tienen valores de punto flotante con 32 bits por canal de color.

El propósito de un flujo de color bien realizado usando un sistema de gestión de color es proveer colores predecibles y necesarios a lo largo de todo el proceso de reproducción. La gestión del color como parte de cualquier sistema de creación de imágenes nos permite controlar y estandarizar el proceso de reproducción del color a partir de los valores de entrada originales hacia los valores de impresión y salida eventuales. El trabajo de color va encaminado hacia asegurar una buena coincidencia de los colores durante todas las transformaciones digitales que se hagan, los perfiles de los dispositivos de color son los componentes requeridos para transmitir la información de color que conlleva el sistema de creación de imagen HDR. Dichos perfiles describen las disposiciones en un espacio de color independiente de dispositivos y permite que el sistema pueda manipularlos.

La investigación se enfoca en el desarrollo de un trabajo previsible en los datos de color para el procesamiento de imagen HDR. Por ésta razón nos concentraremos en un concepto referenciado a escenas que representa los valores (de color, luminosidad y detalle) de la escena original. La técnica HDR requiere un método especial de creación de perfiles ICC que utilicen modelos de color del tipo CIECAM02 y una profundidad de bits muy alta. La meta de éste proyecto el proponer un trabajo completo de datos de color digital y perfiles ICC previamente conocidos  de la captura de datos RAW y renderización de escenas HDR a una imagen con codificación en una salida referenciada.

Los resultados teóricos y prácticos de ésta investigación serán publicados en diarios científicos y promovidos en conferencias relacionadas.

1.            Reducción de HDR a LDR

La comunidad científica computacional ha ideado muchos esquemas diferentes para transformar imágenes HDR a LDR (Las fotos normales de una sola exposición o Rango dinámico bajo) o el tone-mapping.

En su escrito de 1993 “Reproducción de tonos para imágenes realistas”, Jack Tumblin investigó un método para mostrar imágenes generadas por computadora y que explican la diferencia en la visión humana y los ajustes convencionales de pantalla [1]. En 1997 Greg Ward introdujo un método para el cambio de tonos de HDR para LDR que involucraban alterar el histograma de la imagen para sustituir las áreas más luminosas sin perder detalle en la imagen [2]. Éste método produce imágenes suavizadas y limpias, y trabaja realmente bien, pero cuando observamos un área que tenga iluminación directa del sol a un costado de un área completamente sombreada, la imágenes se ve como si todos los pixeles se hubieran dividido entre luz y oscuridad. Esto hace a la imagen demasiado contrastante al grado de parecer que no tiene medios tonos, que es  donde nuestros ojos están acostumbrados a buscar los detalles de una imagen. En consecuencia, la imagen sube su calidad según  la medida en que las diferentes áreas se beneficien de los ajustes hechos a sus histogramas por separado.

Entonces, Jack Tumblin publicó su LCIS o “Simplificador de Imágenes de Baja Curvatura” en su escrito de 1999 “LCIS: Una jerarquía delimitadora para la Reducción de Contraste con Preservación de Detalles” [3].  LCIS examina el gradiente de la intensidad y usa un modelo de disipación de calor (difusión anisotrópica) para determinar cómo reducir el contraste entre gradientes con valores muy separados el uno del otro sin perder ni el más mínimo detalle.

Tan solo en SIGGRAPH, había tres nuevos métodos para escaneo de tonos en imágenes HDR, y los resultados ofrecidos al imprimirse en papel fueron muy impresionantes. Uno de éstos métodos es el”Filtro Bilateral rápido para la visualización de Imágenes de Alto Rango Dinámico”. Esencialmente, éste método usa un filtro de preservación de bordes y separa una imagen dentro de una capa de detalle (Alta Frecuencia) y una capa base (Baja Frecuencia), y entonces reduce el contraste de la capa base para encajar dentro del espacio LDR, dejando al mismo tiempo la capa de detalle sin cambios con la preservación de detalle como su principal propósito también [4].

Otro método presentado en SIGGRAPH fue el de “Reproducción de Tonos Fotográficos para Imágenes Digitales” formulado por Erik Reinhard. Ésta técnica trata de duplicar el Sistema de Zona que fue desarrollado por Ansel Adams y es un método usado por fotógrafos convencionales con el fin de obtener una fotografía con una correcta exposición incluso en escenas inusualmente brillosas (o en “clave alta”)  u oscuras (o de  “clave baja”). Éste método funciona empujando la intensidad promedio o clave de la imagen hacia las zonas. Ésto también se observa en las áreas delimitadas por altos contrastes, y usando “sobreexposición” y “subexposición”, dos términos tomados de la fotografía común, para preservar detalles en las áreas brillantes y también en las oscuras. Realizar la sobre y sub exposición en los medios digitales consiste en tratar ésas áreas como imágenes separadas, seleccionando una clave local para dichas áreas [5].

En el año 2002, Fattal y Lischinski presentaron “Compresión de Alto Rango Dinámico con Dominio de Gradiente”, la cual analiza los gradientes de color y luz en la intensidad de la imagen y comprime solo gradientes amplios, dejando  aislados a su vez los gradientes cortos. Esto preserva el detalle, al tiempo que lleva el rango dinámico de la imagen hacia abajo hasta llegar al punto donde estará listo para mostrarse en pantallas convencionales. [6]

2. Creación de Imágenes HDR

 Vale la pena mencionar sobre las imágenes HDR para comenzar con ellas que hay varias opciones para crear una sola imagen HDR de exposiciones múltiples, y que parecen dar resultados comparables. Una forma de crear una imagen HDR es sintéticamente, renderizando una escena desde un software de edición de imágenes. Radiance es una de ésas paqueterías, y es de las primeras en usar el formato de Alto Rango Dinámico. De hecho, el formato nativo de Radiance es .hdr, el cual sigue siendo actualmente uno de los formatos prevalecientes.

Otra forma de obtener las imágenes es capturar datos HDR directamente usando hardware, lo cual es sumamente caro. Tal cámara es usada generalmente para capturar  mapas de entorno HDR. Una compañía llamada Spheron fabrica la “SpheroCam HDR,” capaz de capturar 26 grados de diafragma de rango dinámico en una sola exposición. Desafortunadamente, ésta cámara está valuada en $65,000,  lo cual hace poco práctico para cualquiera que no use ésta cámara por préstamo escolar o por ser empleado en un estudio que cuente con ella.

Ahora llegamos a la última forma, la cual es el modo más frecuente entre el común de las personas, que no cuentan con los medios para comprar el citado hardware. El modo es ajustar una cámara en un tripié y tomar múltiples exposiciones de la misma escena, variando la velocidad del obturador para cada exposición. Después la secuencia de fotografías puede ensamblarse en una sola imagen en HDR usando los datos individuales de cada fotografía, combinado con el conocimiento de exposición relativa de cada imagen La intensidad de cada pixel puede ser calculada analizando al mismo pixel en cada exposición. Éste método fue presentado por Paul Debevec en SIGGRAPH. Debevec  también creó un Software llamado HDR Shop específicamente para el empalme de imágenes HDR. Greg Ward, creador de la paquetería Radiance, publicó un software llamado Photosphere que también empalma imágenes  para hacer HDR. Él también lanzó una utilidad de línea de comandos llamada hdrgen, la cual puedo catalogar por ser lo más útil que se ha ideado en mucho tiempo para el empalme de imágenes para HDR, esto debido a que la interfaz de la línea de comandos  nos permite automatizarlos y nos facilita nuestro propósito.

El objeto de la investigación son las transformaciones, tanto lineales como no lineales del color así como algoritmos para calcular las características de color de las imágenes HDR cuando usamos los perfiles ICC.

Las materias de la investigación son:

– Bases metodológicas y de aplicación algorítmica de los procedimientos de transformación de datos gráficos para el procesamiento de imágenes HDR.

– Análisis de imágenes HDR para las transformaciones de color extra; modelado y predicción de su comportamiento y estado.

– Procedimientos óptimos de transformación de color en sistemas digitales.

Problema a resolver – El estudio de las bases teóricas, algorítmicas y metodológicas de reproducción asumida mediante los métodos de evaluación de la calidad de color de las imágenes digitales.

El objetivo de éste proyecto es proponer un trabajo de datos de color completamente digital y de los perfiles ICC relacionados con la captura de datos RAW y el renderizado de escenas HDR para una codificación de imágenes con una salida referenciada.

Por supuesto que también la formación de nuevos recursos humanos juega un papel crucial entre los objetivos generales del proyecto, pues éste gran trabajo debe encontrar eco en los estudiantes interesados en adquirir éstos conocimientos incorporándose a ésta fructífera línea de investigación

Las metas particulares del proyecto son las siguientes:

1) Investigación de las transformaciones no lineales de los colores durante el renderizado de escenas HDR.

2) Desarrollo de nuevos métodos y mejoras de métodos conocidos de creación de perfiles ICC como la parte más importante del trabajo de datos de color para el procesamiento de imagen de alto rango dinámico.

3) Estudio y mejora de métodos modernos para renderizar imágenes HDR.

4) Estudio de métodos avanzados de evaluación de la calidad de imágenes HDR.

5) Investigación sobre la influencia de cambios adicionales a la calidad de la imagen HDR.

6) Desarrollar procedimientos para integrar los métodos propuestos a un sistema existente de creación de imágenes.

7) Generar recursos humanos especializados en las Artes Digitales. Los estudiantes se involucrarán en la investigación de la influencia de transformaciones adicionales en la calidad de las imágenes HDR.

 

Metodología

Esta propuesta consiste en cuatro etapas: captura de imagen, generación de HDR, tone-mapping y exhibición. El proceso básico es el mismo para imágenes fijas y las secuencias de intervalo de tiempo. La principal diferencia es que por cada intervalo de tiempo, los lotes de imágenes deben de ser manejadas, y exhibidas  a través de algún formato de película, semejante a Quicktime, y no en TIFF o JPG.  Por supuesto, que el tema es un poco diferente, cuando tratamos con el intervalo del tiempo que con imágenes fijas, y esto toma mucho más para recopilar los datos.

1.            Captura de imagen

Cuando utilizamos el método de exposición múltiple para capturar información para una sencilla imagen HDR, es necesario tomas diferentes exposiciones, alterando la exposición de diferentes niveles de luz. La velocidad de obturación debe de ser variada, en lugar del diafragma, ya que variando el diafragma introducirá diferencias en el enfoque, debido al cambio de profundidad de campo. El mejor nivel de detalle y claridad es alcanzado mediante el comienzo de una velocidad rápida del obturador,  lo suficiente para tomar las iluminaciones más brillantes en la escena, con ningún pixel que alcance el valor de 255. Para la siguiente exposición, el tiempo que el obturador que queda abierto debe de ser duplicado, repitiendo esto hasta que la imagen sea en su mayoría colores blancos, con solo los objetos más oscuros  conservando el detalle.

Esto no es, sin embargo, absolutamente necesario para tomar una exposición en cada intervalo del diafragma. Es posible aumentar la cantidad de luz que permite dos aberturas de diafragma (cuádruple de cantidad de luz), o en incluso cuatro  aberturas.

Algunos detalles y la suavidad de la imagen son sacrificados al usar una mayor distancia entre los diafragmas (capturando con cuatro aberturas separadas, por ejemplo), pero el tiempo de captura y el espacio en disco son reducidos de manera considerable.

Dependiendo de la configuración utilizada, el tiempo de captura no es solo el momento que se utiliza con el obturador abierto, ya que cada imagen también debe ser descargada de la computadora antes de la siguiente posible toma.

El proceso básico para una secuencia de intervalo es la misma, con algunas consideraciones. La pregunta de cuantas aberturas hay entre exposición se torna relevante.

El espacio necesario en disco por cada secuencia de imágenes cada pocos minutos durante el curso de todo un día, puede llenar el almacenamiento de una computadora portátil (laptop), y capturando todas las diafragmas, en otros medios, el almacenamiento puede reducir hasta la mitad. Además, si más exposiciones son tomadas, para construir cada uno de los marcos HDR, el tiempo para capturar el marco HDR aumenta, y la cantidad de cuadros capturados por hora disminuye, lo que puede permitir secuencias de intervalo de tiempo que no son muestra a menudo suficiente para que el espectador pueda ver adecuadamente lo que esta sucediendo. Para mejores resultados, el número de diafragmas, entre las exposiciones pueden ser balanceadas entre la calidad de imagen y la velocidad de captura. Esto es probablemente, al menos parcialmente, la dependencia de la cámara, ya que algunas cámaras probablemente sean hábiles para transferir su información más rápido que otro. 

Por ejemplo una cámara USB, no será hábil para competir con una cámara Fireware,  en términos de transmisión de información, pero la cámara USB es mucho más accesible y común el día de hoy.

2.            Creación de imágenes HDR

Hay varias opciones para la creación de una simple imagen HDR de exposiciones múltiples, y estas parecen ceder en pos de resultados comparables.  El más común es HDR SHOP, escrito por Paul Debevec. Esta es la única aplicación compatible con Windows. El mundo de Macintosh tiene GREG WARD’S PHOTOSPHERE, que esencialmente realiza lo mismo (y también cataloga imágenes). Ambas aplicaciones están basadas en GUI, por lo que manejan bien los lotes, aunque no se adaptarían de manera adecuada a la exhibición de tiempo fotográfica.

Es poco practico construir manualmente cada imagen, ya que la cantidad de clics y tecleos no solo nos llevaría horas y horas, también es un camino directo para un esfuerzo repetitivo. Afortunadamente, Greg Ward también dio a conocer hdrgen, que es una utilidad de línea de comandos para LINUX y Macintosh. Esto significa que hdrgen and BASIC PERL Script son necesarias y suficientes para convertir una secuencia entera de imágenes LDR a una secuencia de imágenes HDR.

Una consideración importante a tener en cuenta en la generación de las imágenes es la cuestión del formato en el que los archivos deben de ser escritos. El formato más común es el Radiance (.hdr) que almacena los pixeles en formato RGB. Un byte esta destinado a los colores rojo, verde, azul y al exponente de cada canal. Para los canales rojo, verde y azul, el byte describe la mantissa (la parte decimal de el número), y el canal exponente es el  compartido entre los tres canales de color.  Esto permite una tremenda gama dinámica de 76 ordenes de magnitud, y en realidad 62 ordenes de magnitud más de los que se observan en el mundo natural, por lo menos aquí en la tierra.

Por supuesto que hay desventajas en este formato. Una de ellas es que se debe sacrificar en cierta forma parte de la precisión del rango dinámico. Un byte describe la matissa de casa canal, y la exposición compartida, que significa que la exposición de dos canales es muy grande, y un número cercano a cero no es posible para el tercer canal. Otro inconveniente es que los valores negativos son imposibles, lo que limita la descripción de algunos espacios de color.

El formato recién lanzado es OPENEXR de Industrial Light and Magic (.EXR), que tiene un menor rango dinámico que el formato de Radiance, pero toda es suficiente para describir la mayor parte del rango dinámico que puede ser visto aquí en la tierra. Este formato es un poco más cómodo, ya que no debe leer y ni escribir rutinas, pues ya están escritas ya en una biblioteca y estas incluyen “OPENEXR VIEWER”, que es una utilidad que permite al usuario ve los diferentes segmentos de exposición de una imagen OPENEXR. Esta utilidad no actúa a la par del tone-mapping ya que solo muestra parte de un rango de exposición a la vez. OpenEXR parece ser muy popular teniendo en cuenta su condición de recién lanzado, y los fabricantes de gráficos ATI y NVIDIA están empezando a manejar este formato de manera nativa.

OpenEXR utiliza su propio tipo de datos de 16 bits llamado “Half”, llamado de esta manera por que es la mitad del tamaño de un bit flotante de 32 bits. Esto logra un ahorro en el tamaño de almacenamiento a precio de sacrificar la precisión en el rango del mayor número. Cercano a cero, la precisión es la de un flotador, y la precisión disminuye con números más altos. De hecho, en algún lugar de las decenas de miles, la precisión disminuye al punto donde todo el entero es representado. Sin embargo, esto sucede en un número relativamente alto, por lo que no afecta a la imagen mucho si obtienen valores altos. Ya que aquí no hay exposición compartida, el problema asociado con archivos de Radiance esta presente. Además, los números negativos son posibles, facilitando todas las representaciones del espacio de color. De hecho, el envolvente de OPENEXR es tan flexible que este permite cualquier número de canales, e incluso el almacenamiento en full floating point  si es que así lo desea el usuario.

3.            Tone-mapping

El Tone-mapping es el proceso de llevar una imagen de alto rango dinámico a un estándar de imagen de bajo rango dinámico para ser mostrado en el hardware convencional. Sin esto, no hay una forma práctica para visualizar la imagen HDR y obtener una idea sobre de todos los detalles. Aquí hay varios algoritmos disponibles, y el que se detalla aquí es Fattal’s “Gradient Domain High Dynamic Range Compression”.

En el método Fattal, todas la operaciones se realizan en la luminancia, y al final. El color es agregado de nuevo, calculando en base al color original. La luminancia es calculada por una formula simple de (R+G+B)/3. Los valores de luminancia son entonces normalizados de 0 a 100, y el registro de la luminancia es tomada (Aquí hay un pequeño numero agregado a la luminancia, teniendo el registro para evitar la posibilidad de llevar el registro de cero).

A continuación, el mapa de atenuación PHI es calculado. El mapa de atenuación PHI es lo que baja el rango dinámico de modo que quepa en el espacio de una imagen de bajo rango dinámico. Esto es calculado en varias resoluciones, que cada diferente resolución constituye la mitad de la resolución de la resolución previa del mapa. Entonces, todas la resoluciones son interpoladas de nuevo a la resolución original y multiplicado consigo para crear mapa final de atenuación phi. Múltiples resoluciones se utilizan porque si el mapa de atenuación se calcula una vez en una sola resolución, los degradados son definidos por líneas delgadas, lo que resultaría en un efecto “halo” en la imagen final, similar al TUMBLIN’S LCIS METHOD. El uso de múltiples resoluciones obtiene un mapa poco borroso de degradados cuando se ponen juntos, y el efecto “halo” es evitado.

Cada resolución individual del mapa de atenuación phi se calcula con los siguientes algoritmos

Si, x<α

Φ = 1

            De lo contrario     

                                             Φ = 1 (x/a) b x a/x

 En estas ecuaciones, y los valores definidos por el usuario (.04 y .85 es un buen comienzo de puntos, respectivamente), y x es la magnitud del degradado en el punto dado en la imagen. Cuando el mapa final se calcula, el resultado final del algoritmo anterior es que cualquier valor de x que es pequeño se deja solo (multiplicado por 1) o se reduce ligeramente de acuerdo con la cantidad más grande de lo que son. Las Diferencias muy grandes serán multiplicadas por números cercanos de cero, lo que les hace bajar la gama del resto de la imagen.

El valor β afecta a la forma de la curva que define que rápidamente los valores de PHI se aproximan a cero. La atenuación final del mapa phi es calculada por el re muestreo de los diferentes mapas de resolución de la resolución de la imagen completa, a continuación, multiplicando los mapas juntos.  Un ejemplo de la atenuación del mapa y la imagen resultante esta mostrado en la Figura 12, y la Figura 13 ilustra como afecta el cálculo de una sola resolución.

Una vez que el mapa final de phi es calculado, este es multiplica con el degradado de luminancia de la imagen. Para este nuevo valor, la divergencia es tomada, y posteriormente integrada para obtener un nuevo mapa de valores de luminancia. Un algoritmo básico de agudizamiento es ejecutado en el nuevo mapa de luminancia. El exponente es tomado, y a continuación el mapa de luminancia es normalizado de 1 a 0. 

Hasta este punto, la imagen puede ahora ser rellenada de nuevo al espacio LDR color convencional a través de una interpolación antigua.

4.            Salida

Para una sola imagen, la exhibición en pantalla es tan fácil como escribir a un formato favorito y abrirlo en la utilidad de visualización favorita. La exhibición de una secuencia no es muy difícil. Una vez que la secuencia ha sido escrita con cada fotograma en un formaro tiff o jpg, se puede montar en una película de Quicktime (o  formato similar) por varios servicios o paquetes de software comercial, como After Effects de Adobe. 

Aplicación del procesamiento de imágenes HDR en diseño y artes

Hasta la fecha de manera común en el ejercicio de las artes aplicadas como el diseño gráfico, se ha trabajado con imágenes fotográficas de stock en agencias de publicidad (compra de material en bancos de imágenes), con imágenes tomadas por el propio diseñador o hasta con imágenes simplemente ‘bajadas’ de Internet. El conocimiento del procesamiento de imágenes HDR con la metodología propuesta en la presente investigación, abre una puerta a la calidad e innovación estética y artística de imágenes a un bajo costo.

No hay duda que las imágenes HDR han sido utilizadas en material gráfico publicitario de alta calidad, únicamente accesible para clientes con un alto presupuesto para pagarlas a agencias publicitarias de gran envergadura. Sin embargo, a través de los programas y recursos aquí descritos, es posible hacer accesible este tipo de imágenes de amplias posibilidades, no solo a clientes pequeños, sino también a estudiantes y artistas con ansias de innovación y gran capacidad creativa y de ingenio.

En el caso del diseño editorial, por ejemplo, la necesidad de crear páginas interesantes donde coexistan armónicamente elementos como la tipografía, la composición, el color y las imágenes, cobraría un interés intrínseco mayor de él diseñador contar con la capacidad de realizar imágenes HDR. En ocasiones, pareciera que los recursos fotográficos están agotados para el diseñador, lo cual se hace evidente a través del uso recursivo de imágenes de regular atractivo que no coadyuvan a despertar el interés en el lector. De ahí que sea ingente el conocimiento de estrategias como el procesamiento de imágenes HDR para contar con más recursos en el desarrollo y efectividad en la comunicación de mensajes visuales.

La calidad en los resultados obtenidos en imágenes HDR no tiene parangón y sus posibilidades de aplicación en diseño y artes son amplísimas, tal como lo muestra el proyecto del alumno e Sergio Edoardo Cerecedo de la Licenciatura en Artes digitales de la Universidad de Guanajuato titulado “Vidas viajeras: Venimos, vamos y a veces nos quedamos”, proyecto fotográfico con técnica HDR, quien inspirado en la experiencia personal de los viajes constantes ―es decir la vida como un viaje―, intenta a través de este proyecto aprehender la vida, asirla y conservar a través de la fotografía las emociones y sensaciones de los pequeños y grandes viajes que cada uno de nosotros emprendemos a lo largo de la vida. Cerecedo encontró en la imagen HDR un recurso de formidables e infinitas posibilidades. 

—-

El proyecto intenta no solamente la implementación de nuevos métodos y modelos, si no también el logro de nuevos resultados que sean reconocidos a nivel mundial en el campo del procesamiento de imágenes HDR.

Por otra parte, la realización del proyecto nos ayudará a proveer un enfoque individual a los estudiantes que han decidido trabajar en el campo del arte gráfico y multimedia, así como a profesionales del área.

La presente metodología será capaz de proveer a la industria más moderna y avanzada de nuevas y poderosas herramientas para crear un trabajo de datos de color fácilmente determinable con los sistemas computacionales.

BIBLIOGRAFÍA

1. J. Tumblin, and H. E. Rushmeier. “Tone Reproduction for Realistic Images.”IEEE Computer Graphics and Applications, vol. 111, no. 6, pp. 42-48, November 1993.

2. G. Ward Larson, H. Rushmeier, and C. Piatko, C. “A Visibility Matching Tone Reproduction Operator for High Dynamic Range Scenes.” Visualization and Computer Graphics, vol. 3, no. 4, pp. 291-306, 1997

3.  Shree K. Nayar and Tomoo Mitsunaga. High Dynamic Range Imaging: Spatially Varying Pixel Exposures. In  IEEE Conference on Computer Vision and Pattern Recognition (CVPR-00), pages 472–479, June 2000.

4. Gurieva Natalia, Francisco Javier Montecillo Puente, Tkachenko Volodymyr. Color management for HDR (high dynamic range) photography. 44th Conference of the International Circle of Educational Institutes for Graphic Arts Technology and Management, 19 – 22 June  2012, conference abstract, Budapest, Hungary, J. 19

5. J. Tumblin, and G. Turk. “LCIS: A Boundary Hierarchy for Detail-Preserving Contrast Reduction.” Proceedings of ACM SIGGRAPH 1999, pp. 83-90.

6. F. Durand and J. Dorsey. “Fast Bilateral Filtering for the Display of High-Dynamic-Range Images.” Proceedings of ACM SIGGRAPH 2002, pp. 257-266.

7. E. Reinhard, M. Stark, P. Shirley, and J. Ferwerda. “Photographic Tone Reproduction for Digital Images.” Proceedings of ACM SIGGRAPH 2002, pp. 267-276.

8. R. Fattal, D. Lischinski, and M. Werman. “Gradient Domain High Dynamic Range Compression.” Proceedings of ACM SIGGRAPH 2002, pp. 249-256.

9. Reinhard Erik, Ward Greg, Pattanaik Sumanta, Debevec Paul. High dynamic range imaging: acquisition, display and image-based lighting. Amsterdam: Elsevier/Morgan Kaufmann,  2006. – P. 7-37.

10. Y. Y. Schechner, S. K. Nayar. Generalized Mosaicing: High Dynamic Range in a Wide Field of View, International Journal of Computer Vision, Vol 53, No. 3, July 2003.

11. Natalia Gurieva, Francisco Javier Montecillo Puente, Volodymyr Tkachenko “Color management for HDR (high dynamic range) photography” 44th Conference of the International Circle of Educational Institutes for Graphic Arts Technology and Management, Budapest, Hungary, 19 – 22 June  2012, p.40.

12. M.D. Fairchild and D.R. Wyble, HDR-CIELAB and HDR-IPT: Simple models for describing the color of high-dynamic-range and wide-color-gamut images, IS&T/SID 18th Color Imaging Conference, San Antonio, 2010, pp. 322-326.

13. P. Debevec and J. Malik. “Recovering High Dynamic Range Radiance Maps from Photographs.”SIGGRAPH 1997 Conference Proceedings on Computer Graphics, pp. 369-378.

14. Gurieva N., Tkachenko V. Generalized models in color reproduction, 40th  Conference of the International Circle of Education Institutes for Graphic Arts: Technology and Management, 7 – 11 of October, 2008 conference abstracts, Warsaw, Poland, p.12.

15. Gurieva N., Tkachenko V., Kulishova N. Information model of data transformation for color proof and printing, 41th Conference of the International Circle of Education Institutes for Graphic Arts: Technology and Management, 13 – 18 October, 2009 conference abstracts, Ghent, Belgium, pp. 10‑11.

16. Jianbing Shen , Hanqiu Sun , Hanli Zhao , Xiaogang Jin, RAM-based tone mapping for high dynamic range images, Proceedings of the 2009 IEEE international conference on Multimedia and Expo, p.1110-1113, June 28-July 03, 2009, New York, NY, USA.

17. J. Gerhardt, J. Y. Hardeberg. Spectral color reproduction minimizing spectral and perceptual color differences. Color research and application. – 2008. –Vol. 33, No. 6. – Р. 494.

18. Gurieva N.S. Characterization models of input, output and display graphic information for creating of LUT-tables of profiles, First scientific and practical workshop Information intellectual systems, 2 – 4 of December, 2008: conference abstracts, Kharkiv, Ukraine, pp. 132‑133.

19. G. Ward. “High Dynamic Range Image Encodings.” Available at: http://www.anyhere.com/gward/hdrenc/hdr_encodings.html. Accessed November 2004.