Reconstrucción de video 3d desde secuencias reales en 2d
DOI:
https://doi.org/10.17533/udea.redin.14658Palabras clave:
secuenciade video, anaglifo, mapa de profundidad, rango dinámicoResumen
En este artículo, se propone un método novedoso que permite generar secuencias de video en 3D usando secuencias de video reales en 2D. La reconstrucción de la secuencia de video en 3D se realiza usando el cálculo del mapa de profundidad y la síntesis de anaglifos. El mapa de profundidad es formado usando la técnica de correspondencia estéreo basada en la minimización de la energía de error global a partir de funciones de suavizado. La construcción del anaglifo es realizada usando la alineación del componente de color interpolándolo con el mapa de profundidad previamente formado. Adicionalmente, se emplea la transformación del mapa de profundidad para reducir el rango dinámico de los valores de disparidad, minimizando el efecto fantasma mejorando la preservación de color. Se usaron numerosas secuencias de video a color reales que contienen diferentes tipos de movimientos como traslacional, rotacional, acercamiento, y la combinación de los anteriores, demostrando buen funcionamiento visual de la reconstrucción de secuencias de video en 3D propuesta.
Descargas
Citas
B. Blundell, A. Schwartz. Volumetric three dimensional display systems. Ed. Wiley. New York. Vol. 5. 2000. pp. 196-200.
M. Halle. “Autostereoscopic displays and computer graphics”. Comput Graph. Vol. 31. 1997. pp. 58-62. DOI: https://doi.org/10.1145/271283.271309
E. Dubois. “A projection method to generate anaglyph stereo”. IEEE International Conference on Acoustics, Speech, and Signal Processing. Vol. 3. 2001. pp. 1661- 1664.
I. Ideses, L. Yaroslavsky. “A method for generating 3D video from a single video stream”. Proc of the Vision, Modeling and Visualization. Ed. Aka Gmbh. Erlangen. Germany. 2002. pp. 435-438.
I. Ideses, L. Yaroslavsky. “New Methods to produce high quality color anaglyphs for 3-D visualization”. Lecture Notes in Computer Science. Vol. 3212. 2004. pp. 273-380. DOI: https://doi.org/10.1007/978-3-540-30126-4_34
S. S. Beauchemin, J. L. Barron. “The computation of optical flow”. ACM Computing surveys. Vol. 27. 1995. pp. 436-466. DOI: https://doi.org/10.1145/212094.212141
J. L. Barron, D. J. Fleet, S. S. Beauchemin. “Performance of optical flow techniques”. International Journal of Computer Vision. Vol. 12. 1994. pp. 43-77. DOI: https://doi.org/10.1007/BF01420984
D. J. Heeger. “Model for the extraction of image flow”. Journal of the Optical Society of America. Vol. 4. 1987. pp. 1455-1471. DOI: https://doi.org/10.1364/JOSAA.4.001455
D. J. Heeger. “Optical flow using spatiotemporal filters”. International Journal Computer Vision. Vol. 1. 1988. pp. 279-302. DOI: https://doi.org/10.1007/BF00133568
X. Huang, E. Dubois. “3D reconstruction based on a hybrid disparity estimation algorithm”. IEEE International Conference on Image Processing. Vol. 8. 2006. pp. 1025-1028. DOI: https://doi.org/10.1109/ICIP.2006.312674
C. Zitnick, T. Kanade. “A cooperative algorithm for stereo matching and occlusion detection”. Robotics Institute Technical Reports. No. CMU.RI-TR-99-35. Carnegie Mellon University. 1999.
H. H. Barker, T. O. Binford. “Depth from edge and intensity based stereo”. Proc. of the 7th International Joint Conference on Artificial Intelligence. Vancouver. 1981. pp. 631-636.
D. Comaniciu, P. Meer. “Mean-shift: a robust approach toward feature space analysis”. IEEE Transactions Pattern Anal Machine Intelligence. Vol. 24. 2002. pp. 603-619. DOI: https://doi.org/10.1109/34.1000236
B. B. Alagoz. “Obtaining depth maps from color images by region based stereo matching algorithms”. OncuBilim Algorythm and Systems Labs. Vol. 08. 2008. Art.4. pp. 1-12.
I. Ideses, L. Yaroslavsky, B. Fishbain. “Real time 2D to 3D video conversion”. J. Real Time Image Proc. Vol. 2. 2007. pp. 3-9. DOI: https://doi.org/10.1007/s11554-007-0038-9
I. Ideses, L. Yaroslavsky. “3 methods to improve quality of color anaglyph”. J. Optics A. Pure, Applied Optics. Vol. 7. 2005. pp. 755-762. DOI: https://doi.org/10.1088/1464-4258/7/12/008
I. Ideses, L. Yaroslavsky, B. Fishbain, R. Vistuch. “3D compressed from 2D video”. Stereoscopic displays and virtual reality systems XIV in Proc. of SPIE & IS&T Electronic Imaging. Vol. 6490. 2007. pp. 64901C. DOI: https://doi.org/10.1117/12.703416
L. Yaroslavsky, J. Campos, M. Espínola, I. Ideses. “Redundancy of steroscopic images: Experimental evaluation”. Optics Express. Vol. 13. 2005. pp. 0895-10907. DOI: https://doi.org/10.1364/OPEX.13.010895
L. Yaroslavsky, Holography and digital image processing. Ed. Kluwer Academic Publishers. Boston. 2004. pp. 600. DOI: https://doi.org/10.1007/978-1-4757-4988-5
W. Sanders, D. McAllister. Producing anaglyphs formsynthetic images. Conf. 5005: A stereoscopic displays and applications XIV. Proc. SPIE/IS&T. Vol. 5006. 2003. pp. 348-358. DOI: https://doi.org/10.1117/12.474130
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2018 Revista Facultad de Ingeniería
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
Los artículos disponibles en la Revista Facultad de Ingeniería, Universidad de Antioquia están bajo la licencia Creative Commons Attribution BY-NC-SA 4.0.
Eres libre de:
Compartir — copiar y redistribuir el material en cualquier medio o formato
Adaptar : remezclar, transformar y construir sobre el material.
Bajo los siguientes términos:
Reconocimiento : debe otorgar el crédito correspondiente , proporcionar un enlace a la licencia e indicar si se realizaron cambios . Puede hacerlo de cualquier manera razonable, pero no de ninguna manera que sugiera que el licenciante lo respalda a usted o su uso.
No comercial : no puede utilizar el material con fines comerciales .
Compartir igual : si remezcla, transforma o construye a partir del material, debe distribuir sus contribuciones bajo la misma licencia que el original.
El material publicado por la revista puede ser distribuido, copiado y exhibido por terceros si se dan los respectivos créditos a la revista, sin ningún costo. No se puede obtener ningún beneficio comercial y las obras derivadas tienen que estar bajo los mismos términos de licencia que el trabajo original.