Módulo para el control sin contacto de imágenes diagnósticas en la sala de cirugía con el sistema Leap Motion y el software 3D Slicer

Autores/as

DOI:

https://doi.org/10.17533/udea.redin.n82a05

Palabras clave:

imágenes diagnosticas, interacción humano-computador, neurocirugía guiada por imágenes, informática médica, sistemas de posicionamiento

Resumen

Durante los procedimientos quirúrgicos es importante que el personal (cirujanos, residentes o asistentes) interactúe con el paciente, evitando cualquier contacto físico con equipo y materiales que pudieron no ser esterilizados apropiadamente. Esto se hace con el fin de evitar al paciente infecciones y complicaciones posteriores a la cirugía. Con el aumento de la disponibilidad de imágenes diagnósticas esta herramienta se ha hecho cada vez más indispensable en los quirófanos, pero no siempre es posible mantener el control de asepsia de los equipos informáticos en los cuales se ejecutan los programas de visualización, factor que dificulta el acceso al personal asistencial a la información contenida en las imágenes. En este trabajo se presenta el desarrollo de un sistema que permite manipular un programa de visualización de imágenes diagnósticas mediante gestos evitando que el cirujano tenga contacto directo con la computadora. El sistema, que requiere una computadora con el software 3D-Slicer y el dispositivo Leap Motion, permite mediante gestos realizados con las manos acceder a operaciones básicas como el movimiento entre cortes de un volumen, cambio del tamaño de la imagen y cambio del plano anatómico de visualización, operaciones que para el cirujano son esenciales para la ubicación espacial y la toma de decisiones.

|Resumen
= 514 veces | PDF (ENGLISH)
= 339 veces|

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Andrés Felipe Botero-Ospina, Universidad de Antioquia

Grupo de Investigación en Bioinstrumentación e Ingeniería Clínica (GIBIC), Departamento de Bioingeniería, Facultad de Ingeniería.

Sara Isabel Duque-Vallejo, Universidad de Antioquia

Grupo de Investigación en Bioinstrumentación e Ingeniería Clínica (GIBIC), Departamento de Bioingeniería, Facultad de Ingeniería.

John Fredy Ochoa-Gómez, Universidad de Antioquia

Grupo de Investigación en Bioinstrumentación e Ingeniería Clínica (GIBIC), Departamento de Bioingeniería, Facultad de Ingeniería.

Alher Mauricio Hernández-Valdivieso, Universidad de Antioquia

Grupo de Investigación en Bioinstrumentación e Ingeniería Clínica (GIBIC), Departamento de Bioingeniería, Facultad de Ingeniería.

Citas

R. Johnson, K. O’Hara, A. Sellen, C. Cousins, and A. Criminisi, “Exploring the Potential for Touchless Interaction in Image-Guided Interventional Radiology,” in 29th Int. Conf. Hum. Factors Comput. Syst., Vancouver, Canada, 2011, pp. 3323-3332.

L. C. Ebert, G. Hatch, M. J. Thali, and S. Ross, “Invisible touch—Control of a DICOM viewer with finger gestures using the Kinect depth camera,” J. Forensic Radiol. Imaging, vol. 1, no. 1, pp. 10-14, 2013.

A. Fedorov et al., “3D Slicer as an image computing platform for the Quantitative Imaging Network.,”Magn. Reson. Imaging, vol. 30, no. 9, pp. 1323-1341, 2012.

M. Sato et al., “Development of an image operation system with a motion sensor in dental radiology,” Radiol. Phys. Technol., vol. 8, no. 2, pp. 243-247, 2015.

A. Nishikawa et al., “FAce MOUSe: a novel human- machine interface for controlling the position of a laparoscope,” IEEE Trans. Robot. Autom., vol. 19, no. 5, pp. 825-841, 2003.

A. B. Albu, “Vision-Based User Interfaces for Health Applications : A Survey,” in Advances in Visual Computing, G. Bebis et al. (eds). Germany: Springer, 2006, pp. 771-782.

M. Spiegelmock, Leap motion development essentials, 1st ed. Birmingham, UK: Packt Publishing Ltd., 2013.

P. Garg, N. Aggarwal, and S. Sofat, “Vision based hand gesture recognition,” Int. J. of Computer, Electrical, Automation, Control and Information Engineering, vol. 3, no. 1, pp. 186-191, 2009.

K. Sabir and B. Tabor, “The molecular control toolkit: Controlling 3d molecular graphics via gesture and voice,” in IEEE Symposium on Biological Data Visualization (BioVis), Atlanta, GA, USA, 2013, pp. 49-56.

S. Webel, M. Olbrich, T. Franke, and J. Keil, “Immersive experience of current and ancient reconstructed cultural attractions,” in Digital Heritage International Congress (DigitalHeritage), Marseille, France, 2013.

Cyber Science 3D, Products. [Online]. Available: http://cyberscience3d.com/products/. Accessed on: Mar. 15, 2016.

W. Schroeder, K. Martin, and B. Lorensen, The Visualization Toolkit-30, 3rd ed. Kitware, 1996.

Leap Motion, Inc., Recalibrating your Leap Motion Controller. [Online]. Available: https://support.leapmotion.com/hc/en-us/articles/223782328-Recalibratingyour-Leap-Motion-Controller. Accessed on: Mar. 15, 2016

N. Bizzotto et al., “Leap Motion Gesture Control With OsiriX in the Operating Room to Control Imaging: First Experiences During Live Surgery,” Surg. Innov., vol. 21, no. 6, pp. 655-656, 2014.

L. Di Tommaso, S. Aubry, J. Godard, H. Katranji, and J. Pauchot, “A new human machine interface in neurosurgery: The Leap Motion (R). Technical note regarding a new touchless interface,” Neurochirurgie, vol. 62, no. 3, pp. 178-181, 2016.

Descargas

Publicado

2017-03-16

Cómo citar

Botero-Ospina, A. F., Duque-Vallejo, S. I., Ochoa-Gómez, J. F., & Hernández-Valdivieso, A. M. (2017). Módulo para el control sin contacto de imágenes diagnósticas en la sala de cirugía con el sistema Leap Motion y el software 3D Slicer. Revista Facultad De Ingeniería Universidad De Antioquia, (82), 40–46. https://doi.org/10.17533/udea.redin.n82a05