Preservar la privacidad en el análisis de videos quirúrgicos utilizando un clasificador de aprendizaje profundo para identificar

Noticias

HogarHogar / Noticias / Preservar la privacidad en el análisis de videos quirúrgicos utilizando un clasificador de aprendizaje profundo para identificar

Jan 19, 2024

Preservar la privacidad en el análisis de videos quirúrgicos utilizando un clasificador de aprendizaje profundo para identificar

Scientific Reports volumen 13, Número de artículo: 9235 (2023) Citar este artículo 631 Accesos 7 Detalles de Altmetric Metrics El análisis de vídeo quirúrgico facilita la educación y la investigación. Sin embargo, vídeo

Scientific Reports volumen 13, número de artículo: 9235 (2023) Citar este artículo

631 Accesos

7 altmétrico

Detalles de métricas

El análisis de vídeo quirúrgico facilita la educación y la investigación. Sin embargo, las grabaciones de vídeo de cirugías endoscópicas pueden contener información sensible a la privacidad, especialmente si la cámara endoscópica se retira del cuerpo de los pacientes y se graban escenas extracorporales. Por lo tanto, la identificación de escenas extracorporales en videos endoscópicos es de gran importancia para preservar la privacidad de los pacientes y del personal del quirófano. Este estudio desarrolló y validó un modelo de aprendizaje profundo para la identificación de imágenes extracorporales en videos endoscópicos. El modelo se entrenó y evaluó en un conjunto de datos interno de 12 tipos diferentes de cirugías laparoscópicas y robóticas y se validó externamente en dos conjuntos de datos de prueba multicéntricos independientes de cirugías de colecistectomía y bypass gástrico laparoscópico. El rendimiento del modelo se evaluó en comparación con las anotaciones reales humanas que miden el área característica operativa del receptor bajo la curva (ROC AUC). Se anotaron el conjunto de datos interno que consta de 356.267 imágenes de 48 vídeos y los dos conjuntos de datos de prueba multicéntricos que constan de 54.385 y 58.349 imágenes de 10 y 20 vídeos, respectivamente. El modelo identificó imágenes extracorporales con un AUC de ROC del 99,97 % en el conjunto de datos de prueba interno. La media ± desviación estándar del AUC ROC en el conjunto de datos de bypass gástrico multicéntrico fue de 99,94 ± 0,07 % y 99,71 ± 0,40 % en el conjunto de datos de colecistectomía multicéntrica, respectivamente. El modelo puede identificar de forma fiable imágenes extracorporales en vídeos endoscópicos y se comparte públicamente. Esto facilita la preservación de la privacidad en el análisis de vídeo quirúrgico.

“Y cualquier cosa que vea u oiga en el curso de mi profesión, […] si es algo que no deba publicarse en el extranjero, nunca lo divulgaré, considerando que tales cosas son secretos sagrados.”1

juramento hipocrático

El análisis de vídeo quirúrgico facilita la educación (revisión de situaciones críticas y retroalimentación individualizada)2,3, la acreditación (evaluación basada en vídeo)4 y la investigación (estandarización de la técnica quirúrgica en ensayos multicéntricos5, evaluación de habilidades quirúrgicas)6,7. A pesar de su uso cada vez mayor, hasta ahora no se ha aprovechado todo el potencial del análisis de vídeo quirúrgico, ya que la revisión manual de casos requiere mucho tiempo, es costosa, requiere conocimientos de expertos y plantea preocupaciones sobre la privacidad.

Por lo tanto, recientemente se han adoptado enfoques de ciencia de datos quirúrgicos para automatizar el análisis de vídeo quirúrgico. Se han entrenado modelos de inteligencia artificial (IA) para reconocer fases de una intervención8,9,10, herramientas8,11 y acciones12 en vídeos quirúrgicos. Esto permite aplicaciones posteriores como la estimación de la duración restante de la cirugía13, la documentación automatizada de eventos críticos14, la evaluación de la habilidad quirúrgica15 y el logro de los puntos de control de seguridad16, o la guía intraoperatoria17.

La IA seguirá reduciendo los costos y las limitaciones de tiempo de los expertos que revisan videos quirúrgicos. Sin embargo, hasta el momento no se han abordado ampliamente las preocupaciones de privacidad relacionadas con la grabación, el almacenamiento, el manejo y la publicación de datos de video de pacientes. El privilegio médico-paciente que se origina en el Juramento Hipocrático protege los datos médicos y la identidad de los pacientes frente a investigaciones legales. La violación de la confidencialidad médica por parte del personal médico es procesable en la mayoría de los países. Los vídeos endoscópicos que se graban mientras el paciente está bajo narcosis en el quirófano (OR) son especialmente sensibles. A menudo contienen escenas del quirófano que podrían revelar información confidencial, como la identidad de los pacientes o del personal del quirófano. Además, si en el vídeo se capturan relojes o calendarios presentes en la sala, se puede identificar la hora o fecha de la respectiva intervención. La información sobre la fecha y hora de una operación, facilita la identificación del paciente sometido a cirugía. Estas escenas grabadas fuera del cuerpo del paciente se denominan escenas extracorporales. Si la grabación de vídeo ya se inició antes de introducir el endoscopio en el paciente, no se detuvo después de finalizar la cirugía o cada vez que se limpia el endoscopio durante la cirugía, se capturan escenas extracorporales.

Los avances recientes en visión por computadora y aprendizaje profundo están impulsados ​​por conjuntos de datos a gran escala y disponibles públicamente. Por el contrario, las aplicaciones médicas del aprendizaje profundo suelen estar limitadas por conjuntos de datos restringidos y de tamaño pequeño. La desidentificación de videos endoscópicos al difuminar o eliminar escenas extracorporales permite grabar, almacenar, manipular y publicar videos quirúrgicos sin el riesgo de una violación de la confidencialidad médica.

Este artículo informa sobre el desarrollo y la validación de un clasificador de imágenes basado en aprendizaje profundo para identificar escenas extracorporales en videos endoscópicos, llamado Out-of-Body Network (OoBNet). OoBNet permite la protección de la privacidad de los pacientes y del personal de quirófano mediante el reconocimiento automatizado de escenas extracorporales en vídeos endoscópicos. La validación externa de OoBNet se realiza en dos conjuntos de datos multicéntricos independientes de cirugías de bypass gástrico laparoscópico en Y de Roux y de colecistectomía laparoscópica. Se publican el modelo entrenado y una aplicación ejecutable de OoBNet para proporcionar una herramienta fácil de usar para que cirujanos, científicos de datos y personal administrativo de hospitales anonimicen videos endoscópicos.

El conjunto de datos utilizado para el desarrollo de OoBNet se creó a partir de cirugías registradas en el Hospital Universitario de Estrasburgo, Francia18. Se seleccionaron arbitrariamente cuatro grabaciones de video para cada uno de los siguientes procedimientos endoscópicos: fundoplicatura laparoscópica de Nissen, bypass gástrico en Y de Roux, gastrectomía en manga, cirugía hepática, cirugía pancreática, colecistectomía, sigmoidectomía, eventración, adrenalectomía, cirugía de hernia, endoscópico robótico. -Bypass gástrico en Y y gastrectomía en manga robótica. El conjunto de datos que contiene 48 videos se dividió en conjunto de entrenamiento, validación y prueba, incluidos 2, 1 y 1 video de cada procedimiento, respectivamente.

La validación externa del modelo se realizó en una muestra aleatoria de 5 vídeos de 6 centros y dos conjuntos de datos multicéntricos independientes. (1) Un conjunto de datos de 140 vídeos de bypass gástrico laparoscópico en Y de Roux del Hospital Universitario de Estrasburgo, Francia, y del Inselspital, Hospital Universitario de Berna, Suiza19. (2) Un conjunto de datos de 174 vídeos de colecistectomía laparoscópica de cuatro centros italianos: Policlínico Universitario Agostino Gemelli, Roma; Azienda Ospedaliero-Universitaria Sant'Andrea, Roma; Fondazione IRCCS Ca' Granda Ospedale Maggiore Policlinico, Milán; y Hospital Monaldi, Nápoles. Este conjunto de datos se recopiló para la validación multicéntrica de EndoDigest, una plataforma de visión por computadora para la documentación en video de la visión crítica de seguridad (CVS)20.

En la Fig. 1 se muestra una ilustración de la división del conjunto de datos para el desarrollo del modelo y la validación interna y externa multicéntrica.

Ilustración de divisiones de conjuntos de datos para el desarrollo de modelos y validación interna y externa. Cada cuadrado representa un vídeo. Los vídeos del mismo centro tienen el mismo color.

Cada hospital cumplió con los requisitos de la junta de revisión institucional (IRB) local. Los pacientes dieron su consentimiento para el registro de su intervención o para el uso de su historial médico con fines de investigación. Todos los videos se compartieron como material de video sin editar sin metadatos de identificación. Por lo tanto, se renunció a la necesidad de aprobación ética, excepto en el Inselspital, Hospital Universitario de Berna, Suiza, donde el IRB local otorgó la aprobación ética (KEK Bern 2021-01666).

Cada vídeo se dividió en fotogramas a razón de 1 fotograma por segundo. Todos los fotogramas se anotaron de forma binaria, ya sea dentro del abdomen del paciente o fuera del cuerpo. La válvula del trocar fue la señal visual para la transición del interior al exterior del cuerpo. Todos los marcos en los que la válvula del trocar óptico es visible se consideran fuera del cuerpo para pecar de forma segura y preservar la privacidad. Todos los conjuntos de datos fueron anotados por un único anotador (AV). Los casos extremos fueron revisados ​​por un cirujano certificado con amplia experiencia en análisis de video quirúrgico (JLL).

OoBNet es un clasificador de imágenes basado en aprendizaje profundo, que utiliza MobileNetV221 como columna vertebral seguido de abandono (con una tasa de abandono de 0,5), una memoria a largo plazo (LSTM con 640 unidades)22, capas lineales y sigmoideas. La normalización de capas se aplicó antes de la eliminación de capas y las capas lineales. MobileNetV2 es una arquitectura modelo diseñada para el reconocimiento de imágenes con bajos recursos computacionales, como en dispositivos móviles y teléfonos inteligentes. La capa LSTM contiene puertas de memoria que aportan conocimiento del contexto a la clasificación de cuadros. Como parte del preprocesamiento, las imágenes de entrada se redimensionaron a 64 × 64 píxeles y luego se aumentaron con rotación aleatoria y contraste. El aumento de datos es una forma común de generar variación en el conjunto de datos de entrada para mejorar la solidez del modelo. La salida de OoBNet es un valor similar a una probabilidad que luego se binariza a 0 o 1 para predecir si la imagen es un marco interior o exterior (Fig. 2).

Arquitectura modelo de OoBNet. La imagen de entrada cambia de tamaño a 64 × 64 píxeles y se aumenta con rotación aleatoria y contraste. Luego se alimenta a la red neuronal profunda con una memoria consecutiva a largo plazo (LSTM) que genera un valor similar a la probabilidad de que la imagen esté fuera del cuerpo o no. Esta probabilidad se redondea en un umbral de 0,5 a 0 (dentro del cuerpo) o 1 (fuera del cuerpo).

La red se entrenó en videoclips de 2048 fotogramas consecutivos durante 300 épocas (ciclos) con una parada temprana aplicada de acuerdo con la puntuación F1 más alta obtenida en el conjunto de datos de validación. El optimizador utilizado fue Adam23 con una tasa de aprendizaje de 0,00009 y un tamaño de lote de 2048. El modelo entrenado y una aplicación ejecutable de OoBNet están disponibles en https://github.com/CAMMA-public/out-of-body-detector.

OoBNet se evaluó en el conjunto de datos de prueba, que no se utilizó ni para el entrenamiento ni para la validación del modelo. Además, la evaluación externa se realizó en dos conjuntos de datos independientes y multicéntricos como se describe anteriormente. Las predicciones de OoBNet se compararon con anotaciones de verdad humanas. El rendimiento de OoBNet se midió como precisión, recuperación, puntuación F1, precisión promedio y área característica operativa del receptor bajo la curva (ROC AUC). La precisión es la proporción de verdaderos positivos entre todas las predicciones positivas (verdaderos y falsos positivos), también conocida como valor predictivo positivo. El recuerdo es la proporción de verdaderos positivos entre todas las predicciones relevantes (verdaderos positivos y falsos negativos), también conocida como sensibilidad. La puntuación F1 es la media armónica de precisión y recuperación. La precisión promedio es el área bajo la curva de recuperación de precisión. ROC AUC es el área bajo la curva característica operativa del receptor que se crea trazando la sensibilidad frente a la especificidad 1. También se le conoce como estadístico c.

OoBNet fue entrenado, validado y probado en un conjunto de datos interno de 48 videos con una duración media ± desviación estándar (DE) de 123 ± 79 min. que contiene un total de 356.267 fotogramas. De ellos, 112.254 (31,51%) eran estructuras extracorporales. La validación externa de OoBNet se realizó en un conjunto de datos de bypass gástrico de 10 videos con una duración media ± DE de 90 ± 27 min. que contiene un total de 54.385 fotogramas (4,15 % fotogramas fuera del cuerpo) y en un conjunto de datos de colecistectomía de 20 vídeos con una duración media ± DE de 48 ± 22 min. que contiene un total de 58.349 fotogramas (8,65% fotogramas extracorporales). Las estadísticas completas del conjunto de datos y la distribución de fotogramas entre el conjunto de entrenamiento, validación y prueba se muestran en la Tabla 1.

El AUC ROC de OoBNet evaluado en el conjunto de prueba fue del 99,97%. El AUC ± DE de la ROC media de OoBNet evaluado en el conjunto de datos de bypass gástrico multicéntrico fue de 99,94 ± 0,07 %. El AUC ± DE de la ROC media de OoBNet evaluado en el conjunto de datos de colecistectomía multicéntrica fue de 99,71 ± 0,40 %. Los resultados cuantitativos completos se muestran en la Tabla 2. Las matrices de confusión en el conjunto de pruebas, el conjunto de datos de bypass gástrico multicéntrico y el conjunto de datos de colecistectomía multicéntrica se muestran en las figuras 3A a G. OoBNet se evaluó en un total de 111.974 fotogramas, de los cuales 557 fotogramas (0,50%) se clasificaron falsamente como dentro del cuerpo a pesar de que eran fotogramas fuera del cuerpo (predicciones falsas negativas). Los resultados cualitativos que ilustran las predicciones falsas positivas y falsas negativas de OoBNet se muestran en la Fig. 4. En el complemento se proporciona un video con resultados cualitativos de OoBNet (video complementario S1, que ilustra cómo los videos endoscópicos se pueden anonimizar usando OoBNet).

Matrices de confusión. (A) Conjunto de prueba; (B) y (C) centros 1 y 2 (conjunto de datos de bypass gástrico multicéntrico); (D – G) centros 3, 4, 5 y 6 (conjunto de datos de colecistectomía multicéntrica).

Resultados cualitativos. Fila superior: predicciones del modelo falso positivo (OoBNet predice que el marco estará fuera del cuerpo aunque no lo esté). Fila inferior: predicciones del modelo falso negativo (OoBNet predice que el marco estará dentro del cuerpo aunque esté fuera del cuerpo). Debajo de cada imagen se proporcionan las anotaciones binarias de verdad sobre el terreno humano y las predicciones del modelo similar a la probabilidad. En (A), el humo quirúrgico afecta la visión. En (B-D), una malla, un hisopo y un tejido están tan cerca que, sin el contexto temporal, es difícil distinguir incluso para un anotador humano si está fuera del cuerpo o no. En (E) y (F), la sangre en el endoscopio y un guante manchado de sangre imitan una vista interior. En (G), una toalla quirúrgica cubre la mayor parte del cuerpo del paciente, de modo que el modelo carece de señales visuales para una estructura extracorporal. En (H), el endoscopio se limpia en un termo, que imita el interior de un trocar metálico.

Este estudio informa el desarrollo y la validación multicéntrica de un clasificador de imágenes basado en aprendizaje profundo para detectar cuadros extracorporales en videos endoscópicos. OoBNet mostró un rendimiento del 99 % de ROC AUC en la validación en tres conjuntos de datos independientes. Utilizando el modelo entrenado proporcionado o la aplicación ejecutable, OoBNet se puede implementar fácilmente para anonimizar vídeos endoscópicos de forma retrospectiva. Esto permite crear bases de datos de videos preservando al mismo tiempo la privacidad del paciente y del personal de quirófano y, además, facilita el uso de videos endoscópicos con fines educativos o de investigación sin revelar ninguna información confidencial.

Hasta donde sabemos, OoBNet es el primer clasificador de imágenes extracorporales entrenado en videos de múltiples intervenciones y validado en dos conjuntos de datos externos. Trabajos anteriores de nuestro grupo utilizaron un enfoque de visión por computadora no supervisado para identificar marcos extracorporales. Según los niveles de enrojecimiento y brillo de las imágenes, se clasificaron según un umbral establecido empíricamente como dentro del cuerpo o fuera del cuerpo24. Zohar et al. utilizaron un enfoque de aprendizaje automático semisupervisado para detectar escenas extracorporales en un gran conjunto de datos de vídeos de colecistectomía laparoscópica, con una precisión del 97%25. Sin embargo, este estudio previo tiene dos limitaciones importantes. Por un lado, la principal métrica de desempeño reportada es la precisión. La precisión es sensible a la distribución de los datos o a la prevalencia de una observación determinada. Por otro lado, se entrenó con un conjunto de datos de un único tipo de intervención. Esto no garantiza que el modelo se generalice a otros tipos de intervención.

Normalmente, los clasificadores de imágenes están entrenados para distinguir clases visualmente distintas. Clasificar las imágenes de un vídeo endoscópico como interiores o exteriores parece análogo. Sin embargo, entre el interior y el exterior del cuerpo hay una transición en la que la cámara se mueve dentro o fuera del cuerpo que puede parecer ambigua. Por tanto, la definición de cuándo una imagen está dentro o fuera del cuerpo es crucial. Definimos que la válvula del trocar óptico es la señal visual para la transición del interior al exterior del cuerpo y viceversa. Para pecar de protección de la privacidad, tan pronto como la válvula es visible, el marco se considera fuera del cuerpo incluso si la cámara todavía está dentro del trocar óptico. Al utilizar un módulo LSTM en la arquitectura del modelo, tomamos en cuenta el contexto temporal de los fotogramas dentro y fuera del cuerpo y evitamos una clasificación errónea en la transición de fase del interior al exterior y viceversa debido al parpadeo de fase.

A pesar del excelente desempeño de OoBNet, incluso en la validación externa, el modelo tiene sus limitaciones. No todos los fotogramas se clasificaron correctamente. El clasificador ideal no tendría ni falsos positivos (predichos como fuera del cuerpo por el modelo aunque dentro del cuerpo) ni falsos negativos (predichos como dentro del cuerpo por el modelo aunque fuera del cuerpo). Sin embargo, para errar en el sitio de preservación de la privacidad, se deben minimizar las predicciones falsas negativas. En otras palabras, el umbral del clasificador debe optimizarse para la sensibilidad (recuperación). Pero sólo se puede lograr la máxima sensibilidad y ninguna predicción de falsos negativos si cada cuadro se clasifica como extracorporal. Sin embargo, esto sería un clasificador completamente inespecífico que conduciría a una pérdida total del interior de las estructuras corporales, que son relevantes para el análisis de vídeo quirúrgico. Por lo tanto, es necesario llegar a un equilibrio entre precisión y recuperación. Como la puntuación F1 es la media armónica de precisión y recuperación, un clasificador con la puntuación F1 máxima optimiza la precisión y la recuperación al mismo tiempo. En este estudio, la puntuación máxima F1 en el conjunto de validación se utilizó como criterio de parada temprana para el entrenamiento del modelo y se alcanzó en un umbral de clasificación de 0,73. Pero como este umbral arrojó más predicciones falsas negativas a favor de menos predicciones falsas positivas, utilizamos el umbral predeterminado de 0,5. Es de destacar que el umbral del clasificador en este estudio no se aprendió mediante el entrenamiento del modelo, sino que se configuró manualmente para minimizar las predicciones de falsos negativos a una tasa aceptable de falsos positivos. Sin embargo, el uso de un umbral <0,5 habría reducido aún más el número de falsos negativos con un mayor número de falsos positivos (consulte el número de predicciones de falsos negativos frente a falsos positivos en diferentes umbrales para los tres conjuntos de pruebas, figura complementaria S1). .

Como muestran los resultados cualitativos (Fig. 4), el rendimiento de OoBNet era limitado si la visión endoscópica se veía afectada por el humo, la niebla o la sangre quirúrgicos. Además, OoBNet predijo resultados falsos positivos cuando los objetos (mallas, hisopos, tejidos) estaban tan cerca de la cámara que la visión era borrosa, e incluso para un anotador humano era difícil distinguir si un cuadro determinado estaba fuera del cuerpo. O no. El trabajo adicional para mejorar el rendimiento de OoBNet incluiría un entrenamiento modelo en un conjunto más grande de casos extremos con visión endoscópica deteriorada. Además, OoBNet predijo resultados falsos negativos si un cuadro fuera del cuerpo se parecía visualmente a una escena interior. La inspección manual de todas las predicciones falsas negativas (n = 557) en todos los conjuntos de datos de prueba reveló tres marcos sensibles a la privacidad, donde potencialmente se podría haber identificado al personal de quirófano. Sin embargo, de los 111.974 fotogramas evaluados por OoBNet, ni uno solo reveló la identidad del paciente, la hora o la fecha de la intervención. Sin embargo, los vídeos anonimizados con OoBNet necesitan una revisión manual para garantizar la confidencialidad médica antes de almacenarlos, compartirlos o publicarlos. Sin embargo, OoBNet reduce el tiempo necesario para la revisión manual, ya que las predicciones falsas negativas a menudo se sitúan en la proximidad temporal de las predicciones positivas verdaderas.

En la validación externa, OoBNet mostró una caída de hasta 6,7% puntos en la puntuación F1. Esto está en línea con los resultados de la validación multicéntrica de otros modelos de IA en el ámbito quirúrgico. Por ejemplo, los modelos de reconocimiento de fase quirúrgica de última generación han demostrado un rendimiento variable en la validación multicéntrica26,27. Además, EndoDigest, una plataforma de visión por computadora para la documentación en video de CVS en colecistectomía laparoscópica, mostró una documentación de CVS exitosa del 64% al 79% cuando se validó en un conjunto de datos externo multicéntrico en comparación con un 91% de documentación de CVS exitosa en el conjunto de datos interno14,20. Por lo tanto, el rendimiento de los modelos de IA entrenados y evaluados en un único conjunto de datos debe considerarse con cautela, y estos resultados resaltan aún más la necesidad de una validación externa de los modelos de IA. Nuestro modelo, sin embargo, ha demostrado generalizarse bien en vídeos de varios centros externos.

La importancia de OoBNet radica en su alta confiabilidad para identificar cuadros extracorporales en videos endoscópicos. OoBNet está capacitado en un conjunto de cirugías endoscópicas muy diversas, incluidas cirugías robóticas, para tener en cuenta las diferentes apariencias visuales de la anatomía, los instrumentos y los quirófanos. Además, OoBNet se evalúa en dos conjuntos de datos independientes para mostrar su capacidad de generalizar entre centros. OoBNet se comparte públicamente como una herramienta para facilitar la privacidad preservando el almacenamiento, manejo y publicación de videos endoscópicos.

En conclusión, OoBNet puede identificar cuadros extracorporales en videos endoscópicos de nuestros conjuntos de datos con un AUC ROC del 99%. Ha sido ampliamente validado en conjuntos de datos multicéntricos internos y externos. OoBNet se puede utilizar con alta confiabilidad para anonimizar videos endoscópicos para archivo, investigación y educación.

El código del modelo, los pesos del modelo entrenado y un ejecutable están disponibles en https://github.com/CAMMA-public/out-of-body-detector. Debido a restricciones de privacidad, los conjuntos de datos utilizados en el presente trabajo no se pueden compartir públicamente.

Hipócrates de Cos. El juramento. (1923) https://doi.org/10.4159/DLCL.hippocrates_cos-oath.1923.

Bonrath, EM, Gordon, LE & Grantcharov, TP Caracterización de eventos de "cuasi accidente" en cirugía laparoscópica compleja mediante análisis de vídeo. Clasificación BMJ. Seguro. 24, 490–491 (2015).

Artículo de Google Scholar

Bonrath, EM, Dedy, NJ, Gordon, LE y Grantcharov, TP El entrenamiento quirúrgico integral mejora la habilidad quirúrgica en el quirófano: un ensayo controlado aleatorio. Ana. Cirugía. 262, 205–212 (2015).

Artículo PubMed Google Scholar

Miskovic, D. y col. ¿Es posible realizar una evaluación de competencias a nivel de especialistas? Un estudio para el Programa Nacional de Capacitación en cirugía colorrectal laparoscópica en Inglaterra. Ana. Cirugía. 257, 476–482 (2013).

Artículo PubMed Google Scholar

Harris, A. y col. Desarrollo de un sistema confiable de garantía de calidad quirúrgica para la esofagectomía en 2 etapas en ensayos controlados aleatorios. Ana. Cirugía. 275, 121-130 (2022).

Artículo PubMed Google Scholar

Birkmeyer, JD y cols. Habilidad quirúrgica y tasas de complicaciones después de la cirugía bariátrica. N. inglés. J. Med. 369, 1434-1442 (2013).

Artículo CAS PubMed Google Scholar

Fecso, AB, Bhatti, JA, Stotland, PK, Quereshy, FA y Grantcharov, TP El rendimiento técnico como predictor de resultados clínicos en la cirugía laparoscópica de cáncer gástrico. Ana. Cirugía. 270, 115-120 (2019).

Artículo PubMed Google Scholar

Twinanda, AP y cols. EndoNet: una arquitectura profunda para tareas de reconocimiento en videos laparoscópicos. Traducción IEEE. Medicina. Imágenes 36, 86–97 (2017).

Artículo PubMed Google Scholar

Hashimoto, DA y cols. Análisis de visión por computadora de video intraoperatorio: reconocimiento automatizado de los pasos quirúrgicos en la gastrectomía en manga laparoscópica. Ana. Cirugía. 270, 414–421 (2019).

Artículo PubMed Google Scholar

Ramesh, S. y col. Redes convolucionales temporales multitarea para el reconocimiento conjunto de fases y pasos quirúrgicos en procedimientos de bypass gástrico. En t. J. Computación. Asistir. Radiol. Cirugía. 16, 1111-1119 (2021).

Artículo PubMed PubMed Central Google Scholar

Nwoye, CI, Mutter, D., Marescaux, J. & Padoy, N. Enfoque LSTM convolucional débilmente supervisado para el seguimiento de herramientas en videos laparoscópicos. En t. J. Computación. Asistir. Radiol. Cirugía. 14, 1059-1067 (2019).

Artículo PubMed Google Scholar

Nwoye, CI y cols. Reconocimiento de interacciones instrumento-tejido en videos endoscópicos mediante tripletes de acción. En MICCAI 2020. Apuntes de conferencias sobre informática (Springer, 2020) https://doi.org/10.1007/978-3-030-59716-0_35.

Twinanda, AP, Yengera, G., Mutter, D., Marescaux, J. y Padoy, N. RSDNet: Aprender a predecir la duración restante de la cirugía a partir de videos laparoscópicos sin anotaciones manuales. Traducción IEEE. Medicina. Imágenes 38, 1069–1078 (2019).

Artículo PubMed Google Scholar

Mascagni, P. et al. Una plataforma de visión por computadora para localizar automáticamente eventos críticos en videos quirúrgicos: documentar la seguridad en la colecistectomía laparoscópica. Ana. Cirugía. 274, e93-e95 (2021).

Artículo PubMed Google Scholar

Lavanchy, JL y cols. Automatización de la evaluación de habilidades quirúrgicas mediante un algoritmo de aprendizaje automático de tres etapas. Ciencia. Rep. 11, 5197 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Mascagni, P. et al. Inteligencia artificial para la seguridad quirúrgica. Ana. Cirugía. 275, 955–961 (2022).

Artículo PubMed Google Scholar

Aspart, F. y col. ClipAssistNet: Llevando información sobre seguridad en tiempo real a los quirófanos. En t. J. Computación. Asistir. Radiol. Cirugía. 17, 5-13 (2022).

Artículo PubMed Google Scholar

Yu, T. y col. Recuperación de videos laparoscópicos en vivo con incertidumbre comprimida. Preimpresión en http://arxiv.org/abs/2203.04301 (2022).

Lavanchy, JL y cols. Propuesta y validación multicéntrica de una ontología de cirugía de bypass gástrico en Y de Roux laparoscópica. Cirugía. Endosc. https://doi.org/10.1007/s00464-022-09745-2 (2022).

Artículo PubMed PubMed Central Google Scholar

Mascagni, P. et al. Validación multicéntrica de EndoDigest: una plataforma de visión por computadora para la documentación en video de la visión crítica de la seguridad en la colecistectomía laparoscópica. Cirugía. Endosc. https://doi.org/10.1007/s00464-022-09112-1 (2022).

Artículo PubMed Google Scholar

Sandler, M., Howard, A., Zhu, M., Zhmoginov, A. y Chen, L.-C. MobileNetV2: residuos invertidos y cuellos de botella lineales. En la Conferencia IEEE/CVF de 2018 sobre visión por computadora y reconocimiento de patrones 4510–4520 (IEEE, 2018) https://doi.org/10.1109/CVPR.2018.00474.

Hochreiter, S. y Schmidhuber, J. Memoria larga y a corto plazo. Computación neuronal. 9, 1735-1780 (1997).

Artículo CAS PubMed Google Scholar

Kingma, DP y Ba, J. Adam: un método de optimización estocástica. (2014) https://doi.org/10.48550/ARXIV.1412.6980.

Twinanda, AP, Marescaux, J., de Mathelin, M. & Padoy, N. Enfoque de clasificación para la organización automática de bases de datos de videos laparoscópicos. En t. J. Computación. Asistir. Radiol. Cirugía. 10, 1449-1460 (2015).

Artículo PubMed Google Scholar

Zohar, M., Bar, O., Neimark, D., Hager, GD y Asselmann, D. Detección precisa de segmentos extracorporales en vídeo quirúrgico mediante aprendizaje semisupervisado. En Proc. Mach. Aprender. Res. MIDL 2020, 923–936.

Bar, O. y col. Impacto de los datos en la generalización de la IA para aplicaciones de inteligencia quirúrgica. Ciencia. Rep. 10, 22208 (2020).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Kirtac, K. y col. Reconocimiento de la fase quirúrgica: de conjuntos de datos públicos a datos del mundo real. Aplica. Ciencia. 12, 8746 (2022).

Artículo CAS Google Scholar

Descargar referencias

Joël L. Lavanchy fue financiado por la Fundación Nacional Suiza para la Ciencia (P500PM_206724). Este trabajo fue apoyado por fondos estatales franceses gestionados por la ANR dentro del programa de la Cátedra Nacional de IA bajo la subvención ANR-20-CHIA-0029-01 (Cátedra AI4ORSafety) y dentro del programa Inversiones para el futuro bajo la subvención ANR-10-IAHU-02. (IHU Estrasburgo). Una versión anterior de este manuscrito fue depositada en arXiv: https://doi.org/10.48550/arxiv.2301.07053.

Estos autores contribuyeron igualmente: Joël L. Lavanchy y Armine Vardazaryan.

Al final del artículo aparece una lista de autores y sus afiliaciones.

IHU Estrasburgo, 1 Place de l'Hôpital, 67091, Estrasburgo Cedex, Francia

Joël L. Lavanchy, Armine Vardazaryan, Pietro Mascagni, Didier Mutter y Nicolas Padoy

Departamento de Medicina y Cirugía Visceral, Inselspital, Hospital Universitario de Berna, Universidad de Berna, Berna, Suiza

Joel Lavanchy

ICube, Universidad de Estrasburgo, CNRS, Estrasburgo, Francia

Armine Vardazaryan y Nicolás Padoy

Fondazione Policlinico Universitario Agostino Gemelli IRCCS, Roma, Italia

Pietro Mascagni

Hospital Universitario de Estrasburgo, Estrasburgo, Francia

Didier Mutter

División de Cirugía, Clarunis – Centro Universitario de Enfermedades Gastrointestinales y Hepáticas, St Clara y Hospital Universitario de Basilea, Basilea, Suiza

Joel Lavanchy

Instituto de Investigación contra el Cáncer Digestivo (IRCAD), Estrasburgo, Francia

Bernardo Dallemagne

Hospital Sant'Andrea, Universidad La Sapienza, Roma, Italia

Giovanni Guglielmo Laracca

Hospital Monaldi, AORN dei Colli, Nápoles, Italia

Ludovica Guerriero y Diego Cuccurullo

IRCCS Fundación Ca' Granda Ospedale Maggiore Policlinico di Milano, Universidad de Milán, Milán, Italia

Andrea Spota, Ludovica Baldari, Elisa Cassinotti y Luigi Boni

Hospital Universitario Agostino Gemelli IRCCS, Roma, Italia

Claudio Fiorillo, Giuseppe Quero, Segio Alfieri y Guido Costamagna

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

JLL y AV contribuyeron por igual y comparten la primera coautoría. JLL, AV y NP diseñaron el estudio. JLL, AV, PM y el consorcio AI4SafeChole recopilaron los datos. El modelo fue desarrollado por AV Los resultados fueron analizados por JLL, AV y NP El manuscrito fue escrito por JLL y AV y las figuras 1 a 4 preparadas por JLL Todos los autores revisaron el manuscrito.

Correspondence to Joël L. Lavanchy.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Vídeo complementario 1.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Lavanchy, JL, Vardazaryan, A., Mascagni, P. et al. Preservar la privacidad en el análisis de videos quirúrgicos utilizando un clasificador de aprendizaje profundo para identificar escenas extracorporales en videos endoscópicos. Informe científico 13, 9235 (2023). https://doi.org/10.1038/s41598-023-36453-1

Descargar cita

Recibido: 02 de marzo de 2023

Aceptado: 03 de junio de 2023

Publicado: 07 de junio de 2023

DOI: https://doi.org/10.1038/s41598-023-36453-1

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.