Herramienta

Blog

HogarHogar / Blog / Herramienta

Jun 23, 2024

Herramienta

Scientific Reports volumen 13, Número de artículo: 9591 (2023) Cite este artículo 573 Accesos 1 Detalles de Altmetric Metrics La cuantificación y comprensión de datos quirúrgicos exponen patrones sutiles en las tareas y

Scientific Reports volumen 13, número de artículo: 9591 (2023) Citar este artículo

573 Accesos

1 altmétrica

Detalles de métricas

La cuantificación y comprensión de los datos quirúrgicos exponen patrones sutiles en las tareas y el desempeño. Habilitar dispositivos quirúrgicos con inteligencia artificial proporciona a los cirujanos una evaluación del desempeño personalizada y objetiva: una asistencia quirúrgica virtual. Aquí presentamos modelos de aprendizaje automático desarrollados para analizar la delicadeza quirúrgica utilizando datos de fuerza de interacción herramienta-tejido en la disección quirúrgica obtenidos de unas pinzas bipolares sensorizadas. El modelado de datos se realizó utilizando 50 procedimientos de neurocirugía que involucraron tratamiento quirúrgico electivo para diversas patologías intracraneales. La recopilación de datos fue realizada por 13 cirujanos de distintos niveles de experiencia utilizando fórceps bipolares sensorizados, SmartForceps System. El algoritmo de aprendizaje automático constituyó el diseño y la implementación para tres propósitos principales, es decir, segmentación del perfil de fuerza para obtener períodos activos de utilización de herramientas usando TU-Net, clasificación de habilidades quirúrgicas en Experto y Novato, y reconocimiento de tareas quirúrgicas en dos categorías principales de Coagulación versus no. -Coagulación mediante arquitecturas de aprendizaje profundo FTFIT. El informe final para el cirujano fue un panel que contenía segmentos reconocidos de aplicación de fuerza categorizados en clases de habilidades y tareas junto con gráficos de métricas de desempeño en comparación con cirujanos de nivel experto. Se utilizó el registro de datos del quirófano de > 161 h que contenía aproximadamente 3,6 K de períodos de funcionamiento de la herramienta. El modelado dio como resultado una puntuación F1 ponderada = 0,95 y AUC = 0,99 para la segmentación del perfil de fuerza utilizando TU-Net, una puntuación F1 ponderada = 0,71 y AUC = 0,81 para la clasificación de habilidades quirúrgicas, y una puntuación F1 ponderada = 0,82 y AUC = 0,89 para Reconocimiento de tareas quirúrgicas utilizando un subconjunto de funciones hechas a mano aumentadas a la red neuronal FTFIT. Este estudio ofrece un novedoso módulo de aprendizaje automático en la nube, que permite una plataforma de extremo a extremo para el seguimiento y la evaluación del desempeño quirúrgico intraoperatorio. Al acceder a través de una aplicación segura para la conectividad profesional, se establece un paradigma para el aprendizaje basado en datos.

La incorporación de inteligencia artificial (IA) impulsada por la conectividad en la nube para agregar datos dentro y entre los quirófanos (OR) ofrece una herramienta objetiva para obtener retroalimentación sistemática sobre el uso óptimo de los dispositivos y sistemas médicos. Esto es importante para mejorar la seguridad de la cirugía y utilizar la innovación digital para estandarizar la atención al paciente. La implementación de la IA a través de dispositivos quirúrgicos basados ​​en datos y habilitados por sensores puede transformar la formación tradicional y subjetiva basada en el aprendizaje en un paradigma objetivo y no intimidante1. La asistencia consciente del contexto mediante el reconocimiento de la fase quirúrgica puede facilitar y mejorar aún más el proceso de capacitación a través de retroalimentación analítica particularizada sobre la realización de la cirugía2. Como nueva frontera en el asesoramiento quirúrgico, la ciencia de los datos quirúrgicos se puede definir a través de marcos novedosos que implican la recopilación, estructuración, análisis y modelado de dichos datos3,4.

Los algoritmos de aprendizaje automático en cirugía, si bien son tempranos, pueden mejorar la atención en diversas patologías, incluidas la epilepsia, los tumores cerebrales, las lesiones de la columna y los trastornos cerebrovasculares5. Los datos generados por sensores se pueden utilizar para capturar con precisión la destreza y la habilidad técnica del cirujano, utilizando características significativas extraídas de las maniobras quirúrgicas y el flujo de trabajo. Esto, a su vez, ayudaría a proporcionar una métrica de retroalimentación cuantitativa durante un período de formación quirúrgica graduada. El movimiento de instrumentos se ha utilizado en el pasado como medida cinemática del desempeño y discriminación de habilidades en un entorno de laboratorio6,7,8. Para la evaluación de habilidades, se ha implementado un sistema de seguimiento de instrumentos basado en aprendizaje profundo basado en videos quirúrgicos, que cumple con las métricas manuales de Evaluación Estructurada Objetiva de Habilidades Técnicas (OSATS) y Evaluación Evaluativa Global de Habilidades Robóticas (GEARS)9. La evaluación de habilidades quirúrgicas y la navegación en cirugía colorrectal se pueden facilitar mediante el tipo de fórceps y el reconocimiento de objetos en datos de video10. Además, el uso de características de movimiento extraídas del análisis de patrones temporales de vídeo condujo a la categorización y análisis de las acciones quirúrgicas11,12. También se ha publicado una revisión exhaustiva de la literatura sobre análisis de habilidades quirúrgicas13. Los manuscritos incluidos en esta revisión utilizaron datos cinemáticos (61%) y de vídeo (29%), con atención limitada a las fuerzas herramienta-tejido14,15. Los modelos de ML utilizados en este documento fueron redes neuronales artificiales (ANN), modelos ocultos de Markov (HMM) y máquinas de vectores de soporte (SVM), todos con precisiones superiores al 80%. Sin embargo, sus hallazgos fueron limitados en datos de cirugía de la vida real (12%), así como en la falta de una aplicación marco para proporcionar a los cirujanos comentarios interpretables y clínicamente relevantes.

Entre los datos sensoriales destaca la retroalimentación de fuerza cinestésica, es decir, la reconstrucción del sentido del tacto humano mediante la activación de mecanorreceptores musculares. Este tipo de fuerza puede tener implicaciones para los resultados quirúrgicos, por ejemplo, una aplicación de fuerza no óptima que provoca daño tisular o tiempos quirúrgicos prolongados1,16,17. En varios estudios, la fuerza de agarre se utilizó como métrica para evaluar la habilidad quirúrgica6,18. El análisis de la fuerza del instrumento mostró un nivel de fuerza más bajo en los cirujanos experimentados que en los novatos al realizar ejercicios de laboratorio en seco6. Además, también se realizó un análisis de regresión para la evaluación automatizada de habilidades basado en la fuerza de contacto con los materiales de la tarea, las aceleraciones de los instrumentos robóticos y el tiempo de finalización de la tarea18. Los hallazgos estuvieron de acuerdo con la métrica manual GEARS. Además, se ha demostrado que la combinación de señales visuales con retroalimentación de fuerza mejora la caracterización del tejido19 con magnitudes máximas de fuerza más bajas que conducen a tasas de error quirúrgico y traumatismo tisular significativamente menores20. Los estudios anteriores, si bien tuvieron éxito en sus respectivos objetivos, nunca se centraron en la evaluación del desempeño basada en tareas quirúrgicas, por ejemplo, la coagulación como un aspecto primordial de la cirugía vascular, utilizando datos de una sola modalidad de la interacción herramienta-tejido, es decir, fuerzas16.

Aquí presentamos un marco original de aprendizaje automático, es decir, desde la ingesta de datos, análisis y aprendizaje automático hasta conocimientos, para la extracción de información utilizando un entorno rico en datos habilitado por unas pinzas bipolares sensorizadas acopladas a una plataforma de software inteligente, el SmartForceps System1. 16,21,22,23,24. Los SmartForceps de grado médico se esterilizan entre cada procedimiento siguiendo los estándares aprobados por los organismos reguladores y el Departamento Central de Esterilización y Reprocesamiento. Para la aprobación regulatoria, hemos demostrado que cada SmartForceps resiste múltiples ciclos de esterilización sin afectar los sensores del instrumento, es decir, alterar la calibración1,25. Este novedoso marco se basa en nuestro trabajo reciente en un panel de rendimiento quirúrgico basado en datos, creando ahora una plataforma analítica automatizada. El trabajo aprovecha la tecnología basada en sensores mediante la cual los sistemas de inteligencia artificial en evolución complementan la forma en que se realiza y enseña la cirugía. Los esfuerzos de modelado abarcan arquitecturas de aprendizaje profundo y análisis de datos para la clasificación de habilidades quirúrgicas entre expertos y principiantes, y el reconocimiento de una tarea neuroquirúrgica crítica, es decir, la coagulación, para mejorar la granularidad en la retroalimentación del desempeño. Dichos análisis sobre el desempeño quirúrgico y la comparación con el estándar de oro se pueden revisar en un entorno interactivo, es decir, la Sala de Expertos. Este estudio ofrece nuevas oportunidades dentro de un modelo de análisis y seguimiento del desempeño quirúrgico objetivo e impulsado por sensores, hacia un mejor aprendizaje y seguridad de la cirugía.

El sistema SmartForceps (desarrollado en el Proyecto neuroArm, Universidad de Calgary, Calgary AB, Canadá) permite la visualización y el registro en tiempo real de datos de fuerza herramienta-tejido durante la cirugía. Las tareas quirúrgicas se clasificaron en: (1) Coagulación (cese de la pérdida de sangre de un vaso dañado), (2) No coagulación con subcategorías de (a) Disección (corte o separación de tejidos), (b) Tirar (mover y retener tejidos en una dirección), (c) Retraer (agarrar y retener tejido para exposición quirúrgica) y (d) Manipular (mover algodón u otros objetos que no son tejidos), que se identificaron luego de la aprobación de expertos de revisiones de datos acumulativos. La voz grabada de cada cirujano acompañaba las grabaciones de fuerza, que indicaban los períodos de aplicación de la fuerza y ​​los nombres de las tareas específicas. Esta información facilitó el proceso de etiquetado para cada segmento de fuerza, creando un conjunto de datos supervisados ​​para los modelos de aprendizaje automático. El estudio fue aprobado por la Junta Conjunta de Ética e Investigación en Salud de la Universidad de Calgary, Calgary, AB, Canadá (REB19-0114), con la tecnología aprobada por Health Canada (ITA 329,641 Clase II, 2021). Los detalles sobre el desarrollo de la tecnología y su uso preclínico y clínico se han publicado previamente16,21,22,23,26,27. Se obtuvo el consentimiento informado electrónico y verbal de los cirujanos participantes según la REB, que incluía una renuncia al consentimiento informado del paciente por parte de la Junta de Revisión Institucional de la Universidad de Calgary. El equipo quirúrgico adoptó el sistema SmartForceps en lugar de las pinzas bipolares convencionales con la ventaja adicional de medir, visualizar y registrar la fuerza del tejido en tiempo real. En este estudio prospectivo se incluyeron pacientes adultos sometidos a tratamiento quirúrgico electivo por diversas patologías intracraneales (bajo la supervisión del autor principal como cirujano del personal). Se excluyeron los procedimientos neuroquirúrgicos de emergencia y la población pediátrica. No se incluye información identificable del paciente en el manuscrito y los métodos se realizaron de acuerdo con las directrices y regulaciones pertinentes para estudios experimentales en humanos y la Declaración de Helsinki.

El marco de datos incluía una arquitectura de nube compatible con HIPAA y PIPEDA para retener y procesar los datos no identificados intraoperatorios a través de una plataforma en la nube (Microsoft Azure, Microsoft EE. UU.) con autenticación segura a través de credenciales organizacionales. Además, se desarrolló una aplicación web/móvil instalable para monitorear los datos/funciones relacionados con la fuerza, que está disponible en smartforceps-app.azurewebsites.net.

Para cuantificar el comportamiento de los perfiles de fuerza para el reconocimiento de patrones y el análisis del rendimiento, desarrollamos modelos de aprendizaje automático para segmentar y reconocer los patrones de los perfiles de fuerza intraoperatorios. Los modelos no hacen suposiciones sobre el patrón subyacente en los datos de fuerza y, por lo tanto, son robustos al ruido. El marco permite modelar una estructura compleja en nuestros datos de series temporales no estacionarias, donde las características de los datos, incluida la media, la varianza y la frecuencia, cambian con el tiempo. La Figura 1 muestra la arquitectura del flujo de trabajo desde el registro de datos hasta el modelado y la visualización.

Arquitectura de flujo de trabajo de la plataforma SmartForceps desde el registro de datos hasta el modelado y la visualización. Las fuerzas de la interacción herramienta-tejido junto con información de casos no identificados se cargaron en una plataforma de análisis y almacenamiento de datos que cumple con HIPAA. Los datos de fuerza se segmentaron y etiquetaron manualmente escuchando las grabaciones de voz del cirujano, donde se narraban los nombres de los cirujanos, las tareas quirúrgicas y los incidentes importantes. La arquitectura de modelado de IA incluía preprocesamiento automático de datos (p. ej., equilibrio de datos, eliminación de valores atípicos, transformación de datos, etc.), ingeniería de características, modelado de datos (TU-Net para segmentación de perfiles de fuerza (TU-Net: series temporales-U-Net) ; XGBoost, LSTM y FTFIT (Force Time-series Feature-based InceptionTime) para el reconocimiento de patrones) y Modeling Optimization and Performance Assessment, que se integraron en la plataforma en la nube para generar informes de evaluación del desempeño para el equipo quirúrgico. En los Materiales complementarios se describe una descripción detallada de los procesos seleccionados en la figura. La visualización se creó en Microsoft PowerPoint versión 16.49 con los íconos obtenidos de una búsqueda en Google: por ejemplo, https://www.iconfinder.com.

Los puntos de datos de fuerza etiquetados como ENCENDIDO o APAGADO se incluyeron para el análisis después de aplicar el equilibrio de datos basado en reglas (Figura S1, detallada en Materiales complementarios). Para transformar los datos a una distribución normal, es decir, gaussiana con media cero y varianza unitaria, y para eliminar el efecto dominante de una varianza mayor en una señal específica, se realizó la normalización de características de la fuerza de las puntas izquierda y derecha eliminando la media y escalando a variación unitaria. Esto permitió la estandarización de los valores correspondientes. La preparación de datos comprendió la normalización y remodelación en ventanas de 224 puntos de datos que terminaron con aproximadamente 5,9 K ventanas de fuerza remuestreadas. Después de esto, se codificaron las etiquetas de los segmentos y se implementó un esquema de codificación one-hot. Finalmente, se realizó una división del 80 % (20 % de validación)—20 % con una semilla aleatoria para dividir los datos en muestras de entrenamiento, validación y prueba. Se entrenó e implementó un modelo U-Net (TU-Net: Time-series-U-Net; U-Net es un modelo dominante para la segmentación de imágenes28) diseñado a medida que consistía en una estructura de codificador y decodificador convolucional para capturar las propiedades y reconstruir el perfil de fuerza. Se realizó una búsqueda de cuadrícula para el ajuste de hiperparámetros (Figuras S2, S3, detalladas en Materiales complementarios).

En esta fase se incluyeron datos de entrenamiento segmentados con etiquetas binarias Experto y Novato. Para fortalecer el poder de predicción en los datos de fuerza, se calcularon un total de 29 características hechas a mano (Tabla S1) que pueden capturar el comportamiento de los datos de series de tiempo de fuerza quirúrgica y que se analizaron en nuestro estudio anterior1 para cada ventana de 200 puntos de datos y se agregado como la tercera señal a un modelo de aprendizaje profundo después de un proceso de selección de características (Tablas de materiales complementarios S2, S3). Nuestro proceso de curación de datos realizó una extracción de características basada en series temporales en los datos segmentados después de la reducción de ruido1. El proceso de normalización transformó los datos de las características en una distribución gaussiana con media cero y varianza unitaria y remuestreo para igualar el tamaño de la ventana de datos de fuerza de 200 puntos con una relación al máximo como orden de interpolación spline y modo de borde para la imputación de datos de límites. Los datos normalizados y reformados crearon ventanas de segmentos de fuerza remuestreadas de 3,6 K (segmentos de 1766 principiantes y 1859 de expertos), que se codificaron utilizando un vector único y una división aleatoria en entrenamiento-validación, es decir, 80 % (20 % de validación), y pruebas, es decir, 20%, muestras.

En esta fase se consideró la principal tarea quirúrgica de la Coagulación como una etiqueta de datos para distinguirla de otras tareas. De manera similar al modelo de clasificación de habilidades, las 29 características hechas a mano (Tabla S1) se alimentaron a la red neuronal después de calcularse en una ventana de 200 puntos de datos, reducción adecuada de ruido, eliminación de valores atípicos, normalización y remuestreo, y selección de características (Materiales complementarios). Tablas S4, S5). Los segmentos de fuerza procesados ​​constaban de 2.000 muestras (1170 segmentos de fuerza de coagulación y 915 segmentos de no coagulación (manipulación = 323, tracción = 316, retracción = 149 y disección = 127)) con un formato de codificación one-hot que tiene un 64 %. capacitación, 16% validación y 20% muestras de prueba.

Se crearon dos modelos de aprendizaje profundo y de referencia para clasificar los niveles de experiencia del cirujano (es decir, principiante y experto) y el reconocimiento de actividad mientras realiza una tarea específica (es decir, coagulación y no coagulación (p. ej., extracción, manipulación, disección y retracción)). . Se desarrolló un modelo de red neuronal profunda para la clasificación de series temporales basado en InceptionTime29, es decir, FTFIT (Force Time-series Feature-based InceptionTime), para obtener las características aprendidas. Esto, junto con las características de ingeniería descritas anteriormente, se utilizó en una clasificación de la experiencia del cirujano basada en regresión logística. Se utilizó un segundo modelo de aprendizaje profundo basado en una red neuronal LSTM para el reconocimiento de experiencias y actividades del cirujano basado en series temporales. Estos modelos siguieron un clasificador XGBoost de referencia que utilizó características hechas a mano (los detalles del modelado y los resultados se encuentran en las Figuras de materiales complementarios S11, S12 y S18, S19). Más detalles sobre las características del modelo y el ajuste de hiperparámetros están disponibles en Materiales complementarios (Figuras S4, S5, S6).

Para todos los modelos, resumen que incluye el tipo, la forma y el recuento de parámetros de cada capa; valores de pérdida y precisión para datos de entrenamiento y validación en cada época; informe de clasificación que incluye precisión de validación cruzada quíntuple, modelo seleccionado (mediante búsqueda en cuadrícula sobre pérdida de validación), precisión de las pruebas (sensibilidad y especificidad), precisión promedio, recuperación, puntuación F1 ponderada y área bajo la curva (AUC) para las características operativas del receptor ( ROC), y se generaron curvas de recuperación de precisión durante la validación y prueba con los cuadros y gráficos correspondientes. El entrenamiento del modelo se realizó utilizando una estación de trabajo con CPU Intel Core i9-9820X ​​(10 núcleos, turbo de 4,20 GHz), 2 × Titan RTX con GPU NVLink y 64 GB de memoria, lo que tomó aproximadamente 0,7 h para el entrenamiento y validación de la segmentación de datos y 0,4 h. para modelos de clasificación de habilidades y reconocimiento de tareas.

Datos de fuerza de interacción herramienta-tejido de 50 procedimientos de neurocirugía de resección de tumores en adultos (30 hombres/20 mujeres, edad media (DE): 54,7 (14,1)) entre noviembre de 2019 y octubre de 2020, incluido meningioma (n = 10), glioma (n = 10), schwannoma (n = 15) y hemangioblastoma (n = 3) (+ 12 casos más, por ejemplo, neuralgia del trigémino/espasmo hemifacial, angioma cavernoso, etc.). Los casos fueron realizados por 13 cirujanos, es decir, un experto con más de 30 años de experiencia y doce cirujanos novatos, incluidos residentes con años de posgrado (PGY) que abarcan tres niveles de 1 a 2 (n = 4), 3 a 4. (n = 3), y > 4 años (n = 4), y un becario.

La clasificación de datos puntuales como ON y OFF considerados como segmentos de datos de fuerza a través del modelo TU-Net mostró los mejores resultados para una tasa de aprendizaje de 0,001, 16 como tamaño de filtro, un tamaño de ventana móvil de 224 y un tamaño de lote de 128. El tiempo medio de inferencia fue 0,24 s, y el valor mínimo de pérdida de validación ocurrido en la época 27 (Figura S7a) fue 0,1046 (pérdida de entrenamiento = 0,0853). Los resultados de validación cruzada quíntuple mostraron una precisión media (DE) de 0,95 (0,01). El macro-AUC de ROC fue 0,99 y al probar el modelo, la precisión fue 0,95 (puntuación F1: 0,96 para la clase ON y 0,95 para la clase OFF, valor ponderado = 0,95) (Tabla 1). Los resultados detallados se ilustran en la Figura S7, S8, S9, S10 (Materiales complementarios).

La distribución superpuesta de características en las clases Experto y Novato es una señal temprana de un rendimiento subóptimo del aumento de características en la red (Fig. 2a). La clasificación de series de tiempo funcionó mejor en FTFIT sin características hechas a mano agregadas a la red (AUC = 0,81; valor de p <0,001) (Fig. 3a). El modelo se caracterizó por una tasa de aprendizaje de 0,001 y un tamaño de profundidad de red de 6, un tamaño de ventana móvil de 200 y un tamaño de lote de 128. El tiempo de prueba para cada muestra ocurrió en un promedio de 0,24 s y el modelo alcanzó la pérdida de validación mínima. en la época 66 (de 100 épocas) (pérdida de validación = 0,5285 y pérdida de entrenamiento = 0,4841 (Figura S14a)). El macro-AUC de ROC fue 0,81 y, al probar el modelo para instancias invisibles de datos de fuerza, la precisión fue 0,71 (el valor medio (DE) de la precisión con validación cruzada cinco veces fue 0,73 (0,03)) con una puntuación F1 de 0,71 en ambos Expertos. y clases de principiantes (valor ponderado = 0,71) (Tabla 1). Los resultados detallados están disponibles en las Figuras S14, S15, S16, S17 (Materiales complementarios).

Modelo de clasificación de habilidades La figura muestra la forma de la distribución de datos estandarizada (gaussiana con media cero y varianza unitaria) para cada habilidad, es decir, normal con una tendencia baja de asimetría negativa en Entropía, normal con una tendencia baja de asimetría positiva en Fuerza de rango, sesgado negativo en la heterogeneidad y sesgado positivamente en la fuerza de duración. Además, se observó una correlación positiva en Estabilidad versus Fuerza de Alcance y una correlación negativa en Entropía versus Fuerza de Alcance y Estabilidad versus Entropía. Nota: la visualización de datos se creó después de la eliminación de valores atípicos de puntuación Z <3 en todas las muestras.

Modelo de reconocimiento de tareas Se ha demostrado la forma de la distribución de datos estandarizada para coagulación frente a otras tareas, es decir, normal en entropía, sesgada negativamente en heterogeneidad y sesgada positivamente en fuerza de duración y fuerza de alcance. Además, se observó una correlación positiva en Heterogeneidad versus Fuerza de alcance y una correlación negativa en Entropía versus Fuerza de alcance y Heterogeneidad versus Entropía. Nota: la visualización de datos se creó después de la eliminación de valores atípicos de puntuación Z <3 en todas las muestras.

Gráficos de correlación y distribución para características hechas a mano del subconjunto 1 estandarizado con sus respectivas etiquetas de clase utilizadas en los modelos de clasificación de habilidades y reconocimiento de tareas.

Comparación de rendimiento entre los modelos LSTM y FTFIT con combinaciones de funciones hechas a mano en predicción de habilidades quirúrgicas y reconocimiento de tareas. Diferentes combinaciones de características hechas a mano, es decir, sin característica, conjunto seleccionado de características identificadas a través de la clasificación de importancia de características de KNN y XGBoost, y un subconjunto de características (fuerza de duración, fuerza de alcance, entropía y heterogeneidad; que eran consistentes con las características presentadas en el panel de rendimiento de SmartForceps1) se han comparado.

(a) Predicción de habilidades quirúrgicas El modelo de mejor rendimiento fue FTFIT sin características hechas a mano agregadas a la red que muestra un AUC = 0,81 (valor de p <0,001).

(b) El FTFIT de reconocimiento de tareas quirúrgicas con el subconjunto 1 de características hechas a mano (n = 4) agregado a la red estuvo entre los modelos de mejor rendimiento con un AUC = 0,89 (valor de p <0,001).

La realización del reconocimiento de tareas para coagulación y no coagulación (después de una selección aleatoria de 0,5 segmentos de coagulación para el equilibrio de datos) utilizando FTFIT con el subconjunto 1 de las funciones hechas a mano (n = 4) agregadas (Fig. 2b) a la red fue una de los mejores resultados (AUC = 0,89; valor de p <0,001) (Fig. 3-b). Este modelo tenía una tasa de aprendizaje de 0,01, un tamaño de profundidad de red de 12, un tamaño de ventana móvil de 200, un tamaño de lote de 128 y concluyó con un tiempo medio de inferencia de 0,20 s. El valor mínimo de pérdida de validación de este modelo ocurrió en la época 46 (de 150 épocas) con una pérdida de validación de 0,4002 y una pérdida de entrenamiento de 0,3025 (Figura S21a). El macro-AUC de la República de China fue de 0,89 y los resultados de las pruebas mostraron una precisión de 0,82 con una precisión validada cruzada media (DE) cinco veces mayor de 0,79 (0,07). (La puntuación F1 de la clase de Coagulación fue de 0,85 y para la de No Coagulación fue de 0,77; promedio ponderado = 0,82) (Tabla 1). Los resultados detallados están disponibles en la Figura S21, S22, S23, S24 (Materiales complementarios).

Los modelos de aprendizaje automático se tradujeron en recursos y canales integrados en la plataforma en la nube para análisis sobre la marcha y comentarios a los cirujanos. El resultado final para la segmentación y el reconocimiento de habilidades/tareas se visualizó a través de gráficos de distribución comparativos y segmentos de perfil de fuerza individuales como se describió anteriormente1. La Figura 4 muestra los perfiles de fuerza y ​​el informe de desempeño de un cirujano en 3 casos de resección de tumor cerebral.

Descripción general de los datos procesados ​​para tres procedimientos quirúrgicos utilizando el reconocimiento y modelado de aprendizaje automático SmartForceps. Esta figura es una instantánea de la pestaña Datos de fuerza quirúrgica en el panel de monitoreo del desempeño de SmartForceps que muestra el resultado final del proceso de datos y análisis. El proceso comenzó con la recopilación de datos del quirófano utilizando software dedicado, continuó con Microsoft Data Factory ejecutando el motor de análisis para el preprocesamiento de datos y el reconocimiento de patrones, y finalizó con el panel de monitoreo del rendimiento de dispositivos móviles/de escritorio.

(a) Datos de fuerza quirúrgica En esta representación, distribución agregada de datos del desempeño del cirujano tanto a nivel experto (gráficos de violín verde) como a nivel principiante (gráficos de violín morado) en todas las tareas quirúrgicas según el índice de incertidumbre de la fuerza (es decir, entropía como una característica) seleccionada en el menú desplegable (gráfico de la columna izquierda). El gráfico de la columna de la derecha muestra los perfiles de fuerza reales para las puntas izquierda (gráfico de serie de tiempo rojo) y derecha (gráfico de serie de tiempo azul) de SmartForceps.

(b) Comparación de rendimiento Esta figura muestra comparaciones de rendimiento (barra morada) del cirujano en comparación con los cirujanos de nivel Experto (media y desviación estándar indicadas como marca roja y área verde, respectivamente) después de la extracción de características relacionadas con la fuerza quirúrgica en perfiles de fuerza segmentados por TU-Net. Los gráficos de calibre muestran los valores respectivos de duración promedio de la fuerza, rango de fuerzas, variabilidad de la fuerza e índices de incertidumbre de la fuerza en 3 procedimientos quirúrgicos realizados por el cirujano. En este gráfico, el indicador del cirujano representativo comienza desde cero como punto de referencia con el objetivo de alcanzar los valores de nivel experto indicados por una barra roja y un área verde. Este cirujano tuvo una mayor duración promedio de la fuerza (2,19 s más), un menor rango de fuerzas (0,2 N menos), una menor variabilidad de la fuerza (46 puntos menos) y una mayor incertidumbre de la fuerza (0,12 puntos más) en comparación con el promedio de los datos de los expertos.

Este trabajo presenta un algoritmo original que se ejecuta a perpetuidad detrás de escena en el quirófano como un asistente quirúrgico virtual basado en datos en entornos del mundo real30,31. Basado en los datos de series temporales obtenidos utilizando SmartForceps, se desarrolló un proceso paso a paso para establecer modelos únicos de aprendizaje automático personalizados para obtener interconectividad y retroalimentación de rendimiento creíble en tiempo real en el quirófano. De hecho, dichos análisis automatizados basados ​​en la fuerza de interacción herramienta-tejido proporcionaron una visión holística de los elementos combinatorios que dan forma a la habilidad quirúrgica, por ejemplo, fuerzas herramienta-tejido, perfil de fuerza, movimiento, coordinación mano-ojo, etc., todos los cuales pueden contribuir a la cirugía. finura1,32.

Al entrenar un marco de aprendizaje automático, cualquier desequilibrio de datos puede plantear un desafío en los modelos predictivos debido al sesgo hacia la clase mayoritaria. Este problema se mitigó mediante la eliminación de datos, es decir, la eliminación del bloqueo de fuerza durante los períodos de inactividad del dispositivo en la segmentación del perfil de fuerza y ​​el muestreo aleatorio del 50 % de los segmentos de fuerza en la tarea de coagulación de alta frecuencia. Dado que el modelo de segmentación de series de tiempo proporciona una clasificación puntual de instancias ON/OFF, los análisis de posprocesamiento son necesarios para la fase de producción, incluida la extracción de bloques continuos de activación forzada que cumplan con los requisitos de longitud de datos y la conciliación de la discontinuidad impulsada por el ruido en el segmentos identificados. El proceso de producción incorporó fábricas de datos, funciones y API REST que, tras la carga de los datos de quirófano en la nube, sirvieron como una aplicación de panel de control de rendimiento personalizado1,27.

Si bien se prefirió anexar características hechas a mano a las redes neuronales para el reconocimiento de habilidades y los modelos de clasificación de tareas, el resultado puede implicar una inferencia dual. Después de pruebas exhaustivas, fue evidente que la incorporación de un conjunto de características seleccionado reduciría el rendimiento en la clasificación de habilidades (el AUC se reduce de 0,81 a 0,76 en FTFIT cuando se utiliza el tamaño de ventana de 200). Por otro lado, la combinación de características de rendimiento replicadas en el panel de monitoreo de SmartForceps1, por ejemplo, Fuerza de duración, Fuerza de rango, Entropía y Heterogeneidad, se encontraban entre las combinaciones de mejor rendimiento en modelos de aprendizaje profundo (rango de rendimiento de AUC = 0,85 a 0,89 en modelos de reconocimiento de tareas utilizando LSTM o FTFIT). Esto demostró la importancia del modelado óptimo específico de la aplicación y su validación para su uso en el mundo real. En los modelos de aprendizaje automático con datos limitados, el sobreajuste ocurre con frecuencia y los modelos de referencia indican tal fenómeno, como se muestra en los Materiales complementarios con las diferencias observadas entre la precisión del entrenamiento y las pruebas. Para mitigar el sobreajuste, se implementó la búsqueda de cuadrícula para el ajuste fino del modelo y la detención temprana basada en la pérdida de validación. Se realizó una validación cruzada quíntuple para evaluar el rendimiento final del modelo en función de los mejores hiperparámetros. Los resultados mostraron una buena correspondencia entre las pruebas y las precisiones medias (DE) con validación cruzada para la segmentación (0,95 frente a 0,95 (0,01)) y la clasificación de habilidades (0,71 frente a 0,73 (0,03)), pero mayores variabilidades para el reconocimiento de tareas (0,82 frente a 0,82 frente a 0,73 (0,03)). 0,79 (0,07)). Sin embargo, una precisión de 0,7 es el valor mínimo que se cubre en todos los modelos con validación cruzada.

Aunque los conjuntos de características incluidos pasaron por un proceso de normalización antes de circular en las redes neuronales profundas, algunas de estas características tienen variabilidad inherente y características propensas al ruido (por ejemplo, picos y coeficiente de varianza con variabilidades muy bajas y altas, respectivamente) afectarían negativamente el tiempo. -Descriptor de perfil de serie. La distribución de los valores de las características en la Fig. 2a, a pesar de la Fig. 2b para las categorías de tareas, mostró una alta similitud entre los niveles de habilidad. Esto se refleja, hasta cierto punto, en la comparación del desempeño entre los dos esfuerzos de reconocimiento de patrones, es decir, el reconocimiento de tareas tiene un mejor desempeño que la clasificación de habilidades. Este desempeño subóptimo de la clasificación de habilidades quirúrgicas puede explicarse mediante un análisis estadístico de los factores subyacentes a este modelo. Nuestro análisis mostró que la media (DE: desviación estándar) para la duración de la fuerza en la coagulación fue de 12,1 (7,2) segundos (es decir, alrededor de un 58 % más que el promedio del tiempo de finalización en otras tareas: valor de p de la prueba ANOVA bidireccional < 0,001). Sin embargo, esta comparación de medidas entre los grupos Experto y Novato fue de 12,2 (7,2) versus 12,1 (7,3), solo una diferencia del 0,8%. Se observó un comportamiento similar para la fuerza mínima (valor de p de las clases de tareas = 0,1; valor de p de las clases de habilidades < 0,001), asimetría de la distribución de la fuerza (valor de p de las clases de tareas = 0,8; valor de p de las clases de habilidades < 0,001) y autocorrelación cero del primer perfil de fuerza (valor de p de las clases de habilidades = 0,1; valor de p de las clases de habilidades < 0,001) Clases valor p = 0,9; Clases de habilidades valor p < 0,001)13. También se informó un rendimiento más bajo para la clasificación de habilidades en estudios previos donde los investigadores mostraron una precisión media del 91 % en la detección de acciones quirúrgicas, sin embargo, del 77 % al predecir habilidades quirúrgicas utilizando el aprendizaje profundo en videos quirúrgicos 6. Esto puede estar relacionado en parte con datos reales. -Escenario mundial en el que los cirujanos en formación realizan sólo aquellas tareas delegadas por el médico tratante en función de su nivel de competencia y comodidad. Además, esta similitud de patrón tal vez pueda atribuirse a que los alumnos siguieron el ejemplo del mentor en nuestros datos institucionales únicos. Incluir datos multiinstitucionales con patrones más distintivos entre poblaciones y procedimientos de mentores-aprendices ayudaría a equipar y enriquecer el marco de aprendizaje automático con más granularidad y diversidad de datos entrantes, es decir, calificación del dominio de habilidades, en el modelo de clasificación de niveles de habilidades.

Es interesante señalar que el tamaño de la ventana de la serie de tiempo de entrada tuvo un impacto en el desempeño del modelado, es decir, AUC = 0,78 a 0,81 para el modelo de clasificación de habilidades y AUC = 0,87 a 0,89 para el modelo de reconocimiento de tareas utilizando la red FTFIT. Esto se relacionó principalmente con el tiempo de duración promedio de un segmento de fuerza, que fue cercano a 10 s (200 puntos de datos considerando la frecuencia de muestreo de 20 Hz). La internalización de la red FTFIT para el modelado de datos SmartForceps mostró una mejora significativa en comparación con un modelo de aprendizaje profundo ampliamente utilizado, es decir, LSTM, tanto para el reconocimiento de habilidades (mejoras del AUC de 0,60 a 0,81) como para el reconocimiento de tareas (mejoras del AUC de 0,69 a 0,89). Esta comparación con el modelo XGBoost de referencia también mostró una mejora en la precisión de las pruebas, es decir, de 0,65 a 0,71 en la clasificación de habilidades y de 0,81 a 0,82 en el reconocimiento de tareas. Las operaciones convolucionales en FTFIT permitieron además capturar la estructura local del perfil de fuerza, por ejemplo, líneas y curvas, en las neuronas de la capa inferior de la red, mientras que varias formas, por ejemplo, valles y colinas, en las capas superiores. Además, la velocidad, el rendimiento y la escalabilidad establecen a FTFIT como un candidato adecuado para el uso generalizado de las plataformas de aprendizaje automático SmartForceps29.

Se han iniciado esfuerzos para utilizar la IA para la monitorización quirúrgica y la evaluación del desempeño, principalmente en robótica quirúrgica, vinculando la retroalimentación háptica, la cinemática del robot y la información clínica como el tiempo de operación, la pérdida de sangre, etc. para predecir los resultados quirúrgicos como una medida del desempeño33,34 . De manera similar, se ha empleado la localización quirúrgica basada en video de la trayectoria del instrumento quirúrgico y las características de movimiento, utilizando el modelo Fast R-CNN para estimar el monitoreo del desempeño35. Para el reconocimiento de tareas quirúrgicas, los investigadores han estudiado datos cinemáticos continuos representados como cadenas para el descubrimiento de gestos discriminativos a través de la frecuencia de ocurrencia relativa medida mediante estadísticas numéricas comparativas36. También se han utilizado características espaciotemporales de bajo nivel a partir de datos de vídeo, combinadas con un clasificador segmentario de alto nivel basado en una red neuronal convolucional que integra objetos visuales con componentes temporales37. Se han desarrollado enfoques basados ​​en datos para apoyar las decisiones clínicas. Se utilizaron datos preoperatorios e intraoperatorios de múltiples fuentes de un gran número de casos quirúrgicos para predecir las complicaciones posoperatorias38. Además, se utilizó el aprendizaje profundo para pronosticar la duración de la cirugía en tiempo real para tomar decisiones preoperatorias informadas39. Aunque la comparación uno a uno del rendimiento entre los estudios se consideró inadecuada debido a los diferentes objetivos, nunca se ha utilizado una única modalidad, los datos de fuerza, para evaluar el rendimiento basado en tareas quirúrgicas, como la coagulación como componente vital de la cirugía vascular.

Este estudio estuvo limitado por la inclusión de un solo cirujano experto, lo que puede afectar el modelo de clasificación de habilidades quirúrgicas. A medida que la tecnología se extiende actualmente a otros centros, permite una recopilación de datos diversificada de una variedad de equipos quirúrgicos. En estudios futuros se incluirán ensayos clínicos y reentrenamiento de modelos con un mayor número de equipos quirúrgicos.

Aquí, utilizando la tecnología SmartForceps, hemos desarrollado una canalización única basada en datos de extremo a extremo que consolida los conceptos de inmortalizar las habilidades quirúrgicas. Quizás esto podría considerarse como una asistencia virtual alojada en una plataforma en la nube que permite el acceso más allá de los límites geográficos o generacionales. Para facilitar la transición contemporánea a una educación y prácticas quirúrgicas basadas en competencias, se considera oportuna y necesaria la tecnología impulsada por sensores, que permite un resultado digital y cuantificable.

Las figuras y tablas complementarias están disponibles para este documento a través de este enlace: https://github.com/smartforceps/ai_models/tree/main/supplementary-files.

Hay ejemplos de datos no identificados y códigos de modelado disponibles en un repositorio de GitHub: https://github.com/smartforceps/ai_models.

Bagdadi, A. et al. Un panel de rendimiento basado en datos para la disección quirúrgica. Ciencia. Rep. 11(1), 1-13 (2021).

Artículo MathSciNet Google Scholar

Padoy, N. et al. Modelado estadístico y reconocimiento del flujo de trabajo quirúrgico. Medicina. Imagen Anal. 16(3), 632–641 (2012).

Artículo PubMed Google Scholar

Maier-Hein, L. et al. Ciencia de datos quirúrgicos para intervenciones de próxima generación. Nat. Biomédica. Ing. 1(9), 691–696 (2017).

Artículo PubMed Google Scholar

Topol, EJ Medicina de alto rendimiento: la convergencia de la inteligencia humana y artificial. Nat. Medicina. 25(1), 44–56 (2019).

Artículo CAS PubMed Google Scholar

Remitentes, JT et al. Una introducción y descripción general del aprendizaje automático en la atención neuroquirúrgica. Acta Neurochir. 160(1), 29–38 (2018).

Artículo ADS PubMed Google Scholar

Gómez, ED et al. Evaluación objetiva de la habilidad quirúrgica robótica utilizando vibraciones de contacto de instrumentos. Cirugía. Endosc. 30(4), 1419-1431 (2016).

Artículo PubMed Google Scholar

Guru, KA et al. Evaluación de habilidades cognitivas durante la cirugía asistida por robot: separando el trigo de la paja. BJU Int. 115(1), 166-174 (2015).

Artículo PubMed Google Scholar

Védula, SS et al. Métricas cuantitativas a nivel de tarea versus a nivel de segmento para la evaluación de habilidades quirúrgicas. J. Cirugía. Educativo. 73(3), 482–489 (2016).

Artículo PubMed Google Scholar

Lee, D. y col. Evaluación de habilidades quirúrgicas durante la cirugía robótica mediante seguimiento de múltiples instrumentos quirúrgicos basado en aprendizaje profundo en entrenamiento y operaciones reales. J.Clin. Medicina. 9(6), 1964 (2020).

Artículo PubMed PubMed Central Google Scholar

Bamba, Y. et al. Reconocimiento automatizado de objetos y tipos de fórceps en imágenes quirúrgicas mediante aprendizaje profundo. Ciencia. Rep. 11(1), 22571 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Khalid, S. y col. Evaluación de modelos de aprendizaje profundo para identificar acciones quirúrgicas y medir el desempeño. Red JAMA. Abierto 3(3), e201664–e201664 (2020).

Artículo PubMed Google Scholar

Lavanchy, JL y cols. Automatización de la evaluación de habilidades quirúrgicas mediante un algoritmo de aprendizaje automático de tres etapas. Ciencia. Rep. 11(1), 5197 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Lam, K. y col. Aprendizaje automático para la evaluación de habilidades técnicas en cirugía: una revisión sistemática. Dígito NPJ. Medicina. 5(1), 24 (2022).

Artículo PubMed PubMed Central Google Scholar

Bissonnette, V. y col. La inteligencia artificial distingue los niveles de entrenamiento quirúrgico en una tarea espinal de realidad virtual. J. Hueso Jt. Cirugía. Soy. 101(23), e127 (2019).

Artículo de Google Scholar

Rosen, J. y col. Modelado de Markov de cirugía mínimamente invasiva basado en la interacción herramienta/tejido y firmas de fuerza/torque para evaluar las habilidades quirúrgicas. Traducción IEEE. Biomédica. Ing. 48(5), 579–591 (2001).

Artículo CAS PubMed Google Scholar

Sugiyama, T. y col. Fuerzas de interacción herramienta-tejido para evaluar el nivel de habilidad quirúrgica. JAMA Cirugía. 153(3), 234–242 (2018).

Artículo PubMed Google Scholar

Abiri, A. y col. Retroalimentación háptica multimodal para la reducción de la fuerza de agarre en cirugía robótica. Ciencia. Rep. 9(1), 1-10 (2019).

Artículo CAS Google Scholar

Brown, JD y cols. Uso de fuerzas de contacto y aceleraciones del brazo robótico para calificar automáticamente la habilidad del cirujano en la transferencia de clavijas. Traducción IEEE. Biomédica. Ing. 64(9), 2263–2275 (2016).

Artículo PubMed Google Scholar

Tholey, G., Desai, JP & Castellanos, AE La retroalimentación de fuerza juega un papel importante en la cirugía mínimamente invasiva: resultados y análisis. Ana. Cirugía. 241(1), 102 (2005).

Artículo PubMed PubMed Central Google Scholar

Wagner, CR y cols. El beneficio de la retroalimentación de fuerza en cirugía: examen de disección roma. Presencia Tele Oper. Entorno Virtual. 16(3), 252–262 (2007).

Artículo de Google Scholar

Zareinia, K. et al. Unas pinzas bipolares con detección de fuerza para cuantificar las fuerzas de interacción herramienta-tejido en microcirugía. Trans. IEEE/ASME. Mec. 21(5), 2365–2377 (2016).

Artículo de Google Scholar

Sutherland, GR, et al., Pinzas bipolares con medición de fuerza: (2021).

Sugiyama, T. y col. Fuerzas de interacción herramienta-tejido en cirugía de malformaciones arteriovenosas cerebrales. Neurocirugía Mundial. 102, 221–228 (2017).

Artículo PubMed Google Scholar

Sutherland, GR, et al., Aprendizaje automático para la arquitectura de quirófano interconectado, USPA, editor (2021).

Albakr, A. et al. Presentamos los matices de las fuerzas de interacción herramienta-tejido en la cirugía de hemangioblastoma. J. Neurol. Cirugía. Parte B Cráneo. Base 83(01), 159 (2022).

Google Académico

Gan, LS y cols. Cuantificación de fuerzas durante un procedimiento neuroquirúrgico: un estudio piloto. Neurocirugía Mundial. 84(2), 537–548 (2015).

Artículo PubMed Google Scholar

Sutherland, GR, et al., Caracterización de instrumentos quirúrgicos basada en aprendizaje automático, USPA, Editor. (2021).

Huang, H., et al. Unet 3+: un unet conectado a gran escala para la segmentación de imágenes médicas. En: ICASSP 2020-2020 Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales (ICASSP). (IEEE, 2020).

Fawaz, HI y col. Inceptiontime: búsqueda de alexnet para la clasificación de series temporales. Datos mín. Conocimiento. Desct. 34(6), 1936-1962 (2020).

Artículo MathSciNet Google Scholar

Buchlak, QD y cols. Aplicaciones de aprendizaje automático a neuroimagen para la detección y clasificación de gliomas: una revisión sistemática aumentada por inteligencia artificial. J.Clin. Neurociencias. 89, 177-198 (2021).

Artículo PubMed Google Scholar

Birkmeyer, JD y cols. Habilidad quirúrgica y tasas de complicaciones después de la cirugía bariátrica. N. inglés. J. Med. 369(15), 1434-1442 (2013).

Artículo CAS PubMed Google Scholar

Bagdadi, A. et al. El análisis de datos interroga el desempeño quirúrgico robótico utilizando un dispositivo háptico específico para microcirugía. Experto Rev. Med. Dispositivos 17(7), 721–730 (2020).

Artículo CAS PubMed Google Scholar

Hashimoto, DA y cols. Inteligencia artificial en cirugía: promesas y peligros. Ana. Cirugía. 268(1), 70 (2018).

Artículo PubMed Google Scholar

Hung, AJ y cols. Utilizar el aprendizaje automático y métricas de rendimiento automatizadas para evaluar el rendimiento de la prostatectomía radical asistida por robot y predecir los resultados. J. Endourol. 32(5), 438–444 (2018).

Artículo PubMed Google Scholar

Jin, A., et al. Detección de herramientas y evaluación de habilidades operativas en videos quirúrgicos utilizando redes neuronales convolucionales basadas en regiones. En: Conferencia de invierno del IEEE de 2018 sobre aplicaciones de visión por computadora (WACV). (IEEE, 2018).

Forestier, G. y col. Análisis de movimiento quirúrgico utilizando patrones interpretables discriminativos. Artif. Intel. Medicina. 91, 3-11 (2018).

Artículo PubMed Google Scholar

Lea, C. y col. CNN espaciotemporales segmentarias para una segmentación de acciones detallada. En Conferencia europea sobre visión por computadora (eds Leibe, B. et al.) (Springer, 2016).

Google Académico

Xue, B. y col. Uso del aprendizaje automático para desarrollar y evaluar modelos utilizando datos preoperatorios e intraoperatorios para identificar riesgos de complicaciones posoperatorias. Red JAMA. Abierto 4(3), e212240–e212240 (2021).

Artículo MathSciNet PubMed PubMed Central Google Scholar

Jiao, Y. et al. Predicción continua en tiempo real de la duración del caso quirúrgico utilizando una red neuronal artificial modular. Hno. J. Anaesth. 128(5), 829–837 (2022).

Artículo PubMed PubMed Central Google Scholar

Descargar referencias

Este estudio fue apoyado por subvenciones de (1) Fondos de Colaboración Alberta-Alemania (Centro Alemán Canadiense para la Innovación y la Investigación); y (2) Institutos Canadienses de Investigación en Salud (G. No. 390405): Comercialización de Tecnología. Papel del financiador/patrocinador: Los financiadores no tuvieron ningún papel en el diseño y realización del estudio; recopilación, gestión, análisis e interpretación de los datos; preparación, revisión o aprobación del manuscrito; y decisión de enviar el manuscrito para su publicación.

Proyecto neuroArm, Departamento de Neurociencias Clínicas, Hotchkiss Brain Institute Universidad de Calgary, Calgary, AB, Canadá

Amir Baghdadi, Sanju Lama, Rahul Singh y Garnette R. Sutherland

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

AB tuvo acceso total a todos los datos del estudio y asume la responsabilidad de la integridad de los datos y la precisión del análisis de los mismos. Concepto y diseño: Todos los autores. Adquisición, análisis o interpretación de datos: Todos los autores. Redacción del manuscrito: AB, Revisión crítica del manuscrito por contenido intelectual importante: Todos los autores. Análisis de aprendizaje automático: AB, Financiamiento obtenido: GRS, Soporte administrativo, operativo, técnico o material: SL, Supervisión: GRS Agradecimiento adicional: Extendimos nuestro agradecimiento a todos los residentes de neurocirugía y a la División de Neurocirugía, Departamento de Neurociencias Clínicas, Foothills Medical Centro, Calgary AB, Canadá.

Correspondencia a Garnette R. Sutherland.

Todos los autores están afiliados a la empresa derivada de la Universidad de Calgary llamada OrbSurgical Ltd., con sede en Calgary AB, Canadá. La empresa se creó para albergar nueva propiedad intelectual (PI) derivada del Proyecto neuroArm-Universidad de Calgary, que también incluye propiedad intelectual relacionada con el sistema SmartForceps.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia Creative Commons Attribution 4.0 International, que permite su uso, intercambio, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Baghdadi, A., Lama, S., Singh, R. et al. Segmentación de fuerza de tejido-herramienta y reconocimiento de patrones para evaluar el desempeño neuroquirúrgico. Informe científico 13, 9591 (2023). https://doi.org/10.1038/s41598-023-36702-3

Descargar cita

Recibido: 16 de noviembre de 2022

Aceptado: 08 de junio de 2023

Publicado: 13 de junio de 2023

DOI: https://doi.org/10.1038/s41598-023-36702-3

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.