Computer Vision in der Chirurgie: vom Potenzial zum klinischen Wert
npj Digital Medicine Band 5, Artikelnummer: 163 (2022) Diesen Artikel zitieren
4636 Zugriffe
4 Zitate
26 Altmetrisch
Details zu den Metriken
Jedes Jahr werden weltweit Hunderte Millionen Operationen durchgeführt, und die zunehmende Verbreitung der minimalinvasiven Chirurgie hat dazu geführt, dass Glasfaserkameras und Roboter sowohl zu wichtigen Werkzeugen für die Durchführung von Operationen als auch zu Sensoren geworden sind, mit denen Informationen über die Operation erfasst werden. Computer Vision (CV), die Anwendung von Algorithmen zur Analyse und Interpretation visueller Daten, ist zu einer entscheidenden Technologie für die Untersuchung der intraoperativen Phase der Pflege geworden, mit dem Ziel, die Entscheidungsprozesse von Chirurgen zu verbessern, sicherere Operationen zu unterstützen und den Zugang zu erweitern bis zur chirurgischen Versorgung. Obwohl viel Arbeit an potenziellen Anwendungsfällen geleistet wurde, gibt es derzeit keine CV-Tools, die für diagnostische oder therapeutische Anwendungen in der Chirurgie weit verbreitet sind. Am Beispiel der laparoskopischen Cholezystektomie haben wir aktuelle CV-Techniken, die in der minimalinvasiven Chirurgie angewendet werden, und ihre klinischen Anwendungen überprüft. Abschließend diskutieren wir die Herausforderungen und Hindernisse, die für eine breitere Umsetzung und Einführung von CV in der Chirurgie noch überwunden werden müssen.
Mit über 330 Millionen durchgeführten Eingriffen pro Jahr stellt die Chirurgie einen kritischen Bereich der Gesundheitssysteme weltweit dar1. Allerdings ist eine Operation nicht für jeden ohne weiteres möglich. Die Lancet Commission on Global Surgery schätzt, dass jedes Jahr 143 Millionen zusätzliche chirurgische Eingriffe erforderlich sind, um „Leben zu retten und Behinderungen vorzubeugen“2. Verbesserungen in der perioperativen Versorgung und die Einführung minimalinvasiver Ansätze haben die Operation effektiver, aber auch komplexer und teurer gemacht, wobei die Operation etwa ein Drittel der Gesundheitskosten in den USA ausmacht3. Darüber hinaus passieren viele vermeidbare medizinische Fehler in Operationssälen4. Diese Beobachtungen legen nahe, dass Lösungen zur Verbesserung der chirurgischen Sicherheit und Effizienz entwickelt werden müssen.
Die Analyse von Videos chirurgischer Eingriffe und OP-Aktivitäten könnte Strategien zur Verbesserung dieser kritischen Phase der chirurgischen Versorgung bieten. Dies gilt insbesondere für Verfahren, die mit einem minimal-invasiven Ansatz durchgeführt werden, der weltweit immer häufiger eingesetzt wird5,6,7 und stark auf der Visualisierung durch Glasfaserkameras beruht. Tatsächlich wird bei der minimalinvasiven Chirurgie der teilweise Verlust des haptischen Feedbacks durch vergrößerte, hochauflösende Videos ausgeglichen, die von endoskopischen Kameras aufgenommen werden8. Endoskopische Videos, die chirurgische Eingriffe begleiten, stellen eine direkte und leicht verfügbare Quelle digitaler Daten über die intraoperative Phase der chirurgischen Versorgung dar.
In den letzten Jahren hat die Analyse endoskopischer Videos minimalinvasiver chirurgischer Eingriffe die Untersuchung der Auswirkungen von OP-Aktivitäten auf die Patientenergebnisse9 und die Bewertung von Initiativen zur Qualitätsverbesserung10 ermöglicht. Darüber hinaus wird die videobasierte Beurteilung (VBA) zunehmend zur Beurteilung der operativen Leistung, zum formativen Feedback und zur chirurgischen Qualifikation untersucht. Allerdings blieb VBA größtenteils auf den Forschungsbereich beschränkt, da die Belastung durch die manuelle Überprüfung und konsistente Bewertung chirurgischer Videos11,12 anfällt. Aufbauend auf den anfänglichen Erfolgen in der minimalinvasiven Chirurgie hat der Einsatz von Videos auch in der offenen Chirurgie zugenommen13.
Computer Vision (CV), eine Informatikdisziplin, die Techniken der künstlichen Intelligenz (KI) wie Deep Learning (DL) nutzt, um visuelle Daten zu verarbeiten und zu analysieren, könnte die endoskopische Videoanalyse erleichtern und die Skalierung von Anwendungen zum Nutzen einer größeren Gruppe von Personen ermöglichen Chirurgen und Patienten14. Während Menschen dazu neigen, Bilder qualitativ grob zu bewerten, haben Computeralgorithmen darüber hinaus das Potenzial, unsichtbare, quantitative und objektive Informationen über intraoperative Ereignisse zu extrahieren. Schließlich könnte uns die automatisierte endoskopische Online-Videoanalyse ermöglichen, Fälle in Echtzeit zu überwachen, Komplikationen vorherzusagen und einzugreifen, um die Pflege zu verbessern und unerwünschte Ereignisse zu verhindern.
In jüngster Zeit wurden von Wissenschaftlern und Industriegruppen mehrere DL-basierte CV-Lösungen hauptsächlich für die minimalinvasive Chirurgie entwickelt. CV-Anwendungen reichen von der Workflow-Analyse bis zur automatisierten Leistungsbewertung. Während analoge digitale Lösungen für diagnostische Anwendungen in der gastrointestinalen Endoskopie15 und Radiologie16 klinisch umgesetzt und in großem Umfang implementiert werden, hinkt die CV in der Chirurgie hinterher.
Wir diskutieren den aktuellen Stand, das Potenzial und mögliche Wege zum klinischen Wert von Computer Vision in der Chirurgie. Wir untersuchten die laparoskopische Cholezystektomie, das derzeit am meisten untersuchte chirurgische Verfahren für CV-Methoden, um ein konkretes Beispiel dafür zu liefern, wie CV in der Chirurgie angegangen wird; Viele dieser Methoden wurden jedoch auch in der robotergestützten, endoskopischen und offenen Chirurgie angewendet. Abschließend diskutieren wir die jüngsten Bemühungen zur Verbesserung des Zugangs und der Methoden zur besseren Modellierung chirurgischer Daten sowie die ethischen, rechtlichen und pädagogischen Überlegungen, die für die Wertschöpfung für Patienten, Kliniker und Gesundheitssysteme von grundlegender Bedeutung sind.
Die Cholezystektomie ist der häufigste chirurgische Eingriff im Bauchbereich. Allein in den USA werden jedes Jahr fast eine Million Fälle durchgeführt17. Die Sicherheit und Wirksamkeit der minimalinvasiven Chirurgie wurde vor über zwei Jahrzehnten nachgewiesen, und die Laparoskopie ist seitdem zum Goldstandard für die Entfernung der Gallenblase geworden. Die laparoskopische Cholezystektomie (LC) folgt im Allgemeinen einem standardisierten operativen Ablauf, wird von den meisten Allgemeinchirurgen durchgeführt und ist oft einer der ersten Eingriffe, die während der chirurgischen Ausbildung eingeführt werden. Eine relativ aktuelle Analyse, in der Daten von mehr als fünftausend Patienten zusammengefasst wurden, bestätigte die Sicherheit von LC und berichtete über Gesamtmorbiditäts- und Mortalitätsraten von 1,6–5,3 % bzw. 0,08–0,14 %17. Nichtsdestotrotz erschweren iatrogene Gallengangsverletzungen (BDIs) immer noch 0,32–1,5 % der LCs17,18, was eine höhere Inzidenz darstellt als die häufig bei offenen Operationen gemeldete Inzidenz19. BDIs führten zu einem dreifachen Anstieg der Sterblichkeit nach einem Jahr, einer lebenslangen Verschlechterung der Lebensqualität trotz fachmännischer Reparatur und verursachten Schätzungen zufolge allein in den USA jährliche Kosten von etwa einer Milliarde Dollar20,21. Übermäßiges Selbstvertrauen bei der Durchführung dieses sehr häufigen chirurgischen Eingriffs und die Variabilität bei den Operationsschwierigkeiten bei LC haben dazu geführt, dass Sicherheitsrichtlinien kaum umgesetzt wurden und die Inzidenz von BDI folglich nicht abnahm.
Die Allgegenwärtigkeit und Standardisierung von LCs haben dieses Verfahren zu einem attraktiven Maßstab für die CV-Forschung und -Entwicklung in der minimalinvasiven Chirurgie gemacht22,23. Darüber hinaus haben der visuelle Charakter und die Bedeutung von BDI sowohl die Wissenschaft als auch die Industrie dazu angeregt, CV-Lösungen zu entwickeln, um diesen klar definierten klinischen Bedarf zu decken. Schließlich hat die öffentliche Veröffentlichung von Datensätzen kommentierter LC-Videos das Interesse geweckt und die Forschung auf diesem Gebiet erleichtert24.
Auf der gröbsten Ebene kann eine Operation durch die Identifizierung des durchgeführten Eingriffs beschrieben werden. Beispielsweise hat sich die automatische Erkennung der Art des laparoskopischen Eingriffs bereits in den ersten 10 Minuten chirurgischer Eingriffe als äußerst effektiv erwiesen25. Obwohl solche Anwendungen möglicherweise nicht sofort klinisch relevant erscheinen, könnten sie mehreren indirekten Zwecken dienen, beispielsweise der Reduzierung des Anmerkungsaufwands für spezifischere Aufgaben26 oder der Auslösung verfahrensspezifischer Modelle ohne menschliches Eingreifen. Sobald die Art des Eingriffs identifiziert ist, besteht Konsens darüber, dass chirurgische Eingriffe sowohl zeitlich als auch räumlich mithilfe einer Hierarchie immer detaillierterer Deskriptoren oder Anmerkungen beschrieben werden können (Abb. 1)27. In der Praxis weist diese Hierarchie von Natur aus auf einen natürlichen Verlauf immer komplexer werdender Aufgaben zur Kommentierung und Modellierung hin.
Zeitliche (a) und räumliche (b) Anmerkungen mit unterschiedlichen Auflösungen werden verwendet, um Aufgaben mit immer feineren Details zu modellieren.
Auf der gröbsten zeitlichen Ebene kann ein gesamtes chirurgisches Video in Phasen, breite Stadien chirurgischer Eingriffe, eingeteilt werden, die weiter in spezifischere Schritte unterteilt werden können, die durchgeführt werden, um sinnvolle chirurgische Ziele zu erreichen, wie z. B. die Freilegung bestimmter anatomischer Strukturen. Im Jahr 2016 beschäftigte sich EndoNet erstmals mit der Erkennung chirurgischer Phasen mithilfe eines Convolutional Neural Network (CNN), um automatisch visuelle Merkmale, einschließlich Informationen zum Aussehen chirurgischer Instrumente, aus LC-Videobildern zu extrahieren24. Eine detailliertere zeitliche Analyse könnte genutzt werden, um bestimmte Aktivitäten in Operationsvideos zu erkennen. Erste Arbeiten zu diesem Thema haben chirurgische Eingriffe als Tripletts formalisiert, bestehend aus dem als Endeffektor dienenden Werkzeug, dem Verb, das die betreffende Aktivität beschreibt, und der Zielanatomie (z. B. „greifen, zurückziehen, Gallenblase“)28.
Im kürzesten zeitlichen Extrem können die Inhalte eines einzelnen Bildes, wie etwa die Instrumente oder anatomische Merkmale, beschrieben werden. Gegebenenfalls können diese Inhalte weiter räumlich lokalisiert werden, entweder lose mit Markierungen wie Begrenzungsrahmen, die um interessierende Strukturen gezogen werden, oder präzise mit Segmentierungsmasken, die Objekte mit einer Genauigkeit auf Pixelebene abgrenzen. Bei räumlichen Annotationen wird der Detaillierungsgrad sowohl durch die Art der Annotation (z. B. Begrenzungsrahmen vs. Segmentierungsmasken) als auch durch das Ziel, das annotiert wird (z. B. Werkzeuge oder Werkzeugteile), definiert. Darüber hinaus können auch die Beziehungen zwischen verschiedenen lokalisierten Objekten beschrieben werden, um beispielsweise die Interaktion oder relative Position zwischen Instrumenten und anatomischen Strukturen zu beschreiben.
Der limitierende Faktor für die meisten klinischen Anwendungen ist stets die Verfügbarkeit gut kommentierter Datensätze. Gröbere Bezeichnungen, wie etwa die Klassifizierung oder qualitative Beschreibung des Inhalts einer Videosequenz statt der Segmentierung jedes Einzelbilds, sind weniger umständlich zu kommentieren, scheinen aber weniger direkt relevanten klinischen Anwendungen zu dienen. Dennoch könnten grobkörnige Beschriftungen verwendet werden für: (1) Datenkuratierung und Navigation, um die Verwendung von Videos für VBA zu optimieren; (2) Bildung durch Erläuterung der Inhalte eines Videos für Auszubildende; und (3) Dokumentation und Navigation zu bestimmten Datenpunkten, um später weitere Details zu kommentieren.
Grundlegende Arbeiten zum Lebenslauf zur zeitlichen und räumlichen Analyse endoskopischer Videos, die einen automatisierten chirurgischen Arbeitsablauf und ein Szenenverständnis ermöglichen, werden in klinisch anwendbare Szenarien übertragen. LC bleibt aufgrund seiner Allgegenwärtigkeit und klar definierten klinischen Phänomene das Verfahren der Wahl zur Demonstration vieler solcher Szenarien. Daher diskutieren wir CV-fähige chirurgische Anwendungen für die postoperative Videoanalyse und mögliche intraoperative Echtzeitunterstützung bei LC. Es ist jedoch wichtig zu erkennen, dass solche Anwendungen auch für andere minimalinvasive Verfahren, die Magen-Darm-Endoskopie und die offene Chirurgie untersucht werden23,29.
Postoperativ könnten Modelle für die Erkennung von Eingriffen und chirurgischen Phasen verwendet werden, um automatisch strukturierte und segmentierte Datenbanken zu generieren, um Initiativen zur Qualitätsverbesserung zu unterstützen. Während solche Datenbanken per se eine unschätzbare Ressource für chirurgische Dokumentation, Forschung und Ausbildung darstellen würden, stellt der mit der manuellen Analyse großer Mengen an Videos verbundene Aufwand ein erhebliches Hindernis für die Einführung dar. Eine automatisierte Videoanalyse könnte verwendet werden, um diese großen Sammlungen chirurgischer Videos zu verarbeiten, aussagekräftige Videosequenzen abzurufen und wichtige Informationen zu extrahieren. Beispielsweise können chirurgische Videos in voller Länge mit Phasen- und Werkzeugerkennungsmodellen analysiert werden, um intraoperative Ereignisse zu identifizieren und effektiv kurze Videos zu erstellen, die selektiv die Teilung des Ductus cysticus und der Arterie zystisch dokumentieren, die kritischste Phase eines LC30,31. Während dieser relativ einfache Ansatz auf eine Vielzahl von Verfahren angewendet werden könnte, würde die Anpassung an andere Anwendungsfälle noch einen erheblichen Entwicklungsaufwand erfordern. In jüngster Zeit haben modernste Methoden die Überwindung solcher Hindernisse ermöglicht, indem sie den Video-zu-Video-Abruf ermöglichen, also die Aufgabe, anhand eines Videos nach Videos mit ähnlichen Ereignissen zu suchen32,33. Darüber hinaus können Modelle zur Phasenerkennung auch direkt genutzt werden, um automatisch standardisierte OP-Berichte von LC zu erstellen. Bei der Analyse solcher Berichte auf der Grundlage von Phasenvorhersagen haben Berlet et al. fanden heraus, dass Häufungen falsch erkannter Videobilder, z. B. Modellausfälle, auf Komplikationen wie Blutungen oder Probleme bei der Gallenblasenentfernung hinweisen könnten34. Solche Ereignisse könnten mit der elektronischen Gesundheitsakte verknüpft werden, um Einblicke in die Patientenergebnisse nach der Operation zu gewinnen.
CV-Modelle können trainiert werden, um differenziertere Informationen aus Videos zu extrahieren, z. B. Surrogate für LC-Betriebsschwierigkeiten. Da LC-Operationsschwierigkeiten mit einer Gallenblasenentzündung korrelieren, haben Loukas et al. trainierten ein CNN, um den Grad der Gallenblasenwandvaskularität zu klassifizieren, was zu einer Leistung führte, die mit der von erfahrenen Chirurgen vergleichbar ist35. In ähnlicher Weise haben Ward et al. trainierte ein CNN, Gallenblasenentzündungen anhand der Parkland-Bewertungsskala zu klassifizieren, einem fünfstufigen System, das auf anatomischen Veränderungen basiert. Diese Klassifizierung trug dann zur Vorhersage von Ereignissen wie dem Austreten von Galle aus der Gallenblase während einer Operation bei und lieferte Erkenntnisse darüber, wie eine Zunahme der Entzündung mit längeren Operationszeiten korreliert36.
CV-Modelle zur Werkzeugerkennung wurden verwendet, um die technischen Fähigkeiten von Chirurgen zu bewerten. In diesem Zusammenhang haben Jin et al. zeigten, dass automatisch abgeleitete Informationen zu Werkzeugnutzungsmustern, Bewegungsbereich und Wirtschaftlichkeit mit der von Chirurgen anhand validierter Bewertungsmetriken bewerteten Leistung korrelierten37. In jüngerer Zeit haben Lavanchy et al. haben vorgeschlagen, automatisch extrahierte Werkzeugpositionsinformationen in Zeitreihen-Bewegungsmerkmale umzuwandeln, um sie als Eingabe eines Regressionsmodells zu verwenden, um chirurgische Fähigkeiten vorherzusagen und gute von schlechter technischer Leistung zu unterscheiden38. Allerdings basierten diese Versuche zur automatischen Bewertung technischer Fertigkeiten nicht auf bestehenden, validierten Maßstäben für Fertigkeiten; Daher sind weitere Untersuchungen erforderlich, um festzustellen, ob automatisierte Kompetenzbewertungen herkömmliche Bewertungsmethoden ergänzen oder ersetzen werden39.
Wir stellen uns die Einführung von KI zur Unterstützung bei minimalinvasiven Eingriffen vor (Abb. 2). In diesem Umfeld könnten Echtzeitvorhersagen aus CV-Modellen genutzt werden, um Auszubildende anzuleiten, die Leistung des Chirurgen zu steigern und die Kommunikation im OP zu verbessern. Zu Beginn einer LC könnten CV-Modelle automatisch das Erscheinungsbild der Gallenblase beurteilen35,36, präoperative Schätzungen der operativen Schwierigkeit anpassen40 und vorschlagen, ob dieser Fall besser für einen angehenden oder einen erfahrenen Chirurgen geeignet ist. Sobald die Gallenblase freigelegt ist, empfehlen die chirurgischen Richtlinien die Verwendung anatomischer Orientierungspunkte, um sichere Zonen für die Inzision zu bestimmen. Beispielsweise haben Tokuyasu et al. hat ein Modell entwickelt, um solche wichtigen Orientierungspunkte automatisch mit Begrenzungsrahmen zu erkennen41.
Übersichtliche CV-Modelle könnten verwendet werden, um die Schwierigkeit eines Falles zu beurteilen und festzustellen, ob er für einen Assistenzarzt in der Chirurgie geeignet ist (a), um Chirurgen davor zu warnen, unterhalb der entsprechenden Stelle einzuschneiden (b), um eine sichere Präparation zu steuern (c) und um eine automatische Bewertung vorzunehmen Sicherheitsmaßnahmen (d), um Fehlanwendungen von Clips zu verhindern (e) und das Bewusstsein und die Bereitschaft des OP-Personals zu verbessern.
In ähnlicher Weise könnten Deep-Learning-Modelle verwendet werden, um eine farbcodierte Überlagerung des Operationsvideos bereitzustellen, die letztendlich als Navigationsassistent für Chirurgen dienen könnte. Madani et al. haben Kommentare erfahrener Chirurgen genutzt, um GoNoGoNet darin zu schulen, sichere und unsichere Bereiche der Dissektion zu identifizieren42. Der Endpunkt der sicheren Dissektion des hepatozystischen Dreiecks besteht darin, die kritische Sicht auf die Sicherheit (Critical View of Safety, CVS) zu erreichen, einen allgemein empfohlenen Kontrollpunkt zur schlüssigen Identifizierung der hepatozystischen Anatomie und zur Verhinderung der visuellen Wahrnehmungstäuschung, die 97 % der schweren BDIs verursacht43,44. In diesem Zusammenhang haben Mascagni et al. haben ein zweistufiges CV-Modell entwickelt, um zunächst chirurgische Instrumente und die feinkörnige hepatozystische Anatomie zu segmentieren und dann vorherzusagen, ob jedes der drei CVS-Kriterien erfüllt wurde45.
Während die automatische Bestätigung des CVS dem Chirurgen zusätzliche Sicherheit über die Anatomie geben kann, können andere CV-Tools sicherstellen, dass die Clips gut platziert sind und keine anderen Strukturen versehentlich abgeschnitten werden. Um eine solche Unterstützung bereitzustellen, haben Aspart et al. hat kürzlich ClipAssistNet vorgeschlagen, ein neuronales Netzwerk, das darauf trainiert ist, die Spitzen eines Clip-Applikators während LC46 zu erkennen. Während erfahrene Chirurgen eine solche Unterstützung möglicherweise für unnötig und sogar trivial halten, können Auszubildende und junge Chirurgen von der Sicherheit profitieren, die Echtzeit-Entscheidungsunterstützungsalgorithmen wie GoNoGoNet, DeepCVS und ClipAssistNet bieten können. Solche Algorithmen könnten als automatisierte Versionen von chirurgischen Trainern dienen, die die Entscheidungsfindung im OP39 erleichtern und erweitern können.
Auf einer breiteren Ebene könnte die Echtzeit-Workflow-Analyse zur Verbesserung der Kommunikation, des Situationsbewusstseins und der Bereitschaft des gesamten Operationsteams eingesetzt werden. Die Analyse von Operationsvideos, Phasenerkennungsmodellen23 und Algorithmen zur Schätzung der verbleibenden Operationszeit47 kann dabei helfen, den Fortschritt der Operation zu verfolgen, um das OP-Personal und die Anästhesie bei der Planung für den aktuellen und nächsten Fall zu unterstützen. Darüber hinaus könnte die Workflow-Analyse dabei helfen, Abweichungen von einem erwarteten intraoperativen Verlauf zu erkennen und eine automatisierte Anforderung einer Unterstützung oder einer zweiten Meinung auszulösen. Schließlich könnte eine visuelle postoperative Zusammenfassung der intraoperativen Ereignisse oder ein „chirurgischer Fingerabdruck“ mit dem präoperativen Profil des Patienten analysiert werden, um das Risiko einer postoperativen Morbidität oder Mortalität einzuschätzen48.
Trotz der Fülle an Methoden zur automatisierten Analyse von LC-Videos, die in den letzten Jahren vorgestellt wurden, wurden nur wenige KI-basierte CV-Systeme zur Analyse anderer chirurgischer Eingriffe vorgeschlagen, wobei sich die meisten auf minimalinvasive Eingriffe konzentrieren. Dies behindert die klinische Wirkung, sodass derzeit keine CV-Anwendung in der Chirurgie weit verbreitet ist.
Die Gründe für diesen Mangel an Generalisierung und klinischer Übersetzung sind vielfältig, hängen jedoch größtenteils mit der Verfügbarkeit und Qualität der Daten sowie der Leistung vorhandener Modellierungsansätze zusammen, zwei Schlüsselelementen für den Lebenslauf in der Chirurgie, die eng miteinander verknüpft sind.
In der Vergangenheit wurden chirurgische Eingriffe vor Auszubildenden und Kollegen in Operationssälen mit Stadionbestuhlung und Fenstern für natürliches Licht vorgeführt. Heutzutage sind Operationssäle jedoch einer der am stärksten isolierten Bestandteile des Gesundheitssystems. Informationen zu OP-Ereignissen werden normalerweise nur in vom Chirurgen diktierten postoperativen Notizen gemeldet oder indirekt aus postoperativen chirurgischen Ergebnissen abgeleitet. Daher war es lange Zeit schwierig, umsetzbare Erkenntnisse über intraoperative unerwünschte Ereignisse (UE) zu gewinnen, die in bis zu 2 % aller chirurgischen Fälle auftreten49. Folglich wurde der klinische Bedarf meist anekdotisch durch Befragung von Chirurgen und wichtigen Meinungsführern ermittelt, eine suboptimale Praxis, die zu Vorurteilen neigt.
Heutzutage haben die zunehmende Nachfrage nach chirurgischer Dokumentation sowie die einfache Aufzeichnung endoskopischer Videos minimalinvasiver chirurgischer Eingriffe unsere Fähigkeit, intraoperative Ereignisse zu beobachten und an der Entwicklung von Lösungen zur Verbesserung der chirurgischen Sicherheit und Effizienz zu arbeiten, erheblich verbessert. Die Erfassung und Analyse chirurgischer Daten ist jedoch noch nicht sehr verbreitet. In einer Umfrage unter Mitgliedern einer großen chirurgischen Gesellschaft haben Mazer et al. Es stellte sich heraus, dass Chirurgen weniger als 40 % ihrer Fälle aufzeichneten, sich jedoch wünschten, dass bis zu 80 % der Videos erfasst werden könnten. Chirurgen waren der Ansicht, dass mangelnde Ausrüstung, institutionelle Richtlinien und medizinisch-rechtliche Bedenken Hindernisse bei der Erfassung von Fällen darstellten50.
Bedenken von Chirurgen und Gesundheitssystemen, die befürchten, dass intraoperative Daten gegen sie verwendet werden könnten, sind möglicherweise unbegründet. Eine kürzlich durchgeführte Überprüfung von Black-Box-Aufzeichnungsgeräten im OP hat ergeben, dass Videodaten Chirurgen in erster Linie bei Behandlungsfehlern unterstützen51. Daher haben Institutionen weitgehend damit begonnen, einen individuellen Ansatz für die Videoaufzeichnung zu implementieren, der ihren eigenen Bedürfnissen entspricht. Einige verbieten weiterhin die Speicherung von Videos, andere erlauben sie für ausgewählte Zwecke, jedoch mit genau festgelegten Parametern (z. B. geplante Datenvernichtung alle 30 Tage), während andere weiterhin die Videoaufzeichnung und -speicherung nur zu Qualitätsverbesserungs-, Bildungs- und Forschungszwecken fördern . Daher sollten Institutionen eine Überprüfung bestehender Richtlinien durchführen und Interessengruppen wie Risikomanagementbeauftragte, Versicherungsträger für Kunstfehler, Chirurgen und Patienten einbeziehen, um die beste lokale Strategie für die Videoaufzeichnung festzulegen. Klare institutionelle Regeln würden Chirurgen leiten, die ihre Fälle aus einer Reihe von Gründen aufzeichnen möchten, einschließlich, aber nicht beschränkt auf die Verwendung für chirurgische Datenwissenschaftszwecke.
Richtlinien und Anreize können dazu beitragen, die Kultur der chirurgischen Datenerfassung weiter zu verändern, um eine stärkere Erfassung und Nutzung operativer Daten bei Ärzten zu begünstigen, die den Wert intraoperativer Video- und Computer-Vision-Analysen ansonsten möglicherweise nicht berücksichtigen. Institutionen, die den Wert von Videodaten verstehen, können eine Rolle dabei spielen, Anreize für Ärzte zu schaffen. Beispielsweise hat AdventHealth, ein großes akademisches Gesundheitssystem in den Vereinigten Staaten (USA), mit einer Patientensicherheitsorganisation (PSO) zusammengearbeitet, um freiwillig übermittelte Daten zu sammeln und zu analysieren und Ärzten Feedback zu geben, um seine Qualitätsverbesserungsinitiativen rund um operatives Feedback zu verbessern52 . In den USA wurden PSOs durch den Patient Safety and Quality Improvement Act von 2005 eingerichtet und schützen die Arbeitsergebnisse zur Patientensicherheit aus freiwillig übermittelten Daten zum Zweck der Qualitätsverbesserung vor zivil-, strafrechtlichen, verwaltungstechnischen und disziplinarischen Verfahren, außer unter engen und spezifischen Umständen. PSOs sind Organisationen, die unabhängig von einem Gesundheitssystem sind und von der US Agency for Healthcare Research and Quality (AHRQ) zertifiziert sind.
Darüber hinaus bot AdventHealth Credits für die medizinische Fortbildung (CME) an, die für Lizenzverlängerungen und laufende Zertifizierungen erforderlich sind, als weiteren individuellen Anreiz für Chirurgen, Videos aufzuzeichnen und einzureichen und die Videos anderer zur Qualitätsverbesserung und zu Bildungszwecken wie Peer-Review und Feedback zu überprüfen. Durch die Kombination der gesetzlichen Gewährleistung der Privatsphäre mit individuellen Anreizen in Form von CME hat dieses Gesundheitssystem die freiwillige Übermittlung von Videodaten durch die Mehrheit seiner Chirurgen gefördert. Solche Schutzmaßnahmen und Anreize sollten von anderen Gesundheitssystemen in Betracht gezogen werden, um die freiwillige Teilnahme nicht nur an Programmen zur Qualitätsverbesserung, sondern auch an Bemühungen zur Entwicklung von CV-Algorithmen zu fördern, die solche Initiativen zur Qualitätsverbesserung erleichtern können. Letztendlich könnten verbesserte Anreize und klare regulatorische Richtlinien die Liste der öffentlich verfügbaren Datensätze erweitern, anhand derer CV-Algorithmen entwickelt und getestet werden könnten53.
Es ist nicht nur die Menge der verfügbaren Daten, die den klinischen Wert von Computer-Vision-Anwendungen begrenzt, sondern auch die Qualität dieser Daten. Während standardisierte Messungen mit vorhersagbarer Variabilität in Tabellendaten wie Laborwerten für Hämoglobin oder Kreatinin verwendet werden können, kann die Definition klinischer Phänomene in Operationsvideos (z. B. Anmerkungen) recht schwierig sein. Die offene Chirurgie stellt einzigartige Herausforderungen dar, die bei der Okklusion von Videodaten aus den eigenen Bewegungen des Chirurgen auftreten. Sie erfordert mehrere Kamerawinkel, zusätzliche Sensoren oder algorithmische Ansätze, um die Okklusion zu überwinden und die zusätzliche Komplexität der Interaktionen zwischen Hand und Werkzeug zu berücksichtigen54,55,56.
Um sicherzustellen, dass zeitliche und räumliche Anmerkungen zu Operationsvideos klar, zuverlässig und reproduzierbar sind, sind klare Anmerkungsprotokolle mit umfassender Annotatorschulung erforderlich. Die Ziele eines bestimmten Projekts können dabei helfen, den Annotationsbedarf zu definieren und sollten von vornherein klar festgelegt werden, um sicherzustellen, dass geeignete Grundwahrheiten ermittelt und gemessen werden. Darüber hinaus sollten Anmerkungsprotokolle öffentlich geteilt werden, um die Reproduzierbarkeit und das Vertrauen zu fördern, indem sie anderen die Zusammenarbeit ermöglichen und gleichzeitig eine unabhängige Bewertung der Grundwahrheit ermöglichen, die für das Training und Testen von Lebenslaufmodellen verwendet wird57. Ward et al. Geben Sie ausführlichere Informationen zu den Schwierigkeiten bei der Kommentierung chirurgischer Videos und schlagen Sie mehrere wichtige Schritte vor, die eine schlechte oder nicht anwendbare Modellleistung im Zusammenhang mit einer unterdurchschnittlichen oder unangemessenen Kommentierung abmildern können58.
Da immer mehr klinische Anwendungen identifiziert werden, werden immer wirksamere Techniken eingeführt, um diese Anwendungen zu modellieren und den Patienten einen Mehrwert zu bieten. Über die anwendungsspezifische Modellierung hinaus werden auch Methoden entwickelt, die dazu beitragen, die technischen, regulatorischen, ethischen und klinischen Einschränkungen, die mit der Chirurgie einhergehen, zu umgehen oder abzumildern.
Um effektive klinische Lösungen zu entwickeln, werden KI-Modelle häufig darauf trainiert, die Leistung von Experten aus großen Mengen gut kommentierter Daten zu reproduzieren (d. h. vollständig überwachtes Lernen). Dieses Lernparadigma führt zwar zu beispiellosen Ergebnissen in der medizinischen Bildanalyse59, hängt jedoch in hohem Maße von der Verfügbarkeit großer annotierter Datensätze ab. Seine Nachhaltigkeit wird daher durch Probleme wie strenge regulatorische Einschränkungen bei der Datenfreigabe und die Opportunitätskosten für Kliniker bei der Annotation der Daten, die die Generierung großer Datensätze alles andere als trivial machen, stark eingeschränkt60. Diese Probleme werden noch verschärft durch die Notwendigkeit, Unterschiede zwischen Patienten (Anatomie, Demografie usw.), Interaktionen zwischen Chirurgen (Arbeitsablauf, Fähigkeiten usw.) und OP-Hardware (Instrumente, Datenerfassungssysteme usw.) gut darzustellen und zu berücksichtigen. ).
Es wurden mehrere Lösungen untersucht, um die Menge der verfügbaren Daten zu erhöhen, beispielsweise die Verwendung synthetisch generierter Datensätze61 oder die künstliche Erweiterung verfügbarer annotierter Datensätze62. Dennoch bleibt die ausreichende Modellierung des Spektrums möglicher Wechselwirkungen ein offenes Problem. In jüngster Zeit gewinnen Ansätze für dezentrales Training (z. B. föderiertes Lernen) an Bedeutung63, die das Lernen aus Daten an entfernten physischen Standorten ermöglichen, Datenschutzbedenken entkräften und die Hoffnung auf eine bessere Datenzugänglichkeit wecken.
Doch selbst wenn große Datenmengen verfügbar sind, sind qualitativ hochwertige Anmerkungen immer noch rar und teuer in der Erstellung. Um die Abhängigkeit von Anmerkungen zu verringern, wurden verschiedene Lösungen vorgeschlagen, die die in unbeschrifteten Daten enthaltenen intrinsischen Informationen nutzen oder das aus verschiedenen Aufgaben und Bereichen erworbene Wissen wiederverwenden. Selbstüberwachte Ansätze zielen darauf ab, nützliche Informationen aus großen Mengen unbeschrifteter Daten zu lernen, indem Vortextaufgaben formuliert werden, die keine externen Anmerkungen erfordern64. Halbüberwachte Ansätze nutzen ebenfalls große Mengen unbeschrifteter Daten, kombinieren diese jedoch mit kleinen Mengen annotierter Daten. Diese Strategie beinhaltet oft eine künstliche Kennzeichnung unbeschrifteter Daten, die sich an einigen verfügbaren beschrifteten Daten orientiert65,66.
Schwach überwachte Methoden zielen darauf ab, leicht verfügbare, aber verrauschte Annotationen zu verfeinern, wie z. B. Crowdsourcing-Beschriftungen67, oder vorhandene Annotationen, die für verschiedene Aufgaben gesammelt wurden, wiederzuverwenden (z. B. das Erlernen der Lokalisierung chirurgischer Instrumente mithilfe nicht-räumlicher Annotationen wie der binären Werkzeugpräsenz68). Wenn solche Anmerkungen gleichzeitig mit Anmerkungen zur Zielaufgabe verfügbar sind, kann ein Multitasking-Training durchgeführt werden (z. B. mithilfe von Werkzeugpräsenzsignalen, um zu informieren, welche chirurgische Phase durchgeführt wird und umgekehrt)24. Alternativ helfen Transfer-Learning-Ansätze dabei, Informationen, die aus verschiedenen Aufgaben und/oder Bereichen gelernt wurden, für die annotierte Datensätze leichter verfügbar sind, wiederzuverwenden und auf die interessierende Domäne und Aufgabe anzuwenden (Tabelle 1). Ein häufiges Beispiel ist die Verwendung von Transferlernen aus großen, gut gekennzeichneten, nicht-chirurgischen Datensätzen wie ImageNet69. Die Domänenanpassung ist ein weiteres beliebtes Transfer-Learning-Paradigma beim Umgang mit Daten, die aus ähnlichen Domänen wie der Zieldomäne stammen, beispielsweise synthetische chirurgische Datensätze61.
Auch wenn immer effektivere Modelle für verschiedene klinische Anwendungen entwickelt werden, sind auch technische Methoden erforderlich, um das OP-Personal mit den Mitteln auszustatten, KI-Vorhersagen zu erklären, die Gründe dafür zu interpretieren, die Vorhersagesicherheit abzuschätzen und somit Vertrauen in die Modelle selbst aufzubauen. Diese Überlegungen werden in Gesundheitsanwendungen erst jetzt berücksichtigt70 und sind besonders deutlich im Fall von „Black-Box“-Algorithmen wie Deep-Learning-basierten Methoden, bei denen die Beziehungen zwischen Eingabe und Ausgabe nicht immer explizit oder gut verstanden sind. Hier könnte die Etablierung, Formalisierung und Kommunikation von Kausalbeziehungen zwischen Merkmalen der Eingabe und der Modellausgabe dazu beitragen, gefährliche Modellausfälle abzumildern und möglicherweise die Modellgestaltung zu beeinflussen71. Es ist außerdem wichtig, Prozesse zu formalisieren, um potenzielle Fehlerquellen sowohl vor als auch nach der Modellbereitstellung zu identifizieren, zu erfassen und darauf zu reagieren. Zu diesem Zweck haben Liu et al. einen Rahmen für die Prüfung von Anwendungen der medizinischen künstlichen Intelligenz vorlegen72.
Zukünftige Arbeiten könnten sich über diese Probleme hinaus auf Methoden konzentrieren, die den Umgang mit unbekannten Daten (außerhalb der Verteilung) identifizieren können. Dies ermöglicht es Klinikern nicht nur, fundierte Entscheidungen auf der Grundlage der Zuverlässigkeit des KI-Systems in bestimmten Umgebungen zu treffen, sondern könnte Forschern auch dabei helfen, Verzerrungen bei der Datenauswahl und andere Störfaktoren in den zum Training dieser Modelle verwendeten Datensätzen zu erkennen und zu beheben.
Für jede klinische Anwendung müssen bestimmte Bedingungen erfüllt sein, um rechtzeitig und angemessen im Einklang mit den bestehenden technischen und klinischen Arbeitsabläufen bereitgestellt zu werden. Da verschiedene Methoden entwickelt werden, um verschiedene Interessengruppen in verschiedenen Phasen der perioperativen Versorgung zu unterstützen, müssen auch Hardware- und Softwareoptimierungen sorgfältig geprüft werden. Akzeptable Latenz, Fehler und ergonomische Schnittstellen sind Schlüsselfaktoren in dieser Diskussion. Beispielsweise können bestimmte Optimierungen wie die Ausführung dieser Modelle mit reduzierter Präzision dazu beitragen, die für die Bereitstellung dieser Modelle erforderliche Recheninfrastruktur drastisch zu reduzieren, jedoch möglicherweise die Leistung beeinträchtigen. Für weniger zeitkritische Anwendungen wurde Cloud Computing zur KI-Unterstützung und Navigation erforscht, ist jedoch durch die Netzwerkkonnektivität eingeschränkt73.
Die von uns untersuchten Ansätze zeigen, dass moderne Methoden technisch in der Lage sind, Fortschritte im Bereich Computer Vision auf die chirurgische Versorgung zu übertragen. Allerdings bleiben noch einige Hindernisse und Herausforderungen bestehen, um das Potenzial von Computer Vision in der Chirurgie auszuschöpfen (Abb. 3). Während die OP-Übersetzung, die klinische Validierung und die Implementierung im Maßstab von CV-Lösungen sicherlich von grundlegender Bedeutung sind, um den versprochenen chirurgischen Nutzen zu erzielen, sind an diesen Schritten mehrere Interessengruppen beteiligt – von Geräteherstellern bis hin zu Regulierungsbehörden – und sie sind heute noch weitgehend unerforscht. Dabei konzentrieren wir uns auf ethische, kulturelle und pädagogische Aspekte, die für Chirurgen und ihre Patienten wichtig sind.
Verhaltensbedingte und technische/operative Hindernisse können die Entwicklung und Umsetzung von CV-Modellen in der Chirurgie einschränken. Eine Kombination aus gesetzlichen, verhaltensbezogenen und betrieblichen Änderungen im regulatorischen, klinischen und technischen Umfeld könnte zu Verbesserungen bei der Anwendung von CV in der Chirurgie führen. KI, künstliche Intelligenz, PSO-Patientensicherheitsorganisation, CME-Weiterbildung, OP-Operationssaal.
Mehrere ethische Fragen müssen geklärt werden, darunter Datensicherheit und -transparenz, Datenschutz sowie Fairness und Voreingenommenheit74. Sowohl auf nationaler als auch auf internationaler Ebene wird derzeit darüber diskutiert, wie Patienten am besten geschützt werden können, ohne Innovationen in der Datenanalyse zu verbieten, die zu einer sichereren chirurgischen Versorgung führen könnten. Zu den Überlegungen zur Datensicherheit, Transparenz und zum Datenschutz gehören Konzepte der Einwilligung nach Aufklärung durch Patienten, der Datensicherheit sowie des Dateneigentums und -zugriffs, einschließlich der Frage, ob Patienten das Recht haben, die Verwendung ihrer personenbezogenen Daten zu kontrollieren und zu überwachen.
In einer qualitativen Analyse von 49 Patientenperspektiven der Videoaufzeichnung über ein hypothetisches „Black-Box“-System, das alle chirurgischen Daten im OP erfassen könnte, waren 88 % der Patienten der Meinung, dass das Eigentum an den Videodaten ihnen gehörte und nicht dem Krankenhaus, in dem sie sich befanden ihre Pflege erhalten hat, oder an den Chirurgen, der ihre Operationen durchgeführt hat75. Die Vorschriften zum Eigentum, zum Datenschutz und zur Nutzung identifizierbarer und pseudonymisierter Daten variieren je nach Land (und sogar je nach staatlichen, lokalen und institutionellen Vorschriften), so dass Forschungsbemühungen weitgehend auf einzelne Institutionen oder lokale Konsortien beschränkt wurden, wo es möglicherweise einfacher ist, zu definieren, wer besitzt Daten im Rahmen einer bestimmten rechtlichen Infrastruktur und wie diese genutzt werden können. Da wir uns weiterhin darum bemühen, die Bedürfnisse des Fachgebiets bei der Entwicklung von Technologien, die sich als lebensrettend für die chirurgische Versorgung erweisen könnten, besser zu verstehen, wird es von entscheidender Bedeutung sein, sicherzustellen, dass Patienten in Diskussionen über die Verwendung von Daten, die bei ihren Gesundheitskontakten generiert werden, einbezogen und priorisiert werden.
Patienten könnten ein starker Befürworter der Computer-Vision-Forschung in der Chirurgie sein, da viele berichten, dass sie den Vorteil der Videoaufzeichnung darin sehen, eine objektive Aufzeichnung des Falles zu ermöglichen, um die zukünftige Pflege zu unterstützen und als medizinisch-rechtlicher Schutz sowohl für den Patienten als auch für ihn zu dienen der Chirurg. Wichtig ist, dass die Patienten ihren Wunsch betonten, dass solche Daten zur kontinuierlichen Qualitätsverbesserung genutzt werden sollten75. Der Einsatz von Computer-Vision-Modellen wie den zuvor beschriebenen kann jeden dieser Vorteile heute ermöglichen, da kontextsensitive Algorithmen Fälle automatisch für eine schnelle Überprüfung indizieren können und der Post-hoc-Einsatz von Führungsalgorithmen den Chirurgen visuelles Feedback geben kann. Tatsächlich nutzen einige Institutionen diese Technologien, um Diskussionen auf wöchentlichen Morbiditäts- und Mortalitätskonferenzen zum Zweck der Qualitätsverbesserung zu ermöglichen.
Weitere Überlegungen zur Fairness und Verzerrung von Datensätzen, die sich auf die Modellleistung und mangelnde algorithmische Transparenz auswirken, wurden auch in jüngsten Veröffentlichungen hervorgehoben76,77. Verzerrungen in Datensätzen müssen anerkannt und berücksichtigt werden, insbesondere angesichts der Tatsache, dass viele aktuelle und zukünftige Datensätze von laparoskopischen und robotischen Plattformen bezogen werden, die für Länder mit niedrigem und mittlerem Einkommen möglicherweise nicht so zugänglich sind. Für Forscher ist es auch wichtig zu erkennen, dass es auf der Ebene jeder Operation zu Verzerrungen kommen kann, da Chirurgen den Einfluss ihrer Ausbildung und früheren operativen Erfahrung auf die chirurgische Entscheidungsfindung mit sich bringen. Die Verschmelzung solcher Einflüsse wird zweifellos zu einer Verzerrung der Datensätze führen, die sich auf die Modellleistung und damit auf die Generalisierbarkeit von CV-Tools in der Chirurgie auswirken könnte.
Da die Bedeutung von Verzerrungen in Datensätzen und die Notwendigkeit repräsentativer, verallgemeinerbarer Daten zunehmend erkannt wird, sind die Bemühungen um eine Ausweitung des kollaborativen Charakters der KI-Forschung für die Chirurgie gewachsen. Beispielsweise hat die Global Surgical Artificial Intelligence Collaborative (GSAC), eine gemeinnützige Organisation, die sich der Förderung der Demokratisierung der chirurgischen Versorgung durch die Schnittstelle von Bildung, Innovation und Technologie widmet, Forschungskooperationen zwischen Institutionen in den USA, Kanada und Europa ermöglicht durch die Bereitstellung von Tools für Annotation, Datenaustausch und Modellentwicklung, die den regulatorischen Standards der jeweiligen Heimatländer der teilnehmenden Institutionen entsprechen. Gezielte Bemühungen wie GSAC können die Eintrittsbarriere für Institutionen und Einzelpersonen senken, die keinen wesentlichen Zugang zu Daten oder Rechenressourcen haben, indem sie die Kostenteilung erleichtern, Infrastruktur bereitstellen und den Zugang zu technischem und chirurgischem Fachwissen für die Zusammenarbeit erweitern.
Schließlich ist die Ausbildung in chirurgischer Datenwissenschaft von größter Bedeutung, um sicherzustellen, dass aktuelle Kliniker verstehen können, wie sich Computer Vision und andere KI-Tools auf ihre Entscheidungsfindung und Patienten auswirken, und um künftigen Generationen die Möglichkeit zu geben, ihre eigenen Erkenntnisse in die Entwicklung neuerer, anspruchsvollerer Systeme einzubringen Werkzeuge. Das Royal College of Physicians and Surgeons of Canada hat kürzlich digitale Gesundheitskompetenz als potenzielle neue Kompetenz für kanadische Fachärzte identifiziert und die Bedeutung neuer Karrieren hervorgehoben, die medizinisches Wissen mit einer Hochschulausbildung in KI sowie multidisziplinären klinischen Teams kombinieren Datenwissenschaftler und KI-Forscher78. Zu einer ähnlichen Schlussfolgerung kam der britische Topol Review über die Vorbereitung des Gesundheitspersonals auf eine digitale Zukunft im National Health Service (NHS), und der NHS richtete daraufhin Topol Digital Fellowships ein, um Techniken der digitalen Transformation zu vermitteln79. Derzeit werden institutionelle, interdisziplinäre Stipendien eingerichtet, um eine bessere Kompetenz von Klinikern in KI-Themen und ein besseres Verständnis klinischer Probleme und Arbeitsabläufe bei Ingenieuren und Datenwissenschaftlern zu fördern. Darüber hinaus bieten Institutionen wie die IHU Straßburg sowohl für Kliniker als auch für Ingenieure/Datenwissenschaftler kurze Intensivkurse in chirurgischer Datenwissenschaft an, um die interdisziplinäre Ausbildung und Zusammenarbeit zu fördern.
Computer Vision bietet eine beispiellose Möglichkeit, die intraoperative Phase einer Operation in großem Maßstab zu untersuchen und zu verbessern. Da sich sowohl die klinische als auch die datenwissenschaftliche Gemeinschaft bei der Weiterentwicklung der Forschung und wissenschaftlichen Untersuchung darüber, wie CV in der Chirurgie am besten genutzt werden kann, zunehmend annähern, wurden mehrere Proof-of-Concept-Anwendungen mit potenziellem klinischem Wert in der minimalinvasiven Chirurgie demonstriert. Die Hauptbemühungen zur Verallgemeinerung solcher Anwendungen konzentrieren sich auf die Optimierung des Zugriffs auf chirurgische Daten und bessere Modellierungsmethoden, wobei stets die kulturellen und ethischen Aspekte berücksichtigt werden, die der Patientenversorgung innewohnen. Mit zunehmender Reife des CV in der Chirurgie wird ein breiteres gesellschaftliches Engagement erforderlich sein, um sicherzustellen, dass die Versprechen des CV in der Chirurgie sicher und wirksam umgesetzt werden, um die Versorgung chirurgischer Patienten zu unterstützen.
Die Datenfreigabe ist auf diesen Artikel nicht anwendbar, da während der aktuellen Studie keine Datensätze generiert oder analysiert wurden.
Weiser, TG et al. Schätzung des weltweiten chirurgischen Volumens im Jahr 2012: eine Bewertung, die verbesserte Gesundheitsergebnisse unterstützt. Lancet 385, S11 (2015).
Artikel PubMed Google Scholar
Meara, JG et al. Globale Chirurgie 2030: Erkenntnisse und Lösungen zur Erreichung von Gesundheit, Wohlergehen und wirtschaftlicher Entwicklung. Chirurgie 158, 3–6 (2015).
Artikel PubMed Google Scholar
Childers, CP & Maggard-Gibbons, M. Kosten für die Pflege im Operationssaal verstehen. JAMA Surg. 153, e176233 (2018).
Artikel PubMed PubMed Central Google Scholar
Zegers, M. et al. Häufigkeit, Ursachen und Folgen unerwünschter Ereignisse in chirurgischen Abteilungen: Auswirkungen auf mögliche Präventionsstrategien. Patientensicherheit. Surg. 5, 13 (2011).
Artikel PubMed PubMed Central Google Scholar
Lewandrowski, K.-U. et al. Regionale Unterschiede in der Akzeptanz und Nutzung minimalinvasiver Techniken der Wirbelsäulenchirurgie bei Wirbelsäulenchirurgen: Ergebnisse einer globalen Umfrage. J. Wirbelsäulenchirurg. 6, S260–S274 (2020).
Artikel PubMed PubMed Central Google Scholar
Bardakcioglu, O., Khan, A., Aldridge, C. & Chen, J. Wachstum der laparoskopischen Kolektomie in den Vereinigten Staaten: Analyse regionaler und sozioökonomischer Faktoren im Zeitverlauf. Ann. Surg. 258, 270–274 (2013).
Artikel PubMed Google Scholar
Richards, MK et al. Eine landesweite Überprüfung der Häufigkeit minimalinvasiver Operationen bei Assistenzärzten für Allgemeinchirurgie: Auswertung der ACGME-Fallprotokolle während zwei Jahrzehnten der Ausbildung von Assistenzärzten für Allgemeinchirurgie. JAMA Surg. 150, 169–172 (2015).
Artikel PubMed Google Scholar
Zhou, M. et al. Auswirkung von haptischem Feedback beim Erwerb von Fertigkeiten in der laparoskopischen Chirurgie. Surg. Endosz. 26, 1128–1134 (2012).
Artikel CAS PubMed Google Scholar
Balvardi, S. et al. Der Zusammenhang zwischen der videobasierten Beurteilung der intraoperativen technischen Leistung und den Patientenergebnissen: eine systematische Überprüfung. Surg. Endosz. https://doi.org/10.1007/s00464-022-09296-6 (2022).
Mascagni, P. et al. Intraoperative Auszeit zur Förderung der Umsetzung der kritischen Sicht auf die Sicherheit bei der laparoskopischen Cholezystektomie: Eine videobasierte Bewertung von 343 Eingriffen. Marmelade. Slg. Surg. 233, 497–505 (2021).
Artikel PubMed Google Scholar
Pugh, CM, Hashimoto, DA & Korndorffer, JR Jr. Das Was? Wie? Und wer? Videobasierte Beurteilung. Bin. J. Surg. 221, 13–18 (2021).
Artikel PubMed Google Scholar
Feldman, LS et al. SAGES Video-Based Assessment (VBA)-Programm: eine Vision für lebenslanges Lernen für Chirurgen. Surg. Endosz. 34, 3285–3288 (2020).
Artikel PubMed Google Scholar
Sharma, G. et al. Ein Kurs zur Simulation der prozeduralen Anatomie von Leichen verbessert die videobasierte Beurteilung der operativen Leistung. J. Surg. Res. 223, 64–71 (2018).
Artikel PubMed Google Scholar
Ward, TM et al. Computer Vision in der Chirurgie. Chirurgie 169, 1253–1256 (2021).
Artikel PubMed Google Scholar
Hassan, C. et al. Leistung künstlicher Intelligenz in der Koloskopie zur Adenom- und Polypenerkennung: eine systematische Überprüfung und Metaanalyse. Magen-Darm-Test. Endosz. 93, 77–85.e6 (2021).
Artikel PubMed Google Scholar
van Leeuwen, KG, Schalekamp, S., Rutten, MJCM, van Ginneken, B. & de Rooij, M. Künstliche Intelligenz in der Radiologie: 100 im Handel erhältliche Produkte und ihre wissenschaftlichen Beweise. EUR. Radiol. 31, 3797–3804 (2021).
Artikel PubMed PubMed Central Google Scholar
Pucher, PH et al. Ergebnistrends und Sicherheitsmaßnahmen nach 30 Jahren laparoskopischer Cholezystektomie: eine systematische Überprüfung und gepoolte Datenanalyse. Surg. Endosz. 32, 2175–2183 (2018).
Artikel PubMed PubMed Central Google Scholar
Törnqvist, B., Strömberg, C., Persson, G. & Nilsson, M. Einfluss der beabsichtigten intraoperativen Cholangiographie und Früherkennung von Gallengangsverletzungen auf das Überleben nach Cholezystektomie: bevölkerungsbasierte Kohortenstudie. BMJ 345, e6457 (2012).
Artikel PubMed PubMed Central Google Scholar
Eine prospektive Analyse von 1518 laparoskopischen Cholezystektomien. N. engl. J. Med. 324, 1073–1078 (1991).
Rogers, SO Jr. et al. Analyse von Operationsfehlern in abgeschlossenen Schadensfällen wegen Kunstfehlern bei 4 Haftpflichtversicherern. Chirurgie 140, 25–33 (2006).
Artikel PubMed Google Scholar
Berci, G. et al. Laparoskopische Cholezystektomie: Erstens: keinen Schaden anrichten; Zweitens: Achten Sie auf Gallengangssteine. Surg. Endosz. 27, 1051–1054 (2013).
Artikel PubMed Google Scholar
Anteby, R. et al. Visuelle Deep-Learning-Analyse in der laparoskopischen Chirurgie: eine systematische Überprüfung und Metaanalyse der diagnostischen Testgenauigkeit. Surg. Endosz. 35, 1521–1533 (2021).
Artikel PubMed Google Scholar
Garrow, CR et al. Maschinelles Lernen zur Erkennung chirurgischer Phasen: Eine systematische Überprüfung. Ann. Surg. 273, 684–693 (2021).
Artikel PubMed Google Scholar
Twinanda, AP et al. EndoNet: Eine tiefe Architektur für Erkennungsaufgaben auf laparoskopischen Videos. IEEE Trans. Med. Bildgebung 36, 86–97 (2017).
Artikel PubMed Google Scholar
Kannan, S., Yengera, G., Mutter, D., Marescaux, J. & Padoy, N. Future-State Predicting LSTM für die frühzeitige Erkennung von Operationstypen. IEEE Trans. Med. Bildgebung 39, 556–566 (2020).
Artikel PubMed Google Scholar
Yengera, G., Mutter, D., Marescaux, J. & Padoy, N. Weniger ist mehr: Chirurgische Phasenerkennung mit weniger Anmerkungen durch selbstüberwachtes Vortraining von CNN-LSTM-Netzwerken. arXiv [cs.CV] (2018).
Meireles, OR et al. SAGES-Konsensempfehlungen zu einem Annotationsrahmen für chirurgische Videos. Surg. Endosz. Im Druck, (2021).
Nwoye, CI et al. Rendezvous: Aufmerksamkeitsmechanismen zur Erkennung chirurgischer Aktionstripel in endoskopischen Videos. Med. Bild Anal. 78, 102433 (2022).
Artikel PubMed Google Scholar
Yeung, S. et al. Ein räumlich-zeitliches Echtzeit-KI-Modell analysiert die Fähigkeiten in offenen Operationsvideos. Res. Quadratisch https://doi.org/10.21203/rs.3.rs-1129461/v1 (2021).
Mascagni, P. et al. Eine Computer-Vision-Plattform zur automatischen Lokalisierung kritischer Ereignisse in Operationsvideos: Dokumentation der Sicherheit bei der laparoskopischen Cholezystektomie. Ann. Surg. 274, e93–e95 (2021).
Artikel PubMed Google Scholar
Mascagni, P. et al. Multizentrische Validierung von EndoDigest: einer Computer-Vision-Plattform zur Videodokumentation der kritischen Sicht auf die Sicherheit bei der laparoskopischen Cholezystektomie. Surg. Endosz. https://doi.org/10.1007/s00464-022-09112-1 (2022).
Yu, T. & Padoy, N. Encode the Unseen: Prädiktives Video-Hashing für skalierbaren Mid-Stream-Abruf. In: Ishikawa, H., Liu, CL., Pajdla, T., Shi, J. (Hrsg.) Computer Vision – ACCV 2020. ACCV 2020. Lecture Notes in Computer Science, Band 12626. Springer, Cham. https://doi.org/10.1007/978-3-030-69541-5_26 (2021).
Yu, T. et al. Live-Laparoskopie-Videoabruf mit komprimierter Unsicherheit. Vorabdruck unter: https://arxiv.org/abs/2203.04301 (2022).
Berlet, M. et al. Chirurgische Berichterstattung zur laparoskopischen Cholezystektomie basierend auf Phasenannotation durch ein Faltungs-Neuronales Netzwerk (CNN) und dem Phänomen des Phasenflimmerns: ein Proof of Concept. Int. J. Comput. Helfen. Radiol. Surg. https://doi.org/10.1007/s11548-022-02680-6 (2022).
Loukas, C., Frountzas, M. & Schizas, D. Patch-basierte Klassifizierung der Gallenblasenwandvaskularität aus laparoskopischen Bildern unter Verwendung von Deep Learning. Int. J. Comput. Helfen. Radiol. Surg. 16, 103–113 (2021).
Artikel PubMed Google Scholar
Ward, TM, Hashimoto, DA, Ban, Y., Rosman, G. & Meireles, OR Künstliche Intelligenz zur Vorhersage des operativen Verlaufs einer Cholezystektomie anhand der automatisierten Identifizierung einer Gallenblasenentzündung. Surg. Endosz. https://doi.org/10.1007/s00464-022-09009-z (2022).
Jin, A. et al. Werkzeugerkennung und Bewertung operativer Fähigkeiten in chirurgischen Videos mithilfe regionalbasierter Faltungs-Neuronaler Netze, IEEE Winter Conference on Applications of Computer Vision (WACV), 2018, S. 691–699. https://doi.org/10.1109/WACV.2018.00081 (2018).
Lavanchy, JL et al. Automatisierung der Beurteilung chirurgischer Fähigkeiten mithilfe eines dreistufigen Algorithmus für maschinelles Lernen. Wissenschaft. Rep. 11, 5197 (2021).
Artikel CAS PubMed PubMed Central Google Scholar
Ward, TM et al. Chirurgische Datenwissenschaft und künstliche Intelligenz für die chirurgische Ausbildung. J. Surg. Oncol. 124, 221–230 (2021).
Artikel PubMed Google Scholar
Vannucci, M. et al. Statistische Modelle zur präoperativen Vorhersage operativer Schwierigkeiten bei der laparoskopischen Cholezystektomie: Eine systematische Überprüfung. Chirurgie 171, 1158–1167 (2022).
Artikel PubMed Google Scholar
Tokuyasu, T. et al. Entwicklung eines künstlichen Intelligenzsystems, das Deep Learning nutzt, um anatomische Orientierungspunkte während der laparoskopischen Cholezystektomie anzuzeigen. Surg. Endosz. 35, 1651–1658 (2021).
Artikel PubMed Google Scholar
Madani, A. et al. Künstliche Intelligenz zur intraoperativen Führung. Ann. Surg. 276, 363–369 (2022).
Artikel PubMed Google Scholar
Way, LW et al. Ursachen und Prävention laparoskopischer Gallengangsverletzungen. Ann. Surg. 237, 460–469 (2003).
Artikel PubMed PubMed Central Google Scholar
Brunt, LM et al. Leitfaden zur sicheren Cholezystektomie in mehreren Gesellschaften und Konsenskonferenz zum neuesten Stand der Technik zur Prävention von Gallengangsverletzungen während der Cholezystektomie. Ann. Surg. 272, 3–23 (2020).
Artikel PubMed Google Scholar
Mascagni, P. et al. Künstliche Intelligenz für chirurgische Sicherheit. Ann. Surg. 275, 955–961 (2022).
Artikel PubMed Google Scholar
Aspart, F. et al. ClipAssistNet: Bringt Echtzeit-Sicherheitsfeedback in Operationssäle. Int. J. Comput. Helfen. Radiol. Surg. 17, 5–13 (2022).
Artikel PubMed Google Scholar
Twinanda, AP, Yengera, G., Mutter, D., Marescaux, J. & Padoy, N. RSDNet: Lernen, die verbleibende Operationsdauer aus laparoskopischen Videos ohne manuelle Anmerkungen vorherzusagen. IEEE Trans. Med. Bildgebung 38, 1069–1078 (2019).
Artikel PubMed Google Scholar
Ward, TM et al. Automatisierte Identifizierung der operativen Phase bei der peroralen endoskopischen Myotomie. Surg. Endosz. 35, 4008–4015 (2021).
Artikel PubMed Google Scholar
Mavros, MN et al. Öffnen der Büchse der Pandora: Verständnis der Natur, Muster und 30-Tage-Ergebnisse intraoperativer unerwünschter Ereignisse. Bin. J. Surg. 208, 626–631 (2014).
Artikel PubMed Google Scholar
Mazer, L., Varban, O., Montgomery, JR, Awad, MM & Schulman, A. Video ist besser: Warum nutzen wir es nicht? Eine Mixed-Methods-Studie über die Hindernisse bei der routinemäßigen verfahrenstechnischen Videoaufzeichnung und Fallbesprechung. Surg. Endosz. 36, 1090–1097 (2022).
Artikel PubMed Google Scholar
van Dalen, ASHM, Legemaate, J., Schlack, WS, Legemate, DA & Schijven, MP Rechtliche Perspektiven zu Black-Box-Aufzeichnungsgeräten im Betriebsumfeld. Br. J. Surg. 106, 1433–1441 (2019).
Artikel PubMed PubMed Central Google Scholar
Code of Federal Regulation der Vereinigten Staaten. 42 CFR Ch I, Teil 3. https://www.ecfr.gov/current/title-42/chapter-I/subchapter-A/part-3.
Rivas-Blanco, I., Perez-Del-Pulgar, CJ, Garcia-Morales, I. & Munoz, VF Ein Überblick über Deep Learning in der minimalinvasiven Chirurgie. IEEE Access 9, 48658–48678 (2021).
Artikel Google Scholar
Shimizu, T., Hachiuma, R., Kajita, H., Takatsume, Y. & Saito, H. Handbewegungsbewusste Lokalisierung und Klassifizierung chirurgischer Werkzeuge mithilfe einer egozentrischen Kamera. J. Imaging 7, 15 (2021).
Artikel PubMed PubMed Central Google Scholar
Zhang, M. et al. Einsatz von Computer Vision zur Automatisierung der Handerkennung und Verfolgung der Bewegungen des Chirurgen in Videos offener Operationen. AMIA Annu. Symp. Proz. 2020, 1373–1382 (2020).
PubMed Google Scholar
Goldbraikh, A., D'Angelo, A.-L., Pugh, CM & Laufer, S. Videobasierte, vollautomatische Beurteilung der Nahtfähigkeiten bei offenen Operationen. Int. J. Comput. Helfen. Radiol. Surg. 17, 437–448 (2022).
Artikel PubMed PubMed Central Google Scholar
Mascagni, P. et al. Chirurgische Datenwissenschaft für eine sichere Cholezystektomie: ein Protokoll zur Segmentierung der hepatozystischen Anatomie und Bewertung der kritischen Sicht auf die Sicherheit. Vorabdruck unter: https://arxiv.org/abs/2106.10916 (2021).
Ward, TM et al. Herausforderungen bei der chirurgischen Videoannotation. Comput Assist Surg. (Abingdon) 26, 58–68 (2021).
Artikel Google Scholar
Esteva, A. et al. Ein Leitfaden für Deep Learning im Gesundheitswesen. Nat. Med. 25, 24–29 (2019).
Artikel CAS PubMed Google Scholar
Maier-Hein, L. et al. Chirurgische Datenwissenschaft – von Konzepten bis zur klinischen Übersetzung. Med. Bild Anal. 76, 102306 (2022).
Artikel PubMed Google Scholar
Rau, A. et al. Implizite Domänenanpassung mit bedingten generativen gegnerischen Netzwerken zur Tiefenvorhersage in der Endoskopie. Int. J. Comput. Helfen. Radiol. Surg. 14, 1167–1176 (2019).
Artikel PubMed PubMed Central Google Scholar
Shorten, C. & Khoshgoftaar, TM Eine Umfrage zur Bilddatenerweiterung für Deep Learning. J. Big Data 6, (2019).
Kassem, H. et al. Federated Cycling (FedCy): Halbüberwachtes Federated Learning chirurgischer Phasen. Vorabdruck unter: https://arxiv.org/abs/2203.07345 (2022).
Taleb, A. et al. Selbstüberwachte 3D-Methoden für die medizinische Bildgebung. In Proceedings of the 34th International Conference on Neural Information Processing Systems (S. 18158–18172) (2020).
Yu, T., Mutter, D., Marescaux, J. & Padoy, N. Lernen aus einem winzigen Datensatz manueller Anmerkungen: ein Lehrer-/Schüler-Ansatz zur Erkennung chirurgischer Phasen. Vorabdruck unter: https://arxiv.org/abs/1812.00033 (2018).
Shi, X., Jin, Y., Dou, Q. & Heng, P.-A. Halbüberwachtes Lernen mit progressiver, unbeschrifteter Datenausgrabung für eine etiketteneffiziente Erkennung chirurgischer Arbeitsabläufe. Med. Bild Anal. 73, 102158 (2021).
Artikel PubMed Google Scholar
Zhang, J., Sheng, VS, Li, T. & Wu, X. Verbesserung der Qualität von Crowdsourcing-Etiketten durch Rauschkorrektur. IEEE Trans. Neuronales Netz. Lernen. Syst. 29, 1675–1688 (2018).
Artikel PubMed Google Scholar
Nwoye, CI, Mutter, D., Marescaux, J. & Padoy, N. Schwach überwachter Faltungs-LSTM-Ansatz für die Werkzeugverfolgung in laparoskopischen Videos. Int. J. Comput. Helfen. Radiol. Surg. 14, 1059–1067 (2019).
Artikel PubMed Google Scholar
Deng, J. et al. ImageNet: Eine umfangreiche hierarchische Bilddatenbank. Im Jahr 2009 IEEE-Konferenz zu Computer Vision und Mustererkennung (IEEE, 2009). https://doi.org/10.1109/cvpr.2009.5206848.
Reyes, M. et al. Zur Interpretierbarkeit künstlicher Intelligenz in der Radiologie: Herausforderungen und Chancen. Radio. Artif. Intel. 2, e190043 (2020).
Artikel Google Scholar
Castro, DC, Walker, I. & Glocker, B. Kausalität ist in der medizinischen Bildgebung wichtig. Nat. Komm. 11, 3673 (2020).
Artikel CAS PubMed PubMed Central Google Scholar
Liu, X. et al. Das medizinische algorithmische Audit. Lancet Digit Health 4, e384–e397 (2022).
Artikel PubMed Google Scholar
Sun, L., Jiang, X., Ren, H. & Guo, Y. Edge-Cloud-Computing und künstliche Intelligenz im Internet der medizinischen Dinge: Architektur, Technologie und Anwendung. IEEE Access 8, 101079–101092 (2020).
Artikel Google Scholar
Gerke, S., Minssen, T. & Cohen, G. Ethische und rechtliche Herausforderungen der durch künstliche Intelligenz gesteuerten Gesundheitsversorgung. In Künstliche Intelligenz im Gesundheitswesen 295–336 (Elsevier, 2020).
Gallant, J.-N., Brelsford, K., Sharma, S., Grantcharov, T. & Langerman, A. Patientenwahrnehmungen von Audio- und Videoaufzeichnungen im Operationssaal. Ann. Surg. https://doi.org/10.1097/SLA.0000000000004759 (2021).
Gichoya, JW et al. KI-Erkennung der Patientenrasse in der medizinischen Bildgebung: eine Modellstudie. Lancet Digit Health 4, e406–e414 (2022).
Artikel PubMed Google Scholar
Pierson, E., Cutler, DM, Leskovec, J., Mullainathan, S. & Obermeyer, Z. Ein algorithmischer Ansatz zur Reduzierung unerklärlicher Schmerzunterschiede in unterversorgten Bevölkerungsgruppen. Nat. Med. 27, 136–140 (2021).
Artikel CAS PubMed Google Scholar
Reznick, R. et al. Bericht der Task Force über künstliche Intelligenz und neue digitale Technologien. Veröffentlicht unter: https://www.royalcollege.ca/rcsite/documents/health-policy/rc-ai-task-force-e.pdf (2021).
Die Topol-Rezension – NHS-Gesundheitserziehung England. Die Topol-Rezension – NHS Health Education England. Veröffentlicht unter: https://topol.hee.nhs.uk/ (2019).
Referenzen herunterladen
Diese Arbeit wurde teilweise durch französische staatliche Mittel unterstützt, die von der ANR unter den Referenzen ANR-20-CHIA-0029-01 (National AI Chair AI4ORSafety) und ANR-10-IAHU-02 (IHU Straßburg) verwaltet werden. Diese Arbeit wurde vom Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union im Rahmen der Marie-Sklodowska-Curie-Fördervereinbarung Nr. 813782 – Projekt ATLAS – gefördert.
Diese Autoren haben gleichermaßen beigetragen: Pietro Mascagni, Deepak Alapatt.
Gemelli-Krankenhaus, Katholische Universität des Heiligen Herzens, Rom, Italien
Peter Mascagni
IHU-Strasbourg, Institut für bildgestützte Chirurgie, Straßburg, Frankreich
Pietro Mascagni & Nicolas Padoy
Global Surgical Artificial Intelligence Collaborative, Toronto, ON, Kanada
[PubMed] 10. Pietro Mascagni, Maria S. Altieri, Amin Madani, Yusuke Watanabe, Adnan Alseidi und Daniel A. Hashimoto
ICube, Universität Straßburg, CNRS, IHU, Straßburg, Frankreich
Deepak Alapatt, Luca Sestini und Nicholas Padoy
Abteilung für Elektronik, Information und Biotechnik, Politecnico di Milano, Mailand, Italien
Luca Sestini
Abteilung für Chirurgie, University of Pennsylvania Perelman School of Medicine, Philadelphia, PA, USA
Maria S. Altieri und Daniel A. Hashimoto
Abteilung für Chirurgie, University Health Network, Toronto, ON, Kanada
Amin Madani
Abteilung für Chirurgie, Universität Hokkaido, Hokkaido, Japan
Yusuke Watanabe
Abteilung für Chirurgie, University of California San Francisco, San Francisco, CA, USA
Adnan Alseidi
Abteilung für Chirurgie, AdventHealth-Celebration Health, Celebration, FL, USA
Jay A. Redan
A. Gemelli University Hospital Foundation IRCCS, Rom, Italien
Sergio Alfieri, Guido Costamagna und Ivo Boškoski
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
PM: Konzeption und Design, Entwurf und wesentliche Überarbeitung. DA: Konzeption und Design, Entwurf und wesentliche Überarbeitung. LS: Konzeption und Design, Entwurf und wesentliche Überarbeitung. MSA: Design, Entwurf und wesentliche Überarbeitung. AM: Design, wesentliche Überarbeitung. YW: Design, wesentliche Überarbeitung. AA: Design, wesentliche Überarbeitung. JR: Design, wesentliche Überarbeitung. SA: Design, wesentliche Überarbeitung. GC: Design, wesentliche Überarbeitung. IB: Design, wesentliche Überarbeitung. NP: Konzeption und Design, wesentliche Überarbeitung. DAH: Konzeption und Design, Entwurf und wesentliche Überarbeitung. Alle Autoren haben die eingereichte Version genehmigt und erklären sich damit einverstanden, persönlich für die Arbeit verantwortlich zu sein. PM und DA trugen gleichermaßen bei und teilten sich die Erstautorenschaft.
Korrespondenz mit Pietro Mascagni.
Die Autoren erklären die folgenden konkurrierenden finanziellen Interessen: AM ist Berater für Activ Surgical und Genesis MedTech. NP ist wissenschaftlicher Berater für Caresyntax und sein Labor erhält ein Doktorandenstipendium von Intuitive Surgical. DAH ist Berater für das Johnson & Johnson Institute und Activ Surgical. Zuvor erhielt er Forschungsunterstützung von der Olympus Corporation. Die Autoren erklären außerdem die folgenden konkurrierenden nichtfinanziellen Interessen: PM, MSA, AM, YW, AA und DAH sind Vorstandsmitglieder der Global Surgical AI Collaborative, einer gemeinnützigen Organisation, die eine Datenaustausch- und Analyseplattform überwacht für chirurgische Daten.
Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Mascagni, P., Alapatt, D., Sestini, L. et al. Computer Vision in der Chirurgie: vom Potenzial zum klinischen Wert. npj Ziffer. Med. 5, 163 (2022). https://doi.org/10.1038/s41746-022-00707-5
Zitat herunterladen
Eingegangen: 15. Juli 2022
Angenommen: 10. Oktober 2022
Veröffentlicht: 28. Oktober 2022
DOI: https://doi.org/10.1038/s41746-022-00707-5
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
npj Digitale Medizin (2023)