Omówienie artykułu pt. „Wykrywanie zespołu suchego oka na filmach z powierzchni oka w oparciu o wykorzystanie algorytmów głębokiego uczenie się” opublikowanym w Ocular Surface w 2023 roku [1].
Cel: Ocena wydajności konwolucyjnych sieci neuronowych (CNN) dla zautomatyzowanej diagnostyki zespołu suchego oka (ZSE) u pacjentów poddawanych wideokeratoskopii
Metodologia: Retrospektywne badanie kohortowe obejmowało 244 filmy z powierzchni oka z 244 oczu 244 osób na podstawie topografii rogówki. W sumie 116 oczu było prawidłowych, a 128 oczu miało ZSE na podstawie ocen klinicznych. Autorzy opracowali model uczenia głębokiego, aby bezpośrednio identyfikować ZSE z powierzchni oka 40 filmów. Ocenili wydajność modelu CNN na podstawie obiektywnych wskaźników dokładności. Ocenili kliniczne znaczenie wyników, oceniając mapy aktywacji klas. Główne mierniki wyniku obejmowały pole pod krzywą AUC (AUC), dokładność, specyficzność i czułość.
Wyniki: AUC modelu odróżniającego oczy prawidłowe od oczu z ZSE wyniosło 0,98. Mapy aktywacji sieci sugerowały, że najważniejsza była dolna przyśrodkowa część rogówki do wykrywania ZSE przez model CNN.

fot. Canva.com
Dyskusja
W badaniu autorzy postanowili wykorzystać model głębokiego uczenie się, do wykrywania ZSE w ujęciach wideo powierzchni oka zarejestrowanych przez Keratograf 5M. Dokonano porównania wydajności modelu uczenia głębokiego transferu w trzech przyjętych architekturach CNN: Resnet50V2 przewyższał Densenet121, InceptionV3 i dwóch ludzkich ekspertów. Wszystkie parametry powierzchni oka były istotnie różne w grupie ZSE w porównaniu z grupą prawidłową. Zapewniło to obecność solidnych cech w każdej grupie klatek wideo, co może mieć znaczenie dla pomyślnej klasyfikacji.
W całym eksperymencie model ResNet50V2 wykazywał najlepszą wydajność w zadaniach trójskładnikowych i binarnych opartych na podzbiorze ponownego testu. Tymczasem InceptionV3 wykazał najgorszą wydajność.
Niezależne automatyczne wykorzystanie klatek wideo, bez potrzeby interwencja człowieka w celu uzyskania większej liczby parametrów klinicznych może być cennym i obiecującym podejściem w masowych badaniach przesiewowych i codziennych warunkach klinicznych. Ponadto obiektywny model CNN oparty na analizie wideo pozwala uniknąć wymagań dotyczących inwazyjnych pomiarów, minimalizując w ten sposób błędy odpowiadające zmienności ocen między egzaminatorami. Średni czas analizy dla ResNet50V2 wynosił 51,9 ± 1,2 ms (19,3 obrazów na sekundę). Ten względnie krótki czas analizy może umożliwić klasyfikację wideo w czasie zbliżonym do rzeczywistego podczas nagrywania poprzez integrację tego modelu w przyszłych maszynach K5M. Będzie to jednak wymagało obsługi wysokowydajnego procesora graficznego.

fot. Canva.com
Ponieważ ZSE staje się coraz bardziej rozpowszechnione [2], pojawiła się pilna potrzeba opracowania prostego narzędzia do badań przesiewowych, które nie wymaga dedykowanych odczynników i maszyn. Poprzednie doniesienia potwierdziły obecność dodatniej korelacji między maksymalnym odstępem między mrugnięciami (MBI) i czasem przerwania filmu łzowego i zasugerowały jednoczesne użycie MBI z japońską wersją wskaźnika choroby powierzchni oka (J-OSDI) jako potencjalne nieinwazyjne narzędzie do prostego badania przesiewowego ZSE [3,4]. Zostało to wykorzystane w cyfrowej platformie fenotypowania opartej na smartfonach, która może izolować określone loci chorobowe z heterogenicznych prezentacji ZSE. Te loci chorobowe można wykorzystać określając właściwą interwencję dla każdego pacjenta [5,6]. Jednak badania te identyfikowały pacjentów z objawową ZSE wyłącznie za pomocą kwestionariusza J-OSDI i bez badania klinicznego. To mogło prowadzić do znacznych rozbieżności między subiektywnie zgłaszanymi objawami a obiektywnie mierzonymi parametrami klinicznymi.
Wnioski: Modele oparte na głębokim uczeniu maszynowym osiągnęły wysoką dokładność diagnostyczną w wykrywaniu ZSE opartym na nieinwazyjnych materiałach wideo z powierzchni oka, co może okazać się przydatne w praktyce klinicznej.
Streszczenie naukowe opracował:
Prof. dr hab. med. Andrzej Grzybowski
Kierownik Katedry Okulistyki, Uniwersytet Warmińsko-Mazurski, Olsztyn
Kierownik Instytutu Okulistycznych Badań Naukowych, Fundacja Okulistyka 21, Poznań
Piśmiennictwo
- Abdelmotaal H, Hazarbasanov R, Taneri S, Al-Timemy A, Lavric A, Takahashi H, Yousefi S. Detecting dry eye from ocular surface videos based on deep learning. Ocul Surf. 2023 Jan 26;28:90-98.
- Craig JP, Nichols KK, Akpek EK, Caffery B, Dua HS, Joo CK, Liu Z, Nelson JD, Nichols JJ, Tsubota K, Stapleton F. TFOS DEWS II Definition and Classification Report. Ocul Surf. 2017 Jul;15(3):276-283.
- Inomata T, Iwagami M, Hiratsuka Y, Fujimoto K, Okumura Y, Shiang T, Murakami A. Maximum blink interval is associated with tear film breakup time: A new simple, screening test for dry eye disease. Sci Rep. 2018 Sep 7;8(1):13443.
- Hirosawa K, Inomata T, Sung J, Nakamura M, Okumura Y, Midorikawa-Inomata A, Miura M, Fujio K, Akasaki Y, Fujimoto K, Zhu J, Eguchi A, Nagino K, Kuwahara M, Shokirova H, Yanagawa A, Murakami A. Diagnostic ability of maximum blink interval together with Japanese version of Ocular Surface Disease Index score for dry eye disease. Sci Rep. 2020 Oct 22;10(1):18106.
- Inomata T, Nakamura M, Sung J, Midorikawa-Inomata A, Iwagami M, Fujio K, Akasaki Y, Okumura Y, Fujimoto K, Eguchi A, Miura M, Nagino K, Shokirova H, Zhu J, Kuwahara M, Hirosawa K, Dana R, Murakami A. Smartphone-based digital phenotyping for dry eye toward P4 medicine: a crowdsourced cross-sectional study. NPJ Digit Med. 2021 Dec 20;4(1):171.
- Okumura Y, Inomata T, Midorikawa-Inomata A, Sung J, Fujio K, Akasaki Y, Nakamura M, Iwagami M, Fujimoto K, Eguchi A, Miura M, Nagino K, Hirosawa K, Huang T, Kuwahara M, Dana R, Murakami A. DryEyeRhythm: A reliable and valid smartphone application for the diagnosis assistance of dry eye. Ocul Surf. 2022 Jul;25:19-25.

