Kiedy prof. Maciej Paszyński z Wydziału Informatyki, Elektroniki i Telekomunikacji publikował wraz z zespołem artykuł opisujący metodę szybkich symulacji komputerowych, nie mógł spodziewać się dalszego biegu tej historii. Jego tekst został uznany przez algorytm przeczesujący publikacje naukowe za wartościowy w kontekście walki z pandemią. To z kolei zainspirowało uczonego, żeby opracować model specjalnie dedykowany do badania rozprzestrzeniania się patogenu w powietrzu.

Wszystko zaczęło się w czerwcu ubiegłego roku, kiedy prof. Maciej Paszyński wraz zespołem na konferencji International Conference for Computational Science opublikował artykuł, w którym proponował metodę modelowania komputerowego zjawiska adwekcji-dyfuzji, czyli napływu oraz rozchodzenia się substancji. Tego typu zjawiska fizyczne w modelach matematycznych opisywane są za pomocą skomplikowanych układów równań, gdzie każdy istotny dla ich przebiegu czynnik wyraża się parametrami liczbowymi. Nietrudno się domyślić, że modelowanie złożonych procesów wymaga przeprowadzania olbrzymiej ilości obliczeń. Gdyby nie odpowiednie metody matematyczne, z ich przeprowadzeniem w akceptowalnym czasie nie poradziłyby sobie nawet współczesne superkomputery. A ich też lepiej zanadto nie obciążać, bo do pracy zużywają bardzo duże ilości energii. Jej wytworzenie nie tylko słono kosztuje, ale też nie jest obojętne dla środowiska.

Pierwszy artykuł

Wróćmy jednak do wspomnianego artykułu. Prof. Paszyński proponuje w nim rozwinięcie metody ADI, używanej od lat 60. XX wieku do rozwiązywania problemów zachodzących w czasie. Pozwala ona na podzielenie jednego procesu obliczeniowego na kilka mniejszych, które odbywają się równolegle. Całość dąży do jednego wspólnego rozwiązania, ale znacznie szybciej, niż gdyby do podziału nie doszło. Dotychczas metoda była stosowana do rozpatrywania problemów zachodzących w dwóch wymiarach. Zasługą prof. Paszyńskiego jest przedstawienie rozwiązania, które umożliwia zastosowanie tej metody w przestrzeni trójwymiarowej. – Moją kontrybucją było uogólnienie metody ADI, tak by radziła sobie z tzw. smukłymi funkcjami. To rodzaj funkcji trójwymiarowych, które przybliżają poszukiwane wartości w wielu miejscach na danym obszarze, dzięki czemu możemy przeprowadzać dokładniejsze symulacje – wyjaśnia naukowiec.

Jak się okazało, trud ten został wkrótce doceniony. Najpierw przez program komputerowy bazujący na sztucznej inteligencji, za pomocą którego wydawnictwo Springer Nature, wydawca artykułu, przeszukiwało swoje publikacje w celu zidentyfikowania materiałów potencjalnie przydatnych w walce z rozprzestrzenianiem się COVID–19. Później przez szefa wydawnictwa, który skierował do prof. Paszyńskiego osobisty list z prośbą o zgodę na otwarty dostęp do artykułu. Była to odpowiedź na globalną akcję, której celem było udostępnienie podobnych materiałów Światowej Organizacji Zdrowia (WHO) oraz publicznym ogólnoświatowym bibliotekom artykułów naukowych.

Model propagacji COVID–19 podczas kaszlu

Wyróżnienie stało się dla uczonego inspiracją do dalszej pracy. Niedługo potem w oparciu o opisaną wcześniej metodę, wraz z prof. Ingacio Mugą z Papieskiego Uniwersytetu w Valparaiso w Chile, zaproponował sposób modelowanie zjawiska rozprzestrzenienia się COVID–19 podczas kaszlu. Naukowcy opisali go w artykule opublikowanym w Biuletynie Polskiej Akademii Nauk. Przeprowadzona z wykorzystaniem modelu symulacja pokazała, że w przypadku noszenia maseczki zasięg rozprzestrzeniania się wirusa jest około cztery razy mniejszy. Maleje też powstała wskutek kaszlnięcia chmura patogenów, która jednocześnie krócej utrzymuje się w powietrzu.

– Zamodelowaliśmy to parametrami adwekcji, określając siłę „wiatru” przechodzącego przez materiał. To jest oczywiście prototyp. W przyszłości można np. rozważać, jak powinna być wykonana maseczka, żeby zasięg rozprzestrzeniania wirusa był minimalny. Albo np. uruchamiać symulacje pokazujące, jak geometria otoczenia wpływa na to, co dzieje się z chmurą patogenów – komentuje prof. Paszyński.

Dzięki opracowanym przez uczonych sposobom optymalizacji, do przeprowadzenia opisanej symulacji nie potrzeba maszyn o olbrzymiej mocy obliczeniowej. Wystarczy zwykły laptop z kilkurdzeniowym procesorem, którym większość z nas dysponuje w domu.

Grupa badawcza A2S

Metody symulacji komputerowych, nad którymi pracuje prof. Paszyński wraz z jego zespołem A2S, bazują na transformacjach grafów. Naukowcy dzielą przestrzeń na bardzo dużą liczbę figur geometrycznych, które opisane są za pomocą funkcji. Konstruowane przez uczonych modele posiadają zdolność adaptacyjną, czyli automatycznego dopasowywania się rozwiązywanego problemu. Wśród tych, nad którymi pracował zespół, są m.in te pozwalające badać progres oraz hamowanie nowotworów pod wpływem różnych terapii, wpływ przemysłu wydobywczego na lokalnego środowisko czy przebieg zjawisk atmosferycznych. – Chcemy robić coś, co jest ważne dla społeczeństwa – mówi szef zespołu.

Podczas implementacji modeli do środowiska komputerowego oraz przeprowadzenia symulacji grupa prof. Paszyńskiego od dawna współpracuje z prof. Keshavą Pingali z Uniwersytetu Teksańskiego w Austin, twórcą dedykowanej do tych celów biblioteki GALOIS.

– Laptopy bądź stacje robocze mają wiele rdzeni, czasem nawet kilkadziesiąt. Biblioteka GALOIS służy z kolei do równoległego przetwarzania grafów, czyli umożliwia nam jednoczesne wykonywanie transformacji grafowych w różnych miejscach tego grafu, używając wielu rdzeni w tym samym czasie. Jest to potrzebne do tego, żeby obliczenia były kilkadziesiąt razy szybsze – wyjaśnia prof. Paszyński.

Naukowiec podkreśla, że korzyści ze współpracy z prof. Pingali są obopólne: – On wraz ze swoim zespołem tworzy tę bibliotekę, a my przyspieszmy symulacje, z czego jest bardzo zadowolony, ponieważ dajemy mu ciekawe zastosowania, które jednocześnie weryfikują, czy jego biblioteka dobrze działa.

Szybkie i stabilne symulacje

Metody symulacji, które opracowuje zespół prof. Paszyńskiego, cechuje liniowy koszt obliczeniowy. To oznacza, że czas niezbędny na rozwiązanie problemu rośnie proporcjonalnie do jego złożoności. Np. kiedy rozwiązanie przybliża milion funkcji, czas konieczny na ich obliczenie wynosi 10 minut, a kiedy 10 milionów, to 100 minut. Gdyby natomiast koszt obliczeniowy był kwadratowy, to czas konieczny do policzenia tych 10 milionów funkcji wyniósł był już nie 100, a 10 tysięcy minut itd.

– Komputery robią się coraz większe i szybsze, dzięki czemu można na nich uruchamiać coraz większe symulacje. Ale gdyby złożoność obliczeniowa nie była liniowa, wtedy nawet na największych komputerach nie bylibyśmy w stanie tych symulacji przeprowadzać. Tylko więc takie algorytmy, który skalują się w sposób liniowy, przetrwają rozwój komputerów – wyjaśnia uczony.

Wyzwaniem dla twórców modeli jest również zaprojektowanie ich w taki sposób, aby stabilnie działały na komputerze. Prof. Paszyński tłumaczy: – Próbujemy przenieść rzeczywistość na komputer, który ma pewne ograniczenia. Reprezentacja liczb jest na nim przybliżona, to znaczy że ich wartość jest przechowywana np. do 16 miejsca po przecinku. Jeżeli coś się dzieje na 20 miejscu po przecinku, komputer już tego nie przetworzy. Jeśli to jest istotne, wtedy symulacja przestanie działać. Trzeba konstruować bardzo zaawansowane metody matematyczne, żeby symulacje nie „eksplodowały”.

https://www.agh.edu.pl/nauka/info/article/sztuczna-inteligencja-zainspirowala-naukowca-z-agh-do-opracowania-modelu-propagacji-covid-19-w-powie/

  • 2 tygodnie, 5 dni temu