Szybkie narzędzie do symulacji zjawisk w makro- i mikroskali

Szybkie narzędzie do symulacji zjawisk w makro- i mikroskali

16/12/2019

Na Politechnice Wrocławskiej powstaje oprogramowanie open source do symulacji zjawisk zachodzących w makro- i mikroskali. Dzięki niemu można tworzyć niszczycielskie efekty żywiołów w grach komputerowych, ale też np. wirtualny stół operacyjny.

Program nazywa się Microflow 3D, jego pomysłodawcą jest dr inż. Roman Szafran z Zakładu Inżynierii Chemicznej na Wydziale Chemicznym PWr. – Potrzeba napisania takiej aplikacji pojawiła się przy okazji pracy nad innym projektem, w którym stworzyliśmy bioczip do hodowli unaczynionych tkanek – opowiada dr Szafran.

Microflow 3D to oprogramowanie napisane w języku C++, służące do symulacji zjawisk przepływu płynu, tzw. solver metody lattice-Boltzmann (LBM). Program ma bardzo uniwersalne zastosowanie, umożliwiające symulację zjawisk w makro- i mikroskali. Można go za darmo pobrać ze strony internetowej projektu i wykorzystywać bez opłat, zgodnie z ideą otwartego oprogramowania.

– To szansa na to, żeby nasz pomysł się rozwijał. Udostępnienie społeczności źródeł oprogramowania daje szansę wypracowania dogodnej formy współpracy wielu osób na zasadzie wolontariatu, bez ryzyka przywłaszczenia przez jedną ze stron jej efektów lub zasług. Jednocześnie nie ogranicza to komercyjnego wykorzystania kodu – wyjaśnia naukowiec z PWr.

Jak w praktyce można wykorzystać Microflow 3D?
Klasyczne zastosowania to gry komputerowe i efekty specjalne w filmach, czyli na przykład realistyczny ruch liści czy traw na wietrze, wodospady, deszcz i mgła, a także ogień i dym, czy wybuchy i niszczycielskie żywioły.

– Dziś wirtualna rzeczywistość to nie tylko rozrywka, ale również medycyna. Wyobraźmy sobie symulator, który podpowiada lekarzowi, jak najlepiej skorygować wadę serca, przewiduje efekty leczenia choroby wieńcowej, udaru mózgu czy tętniaków aorty. Przed przystąpieniem do operacji lekarz mógłby przeanalizować kilka wariantów leczenia i wybrać najlepszy z nich. To również możliwość podniesienia kwalifikacji studentów medycyny przy wirtualnym stole operacyjnym – opowiada dr Roman Szafran.

Inny pomysł to tzw. „wirtualne czujniki” dla przemysłu. Współczesne samochody, samoloty czy drony, ale także rakiety wyposażone są w tysiące czujników kontrolujących pracę wszystkich zespołów od układów napędowych po sterowanie lotem. – Idea jest prosta, zastępujemy część czujników szytym na miarę symulatorem, który dostarcza wszystkich niezbędnych danych w czasie rzeczywistym – tłumaczy dr Szafran.

Politechnika w elitarnym gronie
Już kilkanaście lat temu na Wydziale Chemicznym prowadzone były badania z wykorzystaniem metod numerycznych do symulacji procesów w inżynierii chemicznej. Wykorzystywano wtedy komercyjne pakiety oprogramowania CFD do symulacji układów wielofazowych gaz/ciało stałe. – Szybko okazało się, że błędy symulacji i stabilność rozwiązania pozostawiają wiele do życzenia. Takie oprogramowanie to w dużej mierze czarna skrzynka, nigdy do końca nie wiadomo, jak działa i jakie algorytmy ma zaszyte w swoim kodzie.

Potrzebowaliśmy oprogramowania otwartoźródłowego, by w pełni zapanować nad symulacjami. Już wówczas nasze zainteresowania naukowe nakierowane były na układy mikrofluidalne i zjawiska mikroskalowe – wyjaśnia naukowiec.

Na książkę o metodzie LBM (Lattice Boltzmann Methods) natrafili w 2011 roku na Targach Książki Naukowej na Politechnice. – Była to chyba pierwsza taka książka na naszej uczelni. Jej autorzy obiecywali, że metoda jest prosta i wydajna. Publikacja zawierała dużo przykładowych fragmentów kodu. Dzięki pomocy studentów szybko otrzymaliśmy prawidłowe wyniki. To nas zachęciło do dalszej pracy i udało nam się przeprowadzić pierwsze symulacje 2D przepływu płynu w mikro kanałach układów lab-on-a-chip – opowiada dr Szafran.

Naukowiec dodaje, że u podstaw numerycznej metody Lattice-Boltzmann leży kinetyczne równanie transportu zaproponowane przez Ludwiga Boltzmanna w 1872 roku. Obecnie metoda jest rozwijana na wielu renomowanych uczelniach, jednak tylko nieliczne posiadają własne implementacje w postaci autorskiego kodu numerycznego. – Możemy tu wyróżnić Uniwersytet Genewski (Palabos), Karlsruher Institut für Technologie (OpenLB) oraz Uniwersytet Śląskim w Katowicach (Sailfish), a teraz do tego elitarnego grona dołączyła Politechnika Wrocławska ze swoim kodem Microflow 3D – podkreśla dr Szafran.

Szybki i uniwersalny
Ze względu na zastosowane mechanizmy wbudowane w oprogramowanie udało się cały skomplikowany proces obliczeniowy znacznie zautomatyzować. Zdaniem naukowców dzięki temu otwierają się zupełnie nowe obszary zastosowania: od wirtualnej rzeczywistości po sterowanie urządzeniami i procesami.

Kolejna zaleta to szybkość – wylicza dr Roman Szafran. – Metoda LBM jest wielokrotnie wydajniejsza do metod klasycznych. Jest także dostosowana do architektury nowoczesnych jednostek wielordzeniowych i wektorowych, a także klastrów obliczeniowych. To daje możliwość prowadzenia symulacji czasu rzeczywistego lub nawet hyper-real-time – przewidywania zjawisk z wyprzedzeniem w czasie – dodaje.

Inna zaleta to prosta struktura kodu, którego możliwości można w łatwy sposób rozszerzać, co ma szczególne znaczenie w zastosowaniu przy badaniach naukowych.