21.01.2019

Seminarium otwarte prof. Victora Calo nt. analizy izogeometrycznej


21 stycznia 2019 r. o godz. 14.20 w Centrum Informatyki (bud. D.17, sala 2.41) odbędzie się seminarium otwarte, które poprowadzi profesor Victor Calo z Curtin University w Perth w Australii Zachodniej.

Seminarium stanowić będzie wprowadzenie w tematykę tzw. analizy izogeometrycznej, której jednym z twórców jest prof. Calo. Analiza izogeometryczna jest metodą przeprowadzania efektywnych i dokładnych symulacji numerycznych różnych problemów inżynieryjnych.

Prof. Victor Calo jest tzw. wysoko cytowanym naukowcem (Highly Cited Researcher). Oznacza to, że należy do 1% najbardziej cytowanych na świecie naukowców z dziedziny informatyki. Na świecie jest 95 takich naukowców i pięcioro z nich zajmuje się dziedziną analizy izogeometrycznej.

Wizyta, którą prof. Victor Calo odbędzie w Katedrze Informatyki w dniach 16-25 stycznia br., wiąże się z realizowanym w AGH projektem „Nowy paradygmat obliczeniowy IzoGeometrycznej metody Minimalizacji Reziduum (iGRM) i jego zastosowanie do rozwiązywania problemów parabolicznych, hiperbolicznych, liniowych i nieliniowych”. Prace realizowane są w ramach konkursu „Harmonia 9” finansowanego przez Narodowe Centrum Nauki. Kierownikiem projektu jest prof. dr hab. Maciej Paszyński z Wydziału Informatyki, Elektroniki i Telekomunikacji. Prof. Victor Calo w ramach współpracy międzynarodowej bierze udział w badaniach naukowych nad projektem.

Opis projektu

W czasach współczesnych komputery przeprowadzają symulację wielu ważnych problemów inżynieryjnych. Dla każdego nowego projektu samochodu wykonywane są symulacje komputerowe wypadków drogowych, podczas których sprawdzana jest wytrzymałość samochodu na uderzenia z różną siłą i z różnej strony. Podobnie dla każdego nowego projektu samolotu przeprowadzane są symulacje komputerowe pod kątem wytrzymałości konstrukcji samolotu na obciążenia oraz wibracje występujące podczas lotu, startu i lądowania. Co więcej, każda nowa konstrukcja budowlana przeliczana jest pod kątem naprężeń i wytrzymałości materiałów na obciążenia pochodzące od masy konstrukcji, wiejących wiatrów, od opadów śniegu, a w niektórych strefach klimatycznych również pod kątem obciążeń pochodzących od burz piaskowych. Symulacje komputerowe mają również zastosowanie w medycynie do modelowania przepływu krwi w arteriach centralnego układu krążenia, w celu przewidywania planowanego kształtu wszczepianego bajpasu, lub do badania właściwości wszczepianej zastawki sercowej. Inne możliwe zastosowania symulacji komputerowych to na przykład badanie wpływu fal elektromagnetycznych generowanych przez telefon komórkowy na głowę ludzką podczas rozmowy telefonicznej.

Wszystkie wymienione dotychczas rodzaje symulacji komputerowych wykonywane są najczęściej za pomocą tak zwanej metody elementów skończonych. Unikatową cechą metody elementów skończonych jest bardzo rozbudowana teoria matematyczna pozwalająca na kontrolę dokładności symulacji przeprowadzanych za jej pomocą na komputerach. Niestety, symulacje komputerowe za pomocą metody elementów skończonych są bardzo kosztowne, i dla trudnych problemów wciąż nie jest możliwe uzyskanie dokładnych rozwiązań, nawet z zastosowaniem dużych komputerów równoległych. Dzieje się tak dlatego, ponieważ metody te wymagają rozwiązania bardzo dużych układów równań liniowych, o wielu milionach niewiadomych, co wymaga zastosowania kosztownych obliczeniowo algorytmów. Ponadto symulacje te często nie są stabilne i dostarczają błędnych wyników. W uproszczeniu wynika to z faktu, iż teoria matematyczna, na której opiera się działanie powyższych symulacji, działa w abstrakcyjnych przestrzeniach matematycznych, podczas gdy na komputerze wszystko przechowywane jest w sposób przybliżony. Twierdzenia matematyczne działające w przestrzeni abstrakcyjnej przestają działać gdy przeniesiemy się na komputerowy przybliżony zero-jedynkowy świat. Praktyczną konsekwencją tego faktu jest zawodność symulacji komputerowych, a co za tym idzie awarie w samolotach, nieprzewidziane skutki wypadków samochodowych, niepoprawne działanie zastawki sercowej, nieprawidłowo przewidziany przepływ krwi przez bajpas, czy niepoprawne wyniki symulacji komputerowych wpływu propagacji fal elektromagnetycznych generowanych przez telefony komórkowe na głowę ludzką.

W roku 2010 prof. Leszek Demkowicz, naukowiec polskiego pochodzenia pracujący na Uniwersytecie Teksańskim w Austin, wynalazł nową metodę którą nazwał DPG (skrót od angielskiej nazwy Discontinuous Petrov Galerkin). Metoda ta potrafi w pełni automatyczny sposób przeprowadzać stabilne symulacje komputerowe. Jednakże metodą DPG wymaga zaawansowanej wiedzy matematycznej, jest względnie trudna do zastosowania, a układy równań generowane przez tą metodą są bardzo kosztowne do przeliczenia ze względu na łamanie przestrzeni i wprowadzanie dodatkowych zmiennych na granicach elementów skończonych.

Celem projektu naukowego jest opracowanie nowego paradygmatu przeprowadzania symulacji komputerowych iGRM (izogeometryczna metoda minimalizacji reziduum) łączącej zalety metody DPG (pozwalającej na stabilne symulacji komputerowe), zalety nowoczesnych solwerów zmienno-kierunkowych (pozwalających na ekstremalnie szybkie symulacje komputerowe, możliwe do przeprowadzenia nawet na laptopie) oraz zalety nowoczesnej izogeometrycznej metody elementów skończonych (pozwalającej na przeprowadzania gładkich, zintegrowanych z systemami CAD/CAE symulacji komputerowych problemów zmieniających się w czasie). Nowa metoda iGRM może zdobyć duże zainteresowanie środowiska obliczeniowego ze względu na umożliwienie łatwych, szybkich i gładkich symulacji numerycznych dla trudnych problemów obliczeniowych.