Informatyka techniczna i telekomunikacja

1. Zastosowanie innowacyjnych metod uczenia maszynowego, w tym uczenia asocjacyjnego i motywowanego, do tworzenia inteligentnych, kognitywnych, samouczących się agentów.

Promotor: dr. hab. Horzyk Adrian, prof. AGH

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Zagadnienie badawcze obejmuje opracowanie nowych oraz rozwinięcie istniejących modeli szeroko pojętej sztucznej inteligencji, inteligencji obliczeniowej, inżynierii wiedzy w celu umożliwienia automatycznej adaptacji, tworzenia wiedzy i inteligentnego zachowania się agentów. Prace badawcze będą również porównać opracowane metody, modele i algorytmy do obecnie stosowanych. Kryterium porównawczym będzie zdolność agentów do samoorganizacji oraz kreacji bazy wiedzy na podstawie ich interakcji ze środowiskiem. Po za klasycznymi modelami i metodami uczenia maszynowego do realizacji zagadnienia zastosowane zostaną asocjacyjne struktury danych i ich sieci neuronowe oraz metody uczenia motywowanego.

Zaplecze badawcze: Jednostka naukowa oraz promotor posiada wiedzę i doświadczenie w opracowywaniu i rozwijaniu metod sztucznej inteligencji, inteligencji obliczeniowej oraz inżynierii wiedzy, więc posiada możliwość realizacji badań w ramach projektów naukowych, w tym w/w zagadnienia badawczego.

Liczba miejsc: 2

 

2. Zastosowanie optymalizacji kombinatorycznej w modelowaniu i implementacji systemów współbieżnych

Promotor: dr hab. inż. Andrei Karatkevich, prof. AGH

Katedra Informatyki Stosowanej, Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie:System współbieżny może być przedstawiony jako kompozycja systemów sekwencyjnych (na przykład automat hierarchiczny – jako sieć klasycznych automatów skończonych, sieć Petriego – jako kompozycja sieci typu State Machine). Taka dekompozycja może pozwalać na konwersję między różnymi sposobami modelowania, ułatwiać formalną analizę oraz być niezbędną dla implementacji (jeśli – w ogólnym sformułowaniu – system współbieżny ma być zrealizowany jako szereg współdziałających sekwencyjnych układów, aktorów lub procesów). Jednak zagadnienia takiej dekompozycji są związane z szeregiem problemów, po części nierozwiązanych. Jednym z nich jest możliwość dekompozycji i warunki, które ją określają. Przykładowo, nie każda sieć Petriego może być podzielona na składowe automatowe, a jeśli może, to czasami, ale nie zawsze, to wymaga wprowadzenia dodatkowych miejsc. Warunki istnienia pokrycia nie są znane w wystarczającym stopniu.

Inną kwestią jest minimalizacja liczby sekwencyjnych składowych, pokrywających system współbieżny. W niektórych przypadkach i dla niektórych modeli taka dekompozycja jest oczywista i jednoznaczna, natomiast w innych – jak na przykład w sieciach Petriego – mogą istnieć jej liczne warianty, różniące się liczbą elementów, powstaje więc problem minimalizacji. Jest on pokrewny z problemem pokrycia zbioru, który w przypadku ogólnym jest NP-trudny, więc wskazane jest opracowanie i wykorzystanie algorytmów aproksymacyjnych. Z drugiej strony, istnieją w tym zakresie przypadki, dla których minimalne pokrycie można znaleźć w czasie wielomianowym. Zasadne są więc badania warunków takich sytuacji i opracowanie odpowiednich algorytmów.

Podsumowując, ciekawe problemy badawcze dotyczą określenia warunków możliwości dekompozycji systemów współbieżnych, algorytmów takiej dekompozycji oraz warunków możliwości i algorytmów szybkiego znalezienia podziału na minimalną liczbę procesów sekwencyjnych.

Zaplecze badawcze: Katedra Informatyki Stosowanej AGH dysponuje sprzętem komputerowym i oprogramowaniem niezbędnym dla badań w wymienionym zakresie oraz ma dostęp do BG AGH. Jednostka naukowa i promotor posiadają doświadczenie w zakresie formalnego modelowania i analizy systemów współbieżnych.

Liczba miejsc: 2

 

3. Metody inteligentnej analizy strumieni danych pod kątem objaśnialności

Promotor: prof. dr hab. inż. Grzegorz J. Nalepa

Promotor pomocniczy: dr inż. Szymon Bobek, dr inż. Krzysztof Kutt

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Obecnie metody sztucznej inteligencji (AI) niezwykle często wykorzystuje się do analizy dużych zbiorów danych. W zależności od dziedziny, dane te mogą pochodzić z sensorów w instalacjach przemysłowych, czujników nasobnych czy zintegrowanych z otaczającą nas infrastrukturą. Użycie metod AI pozwala na rozwiązywanie nowych problemów takich jak adaptacja systemów, personalizacja usług, czy analiza predykcyjna np. pod kątem awaryjności sprzętu czy instalacji. Jakkolowiek dziś jesteśmy w stanie zbierać duże ilości danych i coraz częściej budować złożone modele pod kątem predykcji czy klasyfikacji, to narastającym wyzwaniem jest możliwość wyjaśnienia działania takiego modelu oraz określenie wpływu zmian w danych na jego funkcjonowanie, w tym tzw. preferencji. Prace w tym zadaniu obejmują analizę różnorodnych zbiorów danych w tym z dziedzin Industry 4.0, gier komputerowych, czy też sygnałów z pomiarów fizjologicznych z urządzeń nasobnych pod kątem informatyki afektywnej. Od doktoranta oczekuje się znajomości wybranych metod AI, a także wysokiej motywacji i zaangażowania.

Zaplecze badawcze: Zespół badawczy GEIST.re działający w Katedrze Informatyki Stosowanej na Wydziale EAIiIB ma długoletnie doświadczenie w realizacji grantów badawczych z obszaru badań podstawowych (NCN) i stosowanych (NCBR, MCP) udokumentowane wieloma publikacjami międzynarodowymi w renomowanych czasopismach. Obecnie zespół realizuje i koordynuje 2-letni grant międzynarodowy „CHIST-ERA PACMEL: Wsparcie analityki procesów biznesowych oparte na modelach koncepcyjnych dzienników zdarzeń” z którym m.in. związana jest tematyka tego zadania badawczego. Zespół dysponuje również odpowiednim zapleczem lokalowym dla doktorantów.

Liczba miejsc: 2

 

4. Wyznaczanie modelu symulacyjnego prędkości pojazdów na podstawie pomiarów wybranych parametrów trasy przejazdu

Promotor: dr hab. inż. Adam Piórkowski

Promotor pomocniczy: dr inż. Edyta Kucharska

Katedra Biocybernetyki i Inżynierii Biomedycznej Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Celem pracy jest opracowanie metodyki wyznaczania modelu prędkości pojazdów na podstawie wybranych parametrów trasy przejazdu, bazując na danych historycznych. Problemy naukowe, jakie są tutaj przewidziane, to opracowanie nowych algorytmów umożliwiających zredukowanie czasu procesu obliczeniowego w odniesieniu do znanych rozwiązań z zachowaniem akceptowalnego wyniku. Przewidziana jest konstrukcja odpowiedniego środowiska obliczeniowego oraz opracowanie metod optymalizacji czasu przetwarzania danych, w tym zrównoleglenia wybranych zadań.

Zaplecze badawcze: Na potrzeby badań przygotowane są zestawy danych GPS, pozyskane od Małopolskiego Urzędu Wojewódzkiego.

Liczba miejsc: 1

 

5. Modelowanie graficzne: BPMN, UML, DMN, GD, SS, PN, BN. Metody, narzędzia i zastosowania

Promotor: prof. dr hab. inż. Antoni Ligęza

Promotorzy pomocniczy: dr inż. Krzysztof Kluza, dr Krystian Jobczyk, dr inż. Weronika T. Adrian,

Katedra Informatyki Stosowanej , Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Zagadnienie badawcze dotyczy teorii, narzędzi i zastosowań modelowania graficznego, z wykorzystaniem narzędzi takich jak: BPMN, DMN, UML, Grafy Decyzyjne, Systemy Stanowe, Sieci Petri, Sieci Bayesowskie i inne. Badana będzie problematyka z obszarów: (i) analizy modeli graficznych i ich własności, weryfikacji i walidacji takich modeli, oraz automatycznej syntezy i optymalizacji, a także wzajemnego uzupełniania/efektu synergii. Planowane jest rozwijanie własnych aplikacji i badanie możliwości zastosowań (procesy biznesowe, inteligentne sterowanie, analiza danych, wspomaganie decyzji i inne).

Zaplecze badawcze: Jednostka posiada dostęp do BG AGH i udostępnianych przez nią zasobów oraz internetu. Posiadamy też kapitał intelektualny, potencjał twórczy i doświadczenia w prowadzeniu badań na poziomie międzynarodowym

Liczba miejsc: 3

 

6. Programowanie z ograniczeniami, programowanie logiczne i probabilistyczne. Metody, narzędzia i zastosowania

Promotor: prof. dr hab. inż. Antoni Ligęza

Promotorzy pomocniczy: dr inż. Krzysztof Kluza, dr Krystian Jobczyk, dr inż. Weronika T. Adrian,

Katedra Informatyki Stosowanej , Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Zagadnienie badawcze dotyczy teorii, narzędzi i zastosowań programowania z ograniczeniami oraz programowania logicznego i probabilistycznego. Przewiduje się eksplorację następujących kierunków:

(i) zwiększenie efektywności wnioskowania z wykorzystaniem granularyzacji, konstruktywnej abdukcji, inteligentnej dekompozycji, metod uczenia maszynowego i heurystyk oraz pojęcia entropii, grafów przyczynowo-skutkowych; (ii) zastosowania zwłaszcza w obszarach analizy i syntezy struktur (grafów), planowaniu i harmonogramowaniu, inteligentnym sterowaniu, oraz (iii) rozwój własnych narzędzi w oparciu o dostępne systemy (np. MiniZinc, Prolog, ASP, Python and its libraries, Problog, Sieci Bayesowskie i inne).

Zaplecze badawcze: Jednostka posiada dostęp do BG AGH i udostępnianych przez nią zasobów oraz internetu. Posiadamy też kapitał intelektualny, potencjał twórczy i doświadczenia w prowadzeniu badań na poziomie międzynarodowym.

Liczba miejsc: 3

 

7. Nowe metody tworzenia architektury bezpieczeństwa dla zaawansowanych systemów informacyjnych.

Promotor: Prof. dr hab. Marek R. Ogiela

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Zagadnienie badawcze obejmuje opracowanie nowych oraz rozwinięcie istniejących modeli tworzenia oraz utrzymywania architektury bezpieczeństwa dla zaawansowanych systemów informacyjnych, zarówno na poziomie poszczególnych rozwiązań (np. pojedynczego systemu informatycznego lub protokołu internetowego) - jak i całych przedsiębiorstw. Szczególna uwaga będzie poświęcona systemom implementującym nowe technologie takie jak: szeroko pojęta sztuczna inteligencja, rozproszony rejestr (np. blockchain), chmura (cloud), czy Internet-of-Things. Prace badawcze będą skoncentrowane na opracowywaniu i analizie nowych metod tworzenia architektury bezpieczeństwa dla tych systemów ale również ich porównaniu z obecnie stosowanymi standardami (np. COBIT, SABSA, TOGAF, NIST). Badania i analiza będą także prowadzone wokół nowopowstałych zagrożeń związanych z użyciem nowych technologii (np. wirusy komputerowe używające rozwiązań sztucznej inteligencji) oraz skutecznym metodom obrony przeciwko takim zagrożeniom definiowanym na poziomie architektury systemu.

Zaplecze badawcze: Jednostka naukowa oraz promotor posiada wiedzę i doświadczenie w opracowywaniu i rozwijaniu systemów zaawansowanych systemów informatycznych i technologii (m.in. sztucznej inteligencji) oraz projektowania i implementacji rozwiązań bezpieczeństwa w systemach informatycznych (np. systemów kryptograficznych). Jednostka posiada możliwość realizacji badań tym obszarze, jak również w/w zagadnienia badawczego.

Liczba miejsc: 1

 

8. Analiza i klasyfikacja mikrostruktur metali i stopów z wykorzystaniem narzędzi uczenia maszynowego.

Promotor: prof. dr hab. inż. Jan Kusiak

Katedra Informatyki Stosowanej i Modelowania, Wydział Inżynierii Metali i Informatyki Przemysłowej

Streszczenie: Głównym zadaniem formowania jest ukierunkowana zmiana kształtu oraz własności mechanicznych i wytrzymałościowych odkształcanych metali. Dlatego jednym z najważniejszych zadań plastycznej przeróbki metali jest koordynacja przejścia między etapem formowania a obróbką cieplną w sposób, który zapewnia, że uformowany półprodukt lub gotowy produkt jest tworzony przy minimalnym nakładzie energii, a jednocześnie spełnia wymagania klienta odnośnie jakości. Na własności mechaniczne i wytrzymałościowe metali i stopów wpływa w głównym stopniu ich mikrostruktura, która z kolei jest wynikiem parametrów technologicznych kształtowania (temperatury, odkształcenia, prędkości odkształcenia, itp.) oraz przemian zachodzących podczas obróbki termo-mechanicznej. Dlatego, aby precyzyjnie kontrolować własności metalu, konieczny jest stały i precyzyjny nadzór nad jego mikrostrukturą w całym cyklu produkcyjnym. Istniejące metody pomiarowe mikrostruktury koncentrują się głównie na prostych algorytmach, które oparte są na subiektywnej klasyfikacji człowieka, przez co mogą być obarczone błędem niesystematycznym. Dlatego głównym zadaniem badawczym jest próba zastosowania technik zaczerpniętych z dynamicznie rozwijającej się dziedziny analizy obrazu opartej o uczenie maszynowe, a w szczególności na sieciach konwolucyjnych (Deep Convlutional Neural Networks), do analizy i klasyfikacji mikrostruktur metali. Opracowane algorytmy mogą mieć nie tylko wartość teoretyczną, ale również praktyczną. Mogą być wykorzystane w systemach do automatycznej oceny i klasyfikacji mikrostruktur, niezbędnych w sterowaniu technologiami formowania metali.

Zaplecze badawcze: Badania będą w głównym stopniu oparte o istniejącą w Katedrze Informatyki Stosowanej i Modelowania infrastrukturę komputerową oraz pozyskane dane mikrostruktur z instytucji współpracujących z Katedrą (IMŻ w Gliwicach, BA Freiberg, itp.). Uzyskane wstępne wyniki badań z tego zakresu potwierdzają duże możliwości prac nad rozwojem tej tematyki.

Liczba miejsc: 1

 

9. Aproksymacyjne modelowanie i analiza poprawności oprogramowania.

Promotor: prof. dr hab. inż. Tomasz Szmuc

Katedra Informatyki Stosowanej, Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Gwałtowny rozwój zastosowań systemów wbudowanych i zwiększanie ich funkcjonalności przy występujących często ograniczeniach sprzętowych (zużycie energii) oraz dużym stopniu rozproszenia architektury stawia nowe wyzwania dla konstrukcji poprawnego oprogramowania. Zasadniczym celem badań jest rozwój metod modelowania i analizy poprawności metodami przybliżonymi (probabilistyka, modele aproksymacyjne) i ich zastosowanie w procesie wytwarzania poprawnego oprogramowania. Punktem wyjścia będą procesy Markowa oraz logika probabilistyczna. Prowadzić to będzie do ilościowej (w odróżnieniu od aktualnie stosowanej jakościowej) weryfikacji poprawności, tzn. wykazania że system jest poprawny np. w 95%. Przewiduje się 2 zasadnicze wątki badawcze:

  • Modelowanie i analiza poprawności logicznej.
  • Weryfikacja spełnialności wymagań czasowych.

Zaplecze badawcze: Grupa badawcza w Katedrze Informatyki Stosowanej AGH ma istotne osiągnięcia w formalnym modelowaniu i analizie poprawności oprogramowania. Opracowano szereg modeli bazujących na formalizmach sieci Petriego, algebry procesów (LOTOS) i logiki temporalnej. Wymienić należy również badania związane z translacją modeli ścieżki inżynierskiej (UML, SusML, AADL) w w/w opisy formalne. Zaproponowany obszar badawczy jest naturalnym rozszerzeniem tych prac.

Liczba miejsc: 2

 

 

10. Detekcja klastrów za pomocą adaptacyjnych algorytmów w kontekście profili zabezpieczeń w chmurze.

Promotor: dr hab. inż. Lucjan Janowski

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Wykrywanie klastrów za pomocą algorytmów adaptacyjnych w kontekście profilów zabezpieczeń w chmurze służy do wykrywania systemów anomalii na punktach końcowych (komputery klienckie, serwery), które tworzą profile procesów, plików i zachowania sieci. Profile te mogą być przechowywane w chmurze i wykorzystywane, jako usługa w chmurze. Odchylenie od profilu generuje anomalię, którą należy zbadać. Obecnie większość rozwiązań używanych do ochrony punktów końcowych, bazuje w oparciu o dobrze znane sygnatury, które są przechowywane lokalnie w punkcie końcowym lub w chmurze, na przykład: reguły IPS znanych zagrożeń, skróty znanych szkodliwych plików, reputacja adresów IP dla połączeń przychodzących i wychodzących lub reputacji domeny i URL. Sygnatury te nie mają możliwości wykrywania nowych ataków, ataków Zero-day, jak rownież niektórych ataktow na aplikacje internetowe lub bazy danych. Posiadamy w Cisco rozwiązanie, które nazywa się „Cisco Cognitive Threat Analytics– CTA” oparte na analizie sieci. CTA używa usługi w chmurze do grupowania podobnych wzorców (netflows, syslogs z web proxy) w klastrach. Te, które lądują w klastrze przypominającym złośliwe zachowanie, generują anomalię. Jednakże, nadal nie mamy takiego rozwiązania dla punktów końcowych. Innowacją tego pomysłu jest stworzenie algorytmu dla wyznaczania profilu klastrowania dla każdego serwera i aplikacji (poprzez profilowanie - gromadzenie danych statystycznych) i klasyfikowanie ich do klastrów w chmurze przy użyciu metadanych (statystyki procesów, pliki, zachowanie sieci), aby budować klastry profili i korelować zebrane dane z innymi użytkownikami, w celu wykrycia zachowania anomalii. Kiedy określony serwer jest zagrożony, zacznie wskazywać odchylenie od profilu i zgłaszając anomalię. Celem jest rownież zastosowanie uczenia maszynowego, wykorzystującego dane w chmurze i analitykę Big Data do tworzenia inteligentniejszych profili. Ta propozycja dotyczy systemu wykrywania anomalii, działającego na punktach końcowych (komputery klienckie i serwery), który buduje profile dla procesów, plików i zachowania sieci. Profile te mogą być przechowywane w chmurze i wykorzystywane, jako usługa w chmurze. Odchylenie od profilu generuje anomalię, którą należy zbadać. Profile klastrowania można klasyfikować, obliczając nową reprezentację, która wykorzystuje wszystkie przepływy w profilu, aby uchwycić dynamikę i zachowanie złośliwego oprogramowania w czasie. Reprezentacja jest odporna na zmiany złośliwego oprogramowania próbujące uniknąć wykrycia (np. przez zmianę wzorca adresu URL, liczby przesłanych bajtów, agenta użytkownika itp.). Niezmienna reprezentacja opiera się na założeniu, że złośliwe przepływy w profilu będą miały różne właściwości statystyczne niż legalne przepływy w innym profilu, reprezentacja jest używana w klastrowaniu do grupowania złośliwego oprogramowania należącego do tej samej kategorii. Problemem koncepcyjnym jest usunięcie zaszumionych zmiennych z dużej liczby możliwych wskaźników. W nienadzorowanym uczeniu, takim jak klastrowanie, zaszumione dane mogą łatwo usunąć związek pomiędzy różnymi klastrami. W zależności od profilu ataku różne zmienne mogą wnosić szum lub istotną informację. Nasza analiza skupi się na wykrywaniu, które zmienne są istotne. Będziemy również stosować uczenie z nauczycielem, w ramach którego będziemy mogli oznaczyć dobre i złe klastry, a nawet pewne zachowania, aby pomóc systemowi w nauce i dostrajaniu procesu klasyfikacji. Klastering został wykorzystany do wykrywania włamań, w monitoringu chmur IaaS (Infrastrure as a Service) oraz do poprawy algorytmu grupowania jądra w celu wykrywania włamań. Moje badania skupią się na zindywidualizowaniu algorytmu grupowania profili w taki sposób, aby możliwe było wykrycie anomalii.

Zaplecze badawcze: Cisco jest ośrodkiem badawczym i mamy dostępne dane z chmury naszego produktu AMP for Endpoints, laboratoria do symulacji ataków i wszystkie potrzebne zasoby, aby te badania zakończyły się sukcesem.

Liczba miejsc: 1

 

11. Adaptacyjny multihoming w sieciach IP.

Promotor: dr hab. inż. Marcin Niemiec

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Przedmiotem badań doktoranta będą adaptacyjne (tj. dostosowujące się do aktualnego obciążenia w sieci) algorytmy wyboru interfejsu wyjściowego w przypadku zastosowania techniki multihoming. Szczegółowym celem będzie opracowanie algorytmu wybierającego interfejs wyjściowy dla kolejnych przepływów w routerze, maksymalizującego prędkość transmisji lub minimalizującego osiągane opóźnienie. Parametry istniejących przepływów przechodzących przez router będą obserwowane w sposób ciągły. Na podstawie tych obserwacji będzie estymowana jakość trasy do określonej sieci docelowej (AS) na określonym interfejsie wyjściowym. W momencie pojawienia się kolejnego przepływu do danej sieci docelowej, będzie wybierany ten interfejs, który w danym momencie zapewnia lepszą (według zadanego kryterium) trasę do tej sieci docelowej. Aspektem wdrożeniowym pracy doktoranta będzie implementacja opracowanego algorytmu w routerze klasy domowej (opartym o jądro Linuxa), który zostanie wprowadzony na rynek jako nowy produkt.

Zaplecze badawcze: Katedra Telekomunikacji dysponuje sprzętem niezbędnym do realizacji badań w ramach przedmiotowego zagadnienia. Do dyspozycji doktoranta będą laboratoria sieci przewodowych oraz bezprzewodowych sieci komputerowych. Katedra dysponuje serwerami obliczeniowymi, na których doktorant będzie miał możliwość przeprowadzania symulacji opracowywanych algorytmów oraz emulacji wirtualnych sieci z zaimplementowanym algorytmem. Oprócz tego doktorant będzie miał możliwość wykorzystania infrastruktury obliczeniowej PL-GRID.

Liczba miejsc: 1

 

12. System zautomatyzowanego zakupu powierzchni reklamowej w czasie rzeczywistym w modelu aukcyjnym.

Promotor: dr hab. Konrad Kułakowski

Promotor pomocniczy: dr inż. Daniel Król

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: W istniejących systemach sprzedaży reklam on-line klient portalu internetowego – reklamodawca – dostarcza pewien zbiór reklam do potencjalnego wyświetlenia na stronie internetowej nie ma jednak pewności, które z tych reklam zostaną wykorzystane i zaprezentowane osobom przeglądającym stronę. Może się więc zdarzyć tak, że z uwagi na profile przeglądających portal część z wykupionych reklam nigdy nie zostanie wyświetlona. Powoduje to straty dla reklamodawcy, który musi przygotować więcej reklam niż mogłoby to być konieczne. Rozwiązaniem tego problemu może być zastosowanie modelu RTB (ang. real time bidding). Model ten zakłada, że portal internetowy udostępnia reklamodawcom zautomatyzowaną platformę aukcyjną, w ramach której mogą oni rywalizować o przestrzeń reklamową związaną z konkretną pojedynczą reklamą. W ten sposób reklamodawca oszczędza środki unikając tworzenia nadmiarowych reklam, portal natomiast jest w stanie oferować powierzchnie reklamową po optymalnych cenach. Implementacja takiego modelu wymaga jednak udostępnienia reklamodawcy infrastruktury pozwalającej na stworzenie własnego agenta biorącego udział w licytacji i podejmującego decyzje w oparciu o udostępnione dane. W szczególności z punktu widzenia agenta istotna jest wiedza o profilach użytkowników portalu potencjalnie zainteresowanych daną reklamą w kontekście oferowanej przestrzeni reklamowej. Wymaga to z jednej strony zaoferowania reklamodawcy w ramach modelu agenta gotowych mechanizmów analizy i drążenia danych a także wsparcia w konstrukcji algorytmu podejmowania decyzji. Wdrożenie takiego systemu zwiększy konkurencyjność portalu internetowego jako oferenta powierzchni reklamowej a reklamodawcom udostępni narzędzie elastycznej redukcji kosztów. Dzięki proponowanemu rozwiązaniu zmniejszy się liczba niechcianych i nietrafionych reklam prezentowanych użytkownikom portalu poprawiając komfort korzystania z udoskonalonej platformy internetowej.

Zaplecze badawcze: W celu realizacji projektu ze strony uczelni doktorant potrzebuje okresowego dostępu do komputera z systemem operacyjnym Linux, oraz dostępu do sieci Internet. Dostęp do systemu portalu internetowego zapewnia firma.

Liczba miejsc: 1

 

13. Rozproszony system wymiany różnych bloków kryptowalut pomiędzy użytkownikami.

Promotor: prof. dr hab. inż. Tomasz Szmuc

Drugi promotor: dr hab. inż. Igor Wojnicki

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Problematyka badawcza dotyczy rozwinięcia technologii blockchain drogą przejścia od scentralizowanych serwisów obsługi kont kryptowalut do systemu rozproszonego. Dotychczasowe rozwiązania wymiany wymagają powołania trzeciej strony (arbitra) nadzorującego wymianę między dwoma użytkownikami. Powoduje to szereg ograniczeń, wydłużenie czasu wymiany, naruszenie anonimowości itp. Pojawiające się w ostatnim okresie rozwiązania (mechanizm Atomic Swap) umożliwiają swobodną wymianę kryptowalut bez pośrednictwa scentralizowanych giełd, stron trzecich, czy też tokenów pośredniczących. Jest to realizowane w obrębie kanałów płatniczych. Do przeprowadzenia transakcji konieczne jest zatem posiadane aktywnego kanału płatniczego w obu walutach. Omawiane rozwiązanie wydaje się bardzo obiecujące, jest jednak w fazie rozwoju odległej od komercyjnych zastosowań. Celem badań jest analiza mechanizmu Atomic Swap i jego implementacja umożliwiająca wymianę różnych bloków krypotwalut, niezależnie od wykorzystanych algorytmów kryptograficznych, przy zachowaniu wszystkich własności technologii blockchain, m.in. bezpieczeństwa oraz pełnej anonimowości transakcji. Prace implementacyjne będą skojarzone z modelowaniem formalnym i dowodzeniem pożądanych własności zaproponowanych rozwiązań.

Zaplecze badawcze: Grupa badawcza w Katedrze Informatyki Stosowanej AGH ma istotne osiągnięcia w inżynierii oprogramowania, wytwarzaniu specjalizowanego oprogramowania oraz w formalnym modelowaniu i analizie poprawności oprogramowania. Opracowano szereg modeli bazujących na formalizmach sieci Petriego, algebry procesów (LOTOS) i logiki temporalnej i zastosowano je do analizy własności oprogramowania. Zaproponowany obszar badawczy jest naturalnym rozszerzeniem tych prac.

Liczba miejsc: 1

 

14. Agentowe metaheurystyki obliczeniowe w rozwiązywaniu trudnych problemów.

Promotor: dr hab. inż. Aleksander Byrski, prof. AGH

Promotor pomocniczy: dr inż. Kamil Piętak

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Algorytmy agentowe należą do popularnych metod rozwiązywania trudnych problemów. Metaheurystyki, takie jak PSO czy ACO posiadają znaczne cechy agentowości, w Katedrze Informatyki od lat prowadzone są prace nad Ewolucyjnym Systemem Wieloagentowym a także nad dedykowanymi środowiskami obliczeniowymi. Tego typu algorytmy stanowią również bazę szeregu rozwiązań hybrydowych. Prace prowadzone w tym temacie będą skoncentrowane na rozwijaniu nowych agentowych algorytmów metaheurystycznych, również hybrydowych, bazujących na wyżej wspomnianych i podobnych metodach obliczeniowych.

Zaplecze badawcze: Katedra Informatyki AGH dysponuje w pełni wyposażonymi laboratoriami dedykowanymi dla badań w zakresie algorytmów sztucznej inteligencji oraz miejscami pracy dla doktorantów. Akademickie Centrum Obliczeniowe Cyfronet AGH dysponuje zasobami niezbędnymi do prowadzenia eksperymentów obliczeniowych i symulacyjnych w zakresie biologicznie inspirowanych agentowych algorytmów sztucznej inteligencji. Doktoranci mają tam zapewniony dostęp do zasobów superkomputerów Prometheus i Zeus.

Liczba miejsc: 1

15. Inteligentne sterowanie ruchem w wielowarstwowych sieciach sterowanych programowo.

Promotor: dr hab. inż. Jerzy Domżał

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Zagadnienie badawcze dotyczy opracowania metod inteligentnego sterowania ruchem w wielowarstwowych sieciach sterowanych programowo. W szczególności, opracowane rozwiązania mają zapewniać obsługę ruchu z gwarancją jakości obsługi w sieciach wielowarstwowym z centralnym sterownikiem. Podstawowym założeniem jest zapewnienie współpracy pomiędzy warstwami optyczną, IP i aplikacji w celu obsługi ruchu zgodnie z zadanymi wymaganiami. Szczegółowo, konieczne będzie opracowanie rozwiązań umożliwiających niezawodne działanie sieci, a także wspierających sposoby klasyfikowania ruchu i obsługi przepływów z określoną jakością.

Zaplecze badawcze: Katedra Telekomunikacji dysponuje odpowiednim zapleczem badawczym umożliwiającym realizację badań w ramach projektów naukowych. Doktorant będzie miał zapewnione miejsce do pracy, komputer i dostęp do laboratorium. Doktorat będzie realizowany w ramach projektu „Inteligentne sterowanie ruchem w wielowarstwowych sieciach sterowanych programowo” finansowanego przez NCN w konkursie OPUS. W ramach realizacji doktoratu przewidziano dodatkowe stypendium w wysokości 4500 zł przez okres 12 miesięcy. Istnieje też możliwość pozyskania kolejnych projektów zapewniających dalsze finansowanie stypendium.

Liczba miejsc: 1

16. Biologicznie inspirowane agentowe algorytmy sztucznej inteligencji przeznaczone dla problemów ekonomiczno-finansowych.

Promotor: dr hab. inż. Rafał Dreżewski

Promotor pomocniczy: dr Sylwia Kruk

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Nowatorska koncepcja biologicznie inspirowanych systemów wieloagentowych zapewnia możliwość integracji, a dzięki temu również pełniejszego wykorzystania potencjalnych możliwości wynikających z synergii, kilku podejść, które są aktualnie intensywnie rozwijane i znajdują się w centrum zainteresowania licznych badaczy: wieloagentowych systemów obliczeniowych, agentowego podejścia do modelowania i symulacji oraz inspirowanych biologicznie algorytmów sztucznej inteligencji, zarówno agentowych, jak i nieagentowych. Wyniki przeprowadzonych badań wskazują na to, że biologicznie inspirowane systemy wieloagentowe bardzo dobrze radzą sobie w przypadku problemów wielomodalnych, niestacjonarnych, wielokryterialnych, jak również w zadaniach generowania strategii inwestycyjnych i wielokryterialnej optymalizacji portfela inwestycyjnego. Charakteryzują się one dużą zdolnością do generalizacji oraz posiadają zdolność generowania strategii inwestycyjnych oraz decyzji ekonomicznych i finansowych, które są racjonalne, a równocześnie oryginalne i nieoczywiste, co jest szczególnie istotne w przypadku niestabilnego i szybko zmieniającego się środowiska społeczno-gospodarczego. Głównym celem prac badawczych będzie opracowanie oraz weryfikacja nowatorskich agentowych biologicznie inspirowanych algorytmów sztucznej inteligencji, przeznaczonych do rozwiązywania wybranych problemów z dziedziny finansów i ekonomii, dla których nie zostały do tej pory znalezione rozwiązania optymalne. Planowane badania będą dotyczyły algorytmów przeznaczonych dla problemów takich jak optymalizacja struktury kapitałowej przedsiębiorstwa mająca na celu długookresową maksymalizację jego wartości, wielokryterialna optymalizacja struktury kapitałowej przedsiębiorstwa z uwzględnieniem celów zrównoważonego rozwoju oraz optymalizacja deterministycznego modelu wzrostu wartości przedsiębiorstwa prowadząca do maksymalizacji jego wartości.

Zaplecze badawcze: Katedra Informatyki AGH dysponuje w pełni wyposażonymi laboratoriami dedykowanymi dla badań w zakresie algorytmów sztucznej inteligencji oraz miejscami pracy dla doktorantów. Akademickie Centrum Obliczeniowe Cyfronet AGH dysponuje zasobami niezbędnymi do prowadzenia eksperymentów obliczeniowych i symulacyjnych w zakresie biologicznie inspirowanych agentowych algorytmów sztucznej inteligencji. Doktoranci mają tam zapewniony dostęp do zasobów superkomputerów Prometheus i Zeus.

Liczba miejsc: 1

17. Wykorzystanie sztucznej inteligencji w zarządzaniu zwirtualizowanej infrastruktury obliczeniowej i komunikacyjnej oraz autonomicznej konfiguracji natywnych aplikacji chmurowych wspierających działanie systemów 5G.

Promotor: prof. dr hab. inż. Krzysztof Zieliński

Promotor pomocniczy:

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Współczesna infrastruktura obliczeniowa i komunikacyjna charakteryzuje się wysokim stopniem wirtualizacji oraz rosnącą złożonością. Dotyczy to także aplikacji, które są obecnie realizowane jako natywne aplikacje chmurowe czyli w postaci skalowanych grafów komunikujących się komponentów funkcjonalnych. Aplikacje te mogą dotyczyć zarówno warstwy systemowej jak biznesowej. Warstwa systemowa związana jest z tworzeniem na żądanie wirtualnych funkcji sieciowych oraz sieci komunikacji z gwarantowaną jakością łączących chmury rdzeniowe z chmurami brzegowymi. Tak skonstruowaną warstwa systemowa charakteryzuje się wysoką elastycznością i konfigurowalnością pozwalającą na jej dostosowanie do wymagań aplikacji biznesowych. Aplikacje biznesowe muszą być odpowiednio alokowane do elementów warstwy systemowej, tak aby finalnie zapewnić wysokie wymagania w zakresie małych czasów reakcji, wysokiej przepustowości, skalowalności i odporności na uszkodzenia w warunkach dynamicznie zmieniającego się obciążenia. Wymagania te są szczególnie wysokie dla systemów 5G. Przedstawione zagadnienie techniczne jest bardzo złożone i musi być rozwiązywane na bieżąco stąd uważa się, iż jego rozwiązanie musi być wspierane metodami AI. Realizacja badań w tym obszarze jest przedmiotem proponowanego zagadnienia badawczego.

Zaplecze badawcze: Istnieje możliwość rozwijania zaproponowanej tematyki w ramach współpracy naukowo-badawczej z firmą Samsung Research Poland oraz CISCO Systems. Firmy te posiadają swoje oddziały w Krakowie. W ostatnich latach w Katedrze Informatyki WIEiT zrealizowano kilka grantów finansowanych przez firmę Samsung dotyczących organizacji przetwarzania w chmurach obliczeniowych. Obecnie przygotowywany jest wspólnie z tą firmą wniosek o grant związany z tematyką budowy aplikacji dla systemów 5 G. Firma CISCO jest także bardzo zainteresowana współpracą z AGH w obszarze AI. Wspólnie z tą firma jest obecnie realizowany projekt „Małopolska Chmura Edukacyjna”. Stanowi to dobry punkt wyjścia do rozwijana dalszej współpracy.

Liczba miejsc: 1

18. Algorytmy rozmieszczania procesów przetwarzania danych sensorycznych na krawędzi sieci dla systemów Internetu Rzeczy.

Promotor: prof. dr hab. inż. Krzysztof Zieliński

Promotor pomocniczy: dr inż. Tomasz Szydło

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Jednym z zagadnień konstrukcji systemów Internetu Rzeczy jest przeniesienie przetwarzania danych sensorycznych pochodzących z urządzeń Internetu Rzeczy bliżej ich źródła – na krawędź sieci Internet m.in. w celu zwiększenia responsywności systemu, oszczędności zasobów sieciowych i energetycznych. Celem prac badawczych będzie opracowanie środowiska umożliwiającego symulację i modelowanie systemów Internetu Rzeczy działających na krawędzi sieci, a następnie opracowanie algorytmów rozmieszczania procesów przetwarzania danych sensorycznych na dostępnej infrastrukturze sprzętowej tak by zapewnić pożądane własności systemu. Prace badawcze będą obejmować szereg eksperymentów mających na celu analizę działania typowych systemów Internetu Rzeczy, ich modelowanie oraz analizę. Opracowane rozwiązania będą podstawą narzędzi to tworzenia nowej generacji systemów Internetu Rzeczy.

Zaplecze badawcze: Wydział WIET zapewnia potrzebną infrastrukturę na potrzeby prowadzenia prac badawczych.

Liczba miejsc: 1

19. Analiza, modelowanie i optymalizacja pracy nowoczesnych sieci bezprzewodowych.

Promotor: dr hab. inż. Katarzyna Kosek-Szott

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Zagadnienie badawcze dotyczy analizy/modelowania/optymalizacji pracy nowoczesnych sieci bezprzewodowych. W ramach pracy będzie należało zapoznać się z aktualnym stanem wiedzy dotyczącym sieci bezprzewodowych (np. Wi-Fi, LAA, MulteFire, 5G, 6G) oraz sposobami analizy/ modelowania/optymalizacji pracy tych sieci. Następnie będzie należało wybrać konkretny obszar badawczy, który może uwzględniać takie zagadnienia jak uczenie maszynowe, Internet Rzeczy (IoT) czy też sieci definiowane programowo (SDN). Spodziewanym wynikiem prowadzonych badań powinny być przykładowo nowe mechanizmy/nowe sposoby optymalizacji pracy/nowe modele matematyczne lub symulacyjne nowoczesnych sieci bezprzewodowych.

Zaplecze badawcze: Katedra Telekomunikacji AGH mieści się w nowopowstałym budynku. Dodatkowo w budynku znajduje się szereg laboratoriów, w których można prowadzić badania. Laboratoria są wyposażone w nowe komputery oraz liczne urządzenia sieciowe (w tym urządzenia Wi-Fi, IoT oraz LTE). Proponowany promotor ma szerokie doświadczenie w prowadzeniu badań symulacyjnych oraz z użyciem rzeczywistych i wirtualnych urządzeń sieciowych. Dodatkowo posiada doświadczenie w modelowaniu sieci bezprzewodowych z użyciem takich środowisk jak Mathematica czy Matlab (oba środowiska są dostępne w Katedrze Telekomunikacji). Posiada także doświadczenie w zdobywaniu oraz kierowaniu grantami finansującymi badania naukowe. Ma także liczne kontakty międzynarodowe z uznanymi ekspertami z zakresu sieci bezprzewodowych.

Liczba miejsc: 1

20. Ocena jakości dla komputerowych aplikacji wizyjnych.

Promotor: dr hab. inż. Mikołaj Leszczuk

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Zagadnieniem badawczym jest badanie jakości wideo używanego do zadań rozpoznawania i aplikacji multimedialnych opartych na zadaniach. Tło zagadnienia badawczego jest następujące: Użytkownicy wideo do wykonywania zadań wymagają odpowiedniej jakości wideo, aby rozpoznać informacje potrzebne do ich zastosowania. Dlatego główną miarą jakości wideo w tych aplikacjach jest wskaźnik powodzenia tych zadań (takich jak rozpoznawanie), który określa się jako wizualną zrozumiałość, klarowność optyczną lub ostrość wzroku. Jedną z głównych przyczyn zmniejszenia klarowności optycznej jest utrata danych przez różne formy kompresji. Dodatkowo, charakterystyka przechwytywanej sceny ma bezpośredni wpływ na zrozumiałość wizualną oraz na wydajność konkretnej operacji kompresji, a także możliwe: rozmiar obiektu docelowego, warunki oświetlenia i czasową złożoność sceny. Badania będą polegały na przeprowadzeniu serii testów w celu zbadania efektów i interakcji kompresji i charakterystyki sceny. Dodatkowym celem będzie przetestowanie istniejących lub opracowanie nowych obiektywnych pomiarów, które pozwolą przewidzieć wyniki subiektywnych testów zrozumiałości wizualnej.

Zaplecze badawcze: Katedra Telekomunikacji mieści się w dwóch budynkach z dostępem do Polskiej Infrastruktury Sieciowej (PL-Grid) oraz innych serwerów i infrastruktury. Wiele narzędzi programowych, w tym MATLAB, będzie dostępnych przez cały czas trwania badań. Nasze dedykowane Multimedialne Laboratorium Jakości User eXperience jest wyposażone w komputery PC. Wyposażenie laboratorium obejmuje także aparaty fotograficzne, głośniki, słuchawki. Laboratorium obejmuje również platformy słuchawkowe VR, wiele wyświetlaczy mobilnych i biurkowych 3D oraz telewizorów różnych producentów, do badania dziedziny trójwymiarowego przetwarzania obrazu.

Liczba miejsc: 1

21. Metody sztucznej inteligencji w wykrywaniu incydentów bezpieczeństwa.

Promotor: dr hab. inż. Bartłomiej Śnieżyński

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: W związku ze wzrostem zakresu zadań realizowanych przez urządzenia podłączone do sieci Internet, zagadnienie cyberbezpieczeństwa staje się coraz ważniejsze. Jednocześnie dynamicznie rozwijają się techniki sztucznej inteligencji, a w szczególności algorytmy uczenie maszynowego. W związku z tym naturalnie pojawiają się zastosowania tych metod w wielu dziedzinach cyberbezpieczeństwa. Aktualnie sztuczna inteligencja jest już stosowana między innymi we wspomaganiu wykrywania incydentów bezpieczeństwa, takich jak: wykrywanie włamań (Intrusion Detection Systems), narzędzia SIEM (Security Information and Event Management), wykrywanie malware oraz wiele innych. Istnieje więc potrzeba prowadzenia dalszych badań pozwalających na poprawienie aktualnie osiąganych wyników oraz umożliwienie adaptacji wspomnianych systemów do szybko zmieniających się zagrożeń. Ważne są również zastosowania sztucznej inteligencji w wyszukiwaniu potencjalnych luk mogących prowadzić do incydentów bezpieczeństwa.

Zaplecze badawcze: Jednostka naukowa oraz promotor posiadają wiedzę w zakresie tworzenia, rozwijania i aplikowania metod sztucznej inteligencji w różnych dziedzinach, istnieje więc odpowiednie zaplecze naukowe. Jednocześnie tematyka cyberbezpieczeństwa jest obecna w jednostce naukowej, ponieważ w ramach Katedry Informatyki działa Centrum Cyberbezpieczeństwa AGH. W razie wystąpienia takiej potrzeby możliwe jest również skorzystanie z mocy obliczeniowej ACK Cyfronet AGH. W celu zapewnienia finansowania badań przewiduje się wystąpienie o projekt badawczy.

Liczba miejsc: 1

 

22. Optymalizacja odpornych infrastruktur sieciowych obsługujących obliczenia rozproszone.

Promotor: dr hab. inż. Piotr Chołda

Promotor pomocniczy: dr inż. Artur Lasoń

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Obsługiwane przez sieć scentralizowane infrastruktury obliczeniowe (jak chmury), służące do przetwarzania i przechowywania informacji są obecnie atrakcyjne badawczo i komercyjnie. Wiążą się z nimi jednak istotne problemy z zakresu jakości świadczenia usług QoS (np. opóźnienia). Podejścia określane jako edge i fog computing mogą służyć do rozwiązania wielu z tych problemów. Jednak tego typu obliczenia rozproszone wymagają nowych rozwiązań sieciowych, w tym zapewniających odporność (tj. bezpieczeństwo i niezawodność). W ramach zagadnienia badawczego rozwijane będą różnorodne metody i algorytmy służące spełnieniu różnych ograniczeń określonych dla wspomnianych środowisk. Obszar badań obejmuje: sieci sterowane programowo, wirtualizację funkcji sieciowych, systemy replikacji, przetwarzanie danych w środowiskach typu on-board (np. samochodach) i obsługa sieci na takie potrzeby, przetwarzanie danych na potrzeby pojazdów w ruchu, optymalizacja dynamicznej alokacji zasobów, modelowanie gotowości zasobów itp.

Zaplecze badawcze: W Katedrze Telekomunikacji AGH istnieje możliwość współpracy w ramach grupy badawczej NFV & SDN, która zajmuje się zagadnieniami związanymi ze zgłaszanym tematem badawczym i której członkami są potencjalni promotorzy. Katedra Telekomunikacji dysponuje infrastrukturą sprzętową, mogącą wspierać badania eksperymentalne w zakresie zagadnienia (m.in. infrastruktura OpenStack). Potencjalni promotorzy wystąpili o projekt europejski programu CHIST-ERA pt. „Distributed Intelligent Vehicular Fog Networks and Applications (DIVINA)”, który będzie skupiał się na zagadnieniach zbieżnych ze zgłaszanym obszarem badawczym. W razie uzyskania finansowania, doktorant będzie mógł uzyskać stypendium w ramach tego projektu.

Liczba miejsc: 1

23. Ocena jakości dla sekwencji wideo wykorzystywanych w celach użytkowych.

Promotor: dr hab. inż. Lucjan Janowski

Promotor pomocniczy: dr inż. Krzysztof Rusek

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Ocena jakości wideo najczęściej używana jest dla systemów w których oglądający ogląda film dla przyjemności. Jednak bardzo duża liczba systemów oceny jakości działa w celach użytkowych. Przykładem takich systemów są systemy monitoringu, kamery samochodowe, czy kamery ubierane przez policjantów. Dla takich systemów też istnieje potrzeba stworzenia algorytmu oceniającego jakość sygnału wideo. Ocena jakości w tym przypadku różni się od tradycyjnej, ponieważ znacznie ważniejsza jest część użytkowa obrazu niż jego poprawna kompozycja. Założeniem pracy jest rozważenie różnych możliwych rozwiązań, wśród których powinny się znaleźć głębokie sieci neuronowe.

Zaplecze badawcze: Promotor jest silnie zaangażowany w prace prowadzone w grupie VQEG (Video Quality Expert Group). Pozwala to na uzyskanie dostępu do odpowiednich sekwencji oraz wsparcia ze strony innych ekspertów pracujących nad tym problemem. W samej Katedrze Telekomunikacji istnieje możliwość prowadzenia niezbędnych prac obliczeniowych.

Liczba miejsc: 1

24. Optymalizacja pracy lokalnych sieci bezprzewodowych opartych na najnowszych rozszerzeniach standardu IEEE 802.11.

Promotor: dr hab. inż. Marek Natkaniec

Promotor pomocniczy: dr inż. Janusz Gozdecki

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: W ostatnich latach obserwowany jest niezwykle dynamiczny rozwój kolejnych rozszerzeń standardu IEEE 802.11. Wprowadzają one zmiany zarówno na poziomie warstwy fizycznej jak i warstwy dostępu do kanału radiowego. Zwiększająca się liczba konfigurowalnych parametrów powoduje problemy z uzyskaniem optymalnych i porównywalnych wartości typowych metryk wydajnościowych (ruch realizowany, średnie opóźnienie transmisji, jitter, straty ramek) dla różnych konfiguracji i topologii pracy sieci. Stwarza to problemy zarówno w zakresie jakości świadczenia nowoczesnych usług multimedialnych jak i powoduje problem niesprawiedliwego dostępu do wspólnego kanału radiowego. Celem zagadnienia badawczego będzie opracowanie różnych algorytmów, protokołów i mechanizmów umożliwiających poprawę QoS, zapewnienie sprawiedliwego dostępu do kanału radiowego jak również automatyczny dobór wartości wybranych parametrów warstwy fizycznej i MAC dla różnych konfiguracji i topologii pracy w celu zwiększenia ogólnej wydajności pracy sieci.

Zaplecze badawcze: W Katedrze Telekomunikacji AGH istnieje możliwość współpracy w ramach grupy badawczej Wireless Communications, która zajmuje się zagadnieniami związanymi ze zgłaszanym tematem badawczym i której kierownikiem jest promotor tej pracy. Katedra Telekomunikacji dysponuje odpowiednimi narzędziami badawczymi (symulatorami sieciowymi, oprogramowaniem do modelowania protokołów sieciowych, serwerami obliczeniowymi), dostępem do baz naukowych (m.in. IEEExplore, Elsevier, Wiley) jak również infrastrukturą sprzętową, mogącą wspierać badania eksperymentalne w zakresie opisywanego zagadnienia (m.in. kilkadziesiąt rodzajów kart oraz mostów bezprzewodowych sieci WLAN opartych na standardach IEEE 802.11a/b/e/g/h/i/n/s/ac). W tematyce lokalnych sieci bezprzewodowych, KT AGH współpracuje z wieloma uznanymi uczelniami europejskimi.

Liczba miejsc: 1

25. Optymalizacja działania sieci Wi-Fi lub LTE z użyciem algorytmów sztucznej inteligencji (uczenia maszynowego) lub teorii gier.

Promotor: dr hab. inż. Szymon Szott

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Współczesne sieci bezprzewodowe (Wi-Fi oraz LTE) są nieustannie rozwijane o nowe funkcjonalności. Standardy tych sieci (opracowywane przez IEEE oraz 3GPP) definiują nowe możliwości, lecz nie determinują jak z nich korzystać. Dotyczy to m.in. doboru parametrów pracy sieci (np. moc nadawcza, wybór częstotliwości) oraz alokacji zasobów między użytkowników. Istnieje pilna potrzeba opracowania metod optymalizacji pracy sieci bezprzewodowych pracujących w różnych scenariuszach i opartych na najnowszych wersjach standardów IEEE/3GPP. Wśród dostępnych metod optymalizacji wyróżniają się algorytmy sztucznej inteligencji, w szczególności oparte na uczeniu maszynowym. Ponadto, dla środowisk rozproszonych, teoria gier oferuje narzędzia pozwalające systemom osiągnąć optymalne punkty pracy. Obecnie brakuje jednak rozwiązań dedykowanych dla najnowszych wersji standardów sieci bezprzewodowych. Tą tematyką zainteresowane są nie tylko ośrodki badawcze ale także operatorzy sieci oraz producenci sprzętu. Powoduje to, że w opisanym powyżej obszarze istnieje możliwość zdefiniowana wielu ciekawych tez badawczych.

Zaplecze badawcze: Wydział Informatyki, Elektroniki i Telekomunikacji posiada odpowiednie zaplecze badawcze do przeprowadzenia badań: zarówno pod względem narzędzi programistycznych, mocy obliczeniowej jak i sprzętu (duża dostępność urządzeń Wi-Fi, własna sieć komórkowa LTE). Po sprecyzowaniu tematyki doktoratu, planowane jest złożenie wniosku o projekt naukowy (NCN lub NCBR). Tematyką mogą być także zainteresowane firmy produkujące sprzęt Wi-Fi lub LTE, z którymi Wydział współpracuje.

Liczba miejsc: 1

26. Identyfikacja wzorców i anomal ii w mediach społecznościowych.

Promotor: dr hab. inż. Jarosław Koźlak

Promotor pomocniczy: dr inż. Anna Zygmunt

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Media społecznościowe odgrywają istotną i wciąż rosnącą role w funkcjonowaniu współczesnego społeczeństwa, dotyczy to różnych jego wymiarów jak działalność biznesowa i rozwój profesjonalny, polityka, marketing, kształtowanie relacji społecznych, rozwój prywatnych zainteresowań , itd. Za przydatne uważamy lepsze zrozumienie zachowań użytkowników , formujących się w społecznościach w mediach społecznościowych organizacji, częstych wzorców i prawidłowości , a także identyfikowanie charakterystycznych anomalii. W szczególności interesują nas wzorce zachowań odniesione w wymiarze czasowym , charakteryzujące się powtarzalnością lub stabilnością. Dla takich wzorców można badać ich współwystępowanie oraz przewidywać, czy w rozpatrywanym przedziale czasowym odpowiednie wzorce nadal będą występować. Do prowadzonych analiz stosujemy podejścia oparte na analizie sieci społecznych i złożonych, eksploracji danych, uczeniu maszynowym i sztucznej inteligencji.

Zaplecze badawcze: Katedra Informatyki zapewnia odpowiednie zaplecze badawcze i sprzęt potrzebne do realizacji badań. Ponadto, w razie takiej potrzeby, jest możliwość uzyskania dostępu do superkomputerów w centrum obliczeniowym Cyfronet, które należą do najmocniejszych obliczeniowo komputerów w naszym kraju.

Liczba miejsc: 1

27. Adaptacyjne zarządzanie ruchem w sieciach IP i sieciach optycznych sterowanych programowo.

Promotor: prof. dr hab. inż. Zdzisław Papir

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Przedmiotem badań doktoranta będą adaptacyjne i wielodrogowe algorytmy zarządzania ruchem w operatorskich sieciach IP i sieciach optycznych. W szczególności badania będą dotyczyły adaptacyjnego sterowania ruchem w sieciach IP SDN oraz zarządzania ruchem w sieciach o wielowarstwowej architekturze (na poziomie warstwy IP oraz warstwy optycznej). Za punkt wyjścia zostaną przyjęte istniejące rozwiązania: FAMTAR (Flow-Aware Multi-Topology Adaptive Routing) na poziomie warstwy IP oraz AHB (Automatic Hidden Bypasses) na poziomie warstwy optycznej. Zostanie zbadana możliwość ich realizacji w sieciach SDN oraz ich wspólnego wykorzystania do zarządzania ruchem w sieciach wielowarstwowych.

Zaplecze badawcze: Katedra Telekomunikacji dysponuje sprzętem niezbędnym do realizacji badań w ramach przedmiotowego zagadnienia. Do dyspozycji doktoranta będą laboratoria przewodowych sieci komputerowych oraz sieci optycznych. Katedra dysponuje serwerami obliczeniowymi, na których doktorant będzie miał możliwość przeprowadzania symulacji opracowywanych algorytmów oraz emulacji wirtualnych sieci z zaimplementowanym algorytmem. Oprócz tego doktorant będzie miał możliwość wykorzystania infrastruktury obliczeniowej PL-GRID.

Liczba miejsc: 1

28. Zagadnienie agentowo zorientowanego modelowania i symulacji.

Promotor: prof. dr hab. inż. Grzegorz Dobrowolski

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Badania w zakresie agentowo zorientowanego modelowania i symulacji (ang. agent-based modeling and simulation) w określonych domenach zastosowań dzielących charakterystykę systemów złożonych (wielkich). Podejście to zakłada modelowanie podsystemów autonomicznych z użyciem metod sztucznej inteligencji. Tak określone badania prowadzone będą w dwóch strategiach ogólnych: wyjaśniania funkcjonowania systemów rzeczywistych oraz studiów nad rozwojem systemów rzeczywistych budowanych - w szerokim sensie - przez człowieka. Budowane są modele i realizowane intencjonalne badania symulacyjne. Przykładowe domeny to: zarządzanie przemysłem, transportem.

Zaplecze badawcze:

Liczba miejsc: 1

29. Zastosowanie uczenia maszynowego w cyberbezpieczeństwie.

Promotor: dr hab. inż. Marcin Niemiec

Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Badania realizowane w ramach niniejszego zagadnienia badawczego będą skupione wokół rozwoju i wykorzystania algorytmów uczenia maszynowego do ochrony danych cyfrowych. Jednym z głównych kierunków badań będzie projektowanie oraz zastosowanie uczenia maszynowego i metod statystycznych w celu analizy danych generowanych przez urządzenia/systemy sieciowe. Tego typu rozwiązania mogą być zastosowane do detekcji anomalii oraz wykrywania oprogramowania złośliwego i potencjalnych luk bezpieczeństwa w chronionych systemach/aplikacjach. Badania te powinny doprowadzić do zaproponowania rozwiązań, w których na podstawie analizy dużych zbiorów danych pochodzących z wielu źródeł, będzie można przewidywać/wykrywać ataki sieciowe czy kampanie złośliwego oprogramowania. Dodatkowo, prowadzone będą badania nad systemami kryptograficznymi bazującymi na sztucznych sieciach neuronowych. Badania nad zastosowaniem uczenia maszynowego w kryptografii będzie koncentrowało się na analizie mocnych i słabych stron tego rozwiązania, a także na badaniu potencjalnych wektorów ataków. Ten kierunek badań nie będzie ograniczony jedynie do analizy klasycznych systemów kryptograficznych, ale analizie będą poddane również nowoczesne rozwiązania bazujące na technikach kwantowych (np. kryptografia kwantowa wraz z algorytmami korekcji błędów).

Zaplecze badawcze: Katedra Telekomunikacji dysponuje sprzętem i oprogramowaniem potrzebnym do realizacji badań w ramach niniejszego zagadnienia badawczego. Do dyspozycji doktoranta będą laboratoria sieciowe, w tym laboratorium bezpieczeństwa sieci. Katedra dysponuje serwerami obliczeniowymi, na których doktorant będzie miał możliwość przeprowadzania symulacji proponowanych algorytmów i mechanizmów. Dodatkowo, doktorant może zostać zaangażowany do prac w ramach międzynarodowego projektu H2020 ECHO (European network of Cybersecurity centres and competence Hub for innovation and Operations).

Liczba miejsc: 1

30. Analiza spółek giełdowych przy pomocy systemów sztucznej inteligencji.

Promotor: dr hab. Andrzej Bielecki, prof. AGH

Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Streszczenie: Celem pracy doktorskiej będzie weryfikacja skuteczności zastosowania metod sztucznej inteligencji w analizie przedsiębiorstw, w szczególności spółek giełdowych. W szczególności, podjęta zostanie próba zweryfikowania następujących hipotez badawczych:

H1: Metody sztucznej inteligencji i uczenia maszynowego pozwalają na identyfikację podmiotów manipulujących sprawozdaniem finansowym.

H2: Metody sztucznej inteligencji i uczenia maszynowego pozwalają na identyfikację podmiotów popełniających przestępstwa gospodarcze.

H3: Metody sztucznej inteligencji i uczenia maszynowego pozwalają przewidywać załamania gospodarcze/ kryzysy gospodarcze.

H4: Metody sztucznej inteligencji i uczenia maszynowego pozwalają identyfikować formy nieuczciwej konkurencji (na przykład, celowego zaniżania cen poniżej kosztów).

H5: Metody sztucznej inteligencji (m.in. oparte na prawie Benforda) i uczenia maszynowego pozwalają identyfikować podmioty uchylające się od opodatkowania.

W celu weryfikacji postawionych hipotez zastosowane zostaną metody uczenia maszynowego oraz sztucznej inteligencji i w ramach badań zostanie dokonana analiza porównawcza istniejących metod, aby ocenić ich skuteczność, a także szybkość działania. W dalszej części badań zostanie podjęta próba rozwinięcia istniejących narzędzi, aby poprawić skuteczność i szybkość istniejących metod.

Zaplecze badawcze: W celu przeprowadzenia badan niezbędny jest dostęp do baz ReutersDatastream, Orbis, Jstordatabases. KIS zapewni ten dostęp.

Liczba miejsc: 1

31. Jednolite metodologicznie procedury identyfikacji elementów nietypowych, klasteryzacji i klasyfikacji w ujęciu warunkowym.

Promotor: prof. dr hab. inż. Piotr Kulczycki

Wydział Fizyki i Informatyki Stosowanej

Streszczenie: Przedmiotem badań są procedury identyfikacji elementów nietypowych, klasteryzacji oraz klasyfikacji dla przypadku warunkowego, tzn. gdy charakterystyki rozkładu zbioru danych zależą od wielkości dostępnych metrologicznie (np. bieżącej temperatury), co w praktyce umożliwia skuteczne uściślenie oraz aktualizację stosowanego modelu. W celu rozwiązania tak sformułowanego zagadnienia użyte będą nieparametryczne metody estymacji, uniezależniające projektowane procedury od rozkładu danych w badanym zbiorze. W poszczególnych aspektach zostaną wykorzystane elementy inteligencji obliczeniowej - logika rozmyta (w tym intuicjonistyczne zbiory rozmyte) oraz algorytmy genetyczne. Uzyskane wyniki będą zilustrowanie i przetestowane z użyciem danych syntetycznych oraz benchmarków, a także badań z zakresu inżynierii środowiska prowadzonych na WFiIS AGH, jak również - opcjonalnie - w dziedzinie zaproponowanej przez Doktoranta. Przypadek bezwarunkowy został z powodzeniem przebadany, zweryfikowany i zastosowany we współpracy z ówczesnymi doktorantami dr hab. M. Charytanowicz, dr hab. inż. P.A. Kowalskim, dr D. Kruszewskim oraz dr S. Łukasikiem. Od Doktoranta wymagane są predyspozycje matematyczne, jak również umiejętność programowania. Informacje: prof. Piotr Kulczycki, kulczycki@agh.edu.pl

Zaplecze badawcze: Wydział zapewnia całkowite zaplecze informatyczne i pozostałej infrastruktury dla realizacji planowanych badań.

Liczba miejsc: 1

32. Synteza ruchomej krzywej przełączeń na podstawie niestacjonarnych danych strumieniowych.

Promotor: prof. dr hab. inż. Piotr Kulczycki

Wydział Fizyki i Informatyki Stosowanej

Streszczenie: Niniejszy temat z zakresu analizy danych strumieniowych, zawiera także elementy z inżynierii sterowania. Zadanie polega na syntezie płaszczyzny przełączeń, występującej m.in. przy sterowaniu o zmiennej strukturze (również w sterowaniu ślizgowym oraz odpornym), w postaci adaptacyjnej, czyli przy uzależnieniu zmiennego w czasie jej kształtu oraz położenia od sukcesywnie napływających informacji o obiekcie w postaci niestacjonarnego strumienia danych. Badania prowadzone będą dla wybranych systemów nieliniowych, również opisywanych równaniami różniczkowymi z nieciągłą prawą stroną. Rozważone zostanie także ujęcie warunkowe, gdy charakterystyki obiektu są istotnie uzależnione od wielkości, których aktualna wartość jest dostępna metrologicznie, co często pozwala znacząco uściślić proces wnioskowania. Możliwe (aczkolwiek niekonieczne) będzie zbudowanie stanowiska laboratoryjnego do empirycznej weryfikacji wyników. Od Doktoranta wymagane są predyspozycje matematyczne oraz umiejętność programowania. Informacje: prof. Piotr Kulczycki, kulczycki@agh.edu.pl

Zaplecze badawcze: Wydział zapewnia całkowite zaplecze dla realizacji planowanych badań.

Liczba miejsc: 1

33. Analiza wrażliwości konwolucyjnych sieci neuronowych.

Promotor: dr hab. inż. Piotr A. Kowalski

Promotor pomocniczy:

Wydział Fizyki i Informatyki Stosowanej

Streszczenie: Przedmiotem badań będzie innowacyjne zastosowanie analizy wrażliwości (AW) dla głębokich sieci neuronowych, w szczególności sieci konwolucyjnej. Głównym zadaniem algorytmów AW będzie redukcja poszczególnych składowych sieci głębokich, mająca na celu zbadanie zarówno wpływu (istotności) poszczególnych jej komponentów jak i uproszenie struktury neuronowej. Podejścia AW można podzielić na następujące dwie grupy: lokalna analiza wrażliwości (LAW) oraz globalna analiza wrażliwości (GAW). LAW bada zmiany odpowiedzi modelu, zmieniając jeden parametr, utrzymując jednocześnie pozostałe na stałym poziomie. Najprostsze i najczęściej stosowane podejście LAW bazuje na pochodnych cząstkowych funkcji wyjściowych w odniesieniu do pewnych parametrów wejściowych. W przypadku GAW wpływ na wyniki modeli można ocenić za pomocą metod regresji, metod przesiewowych oraz technik opartych na wariancji, np. Sobol, test czułości amplitudy Fouriera (FAST) lub rozszerzony FAST (EFAST). W proponowanych badaniach rozważone zostaną następujące podejścia do uproszczenia struktury konwolucyjnej siec neuronowej: (i) procedura redukująca wyłącznie liczbę neuronów wejściowych, (ii) funkcja zmniejszająca wyłącznie liczbę neuronów splotowych (iii) algorytm usuwający neurony w pełni połączonych warstwach (iv) i w końcu wszystkie powyższe procedury zostaną połączone razem, w celu jednoczesnego usunięcia neuronów wejściowych, splotowych oraz z warstwy w pełni połączonej.

Zaplecze badawcze:

Liczba miejsc: 1

 

34. Rozwiązywania parametrycznych układów równań liniowych

Promotor: dr hab. Iwona Skalna

Wydział Zarządzania

Streszczenie: Rozwiązywanie przedziałowych układów parametrycznych jest bardzo ważnym zagadnieniem w wielu dziedzinach nauki i techniki. Praca będzie miała na celu opracowanie nowych metod rozwiązywania takich układów z wykorzystaniem różnych metod szacowania funkcji na przedziale, m.in., form kwadratowych, szeregów Taylora, wielomianów Bernsteina.

Liczba miejsc: 3

 

35. Ocena skuteczności i ryzyka projektów inwestycyjnych w obecności danych nieprecyzyjnych i losowych.

Promotor: dr hab. Iwona Skalna

Promotor pomocniczy: dr Bartłomiej Gaweł

Wydział Zarządzania

Streszczenie: Każda firma musi podejmować decyzje inwestycyjne, często w warunkach niepewności. Te ostatnie mogą wynikać z wielu źródeł w różnych punktach czasowych w cyklu życia projektu. Różnorodność źródeł powoduje, że różne typy niepewności mogą występować jednocześnie. Kwantyfikacja ryzyka związanego z procesami decyzyjnymi w takich okolicznościach jest bardzo złożonym zadaniem. Prace będą miały na celu opracowanie nowych metod oceny skuteczności i ryzyka projektów inwestycyjnych przy jednoczesnej obecności zarówno nieprecyzyjnej, jak i stochastycznej niepewności.

Liczba miejsc: 2

 

 

36. Nanokomunikacja

Promotor: prof. dr hab. Inż. Andrzej Jajszczyk

Promotor pomocniczy: dr inż. Paweł Kułakowski

Katedra Telekomunikacji, Wydział Informatyki, Elektroniki i Telekomunikacji

Streszczenie: Nanokomunikacja to nowa dziedzina badawcza zajmująca się komunikacją między nanomaszynami. W Katedrze Telekomunikacji AGH (KT AGH) badania obejmują zarówno komunikację pomiędzy mikromaszynami zbudowanymi m.in. z grafenu (komunikacja na falach elektromagnetycznych w zakresie terahercowym), jak i komunikację molekularną. To drugie podejście przewiduje wykorzystanie mechanizmów znanych z biologii, takich jak transfer informacji zakodowanych w DNA, czy szybkie zjawisko FRET. Praca doktorska dotyczyłaby badań symulacyjnych i eksperymentalnych weryfikujących koncepcje realizacji nanokomunikacji w zastosowaniach biomedycznych (nanomaszyny komunikujące się w ludzkim ciele).

Zaplecze badawcze: Podstawowe badania będą realizowane ze wsparciem baz danych i możliwości obliczeniowych dostępnych w Katedrze Telekomunikacji AGH, czyli infrastruktury obliczeniowej PLGrid (ACK Cyfronet) oraz baz naukowych IEEExplore, Wiley i Elsevier. W tematyce nanokomunikacji, KT AGH współpracuje z uczelniami Polytechnic University of Cartagena, University of Lisbon oraz krakowskimi Collegium Medicum UJ oraz Katedrą Fizyki Medycznej i Biofizyki AGH, są to również unikalne badania eksperymentalne. Badania dot. nanokomunikacji są także częścią europejskich projektów COST, w których uczestniczy KT AGH, np. COST IC1004 i IRACON; w ramach takich projektów możliwe są badawcze staże naukowe.

Liczba miejsc: 1