Szkoła doktorska Politechniki Warszawskiej

Wyszukiwarka promotorów i obszarów badawczych

Wykaz obszarów badawczych związanych z tagiem Uczenie-maszynowe:

# Obszar badawczy Dziedzina naukowa
1 Elektroniczny język – badanie korelacji sygnałów (soft)sensorów z właściwościami organoleptycznymi. „Świętym Graalem” przemysłu farmaceutycznego i spożywczego jest zastąpienie wyszkolonych ekspertów (panelu ludzkiego), zajmujących się oceną organoleptyczną, przez systemy maszynowego rozpoznawania smaku i zapachu, czyli sensory smaku i zapachu, zwane też „elektronicznymi nosami” i „elektronicznymi językami”. W ciągu ostatnich kilkunastu lat zdobyliśmy unikalne doświadczenie na tym polu – potrafimy budować systemy biomimetyczne, za pomocą których możemy stwierdzić maskowanie smaku gorzkiego w formulacjach pediatrycznych, określić sposób zastosowanego przetwarzania żywności w celu zwiększenia jej trwałości, czy ocenić efektywność sztucznych słodzików. Celem doktoratu będzie wytwarzanie (soft)sensorów/macierzy (soft)sensorów i akwizycja ich sygnałów, pod kątem eksploracji danych korelujących z właściwościami organoleptycznymi wybranych produktów spożywczych i/lub farmaceutycznych.
2 bioinformatyka, big data, obliczenia rozproszone, uczenie maszynowe
3 Zagadnienia związane z konwergencja systemów i algorytmów high-performance computing i uczenia maszynowego. Rozwój metod, technik i środowisk programowania rozproszonego, ze szczególnym uwzględnieniem rozwiązań i "solverów" uczenia maszynowego wkomponowanych w klasyczne rozwiązania HPC wykorzystywanych w środowiskach klastrowym, gridowym i chmurowym w odniesieniu do złożonej problematyki obliczeń naukowych wielkiej skali złożoności. Algorytmy i obliczenia wielkoskalowe, wykorzystujące zróżnicowane heterogeniczne rozwiązania sprzętowe GPU/IPU/ CPU i środowiska w trybie multi-programming-model, a także zarządzanie zasobami, szeregowanie zadań i ich optymalizacja.
4 Obszar badawczy obejmuje zagadnienia przetwarzania obrazów, widzenia komputerowego, uczenia maszynowego (w tym uczenia głębokiego) oraz szeroko pojętej sztucznej inteligencji.
5 Zainteresowania naukowe koncentruje wokół zagadnień modelowania i projektowania efektywnych sieci i systemów transportowo-logistycznych dla obsługi przedsiębiorstw produkcyjnych oraz metod i narzędzi wspomagających planowanie i organizację transportu z zastosowaniem algorytmów heurystycznych opartych o algorytmy ewolucyjne. Osiągnięciem w tym obszarze jest opracowanie i rozwijanie oryginalnej metodyki inżynierii oceny efektywności funkcjonowania sieci dostaw.
6 Zainteresowania naukowe koncentruje wokół zagadnień modelowania i projektowania efektywnych sieci i systemów transportowo-logistycznych dla obsługi przedsiębiorstw produkcyjnych oraz metod i narzędzi wspomagających planowanie i organizację transportu z zastosowaniem algorytmów heurystycznych opartych o algorytmy ewolucyjne. Osiągnięciem w tym obszarze jest opracowanie i rozwijanie oryginalnej metodyki inżynierii oceny efektywności funkcjonowania sieci dostaw.
7 Przetwarzanie sygnałów multimedialnych, w szczególności sygnału mowy. Przetwarzanie języka naturalnego, w szczególności w kontekście cyberbezpieczeństwa. Biometria głosowa. Zastosowania uczenia maszynowego. Techniki komputerowe w zastosowaniach terapeutycznych.
8 1) Metody wykrywania i klasyfikacji nieprawidłowości pracy serca wykorzystujące techniki uczenia głębokiego - dotyczy technik i algorytmów przetwarzania sygnałów EKG do automatycznej detekcji i klasyfikacji nieprawidłowości pracy serca z wykorzystaniem metod głębokiego uczenia maszynowego. Planowane jest zastosowanie różnorodnych głębokich konwolucyjnych sieci neuronowych do automatycznej analizy struktury (przebiegu) sygnału EKG, jak również mechanizmów wykrywania anomalii (odchyleń) i wyszukiwania informacji opartych o sieci neuronowe typu autoenkoder. Prace będą prowadzone we współpracy z Katedrą i Kliniką Intensywnej Terapii Kardiologicznej i Chorób Wewnętrznych Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu. 2)Metody wykrywania i klasyfikacji nieprawidłowości pracy serca wykorzystujące wskaźniki zmienności rytmu serca (HRV) oraz techniki uczenia maszynowego - dotyczy technik i algorytmów przetwarzania sygnałów EKG do automatycznej detekcji i klasyfikacji nieprawidłowości pracy serca z wykorzystaniem metod uczenia maszynowego. Planowane jest zastosowanie wielu róznorodnych parametrów zmienności rytmu serca (HRV - Heart Rate Variablity), jak również nowych oryginalnych parametrów asymetrii rytmu serca (HRA - Heart Rate Asymmetry). Prace będą prowadzone we współpracy z Katedrą i Kliniką Intensywnej Terapii Kardiologicznej i Chorób Wewnętrznych Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu. 3)Pasywna radiolokacja obiektów kosmicznych za pomocą sygnałów rejestrowanych przez anteny międzynarodowej sieci radioteleskopów LOFAR - dotyczy technik i algorytmów przetwarzania sygnałów rejestrowanych przez anteny sieci radioteleskopów LOFAR (Low-Frequency Array for radio astronomy) w celu ich wykorzystania do pasywnej radiolokacji obiektów kosmicznych: satelitów na niskich orbitach i tzw. smieci kosmicznych. Rozpatrywany sytem radiolokacji pasywnej nie wymaga budowy dedykowanych nadajników, a wykorzystuje tzw. nadajniki okazjonalne, będące np. nadajnikami sygnałów radiowych FM, DAB+ lub telewizyjnych DVB-T. Sygnały te po dobiciu od obiektów odbierane są przez anteny systemu LOFAR. Prace w tym obszarze prowadzone we współpracy z Centrum Badań Kosmicznych PAN są pionierskie na skalę światową. Trzy stacje LOFAR znajdują się w Polsce. Pojedyncza stacja LOFAR składa się z wielu anten tworząc radioteleskop o dużych rozmiarach mogący odbierać stosunkowo słabe sygnały.4) Metody i algorytmy przetwarzania sygnałów w pasywnej radiolokacji małych bezzałogowych statków powietrznych (dronów) - dotyczy technik i algorytmów przetwarzania sygnałów dedykowanych do pasywnej radiolokacji małych bezzałogowych staków powietrznych, tzw. dronów. Prace będą prowadzone we współpracy z Wydziałem Mechanicznym Energetycznym i Lotnictwa Politechniki Warszawskiej na zakupionym niedawno przez Politechnikę Warszawską lotnisku w Sierakowie koło Przasnysza, gdzie powstało Laboratorium Monitorowania Obszaru z czterema stacjami antenowymi. Problemy do rozwiązania w ramach obszaru badawczego związane są z detekcją małych obiektów latających z wykorzystaniem specyficznych cech sygnałów odbitych od rozpatrywanych obiektów, estymacją ich parametrów, śledzeniem, a także klasyfikacją wykrytych obiektów, w szczególności badania mają dotyczyć możliwości odróżnienia małych dronów od ptaków. 5) Optymalizacja metod i algorytmów identyfikacji osób na podstawie sygnału EEG z wykorzystaniem technik uczenia maszynowego - dotyczy metod i algorytmów identyfikacji osób na podstawie sygnału EEG z wykorzystaniem technik uczenia maszynowego. Planowane jest zastosowanie podejścia bazującego zarówno na cechach spektralnych sygnału EEG w poszczególnych jego pasmach, jak również analizy samego przebiegu sygnału EEG za pomocą tzw. technik uczenia głębokiego z wykorzystaniem splotowych (konwolucyjnych) sieci neuronowych. Prace obejmować będą dobór i optymalizację parametrów sygnału EEG i klasyfikatorów wykorzystywanych do identyfikacji osób, liczby sesji koniecznych do nauczenia klasyfikatorów, minimalnej liczby elektrod używanych do identyfikacji, a także opracowanie opasek/czepków dedykowanych do zbierania sygnału EEG dla rozpatrywanego zastosowania i przebadanie opracowanych rozwiązań w warunkach zbliżonych do ich praktycznej implementacji. Prace będą prowadzone we współpracy z Instytutem Biologii Doświadczalnej im. M. Nenckiego Polskiej Akademii Nauk
9 Przetwarzanie obrazów radarowych SAR ze szczególnym uwzględnieniem zjawiska cętek radarowych (speckle). Badania w tym zakresie mogą przebiegać w dwóch podstawowych nurtach. Pierwszy z nich to badanie możliwości wykorzystania wybranych metod przetwarzania obrazów do usuwania cętek: analiza skuteczności istniejących oraz propozycja nowatorskich rozwiązań, opartych na m.in. klasycznych metodach filtracji adaptacyjnej, filtracji morfologiczną, wieloczasowej (lub ogólnie: multi-look), ale także metodach uczenia maszynowego, w tym konwolucyjnych sieci neuronowych. Drugi ze wspomnianych nurtów to badanie znaczenia zjawiska cętek radarowych dla klasyfikacji treści obrazów radarowych oraz opracowanie metodyki pozwalającej maksymalizować jej skuteczność – z wyszczególnieniem schematu postępowania ze zjawiskiem cętek.
10 Wykorzystanie uczenia maszynowego w analizie i przetwarzaniu danych teledetekcyjnych, przede wszystkim optycznych i radarowych. W szczególności zastosowanie głębokiego uczenia maszynowego i uczenia transferowego w wybranych zagadnieniach związanych z widzeniem maszynowym. Główne przewidywane zastosowania opisywanych przetworzeń i analiz to klasyfikacja treści zdjęć satelitarnych, lotniczych oraz naziemnych oraz ogólnie rozumiane rozpoznawanie obrazów. Jest to temat związany z automatyzacją przetwarzania obrazów teledetekcyjnych, co zyskuje na znaczeniu wraz z rozwojem teledetekcji: wzrostem liczby satelitów obserwacyjnych Ziemi oraz samej ilości danych obrazowych, a także coraz szerszym zastosowaniem danych obrazowych w różnego rodzaju procesach decyzyjnych, analizach zmian czasowych, monitorowaniu klimatu itp.
11 Analiza sygnału mowy pod kątem wykrywania stanu emocjonalnego mówcy. W zadaniu badawczym planuje się szeroko zakrojoną analizę sygnału mowy pod kątem wykrywania stanu emocjonalnego mówcy. Algorytmy przetwarzania danych obejmują metody analizy statycznych i dynamicznych cech sygnału, poszukiwanie i selekcję najlepszych cech. W celu określenia stanu emocjonalnego mówcy zostaną zastosowane algorytmy uczenia maszynowego włącznie z wykorzystaniem uczenia głębokiego.
12 Analiza sygnałów fizjologicznych w celu wykrywania zmęczenia. W zadaniu badawczym przewidziane jest opracowanie i budowa stanowiska badawczego (pomiarowego) umożliwiającego akwizycję różnych sygnałów fizjologicznych w różnym stadium zmęczenia użytkownika. Planowane jest użycie sygnałów: elektroencefalograficznych (EEG), elektrookulograficznych (EOG) oraz audio-wizualnych. W następnym kroku należy opracować metody analizy pozyskanych sygnałów pod kątem wykrywania zmęczenia. Algorytmy przetwarzania danych obejmują metody selekcji cech, uczenia maszynowego włącznie z wykorzystaniem uczenia głębokiego.
13 Zastosowanie chemoinformatycznych metod uczenia maszynowego w opracowaniu nowych korelacji empirycznych typu QSPR (quantitative structure-property relationship) do opisu i projektowania różnego rodzaju układów i właściwości fizykochemicznych.
14 Nowe metody kompresji wideo na bazie sieci neuronowych: Zagadnienie badawcze poświęcone jest opracowaniu nowych architektur splotowych sieci neuronowych oraz innych elementów przetwarzania sygnału wizyjnego służących do efektywnej kompresji sekwencji wizyjnych. Wśród tych innych elementów wymienić można zastosowanie transformacji ortogonalnych typu DCT i DWT, deskryptory pozwalające na formowanie kontekstu. Zasadniczo architektury sieci do kompresji bazują na strukturze autoenkodera . Jednak relacje między warstwami i sama struktura warstw zależy od wielu hyper-parametrów. Celem jest znalezienie takiego rozwiązania, które będzie dawało możliwie dobrą efektywność kompresji przy ograniczonym koszcie obliczeniowym. Wskazane jest zastosowanie uczenia w konfiguracji GAN celem dopasowania kompresji do ludzkiego systemu widzenia.
15 Prognozowanie generacji z OZE oraz produkcji energii elektrycznej w systemach różnej wielkości z wykorzystaniem uczenia maszynowego. Optymalizacja w elektroenergetyce.
16 Metody analizy i optymalizacji inteligentnych systemów złożonych (SoS, ang. System-of-Systems) – zaawansowanych technologicznie, współpracujących autonomicznych systemów, komunikujących się między sobą i oddziałujących z otoczeniem oraz podejmujących decyzje w czasie rzeczywistym. Przedmiotem badań są w pierwszym rzędzie systemy sieciowe – sieci komputerowych, sieci mobilnych, sieci sensorowych (potencjalnie również sieci typu ‘utility’), oraz systemy usług i aplikacji w tych sieciach – w szczególności usług 5G i Internetu Rzeczy. Badania obejmują zagadnienia projektowania, zarządzania i sterowania systemami w czasie rzeczywistym. Rozpatrywane są kwestie optymalizacji struktury, przydziału zasobów, szeregowania zadań, itp. Uwzględniane są aspekty losowości i niepewności oraz kryteria wydajności, niezawodności i odporności, efektywności. Rozwijane są algorytmy oparte na metodach programowania matematycznego, teorii kolejek, uczenia maszynowego, analizy danych, symulacji procesów, przeznaczone do implementacji w postaci oprogramowania off-line i oprogramowania on-line systemów.
17 Tytuł projektu: „Continiuous improvement” jako początek transformacji przedsiębiorstw do Industry 5.0 na przykładzie przeobrażania się przedsiębiorstwa P. D. Drobex.  Rozwój firm produkcyjnych uwarunkowany jest umiejętnością wykorzystania nowych możliwości oraz implementacją innowacyjnych rozwiązań – nie tylko technologicznych, ale głównie w obszarze organizacji i zarządzania. Na naszych oczach kształtuje się nowy typ gospodarki – gospodarka cyfrowa. Wdrażają technologie, automatyzują procesy, ale tylko niewielka część z ich potencjału w rezultacie zostaje wykorzystana. Bazując na wieloletnim doświadczeniu w kompleksowym zarządzaniu procesami produkcyjnymi oraz szerokim zakresem wiedzy z zakresu nowych technologii oraz Kaizen celowe jest udowodnienie, że fenomen przemysłu 4.0 może determinować sukces. Pojęcie Industry 5.0 jest coraz szerzej obecne w dyskusjach teoretyków i praktyków, w szczególności menadżerów firm produkcyjnych, pomimo tego stopień adaptacji przez firmy jest ograniczony. Biorąc pod uwagę zakres badanych zagadnień a także dokonując przeglądu i analizy literatury, wybór metod jakościowych tego typu badań dają większe możliwości m. in.: odkrywanie koncepcji i budowanie teorii, zrozumienia kontekstu, poznania przyczyn występujących zależności. Mimo pewnym ograniczeniom „badanie z bliska” w naturalnym otoczeniu cechuje się dogłębnym zdefiniowaniem rzeczywistości. Żeby zapewnić w jak największym stopniu obiektywizm oraz zagwarantować wiarygodność uzyskanych wyników szczegółowo zostanie przedstawiona metodologia case study.
18 uczenie maszynowe i sztuczna inteligencja; systemy autonomiczne; modelowanie architektur ML, MLOps
19

Komputerowa symulacja urządzeń elektrycznych (pole elektromagnetyczne, obwody i systemy), budowa generatorów impulsów WN, ale także algorytmy przetwarzania obrazów i danych trójwymiarowych (defektoskopia termowizyjna, tomografia komputerowa, automatyzacja diagnostyki urządzeń i systemów elektrycznych). Interesują mnie algorytmy ewolucyjne i sieci neuronowe w ujęciu algorytmicznym.

https://www.iem.pw.edu.pl/~jstar

20

Modelowanie, sterowanie i symulacja złożonych systemów (teleinformatyki, inżynierii finansowej, medycyny, wodno-gospodarcze itd.),  komputerowe systemy wspomagania decyzji i rekomendacji, bezprzewodowe sieci sensorowe, mobilne sieci ad hoc, optymalna alokacja zasobów w sieciach teleinformatycznych i centrach obliczeniowych, programowanie równoległe i rozproszone, algorytmy optymalizacji globalnej, uczenie maszynowe i przetwarzanie Big Data, technologie blockchain, cyberbezpieczeństwo.

21

Bioinformatyka, genomika obliczeniowa, sztuczna inteligencja, uczenie maszynowe

22

Bioinformatyka, genomika obliczeniowa, sztuczna inteligencja, uczenie maszynowe

23

eksperymentalna fizyka cząstek elementarnych, eksperymentalna fizyka jądrowa, ultrarelatywistyczne zderzenia ciężkich jąder atomowych, analiza danych z eksperymentu ALICE na Wielkim Zderzaczu Hadronów w CERN, korelacje kątowe cząstek zidentyfikowanych, pomiary oddziaływań hadronów w stanie końcowym, femtoskopia, badania antymaterii na Deceleratorze Antyprotonów, stany związane materii i antymaterii

24

Obszar badawczy obejmuje przede wszystkim modelowanie stabilności fazowej, uporządkowania atomowego i właściwości wieloskładnikowych stopów metali do zastosowań w ekstremalnych warunkach takich jak np. w reaktorach syntezy termojądrowej. Głównymi grupami badanych stopów są stale ferrytyczno-martenzytyczne, stopy wolframu, stopy o wysokiej entropii oraz szkła metaliczne. Głównymi stosowanymi metodami obliczeniowymi są metody DFT (ang. density functional theory), które umożliwiają m.in. badanie właściwości nowych materiałów oraz tworzenie modeli do symulacji w wyższych skalach. Modele oparte na wynikach DFT stosowane są w symulacjach Monte Carlo (umożliwiających badanie uporządkowania atomowego w stopach), dynamiki molekularnej (umożliwiających m.in. badanie właściwości mechanicznych stopów) oraz CALPHAD (umożlwiających badanie stabilności fazowej). W celu stworzenia modeli dla stopów wieloskładnikowych stosowane są metody statystyczne, w tym metody uczenia maszynowego.

25

Tematyka badań dotyczy dwóch dyscyplin inżynierii materiałowej i informatyki. Doktorat będzie dotyczył badań porowatych materiałów poliuretanowych z zastosowaniem metod uczenia maszynowego. W ramach pracy stosowana będzie jedna z metod uczenia maszynowego - głębokie uczenie. Wiele cech porowatych materiałów poliuretanowych zależy od mikrostruktury porów tych pianek, w tym od rozmiaru porów, rozmiaru perforacji porów czy grubości ścianek. Wśród cech pianek zależnych od parametrów mikrostruktury porów należy wymienić: właściwości oznaczone w trakcie odkształcania pianek. Głębokie sieci neuronowe zostaną zastosowane do predykcji właściwości materiału. Skuteczność działania modeli zależy m.in. od technik dostrajania, architektury, hiperparametrów. Staranne dobranie tych elementów może prowadzić do stworzenia zaawansowanego narzędzia analitycznego do badania materiałów porowatych, dzięki któremu możliwe będzie głębsze zrozumienie zależności między strukturą, a właściwościami.

26

Pierwszy obszar badawczy: sztuczna inteligencja, uczenia maszynowe, a konkretnie: redukcja wymiarowości, wizualizacja danych, klasteryzacja, klasyfikacja, samoorganizacja, wykrywanie danych odstających, sztuczne sieci neuronowe, asymetria w analizie danych, ekstrakcja i selekcja cech. Drugi obszar badawczy: programowanie wielowątkowe i język programowania Java.

27

Metody samonadzorowanego uczenia się (ang. Self-Supervised Learning - SSL) posiadają potencjał do istotnej poprawy wydajności procesu uczenia głębokiego. Kontrastowe metody SSL stały się standardowym podejściem wstępnego pre-trenowania w szeregu dziedzin, takich jak przetwarzanie języka naturalnego (NLP) czy wizja komputerowa (CV). Wstępne wyniki sugerują, że niekontrastowe metody SSL są w stanie istotnie zbliżyć się do wydajności metod kontrastowych, eliminując jednocześnie potrzebę konstruowania explicite negatywnych próbek/przykładów uczących. Celem proponowanych badań jest między innymi: 1) zweryfikowanie w jakim stopniu metody kontrastowe i niekontrastowe mogą być stosowane w nowatorskich architekturach SSL, 2) sprawdzenie czy dopasowanie reprezentacji w SSL można osiągnąć metodami alternatywnymi, takimi jak jako wymuszanie zdolności przewidywania reprezentacji próbki wejściowej na podstawie reprezentacji innych, podobnych do niej próbek.

28

Dominującym obecnie podejściem do uczenia się reprezentacji jest wstępne trenowanie dużych modeli bazowych na ogromnych statycznych zbiorach danych, co kontrastuje ze stale zmieniającym się i poszerzającym się charakterem danych dostępnych w Internecie. Proponowane badania dotyczą nowego paradygmatu, w którym zbiór danych uczących jest konstruowany ad-hoc poprzez bieżące przeszukiwanie Internetu, umożliwiając efektywne dostosowanie modeli do wybranych zadań docelowych. Celem proponowanego projektu jest między innymi: 1) zaprojektowanie metod poszukiwania odpowiednich danych uczących w Internecie i wykorzystanie ich do ustawicznej adaptacji modelu, 2) przeprowadzenie badan dotyczących konstrukcji metod samonadzorowanych (ang. self-supervised), które dla zadanego problemu: a) samodzielnie definiują metodę jego rozwiązania, b) przeszukują Internet w celu znalezienie odpowiednich danych uczących oraz c) wykorzystują znalezione dane do iteracyjnej optymalizacji modelu.

29

Abstrakcyjne rozumowanie wizualne (ang. Abstract Visual Reasoning - AVR) obejmuje problemy przypominające te pojawiające się w testach IQ. Przykładowo, Progresywne Matryce Ravena przedstawiają zestaw obrazów ułożonych w siatkę 3x3 z brakującym panelem w prawym-dolnym rogu. Zdający musi odkryć zależności rządzące znajdującymi się na obrazach kształtami 2D (i ich atrybutami), aby z zadanego zestawu opcji wybrać odpowiedź, która najlepiej uzupełnia macierz. Ogólnie rzecz biorąc, zadania AVR dotyczą podstawowych funkcji poznawczych, takich jak tworzenie analogii, abstrahowanie pojęciowe czy ekstrapolacja, co sprawia, że postępy osiągnięte w wyniku tych badań mają zastosowanie w różnych obszarach, istotnie wykraczających poza rozważane zadania. W ramach proponowanych badań planujemy zweryfikować możliwości wykorzystania wielkich modeli językowych (LLM) i wielkich modeli wizyjnych (LVM) do rozwiązywania zadań AVR, zarówno syntetycznych jak i wykorzystujących obrazy świata rzeczywistego.