Jelenlegi hely

UNKP Informatikai konferencia

Szegedi Tudományegyetem,
Természettudományi és Informatikai Kar, Informatikai Intézet

Időpont: 2021.07.01. 14:00-16:10

Helyszín: Online (Zoom)
A Zoom-linket a lehetséges visszaélések miatt nem tesszük közzé, az érdeklődők megkaphatják itt: tothl@inf.u-szeged.hu

Levezető elnök: Tóth László


Program


14.00: Vidács László: JavaScript programok automatikus hibajavítási módszereinek kutatása

Az automatikus hibajavítási módszerek a mai napig főleg Java rendszerekre készülnek, azonban a megfigyelések szerint az újonnan megírt programkód jelentős részét JavaScript nyelven írják. A hibajavításokhoz kapcsolódó fejlettebb kutatási infrastruktúra is (hiba adatbázisok, keretrendszerek) Java nyelvhez készültek. Az előadás során egy JavaScript megoldás néhány részletét ismertetem, kitérve az automata tesztek kezelésére és a potenciális hibajavító foltok automatikus osztályozására.

14.10: Kószó Dávid: Súlyozott automaták crisp-determinizálhatóságának eldöntéséről

A kutatás keretében strong bimonoidok feletti súlyozott automatákkal foglalkoztunk, és a crisp-determinizálhatóság témakörét vizsgáltuk meg. Egy strong bimonoid feletti súlyozott automata crisp-determinisztikus, ha determinisztikus és minden átmenete a strong bimonoid additív vagy multiplikatív egységelemével van súlyozva; az egységelemektől eltérő súlyok csak a kezdő-, ill. a végső súlyozás esetén fordulhatnak elő. Egy strong bimonoid feletti súlyozott automata crisp-determinizálható, ha az általa felismert súlyozott nyelv képe véges és a súlyozott automata által felismert súlyozott nyelv inverz képe a strong bimonoid minden elemére nézve egy felismerhető nyelv. Az előadás keretében megmutatjuk, hogy (1) tetszőleges past-véges monoton és additívan lokálisan véges strong bimonoid feletti effektíven adott súlyozott automatára, ill. (2) tetszőleges past-véges monoton strong bimonoid feletti effektíven adott egyértelmű súlyozott automatára eldönthető, hogy a súlyozott automata crisp-determinizálható-e.

14.20: Csuvik Viktor: Gépi tanulási módszerek alkalmazása automatikus patch szintetizálás segítésére

Az automatikus programjavítás célja a szoftverhibák kijavítása emberi beavatkozás nélkül. A szoftverfejlesztés területén az automatikus programjavításnak egyre nagyobb figyelmet szentelnek, a szektor vezető vállalatai is előállnak a saját megoldásaikkal (ld. Facebook Getafix, SapFix, Sapienz). A legtöbb ma ismeretes megoldás Java vagy C nyelven működik, a tavalyi év során készítettük el a GenProgJS eszközt, amely JavaScript hibák automatikus javítására képes. Első próbálkozásra az eszköz 11 hibát hibát tudott javítani a BugsJS adatbázisban, illetve ezek helyességéről nem volt fogalmunk. Az ÚNKP támogatásával elkészült munka keretein belül az eszköz több szempontból is továbbfejlesztésre került: már 24 hibát képes javítani, melyek közül 12 alátámasztottan helyes. Egy patch helyességének a kérdése továbbra is talán az egyik legfontosabb kérdés ezen a tudományeterületen, ilyen irányú kutatásokról is be fogok számolni. A GenProgJS eszköz által elkészített javításokon alkalmazott gépi tanulási módszert tanulmányoztunk és ennek segítségével próbáltuk megválaszolni a patch validációs kérdést. Az előadás során bemutatom az elmúlt év kihívásait és eredményeit.

14.30: Lékó Gábor: A vetületi geometria és vetületi halmazok szürkeárnyalatos bizonytalansága

A Számítógépes Tomográfia (CT) alkalmazása során előfordulhatnak olyan esetek, amikor csak limitált számú vetületet tudunk kinyerni. Ez azt eredményezheti, hogy nem tudunk megfelelő minőségű rekonstrukciót előállítani, így bizonytalan rekonstrukciót kaphatunk. A gyakorlatban ez annyit jelent, hogy a rekonstrukció pixel értékei nem egyformán meghatározottak a mért adat által, tehát különböző értékeket vehetnek fel. Az előadásomban javaslok egy elméleti szinten bizonyított bizonytalansági mértéket, mellyel mérni lehet a pixelek változékonyságát egy szürkeárnyalatos rekonstrukción. Ezt a bizonytalansági mértéket használva bemutatom hogyan lehet felső és alsó korlátot adni a lehetséges pixelértékekre adott rekonstrukció esetén. Végezetül bemutatom hogyan lehet az eredményeimet felhasználva modellezni a rekonstrukciós hibát. Minden eredmény alátámasztásra kerül elméleti és gyakorlati szempontból is.

14.40: Bánhelyi Balázs: Optimalizáló eljárás fejlesztése és alkalmazása nehéz feladatokon Bolyai ösztöndíjas kutatás intézményi hasznosulása

A kutatási területem 2 fő irányra bontható, de közös alkotó elem az optimalizálás. Az egyik irány a megbízható számítások alkalmazása főként nehéz matematikai feladatokon. Ezekben az esetekben az adott feladatot optimalizálási problémává alakítjuk és a keresés során az optimalizáló eljárásokat használjuk. A másik irány a kimondottan optimalizálási kérdések megoldása. Ilyeneket végeztünk főként ipari partnereinknek. De a fizikai feladatokon végzett optimalizálási feladataink is kapcsolódnak távolabbról ipari alkalmazásokhoz. Mindkét területen a diákok bevonása megtörtént, mellyel az intézet kutatási potenciálja növekedett. Kisebb feladatokat kaptak, melyeket az előadásomban bemutatok. Az előadás további részében bemutatom egyéb népszerűsítő tevékenységeimet.

14.50: Szabó Tamás: Automatikus fülszám felismerő rendszer, adatbázis támogatással és értékelő rendszerrel

A kutatás célja olyan alkalmazás(ok) és algoritmus(ok) kifejlesztése volt, melynek segítségével automatizálni lehet a tehenek fülszámának felismerését, ezzel támogatva azok állapotának gyorsabb felmérést, értékelését. Ez főleg azért volt fontos, mivel a tehenekkel kapcsolatos kutatások esetén ez az adat áll a legkevésbé rendelkezésre, emellett kifejezetten erőforrásigényes (ember, idő) az előállítása. Így a cél ezen két tényező csökkentése.
Ez a feladat sokban hasonlít a gépjárművek rendszámának felismeréséhez, habár vannak egyértelmű különbségek is, melyek nehezíthetik a feladatot, de a mesterséges intelligencia és a képfeldolgozás területéről rendelkezésre álló technológiák megfelelő kombinációjával áthidalhatóak ezek az akadályok.

15.00: Várkonyi Dániel: Az érintőképernyők gyártástechnológiai áttekintése

Az érintőképernyők a mai világban sokféle szerepet töltenek be és szinte minden ember életében létfontosságú szerepet játszik. A mindenhol megtalálható technológia a környezeti adottságok és funkcionális követelmények miatt többféle gyártási módszerrel és különféle anyagok felhasználásával készül. Kutatásom során fontos a megfelelő kijelzőtípus kiválasztása felhasználás, vagy akár újítás szempontjából egyaránt. Előadásom során bemutatom a különböző gyártási technológiákat és lehetséges felhasználási lehetőségüket.

15.10: Szűcs Judit: Bináris tomográfia textúraleírók alkalmazásával

A tomográfia alapfeladata egy objektum belső szerkezetének rekonstruálása annak szeleteiből. Egy speciális eset a bináris tomográfia, mely akkor alkalmazható, ha a rekonstruálandó objektum egyetlen anyagból áll, azaz a hozzá tartozó kép bináris.
Kevés vetület esetén a bináris rekonstrukció rendkívül alulhatározott lehet. A lehetséges megoldások terének csökkentése érdekében a rekonstruálandó képről prior információt használhatunk fel.
Az ösztöndíjas időszakban történt kutatásom során először a korábbi vizsgálatok eredményeinek kiegészítéseképpen ismételten olyan priorral bővítettem a rekonstrukciós algoritmust, amely a rekonstruálandó kép textúráját írja le. Alaposan megvizsgáltam a lokáris bináris minták alkalmazhatóságát szintetikus, fantom, valamint valós képeken is. A minőség mérésére különféle módszereket használtam.
Egy másik megközelítést alkalmazva lokális kvadráns-konvexitáson alapuló priorral egészítettem ki a rekonstrukciós eljárást, a működését pedig szintén több adathalmazon vizsgáltam meg.
Mindkét megközelítés ígéretes eredményeket produkált.

15.20: Cserháti Réka: Szóbeágyazások geometriai tulajdonságai

Kutatásommal a vektoros szóreprezentációk mélyebb megértésére tett erőfeszítéseket próbálom segíteni a szóbeágyazás-modellek geometriai tulajdonságainak vizsgálatával. Arra a kérdésre keresünk választ, hogy a különböző módszerekkel létrehozott modelleknek milyen közös tulajdonságai vannak, és mik azok, amiben különböznek.
Az összehasonlítás három fő szempontja a szóbeágyazás-vektorok térbeli elhelyezkedése, a vektorok hosszúsága és a szavak közötti hasonlóság megjelenése az egyes modellekben. Ezek vizsgálatához a szokásos módszereken (vizualizáció, korrelációk kiszámítása) kívül gépi tanulást alkalmazunk, mellyel számszerűsíthetővé válik például, hogy különböző jellemzők alapján mennyire különíthetők el a modellek.
A főbb eredmények, hogy a szóbeágyazások betanításához használt algoritmus és hiperparaméterek a vektorok elhelyezkedését is befolyásolják; hogy a vektorok hosszúságát minden modellben a szavak szövegkörnyezetének homogenitása határozza meg, de különböző módon; és hogy különböző modellekben gyakran különbözőképpen alakul a szavak hasonlósága is. A különbségek ellenére viszont bármely két modell között létrehozható olyan transzformáció, amellyel az azonos szavak egymás szomszédságába kerülnek, ebből arra következtethetünk, hogy a modellek valójában nagyon hasonló információkat hordoznak.

15.30: Fejes Dániel: Kézi gesztusok felismerése gépi tanulással

A kézi gesztusok felismerése egy ősi módja az emberek közti kommunikációnak. Ezen gesztusok számos felhasználása közé tartozik a személyek és gépek közti kommunikáció. A felismerésük legnépszerűbb módja a gépi tanulás, de ahhoz, hogy ezt alkalmazhassuk, az első kihívás a szükséges adatok összegyűjtése. Ebben az előadásban bemutatom, hogy milyen adatgyűjtési módokkal lehet megszerezni azt az információt, amely elengedhetetlen a kézjelek felismeréséhez, továbbá bemutatom a felismerésük módját és a lehetséges felhasználásukat is.

15.40: Hegedűs Péter: Visszakövethető biztonsági hiba detektálásra alkalmas módszerek kutatása és fejlesztése, valamint azok integrálása a fejlesztési és DevSecOps folyamatokba

A szoftverek biztonsága napjaink egyik legégetőbb problémájává kezdi kinőni magát. Miközben az informatika világában nap mint nap forradalmi újdonságok jelennek meg, mint például a bárki számára elérhető okoseszközök (IoT eszközök – okosóra, okosautó, okoshűtő, stb.), amelyek az internethez csatlakoztatva rengeteg érzékeny adatot küldhetnek és bárhonnan vezérelhetők, addig az olyan alapvető szoftverjellemzők biztosítása, mint például az adatvédelem és biztonság nem tudják megfelelő ütemben követni a technológia gyökeres változásait.
Kutatási célkitűzésem statikus és dinamikus analízissel, valamint a kódtörténet elemzése által kinyert jellemzők alapján olyan programozási hibák előre jelzése, amelyek biztonsági kockázattal járhatnak (pl. adatlopást eredményezhetnek jogosulatlan adatbázis hozzáféréssel, kártékony kód futtatását tehetik lehetővé vagy egyszerűen csak az egyes szolgáltatások megbénítását idézhetik elő). Ezek az ún. sérülékenység előrejelző modellek nem ismeretlenek a kutatói világban, az utóbbi évek során számos eredmény született. Ám ezek gyakorlati adaptálása messze elmarad a várakozásoktól, aminek véleményem szerint a fő okai, hogy a jelenlegi modellek eredményei nem elég pontosak, nem elég célzottak (pl. fájlok, osztályok, esetleg függvények szintjén tudnak csak előre jelezni), és nem nyújtanak magyarázatot a fejlesztők számára, hogy miért jelölnek egy-egy elemet sérülékenynek.
Előadásomban olyan eredményeket mutatok be, amelyek előrelépést jelentenek ezeken a területeken azáltal, hogy az előrejelzés pontosításához kódelemzési módszereket (statikus, dinamikus analízis és gépi tanulás), valamint kódjellemzőket (statikus és folyamat metrikák, automatikus beágyazás ok) kombinál. E mellett olyan célzott sérülékenység előrejelző modelleket is ismertetek, amelyek sorszintű predikciót tesznek lehetővé, prototípus alapú magyarázatokkal támogatva.

15.50: Gosztolya Gábor: x-vektor reprezentáció használata enyhe kognitív zavar detektálására beszédhangból

Az orvosi célú automatikus beszédelemzés feladata általában valamilyen betegség jelenlétének valószínűsítése az alany beszédéből. Kutatások alapján a nyelvi funkciók megváltozása sok betegség esetén már annak korai stádiumában észlelhetően befolyásolja az alany beszédét; így az alanyok beszédének elemzése praktikus, olcsó és nem-invazív eszköze lehet(ne) az ilyen betegségek korai szűrésének. Ennek a feladatnak a során nagy jelentősége van a jellemzőkinyerési lépésnek, melynek nehézsége, hogy a változó hosszúságú hangfelvételeket fix méretű jellemzővektorokkal kell jellemezni. Az előadásban egy csupán néhány éve publikált, mélytanulás-alapú jellemzőkinyerő eljárást, az x-vektorokat használom enyhe kognitív zavar (EKZ) detektálására.

16.00: Kicsi András: Radiológiai leletek automatizált interaktív elemzése

Kutatásunk során magyar nyelvű gerincleletek automatizált gépi értelmezését végezzük. Módszerünk detektálja a szövegben előforduló testrészeket, elváltozásokat és tulajdonságokat, és egy kezdetleges ontológia segítségével elvégzi azonosításukat. A folyamat eredménye egy struktúrált, tételes lista a szöveg tartalmával, melyben az egybefüggő entitások jól elkülönülnek. Ezt a kimenetet jól áttekinthető fa-struktúrával, és egy sematikus ábrán történő pontos jelöléssel jelenítjük meg. A módszer bemutatására elkészült egy demonstrációs felület is, amelyen egyszerűen, és számos interakciós lehetőséggel tekintheti át a felhasználó a leletek tartalmát.