Jelenlegi hely

UNKP Informatikai konferencia

Szegedi Tudományegyetem,
Természettudományi és Informatikai Kar, Informatikai Intézet

Időpont: 2020.06.30. 11:00-13:30

Helyszín: Online (Zoom)
A Zoom-linket a lehetséges visszaélések miatt nem tesszük közzé, az érdeklődők megkaphatják itt: tothl@inf.u-szeged.hu

Levezető elnök: Tóth László


Program


11.00: Kószó Dávid: Súlyozott faautomatákra vonatkozó eldönthetőségi kérdések

A kutatás keretében egy általános súlystruktúra, az ún. multioperátor monoid (röviden M-monoid)
feletti súlyozott faautomatákat vizsgálunk. Az M-monoid súlyozású faautomata általánosítása mind
a strong bimonoid súlyozású faautomatáknak, mind a félgyűrű feletti polinom súlyozású faautomatáknak.
Minden strong bimonoid, mint súlystruktúra, természetes módon szimulálható abszorptív M-monoiddal.
A számítási modell robusztusságát igazolja, hogy mind Kleene tétele, mind a
Büchi-Elgot tétel (jellemzés MSO logikával) érvényes az M-monoid feletti súlyozott faautomatákra.
Bebizonyítjuk, hogy ha az M-monoid abszorptív és a súlyozott faautomata determinisztikus,
akkor az iniciális algebrai szemantika és a futási szemantika megegyezik.
A kutatás egyik fő eredménye a már korábban bizonyított, félgyűrű súlyozású determinisztikus
faautomatákra vonatkozó pumpáló lemma általánosítása abszorptív M-monoid súlyozású
egyértelmű (unambiguous) faautomatákra. Ezen pumpáló lemma alkalmazásaként megmutatjuk, hogy a
magasság, illetve a bináris fák "kiegyensúlyozatlanságát" definiáló súlyozott fanyelvek egyike
sem ismerhető fel abszorptív és monoton M-monoid súlyozású egyértelmű faautomatával.
A másik fő eredmény, a már korábban bizonyított, kommutatív félgyűrű
súlyozású determinisztikus faautomatákra vonatkozó eldönthetőségi kérdések általánosítása
M-monoid súlyozásű faautomatákra. Megmutatjuk, hogy ha az M-monoid
abszorptív és monoton és a súlyozott faautomata egyértelmű, akkor a "konstans-e a tartóhalmazán" és
"konstans-e" problémák eldönthetők. Ugyanakkor, ha az M-monoid abszorptív és pozitív, akkor
tetszőleges súlyozott faautomatára az  "üres-e" és a "véges-e" problémák eldönthetők.

11.10: Somogyi Anikó: Egy számítógép-vezérelt kísérlet az informatika- és a fizikaoktatás határterületéről

A modern fizikatanítás integrálja a számítógépes szimulációkban, számítógép-vezérelt mérési
kísérletekben rejlő lehetőségeket. Ennek demonstrálására egy kinematikai jelenség dinamikai
okainak precíz feltárását célzó, komplex műszaki informatikai megoldásokat alkalmazó mérőkísérletet
terveztem. A kísérletben a légellenállás kiküszöbölése céljából egy egyedi készítésű vákuumkamrában
történik a forgómozgás vizsgálata. Az elrendezésben fontos szerepet kap a mikrovezérlők programozása,
ezen keresztül az informatika alkalmazása is. Előadásomban bemutatom, hogy a mérés és a mérési
körülmények milyen hardver- és szoftver eszközök kombinálását teszik szükségessé.  

11.20: Bánhelyi Balázs: Optimalizáló eljárás fejlesztése és alkalmazása nehéz feladatokon Bolyai ösztöndíjas kutatás intézményi hasznosulása

A kutatási területem 2 fő irányra bontható, de közös alkotó elem az optimalizálás. Az egyik irány a
megbízható számítások alkalmazása főként nehéz matematikai feladatokon. Ezekben az esetekben az adott
feladatot optimalizálási problémává alakítjuk és a keresés során az optimalizáló eljárásokat használjuk.
A másik irány a kimondottan optimalizálási kérdések megoldása. Ilyeneket végeztünk főként ipari
partnereinknek. De a fizikai feladatokon végzett optimalizálási feladataink is kapcsolódnak távolabbról
ipari alkalmazásokhoz. Mindkét területen a diákok bevonása megtörtént, mellyel az intézet kutatási
potenciálja növekedett. Kisebb feladatokat kaptak, melyeket az előadásomban bemutatok. Az előadás
további részében bemutatom egyéb népszerűsítő tevékenységeimet.

11.30: Gelle Kitti: Szétszórt környezetfüggetlen rendezések rendtípusáról

Egy lineáris rendezést környezetfüggetlennek nevezünk, ha az egy környezetfüggetlen nyelv lexikografikus rendezése, és
jól rendezettnek, ha nincs benne végtelen leszálló lánc, mint részrendezés. Rendtípusokon a rendezések izomorfiáját
(mint általánosított ekvivalencia reláció az összes rendezés osztályán) értjük, mely a rendezések egymásba
ágyazhatóságának fogalmán alapszik. A rendszámok a jólrendezések rendtípusai.
Már ismert, hogy a környezetfüggetlen rendezések izomorfizmus problémája eldönthetetlen általános esetben.
Megmutatjuk, hogy ha egy környezetfüggetlen nyelvtan által generált nyelv lexikografikus rendezése jólrendezett és
bizonyos további feltételek teljesülnek, akkor a rendtípusa algoritmikusan kiszámítható, ezzel pedig
eldönthető a vonatkozó izomorfizmus probléma is.

11.40: Iván Szabolcs: One-counter szétszórt nyelvek rendtípusárul

Ha van egy nyelvünk (mondjuk) a bináris ábécé fölött, annak a szavait rendezhetjük ábécé szerint, avagy
lexikografikusan, így kapunk egy rendezett halmazt. Egy rendezett halmaz szétszórt (scattered),
ha nincs sűrű része, avagy ha nem tudjuk beleágyazni a racionális számokat rendezéstartó módon.
Minden szétszórt rendezésnek van egy "Hausdorff-rangja", ami egy rendszám; ha pl. történetesen a
szétszórt rendezésünk egyben jólrendezés is, akkor az ő rangja a Cantor-normálformájában a főtag
kitevője, így pl. Ω2 rangja 2, ΩΩ rangja pedig Ω. Ismert, hogy minden
szétszórt környezetfüggetlen nyelv rangja kisebb, mint ΩΩ (tehát ha jólrendezett,
akkor rendtípusa kisebb, mint \omega^{\omega^\omega}). Szintén ismert, hogy a szétszórt reguláris
nyelvek rangja kisebb, mint Ω. A reguláris és a környezetfüggetlen nyelvek osztálya közt laknak
az ún "one-counter" nyelvek, melyek felismerhetőek olyan veremautomatával, aminek veremábécéje
egyetlen szimbólumot tartalmaz (ez tkp. ekvivalens azzal a számítási modellel, melyben verem
helyett egy számláló a véges automata kiegészítő adattípusa, melyet az automata tud 0-ra tesztelni,
és növelni vagy csökkenteni eggyel). Dietrich Kuske 2012-ben megadott egy olyan szétszórt
one-counter nyelvcsaládot, mely tagjainak rangja \omega\times n tetszőleges n természetes
számra és megfogalmazta azt a sejtést, hogy a szétszórt one-counter nyelvek rangja mindig
kisebb, mint Ω2. Az előadásban ennek a sejtésnek a bizonyítását (közlésre benyújtva,
társszerző: Gelle Kitti) vázolom fel.

11.50: Hegedűs Péter: Biztonsági sérülékenységek vizsgálata, előrejelzése és javítása JavaScript alkalmazásokban

A szoftverek biztonsága napjaink egyik legégetőbb problémájává kezdi kinőni magát. Miközben az informatika
világában nap mint nap forradalmi újdonságok jelennek meg, mint például a bárki számára elérhető okos
eszközök (IoT eszközök – okosóra, okos autó, okos hűtő, stb.), amelyek az internethez csatlakoztatva
rengeteg érzékeny adatot küldhetnek és bárhonnan vezérelhetők, addig az olyan alapvető szoftverjellemzők
biztosítása, mint például az adatvédelem és biztonság nem tudják megfelelő ütemben követni a technológia
gyökeres változásait. Előadásomban a biztonsági sérülékenységek előrejelzéséről és lehetséges automatikus
javításukról beszélek majd. Áttekintjük, hogy milyen kódjellemzők alapján milyen hatékonyan lehet egy-egy
biztonsági hibát tartalmazó kódrészletet előre jelezni. Első sorban a JavaScript nyelvű programokra
koncentrálok, de egy kis kitekintést adok arról is, hogy milyen tipikus hibák jelentkeznek más nyelvű
programok esetén, és hogyan alakul azok javítási mintázata a JavaScript nyelvű programokkal összehasonlítva.
Szót ejtek arról is, hogy honnan és milyen módszerekkel lehet olyan tanuló adatbázist összegyűjteni,
amelyek segítségével felügyelt tanulás segítségével előrejelző modelleket tudunk építeni.

12.00: Csuvik Viktor: JavaScript programjavító patch-ek automatikus generálása

A legelső nagy hatást keltő automatikus programjavító eszköz -Genprog- 2009-ben készült el C nyelvre,
ezzel egy merőben újszerű tudományágat indítván útnak. Azóta számos más eszköz is publikálásra került,
különféle javítási megközelítéseket alkalmazva. Ezek egy része továbbra is C/C++ programok javítására
specializálódott, míg mások Java-ra esetleg Python-ra. Ebben az előadásban egy olyan eszközt mutatok be,
amely hibás JavaScript programok automatikus javítását képes elkészíteni. Az általa felhasznált
algoritmus nagyban hasonlít az eredeti Genprog-ban használt genetikus algoritmusra, így kapta a
GenProgJS nevet. A hagyományos megközelítésen felül azonban néhány újabb eszközben alkalmazott
megoldások is beépítésre kerültek, valamint a rendszer tervezésekor a JavaScript nyelvre jellemező
elemek figyelembevételén is komoly hangsúly volt. Legjobb tudomásom szerint az elkövetkezőkben
bemutatásra kerülő eszköz az első, amely JavaScript-re alkalmazza a Genprog megközelítését, így
készítve rá patch-eket. Az elkészült javításokon alkalmazott kódmódosítások mind naplózásra kerülnek
így azok további elemzések alapjául szolgálhatnak. A GenprogJS automatikus programjavító eszköz
forráskódja publikusan elérhető Github-on egy előre konfigurált Docker környezet mellett, ahol
könnyedén ki is lehet azt próbálni. Az elkészült eszköz a BugsJS adatbázison kerül kiértékelésre,
ahol 11 egysoros hibát sikeresen javít.


12.10: Lékó Gábor: Transzmisszió alapú adaptív automatikus csőfeszültség választás a számítógépes tomográfiában

A számítógépes tomográfia (CT) egy széleskörűen használt, Röntgen-sugárzás alapú képalkotó modalitás
az orvosi vizsgálatok és az ipari nem-roncsoló tesztelések területén belül. Egészségügyi vizsgálatoknál
illetve gazdasági és környezeti okokból is egy fontos cél, hogy csökkentsük a felhasznált sugárzás
dózisát és, hogy optimalizáljuk a vetületkinyeréshez használt energia mennyiségét. Egy speciális esetnek
tekinthetjük az elnyúlt objektumokat, melyek elemzésekor egy konstans energiaspektrumú sugárzás nem
minden esetben nyújt realisztikus információt a vizsgált objektum belső felépítéséről. Ugyanis túl
kevés energia használatával előfordulhat, hogy a fotonok nem tudnak áthaladni az objektumon az elnyúlás
irányában. Míg ezzel szemben, ha túl nagy energiát használunk, akkor a fotonok elnyelődés nélkül
haladhatnak át az objektumon, merőlegesen az elnyúlt irányra. Egy megoldás lehet ilyen esetre, hogy
a különböző irányokból különböző energia szinteken nyerjük ki a vetületeket. Előadásomban egy olyan
adaptív automatikus csőfeszültség választó eljárást mutatok be, amely meghatározza a megfelelő
mennyiségű sugárzási energiát a vetületek képzése közben, csupán a vetületi információra támaszkodva.
Szimulációs szoftverben végzett kísérleti eredményekkel támasztom alá, hogy az adaptív módszer jobb
minőségű rekonstruált CT szeleteket tud előállítani, mindezt kevesebb energia felhasználásával.

12.20: Tasnádi Ervin: 3D Cell Annotator: félig automatizált módszer 3 dimenziós biológiai képek objektumszintű annotálásához

A biológiai képfeldolgozásban egyre nagyobb népszerűségnek örvendenek a 3 dimenziós sejtmodellek.
A modellekről készült 3 dimenziós felvételekkel kapcsolatban az egyik legfontosabb feladat az egyes
objektumok detekciója illetve példány alapú szegmentációja. A 2 dimenziós feladaton a legnagyobb
pontosságot elérő rendszerek konvolúciós neurális hálózatokkal operálnak, ugyanakkor ezen módszerek
több ezres elemszámú adathalmazokat igényelnek a megfelelő pontosság eléréséhez. A célunk az, hogy
a 2 dimenziós modelleket átültessük 3 dimenziós problémára, a tanításukhoz viszont jelenleg nem állnak
rendelkezésre megfelelő méretű adathalmazok. Jelen prezentációban a probléma megoldására elkészített
3D Cell Annotator szoftvert fogom bemutatni, mely az általunk korábban kifejlesztett level-set alapú
módszerekkel, és shape priorok használatával jelentősen lecsökkenti az egy objektumra számított
annotálási időt. A módszert a közelmúltben a Bioinformatics folyóiratban publikáltuk.

12.30: Szűcs Judit: Képrekonstrukció textúra és konvexitás priorokkal

A digitális képanalízisben rengeteg különféle alakleíró létezik, melyek közül a konvexitási mérték
széleskörűen elterjedt változat. Az úgynevezett kvadráns-konvexitás (Quadrant-convexity, Q-konvexitás)
néhány éve került bevezetésre, mely a képet egy egyszerű skalár értékkel ábrázolja.
Kutatásom során egy új, Q-konvexitás alapú lokális alakleírót definiáltam, mely előre meghatározott
ablakméret alapján hisztogramot számol a képre. Tesztelések alapján elmondható, hogy ez a megközelítés
akár pontosabb eredményeket is el tud érni az osztályozás során, mint az eredeti, globális
változaton alapuló módszer.


12.40: Vidács László: Programhibák automatikus javítási módszerei

A szoftverhibák előfordulásának becslésével, illetve a javítás költségeinek becslésével már
tekintélyes szakirodalom foglalkozik. A hibák automatikus javítása azonban csak néhány éve
tekinthető reális kutatási célnak. A kezdeti megoldások típushibákra korlátozódnak (sablon alapú
megközelítés), melyeket viszonylag könnyű felfedezni és kevés forráskód módosítással ki is lehet
javítani. A Bolyai kutatási témámhoz kapcsolódva bemutatom a tesztelés alapú hibajavítás területét,
kitérve egy genetikus programozáson alapuló módszerre, melyet elsőként mi adaptáltunk JavaScript
nyelven írt rendszerekhez. Ehhez kapcsolódva hiba lokalizációról, illetve szövegre és programkódra
is alkalmazható neuronhálós módszerekről is említést teszünk.


12.50: Kicsi András: Szöveges radiológiai leletek gépi értelmezése

A radiológiai vizsgálatok során számos különböző vizsgálati anyag készül, ezek között vannak képi
adatok is, ám a tényleges orvosi tudás végül szöveges formában jelenik meg. A radiológus jegyzi
fel a vizsgálatot dokumentáló leletet, illetve megállapítja a lelethez kapcsolódó, szaktudásán
és a leletben leírt tüneteken alapuló véleményét. A mesterséges intelligencia fejlődése már
ebben a folyamatban is nyomon követhető, hiszen a radiológus a leletek szöveges rögzítését gyakran
diktáló szoftverrel végzi. A leletek azonban mind gépi, mind kézi rögzítés mellett is gyakran
tartalmaznak hibákat, amelyek a gépi feldolgozásra nagy mértékben hatnak. A leletezést számos
irányból lehetne tovább támogatni új eljárások kidolgozásával, és erre a területre való alkalmazásával.
A munka jelen fázisában elsősorban magyar nyelven írt leletekkel és véleményekkel foglalkoztam, a
magyar nyelv speciális szabályaihoz igazodva. Elkészült főbb eredményeim a gépi értelmezést rontó
elírások és hibák automatikus keresése és javítása, a leletek gépi értelmezéséhez szükséges annotált
adatok minőségének javítására alkalmazott statisztikai alapú módszer, illetve a leletek értelmezését
támogató, nyelvi modellen alapuló azonosítási módszer.


13.00: Gera Imre: Kockázatmetrikák és portfóliómodellek vizsgálata mátrixszűrési eljárások mentén

Napjaink egyik sokat kutatott közgazdasági témája a portfólióoptimalizálás. A cél egy befektető
várható hozamának maximalizálása a kockázat minimalizálása mellett. Korábban már megmutatták,
hogy a probléma értelmezhető matematikai programozási feladatként (pl. a kockázat felírható egy
kovarianciamátrixszal), akkor az összeállított portfóliók teljesítménye a rendszert leíró mátrix
(pl. a kovarianciamátrix) szűrésével növelhető. Munkámban a meglévő, szakirodalmi módszerek mellett
új, eddig még nem használt technikákat is bemutatok egyrészt kovarianciamátrixok szűrésére, másrészt
a részvények számának korlátozására. A hierarchikus klaszterezésen alapuló módszereim valós adatokon
végrehajtva további javulásokat tudtak elérni a korábbi eljárásokhoz képest, valamint ezeket és a
meglévő klaszterező technikákat egy véletlen részvénykiválasztó stratégiával kombinálva még tovább
tudtam javítani a modell kockázatbecslését és realizált hozamait is.

13.10: Gosztolya Gábor: Automatikus számítógépes beszédelemzés magyar nyelven

A számítógépes beszédtechnológián belül egyre nagyobb figyelmet kapnak a beszéd nemverbális
tartalmának (pl. a beszélő neme, kora, érzelmei vagy akár egy beszélgetés konfliktusszintje)
automatikus elemzésére irányuló kutatások. Bár sokszor közvetlenül is alkalmazhatóak a
beszédfelismerési feladatra kidolgozott eljárások (elsősorban az előfeldolgozási lépések,
hiszen mindkét esetben emberi beszéd automatikus feldolgozását végezzük), gépi tanulási
szempontból a két terület gyökeresen eltér, így sokszor speciális eljárások kidolgozása
szükséges. Egy kritikus részfeladat szegmensszintű (pl. mondatszintű) jellemzők kinyerése,
mivel a változó hosszúságú hangfelvételeket azonos méretű jellemzőtérbe kell képeznünk; erre
egy hatékony eljárás az "akusztikus szózsák" (Bag-of-Audio-Words, BoAW) technika. A BoAW
metódusban ugyanakkor az a bevett eljárás, hogy a hangfelvételek modellezésére használt ún.
kódszavakat mindig az adott feladathoz rögzített felvételekből nyerjük ki, mely az új
feladatokra áttérést időigényessé és körülményessé teszi. Jelen előadásomban azon eredményeimet
ismertetem, melyeket a BoAW eljárás korpuszfüggetlenségének vizsgálatában értem el. A mért
osztályozási pontosságok alapján magyar nyelvű mondatokban a beszélő érzelmeit közel ugyanolyan
hatékonysággal lehetett azonosítani akkor is, ha a kódszavakat más (esetünkben német) nyelvű,
érzelmekben gazdag hangfelvételekből vagy általános magyar nyelvű hangfelvételekből nyertük ki.

13:20. Tóth László: A mély tanuláshoz, illetve annak beszédtechnológiai alkalmazásaihoz kapcsolódó eredmények disszeminációja a Szegedi Tudományegyetemen

A Bolyai kutatási tervem részeként 2019-2020-ban a mély neuronhálók némabeszéd-interfészekben való felhasználásával
foglalkoztam. A némabeszéd-interfészek az atrikulációt rögzítő felvételekből próbálják meg a beszédjelet
visszaállítani (articulatory-to-acoustic mapping). Esetünkben az artikulációt - alapvetően a nyelv mozgását -
beszéd közben az áll alá helyezett ultrahang-eszközzel rögzítjük, melynek redményeként egy videót kapunk.
Ebből a videóból kell minél pontosabban visszállítani a beszédjelet. Előadásomban bemutatom, hogy milyen neuronhálós
m,egoldásokkal próbálkoztunk ennek a műveletnek az elvégzéére, és milyen pontosságú eredményeket kaptunk.
Mivel az ÚNKP Bolyai+ pályázatom  témája a kapott eredmények disszeminációja volt, ezért röviden azt is bemutatom,
hogy a pályázat támogatásával milyen tudománynépszerűsítő előadásokat tartottam az elmúlt egy évben.