Jelenlegi hely

UNKP Informatikai konferencia

Szegedi Tudományegyetem,
Természettudományi és Informatikai Kar, Informatikai Intézet

IIdőpont: 2019.06.04. 15:00-16:10

Helyszín: SZTE Bolyai Intézet, Szeged, Aradi vértanúk tere 1. Haár terem

Levezető elnök: Tóth László

 

Program:

 

15:00-15:10: Katona Melinda: Biomarkerek automatikus szegmentálása OCT felvételeken

 

Napjainkban a gazdaságilag fejlettebb társadalmakban az időskori látásromlás egyik vezető oka az időskori makuladegeneráció. A betegség felismerésében és a kezelés hatékonyságának megítélésében meghatározó és elengedhetetlen szerepe van az Optikai Koherencia Tomográf (OCT) vizsgálatnak, mely képes a retina szövetrétegeinek nagy felbontású keresztmetszeti képeit előállítani. Bemutatok egy új eljárást mely képes a betegség biomarkereiként megjelenő szubretinális hiperreflektív anyag és pigment epitel leválás automatikus lokalizálására és szétválasztására a kvantitatív jellemzők kinyerése érdekében. Mivel az algoritmus teljesen automatikus, az orvosnak nem kell a rendkívól időigényes kézi kontúrozásokat elvégezni, valamint az emberi pontatlanságok is kiküszöbölhetőek.

 

15:10-15:20: Csuvik Viktor: Szöveges hasonlóság alkalmazása az automatikus programjavítás területén

 

Bár a szoftver minőségmérés egy igen jól kutatott terület, nem tudjuk biztosítani, hogy egy program hibamentes legyen. A minőség meghatározása persze elég szubjektív, mégis manapság egy jól bevett gyakorlatnak számít a szoftvertesztelés. A tesztelés elsődleges célja a defektusok felismerése, hogy később ezeket a hibákat ki tudjuk javítani. Mindazonáltal a hibák javítása emberi erőforrást igényel és általában időigényes feladat, így igen költséges. Az automatikus programjavítás pontosan erre próbál megoldást kínálni azáltal, hogy a tesztelés során lokalizált hibákat emberi beavatkozás nélkül javítja ki. A javítás általános menete három részből áll: (1) tesztesetek alapján a hiba lokalizálása, (2) javítás elkészítése, és (3) a potencionálisan javított program ellenőrzése, melyek közül az (1) és (3) pontokkal fogunk foglalkozni behatóbban az előadás során. A tesztesetek kritikus jelentőségűek az egész folyamatban, hiszen egyrészt ezek segítségével lehet megtalálni a hibát, másrészt nagy szerepet játszanak a javítás elkészítése során is. Egy nagy szoftverrendszer több ezer tesztesettel is rendelkezhet, melyek célja az idő során feledésbe merülhet. Bemutatok egy megközelítést, mely kideríti a teszt- és kódosztályok közötti kapcsolatokat, ezáltal azok szerepe érthetőbbé válik. A mai programjavító eszközök kimenetei még elég bizonytalanok, abban az értelemben, hogy a javított programok gyakran kézi ellenőrzésre szorulnak. Mivel a cél eleve az emberi tényező kivonása volt a folyamatból, ez nem túl előnyös. Az előadás második felében arról lesz szó, hogy a potenciálisan javított programok közül hogyan sikerült kiszűrni a helytelen szoftvereket. A két megközelítés nagyban épít a forráskódon mért szöveges hasonlóságra, melynek mérésére több technikát is megvizsgálunk.

 

15.20-15.30: Tóth László: A mély tanuláshoz, illetve annak beszédtechnológiai alkalmazásaihoz kapcsolódó eredmények disszeminációja a Szegedi Tudományegyetemen

 

A Bolyai kutatási tervem részeként 2019-2019-ben az ún. ellenséges multi-taszk gépi tanulási módszerrel foglalkoztam, illetve annak alkalmazásával a beszédfelismerő rendszerek beszélőfüggetlenségének növelése területén. Előadásomban bemutatom, hogyan lehet az ellenséges multi-taszk tanulási technológia alkalmazásával a beszédfelismerő rendszerek pontosságát 3-5 százalékkal növelni. A technológia továbbfejlesztése céljából a módszer címkézetlen adatokon, felügyelet nélküli tanulási technikákkal működő verzióival is kísérleteztem. Ezekkel kicsit kisebb, de szintén szignifikáns hibacsökkenést értem el. Mivel az ÚNKP Bolyai+ pályázatom témája a kapott eredmények disszeminációja volt, ezért röviden bemutatom, hogy a pályázat támogatásával milyen tudománynépszerűsítő előadásokat tartottam az elmúlt egy évben.

 

15.30-15.40: Gera Imre: Dimenzióredukciós heurisztikák részvénypiaci korrelációs mátrixokra

 

Napjaink egyik legtöbbet kutatott tőkepiaci témája a portfólió optimalizálás. A probléma elsődleges célja, hogy egy befektető tőkéjét úgy diverzifikáljuk a piacon elérhető részvények között, hogy a befektetés kockázata minimális legyen, mégis mindeközben egy adott hozamot produkáljon. Harry Markowitz 1952-ben bemutatott alapművében adott egy megoldást erre a problémára. Az elmúlt évek során számos munkában foglalkoztak a részvénypiaci hozamok záróáraiból képzett kovariancia-, illetve korrelációs mátrixszal, amely egyrészt a Markowitz-modell egy központi eleme, másrészt a különböző részvények együttmozgásának egy leírása. Kutatásom során a portfóliókiválasztás problémáját tanulmányoztam a korrelációs mátrixokon alkalmazott különböző szűrési eljárások alkalmazásán keresztül. Kísérleteim során többféle megközelítést is alkalmaztam, többek közt a véletlen mátrixok elméletetét (RMT) és a hierarchikus klaszterezés módszerét. Megadtam továbbá egy saját szűrési heurisztikát is, amely konfigurációs modelleken alapszik. Elemzéseimet bootstrap Monte-Carlo kísérletek segítségével hajtottam végre egy közel 500 részvényt lefedő adathalmazon. A bemutatott szűrési módszerekkel összeállított portfóliókat különböző teljesítménymutatók segítségével összehasonlítottam. A klasszikus bootstrap szimulációs elemzéseim azt mutatták, hogy a becsült (optimalizált), valamint a realizált kockázat, illetve a Sharpe-hányados is javultak az eredeti modellhez képest.

 

15.40-15.50:Lékó Gábor: A vetületválasztás skálafüggetlensége a bináris tomográfiában

A folytonos rekonstrukciós technikák, mint a szűrt visszavetítés vagy az algebrai rekonstrukció általában több száz vetületet igényelnek a megfelelő minőségű kép előállításához. Számos alkalmazásnál gyakran feltételezhető, hogy a rekonstruálandó objektum csak néhány, előre ismert elnyelési együtthatójú anyagból áll, így a rekonstruálandó képen csak néhány, előre ismert szürkeintenzitási érték jelenhet meg. Erre a többlettudásra építve már kidolgozhatók olyan rekonstrukciós algoritmusok, melyek csak kevés vetületet használnak. Amennyiben kevés vetületből szeretnénk elvégezni a rekonstruálást, akkor komoly feladat annak az eldöntése, hogy mely vetületeket használjuk fel. Ezen feladat elvégzésére születtek meg a vetületválasztó eljárások. A közelítő keresések is elég sok időt vehetnek igénybe a megfelelő vetületek kiválasztására, illetve elfordulhat az is, hogy nem áll rendelkezésünkre nagyfelbontású szkenner. Munkám során azt vizsgáltam, hogy hogyan befolyásolja a vetületválasztást a rekonstruálandó kép- illetve a vetületek felbontásának csökkentése. Felvetek két megközelítést a probléma vizsgálatára, valamint bemutatom, hogy hogyan lehet automatizálni a felbontás csökkentését, illetve ajánlok néhány gyakorlati alkalmazási lehetőséget.

 

15.50-16.00: Szűcs Judit: Képrekonstrukció topológiai és geometriai priorokkal

 

A képrekonstrukció során az eredeti képet kívánjuk előállítani annak vetületei alapján. A hagyományos képrekonstrukciós módszerek több száz vetületet igényelnek, azonban az alapvető diszkrét tomográfiai módszerek már kevés vetületből is jó eredményt adhatnak, de egyéb prior információk nélkül sokszor még ez sem kielégítő a gyakorlati alkalmazások szempontjából. Arra keressük a választ, hogy mely prior jellemzők bizonyulhatnak sikeresnek és melyek az elvethetők. A 10 hónapos ösztöndíj során 2 ilyen jellemzőt vizsgáltam, melyek eredményeit az előadásomban mutatom be.

 

16.00-16.10: Bánhelyi Balázs: Optimalizáló eljárás fejlesztése és alkalmazása nehéz feladatokon Bolyai ösztöndíjas kutatás intézményi hasznosulása

 

A kutatási területem 2 fő irányra bontható, de közös alkotó elem az optimalizálás. Az egyik irány a megbízható számítások alkalmazása főként nehéz matematikai feladatokon. Ezekben az esetekben az adott feladatot optimalizálási problémává alakítjuk és a keresés során az optimalizáló eljárásokat használjuk. A másik irány a kimondottan optimalizálási kérdések megoldása. Ilyeneket végeztünk főként ipari partnereinknek. De a fizikai feladatokon végzett optimalizálási feladataink is kapcsolódnak távolabbról ipari alkalmazásokhoz. Ilyen például a kvantumelektronikai kutatásokban és alkalmazásokban egy-foton forrásként alkalmazott gyémánt színcentrumok fluoreszcenciájának erősítésére szolgáló mag-héj nanorezonátorok optimális paramétereinek meghatározása. Mindkét területen a diákok bevonása megtörténhet, mellyel az intézet kutatási potenciálja növekszik. Kisebb feladatokat kaptak, melyeket az előadásomban bemutatok. Az előadás további részében bemutatom egyéb népszerűsítő tevékenységeimet.