Jelenlegi hely
Intézeti Szeminárium
A mesterséges neurális hálók számos tudományterületen megjelennek. Megfigyelhető, hogy bizonyos esetekben ezek a hálózatok is tévedhetnek. Gyakran az input kis torzítására már fals eredménnyel térnek vissza. Az ilyen hibák kiküszöbölésére számos módszer létezik. A robusztus tanítás már a tanítási folyamat alatt megpróbálja csökkenteni a háló sebezhetőségét és növelni az ellenállóképességet. Más technikák, a már kész hálókon történő ellenséges példa detektáláson alapulnak. Számos matematikailag korrektnek gondolt rendszer létezik ellenséges példák detektálására, de gyakran ezek implementálásakor a praktikusságra koncentrálnak, a numerikus hibák kiküszöbölése helyett. Ezek a numerikus hibák a hálózat működése közben is megjelennek és a rétegek alatt folyamatos felhalmozódnak, mely szintén hibás osztályozáshoz vezethet. A példák detektálására a MIPVerify az adott input képekhez, a lefixált perturbáció típus és hozzá tartozó korlát mellett keresi az adott korlátokon belüli, legközelebbi ellenpéldát és határozza meg azokat a perturbáció értékeket, melyekkel deformálva az eredeti inputot, már téves eredményt kapunk. A MIPVerify különböző MILP feladatok sorozataként fogalmazza meg a problémát, amelyek megoldására külső solverek alkalmazhatóak. A rendszer működéséből adódó pontatlansági hibák nagy része a lebegőpontos aritmetikából fakad. Az előadásunkban bemutatjuk a MIPVerify sebezhetőségeit, illetve mutatunk technológiákat melyek ezen sebezhetőségeket kezelik, miközben a hatékonyságából nem veszít.