The talk will outline the succesful commerzialization of the Time-Triggered
Architecture(TTA) technology which provides a computing infrastructure for
the design and implementation of dependable distributed systems. The TTA
is foundation of TTTech, a succesful company whose software and hardware
products are being applied in automobile, aerospace and other industries.In
the TTA a large real-time application is decomposed into nearly autonomous
clusters and nodes and a fault-tolerant global time base of known precision
is generated at every node. This global time is used to precisely specify
the interfaces among the nodes, to simplify the communication and agreement
protocols, to perform prompt error detection, and to guarantee the timeliness
of real-time applications. The TTA supports a two-phased design methodology,
architecture design and component design. During the architecture design
phase the interactions among the distributed components and the interfaces
of the components are fully specified in the value domain and in the temporal
domain. In the succeeding component implementation phase the components
are built, taking these interface specifications as constraints. This two-phased
design methodology is a prerequisite for the composability of applications
implemented in the TTA and for the reuse of pre-validated components within
the TTA. This talk presents the architecture model of the TTA, explains the
design rational, discusses the time-triggered communication protocols TTP/C
and TTP/A, and illustrates how transparent fault-tolerance can be implemented
in the TTA.
A TCP/IP, mint az Internet alkalmazások protokollja, napjainkban a legelterjedtebb
kommunikációs protokollok egyike. Alapvetően az eseményvezérelt protokollok családjába
tartozik. A TTP/C ugyanakkor egy idővezérelt protokoll, amely valósidejű, hibatűrő
elosztott rendszerekben használatos. A TCP/IP alapú és a TTP/C alapú szolgáltatásoknak
egy elosztott rendszerben való integrációja azt ígéri, hogy mind az eseményvezérelt
megközelítés rugalmassága, mind pedig az idővezérelt architektúra megbízhatósága és
kompozicionalitása megtartható lesz. Abban az elosztott rendszerben, ahol mindkét
protokoll támogatott, a tervező az alkalmazások igényeinek megfelelően választhatja
ki a szükséges szolgáltatásokat. A sporadikus aktivitások, például monitorozás, távoli
diagnosztika és web-alapú konfigurálás jól kiszolgálható a TCP/IP segítségével. A TCP/IP
biztosítja a legjobb tudás szerinti (best effort) szolgáltatásokat, és rugalmasan használja
fel a rendelkezésre álló sávszélességet. A garantált átviteli késleltetést és minimális
ingadozást (jittert) igénylő valósidejű vezérlési adatokat viszont TTP/C-vel célszerű
kiszolgálni. Ez biztosítja a szükséges garanciákat, viszont minden esetben leköt egy
bizonyos sávszélességet. Az előadás során bemutatjuk a két protokoll integrációjának
problémáit, illetve előnyeit, valamint vázoljuk a lehetséges alkalmazási területeket.
A software architecture of a computing system is the structure or structures of the system,
which comprise software elements, the externally-visible properties of those elements,
and the relations among them. In the past decade, the study and practice of software
architcture has risen to prominence in the software engineering field, and with good reason:
An architecture forms the blueprint for a project and its development project, and an architecture
permits or precludes almost all of a system's quality attributes such as performance and modifiability.
This talk will survey the field of software architecture from a practitioner's point of view.
It will concentrate on three specific practices associated with architecture: using an architecture
to form the basis of a software product line; evaluating a software architecture to assess its
ability to deliver a system's required quality attributes; and documenting a software architecture
to serve its stakeholders.
Bemutatjuk az Object Management Group (OMG) által elkészített Model Driven Architecture (MDA)
definíció alapelveit, áttekintjük jelenlegi helyzetét és fejlődésének lehetséges irányait.
Az előadás kitér a koncepció kapcsolatára a már széles körben elterjedt egyéb szabványokkal
(pl.: UML) és módszertanokkal.
Megvizsgáljuk az MDA koncepció előnyeit, hátrányait, példák segítségével illusztráljuk
használatát zöld mezős fejlesztés és integrációs probléma megoldása esetén.
Az előadás második részében bemutatunk egy, az MDA koncepcióhoz illeszkedő Java framework-öt.
Az IQSOFT Java Framework (IQJFW) egy Java-ra alapozott, több rétegű alkalmazás fejlesztést támogató
keretrendszer. Egyedi tulajdonsága, hogy "használata" már a modellezés során megkezdődik rögzített
ábrázolással (tervezési mintákkal). A konvencióknak megfelelő modellből kódgenerátorok segítségével
az alkalmazás szerver oldali osztályai, az adatbázist létrehozó és karbantartó script-ek és a
felhasználói felület generálhatóak. (Természetesen a framework generátor nélkül is használható).
Adatkezelő alkalmazások esetén a fejlesztendő kód magas százaléka generálással előállítható.
Ismertetjük a framework kialakításának motivációját, használatának előnyeit. Áttekintésre kerül
a framework szerkezete (szerver- és kliens framework), alapvető működési módja. Megvizsgáljuk
a framework kapcsolatát az MDA koncepcióval és annak lehetséges MDA alapú kiterjesztését.
Now, there are lots of people who feel that the Waterfall Model is old fashioned or simplistic,
having long ago outlived its usefulness - the very name seems wrong, since water cannot "fall" uphill to
accommodate the backward arrows. All sorts of new models have been depicted to better show how the
"real world" works, or how software can be developed faster, or how customers can become more engaged
in the process to improve functionality. The Spiral Model, the Evolutionary Rapid Prototyping Model,
the "V"-Shaped Model and others have emerged to solve one issue or another.
Today, most practitioners might agree that there are so many different types of projects, a one size
SLC cannot possible fit all. The modern viewpoint is that unique projects require unique models,
or combinations of models to succeed. We will discuss the choice of appropriate SLC models, or
modified versions of SLC models, the real baseline for beginning software engineering. We will describe
several of the more modern SLC's (e.g. eXtreme, RUP), and how a project manager can decide which one
to use.
We will also explain what the various bodies of knowledge (e.g. PMBOK, SWEBOK) map to our life cycles.
A szoftverfejlesztési tevékenységet végző szervezetek egyik legfontosabb célkitűzése manapság,
hogy fejlesztési folyamataikat szabványos módon, módszertanilag megalapozva és a szervezet
sajátosságainak megfeleltetve végezzék, mivel a szabványos és testre szabott fejlesztési folyamatok
követése biztosítja, hogy a megrendelőhöz jó minőségű termék kerüljön.
Miért van szükség módszertanra és szakmailag megalapozott folyamatokra?
A folyamatok meghonosításának és alkalmazásának buktatói.
Egy lehetséges megoldás: Select Process Director
A Select Process Director a szoftver életciklus folyamatainak részletes definiálására szolgál,
lehetővé téve az MSZ ISO/IEC 12207 vagy tetszőleges szabványnak, módszertannak való megfelelést.
Demonstráció keretében mutatjuk meg, hogyan tudjuk a Select Process Directorral a szoftverfejlesztési
módszertant teljes technológiai mélységében specifikálni, dokumentálni. Példát adunk arra,
hogyan lehetséges előre definiált szabványosított folyamatmintákkal fejlesztési fázisok létrehozása,
testreszabása, nyomonkövetése és projektbe foglalása.
Web services technology is all about distributed computing. There is no fundamentally
new base concept behind this and related technologies. What is really new is the reach of Web
services and its ubiquitous support by literally all major vendors. Most likely, heterogeneity
will soon no longer be an obstruction for distributed applications. As we will discuss, this will
have impact on application architectures, as well as the way in which people will think about
computing and businesses will use computing resources.
In this presentation we review Data Persistence from various aspects.
We present most of the frequently used methodologies as well as architectural and design patterns.
To help architects and developers, we collected real-life examples and typical use scenarios for each case.
In the second part, we do a similar comparison on a lower level: API's.
Most well known API's are explained, compared and, similary to the patterns,
illustrated with real-life application samples.
These comparisons, naturally, don't have absolute winners.
Instead they show that these techniques are all usefull if applied to the proper situations.
Topics involved are Data Access Objects (DAO), Java Data Objects (JDO),
Entity Enterprise Java Beans (EJB) with Container and Bean Managed Persistence (CMP and BMP, respectively),
Object-Relational Mapping, etc.
"Securing Computing Infrastructure with Chains of Trust"
The topic of this lecture is a new view of information security and
trust technology. Trust is also about dependability, privacy,
data integrity and authentication. Trust is a system-class concept
that cannot be adequately addressed by point technologies. Rather,
trust has to be stitched into its fabric of communications and
computing infrastructure. This talk will suggest a path for
achieving this.
One solution for addressing trust in today's world is to build a
chain of trust where each link is strong but also connects to its
neighbor by verifying its trustworthiness. In particular, beginning
with a priori grounding in a physically trustworthy base, each link
of the chain checks signature-based trust tokens of its neighbor
before the chain is allowed to carry any weight. Such a chain
begins with processors and extends to operating systems to
applications to interconnect protocols, and ultimately, to end
users.
Such an architecture supports security as a quality of service
guarantee, a concept that opens a new and potentially important
business model for secure services.
Az előadás röviden elemzi az informatikai jelen helyzetét, az informatikát alkalmazó
szervezetek információktól való függésének fokát. Ez olyan szintet ért el, amelyben az
informatikai szolgáltatások kiesése az üzleti folyamatok kritikus leállásával járhat,
ennek rendszerszintű kezelése fontos és nagyon időszerű feladat. Az előadás további
részében az információbiztonság legfontosabb elemeit mutatjuk be, amelyek a felmerülő
kockázatok elemzésével mutatnak rá a rendszerek gyenge pontjaira. A továbbiakban az
információbiztonság szabályozásának rendszerszintű elemeit mutatjuk be, majd a gyakorlati
megvalósításokra mutatunk be valós példákat. Az előadásban bemutatjuk a szükséges
nemzetközi és hazai szabványok és szabványos megoldások legfontosabb eszközeit.
A legfontosabb érintett témakörök: információbiztonság, kockázatelemzés, kockázatok
kezelése, üzletmenet folytonossági tervezés, vészhelyzetek kezelése, katasztrófa
utáni helyreállítás
Eiffel covers a method, a language, libraries and a development environment,
intended to foster reuse, productivity and quality through a set of principles
including Design by Contract, Seamless Development, Uniform Access,
Command-Query Separation and a few others. This presentation will review the more original parts
of the approach, discuss their effect on the process of writing and maintaining software,
present applications, and preview some of the current developments in the language and environment.
In a second part it will extend the concepts to describe ongoing work focused on "Trusted Components"
-- reusable software components with a guarantee of quality -- and present steps towards a
Component Quality Model.
A komponens egyike a szoftver-szakma jelenleg legnépszerűbb, leggyakrabban használt fogalmainak.
A komponensekből építkező szoftverfejlesztés jelentős hatékonyságjavulással kecsegtet,
ugyanakkor komplex komponensek beépítése/felhasználása éles alkalmazásokba veszélyekkel is jár.
Az előadás bevezető részében néhány alapkérdést vetünk fel:
mik a szoftver-komponensek, hol keressük őket,
milyen eredményeket várhatunk ettől a technológiától,
mi az ismert fejlesztési paradigmák viszonya a komponens-alapú fejlesztéshez,
melyek a hatékony felhasználás technika, szervezési és egyéb feltételei,
hogy áll a világ a komponens-alapú fejlesztés területén.
A továbbiakban a fejlődést mozgató két jelentős centrum irányvonalát mutatjuk be részletesebben:
a JAVA és a .NET világát.
A JAVA világban megmutatjuk a komponensek szerepét és helyét,
tárgyaljuk a J2EE-t a komponensek szempontjából, valamint a middleware - részletesebben a CORBA - szerepét a
komponens-technológiában.
A .NET világban ugyancsak megmutatjuk a komponensek helyét és szerepét,
bemutatjuk a távoli komponensek kommunikációját, az XML szerepét, a .NET XML alapú Web szolgáltatását,
az együttműködés lehetőségeit a .NET és J2EE komponensek között,
a portlet és webpart alapú portál-rendszereket, valamint az együttműködés érdekében kidolgozott
WSPR szabványt.
Every engineering discipline is based on science and engineering practices.
Engineering practices include evidence as to the circumstances under which such
practices are applicable. In software engineering we lack evidence regarding
the effects of available techniques, methods and tools.
As a consequence project successes cannot be repeated,
repeats of project failures cannot be prevented.
This presentation introduces a partial theory of "software engineering evidence"
as well as an empirical methodology to collect such evidence in the software domain.
It will be explained why in a human-based discipline like software engineering we need to
include a large variety of types of evidence, and how empirical studies have to be
adjusted to the specific characteristics of software development.
Using the example of software inspections, interesting research results will be
presented which have led to industrial breakthroughs in quality and productivity increases.
Some of the industrial success stories will be illustrated. Finally, an agenda for research,
technology transfer and teaching & training will be discussed.
Egyre több magyarországi cég jut arra a következtetésre, hogy szoftverfejlesztést
(alkalmazásfejlesztést) nem lehet gazdaságosan végezni, a szoftverfejlesztési projektek
általában ráfizetésesek. Mi lehet ennek az oka, és mit lehet ellene tenni?
Az előadás első részében összehasonlítjuk és értékeljük a nemzetközi és a hazai
szoftverfejlesztési projektek gyakorlatát és eredményeit. Elemezzük a látókörünkbe
került jelentős számú projekt adatait csokorba gyűjtve a szoftverfejlesztési projektek siker-
(illetve kudarc-) tényezőit. A jobb eredmény érdekében tanáccsal próbálunk szolgálni két
olyan fontos sikertényező esetében, mint a szoftverfejlesztési projektek belső és külső
kapcsolatrendszere, illetve a projektbecslés módszerei.
A szoftver fejlesztési projektek menedzselésének sajátosságai és módszertana kapcsán a
forró témává váló off-shore fejlesztés szempontjaival arra is választ keresünk,
hogy a magyar szoftverfejlesztési tudással, projektjeinkkel rajta vagyunk-e a
szoftver fejlesztés világtérképén, illetve hogyan kerülhetünk rá.
Developing software is a risky
business. Avoiding risk is a no-win proposition
because risk is usually an indicator of value;
when there is no risk there is no value. We need
to learn to run TOWARD risk, not run away from
it. But when you're running toward risk you also
need to take certain reasonable precautions.
Thus was born the discipline of risk management.
In this brief tutorial, Tom DeMarco lays out the
how-to's of risk management and makes the case
for including this new discipline in your
organization.
The life of a software project manager is full of compromises - a
balance needs to be struck between time-to-market and quality, cost and
manageability, reusability and deadlines etc. As the four main variables
in a development process are time, cost, features and quality, a typical
project plan contains specifications for all of them. The "only" problem
is that they often contradict each other. As the project moves through
the schedule, the pressure on the participants increases, priorities
often change and the project manager is forced to cut corners in the
development process to save time and energy for other "useful" tasks.
The presentation gives an insight into the major elements of the
software development process at ScanSoft Recognita Corp. with real-life
experiences and into the ways we try to manage the described situation.
The concept of a verifying compiler was proposed in 1969 as a solution
to the problem of programming error. It automatically checks at compile
time that a program meets its specification, not just once, but every
time it will ever be run.
Such a compiler is still far from a reality. But the state of the art
has made significant progress since 1969. I suggest that its
implementation and validation on realistic programs could now be
regarded as a Grand Challenge, comparable in scale and difficulty to the
recently completed challenge of decoding the human genome. Perhaps it
will require world-wide participation and take fifteen years.
Nowadays the embedded devices are becoming very popular. These systems
have a limited runtime memory and storage capacity, therefore compilers
should contain very effective code size reduction approaches.
In case of embedded systems the optimization of the code for low energy
consumption is very important aspect as well. In this presentation we give an
overview on our optimization work of GCC compiler for code size. Furthermore we present
an on-line benchmark tool (CSiBE) developed at the Department of Software
Engineering at the University of Szeged. This tool has been widely used by GCC developers
in their daily work to help keep the size of the generated code as small as possible.