Software Engineering Konferenz 2009 – Teil 2
Tags: konferenz
Kategorie Promotion | 1 Kommentar »
Gestern hatte ich schon vom ersten Tag der Hauptkonferenz berichtet. Da das Wetter nicht besser geworden ist, gibt es auch diesmal keine Bilder, sondern wieder nur viel Text. Aber da hier natürlich nur Akademiker lesen, ist das ja auch ok, gell?
Der Tag begann mit der Keynote von Oliver Mäckel von Siemens. Der Titel des Vortrags war „Know Risk – Know Fun“, was natürlich auch im doppelten Sinne gemeint war. Herr Mäckel berichtete über die Projektcontrolling Ansätze bei Siemens, mit denen man zu verhindern versucht, dass Projekte aus dem Ruder laufen. Dabei zeigte er einige imposante Techniken, die man so sicher nur in den wenigsten Projekten findet. So fragt er z.B. Projektmitarbeiter nach möglichen Risiken sowie deren Einschätzung der Kritikalität dieser Risiken ab. Alle Einschätzung der verschiedenen Projektmitarbeiter stellt er dann grafisch dar. Wenn sich z.B. eine sehr große Streuung bei dieser Darstellung ergibt, schließt Herr Mäckel daraus, dass im Projektteam noch keine Klarheit über die Risiken besteht. Ein paar Leute, die im Publikum hinter mir saßen, raunten sich zu, dass das statistischer Nonsense sei. Es mag zwar sein, dass seine Methoden nicht statistisch sauber sind, aber darum geht es ihm auch nicht. Vermutlich steckt dahinter eher die Idee die Projektmitarbeiter zum Denken über die Risiken anzuregen. Es wird also ein weiches Ziel verfolgt, das pseudowissenschaftlich daher kommt. Sozusagen ein Wolf im Schafspelz :-)
Herr Mäckel hatte ein paar gute Visualisierungen in seinem Vortrag, um seine Punkte zu unterstreichen. So wollte er z.B. betonen, dass die grafische Visualisierung von Daten enorm wichtig sei. Dies demonstrierte er, indem er zunächst eine Tabelle mit Werten zeigte und daraufhin die grafische Darstellung: eine Sinuskurve. Auch ansonsten hatte er ein paar gute Tricks parat, deren man sich selbst bedienen kann. Er brachte z.B. die Anekdote, dass die für die einzelnen Komponenten verantwortlichen Ingenieure den Astronauten der Apollo Mondmission persönlich versichern mussten, dass ihre Komponente frei von Risiken sei. Gut fand ich auch den Hinweis, dass man früher pro CPU viele Nutzer hatte (Mainframe). Mit dem Personal Computer wurde das Verhältnis auf 1:1 umgestellt und heute ist es sogar umgekehrt: In einem modernen Auto stecken zig CPUs, nur um einen Menschen zu bedienen.
Insgesamt betonte Herr Mäckel immer wieder, dass er mit der Qualität von Systemen prinzipiell zufrieden sei und das ganze Gejammer für übertrieben hält. Aus seiner Sicht gibt es immer eine gewünschte Qualität. Das von ihm geforderte Risikomanagement muss demnach bewerten (in Euro!), welche Risiken bei Nichterreichung dieser Qualität bestehen.
Weiter ging es mit einem völlig anders gelagerten Vortrag. Der Ministerialrat Rainer Jansen vom Forschungsministerium (BMBF) erläuterte die Förderungsphilosophie des Ministeriums am Beispiel der IKT 2020. Der Vortrag unterschied sich schon allein deswegen grundlegend von allen anderen Präsentationen, da er ohne jegliche Visualisierung durchgeführt wurde. Es gab keine Präsentation und auch keine Folien. Man merkte deutlich, dass hier ein Politiker spricht, der seine Worte bewusst wählt. Aus den ursprünglich eingeplanten 30 Minuten wurden dann auch rund 50 Minuten, was aber aus meiner Sicht nicht wirklich schlimm war. Aus dem Mund eines Vertreters des Forschungsministeriums klingt die Forschungsförderung logisch und nützlich. Anstatt wie bisher einzelne Vorhaben ohne Bezug zu anderen Projekten zu fördern, konzentriert sich das BMBF nun auf Schlüsseltechnologien und investiert in diese signifikante Beträge. Damit dies funktionieren kann, steht man natürlich vor dem Dilemma, die entscheidenden Technologien von Morgen zu erkennen. Hier muss sich das BMBF auf die Sachkenntnis der Wissenschaftler und Wirtschaftsbosse verlassen. Der geneigte Leser erkennt hier sicher einen gewissen in sich geschlossenen Kreislauf…
Ich möchte die ganze Thematik nicht wirklich kommentieren, da ich nicht genügend Abstand dazu habe. Interessant waren einige Wortmeldungen in der anschließenden Fragerunde. Der erste Frager wollte lediglich seine Freude darüber ausdrücken, dass es noch Bundesstellen gibt, bei denen nicht 1 Milliarde Euro die kleinste Einheit ist. Ein Vertreter eines mittelständischen Unternehmens stellte fest, dass das BMBF sich auf die Förderung der Grundlagenforschung konzentrieren sollte. Dem widersprach Herr Jansen mit dem Verweis, dass es unterschiedliche Förderinstrumentarien gibt. So fördert die DFG (Deutsche Forschungsgemeinschaft) primär die Grundlagenforschung, während sich das BMBF auf die angewandte Forschung konzentriert. Insgesamt kein leichtes Thema, aber zumindest ein gutes Zeichen, dass das offen diskutiert werden konnte.
Vom restlichen Tag sind eigentlich nur 2 Vorträge hängengeblieben. Sven Apel von der Uni Passau stellte eine Studie zu Techniken im Produktlinienmanagement vor. Ich persönlich hab nie wirklich tiefer in dieses Gebiet geschaut, weshalb ich nicht groß mitreden kann. Nach Aussage von Sven Apel lassen sich alle Techniken grob in die 2 Kategorien Komposition und Annotation einteilen. Bei der Komposition versucht man die einzelnen Features einer Software in eigene Komponenten zu verlagern, die man dann miteinander kombinieren kann. Bei der Annotation wird der Quelltext z.B. mit Präprozessoranweisungen präpariert, dass bestimmte Features rausfallen, wenn sie nicht benötigt werden. Man kennt dies z.B. von den #ifdef Anweisungen in C/C++. In seiner Arbeit hat er nun untersucht, in welchen Einsatzszenarien welche Kategorie von Werkzeugen besser geeignet ist. Sein langfristiges Ziel ist es, die Vorteile beider Kategorien zu vereinen, indem er hybride Werkzeuge schafft. Sein nächster Schritt auf diesem Weg ist die Kombination der Werkzeuge FeatureHouse und CIDE.
Beim Vortrag von Lars Borner von der Uni Heidelberg über den richtigen Testfokus hatte ich eher eine Metaerkenntnis. Mir fiel wieder einmal auf, dass viele PhDs unheimlich große und komplexe Frameworks aufbauen. Marwane ist auch ein typischer Vertreter dafür. Ich hingegen habe dies nicht getan, da ich es frustrierend finde, ein Framework aufzustellen, was ich dann doch nur zu vielleicht 10% während meiner Doktorarbeit umsetzen kann. Wahrscheinlich prallt hier Bottom-Up (ich) auf Top-Down (die anderen) Ansatz aufeinander. Oder ich habe einfach was falsch gemacht – kann auch sein ;-) Update: Dieser Absatz soll natürlich nicht als Wertung verstanden werden, welcher Ansatz nun besser oder schlechter ist. Ich wollte einfach nur feststellen, dass es scheinbar unterschiedliche Herangehensweisen gibt.
Am Nachmittag hatte ich dann noch meinen Vortrag. Zum Inhalt gibt es nächste Woche Details. Mein Paper dürfte besser gewesen sein als der Vortrag selbst. Wieder mal zu wenig Zeit es wirklich ordentlich vorzubereiten. Naja, ich dürfte mich noch ganz gut durchgerettet haben. Vielleicht hat ja ein Leser mich gesehen und kann hier mal Feedback geben…
Müsste ich ein Fazit zur Konferenz geben, würde ich sagen, ich habe einen gemischten Eindruck. Es waren nur sehr wenige wissenschaftliche Arbeiten und viele davon sicher auch nicht auf sehr hohem Niveau (mich eingeschlossen natürlich). Von einigen Industrievertretern konnte ich in der Mittagspause auch Enttäuschung raushören. Allerdings sollte man eben auch nicht erwarten, dass man bei einer Konferenz Produktideen kostenlos abstauben kann. Es könnte aber sein, dass die deutsche Gemeinde der Software Engineering Fans einfach zu klein ist, um eine jährliche Konferenz zu veranstalten. Vielleicht muss man doch langfristig darüber nachdenken, die Konferenz mit einer anderen GI Hauptkonferenz zu verschmelzen. Aber schauen wir einfach mal, was in den nächsten Jahren noch kommt…
[…] einiger Zeit versprach ich in meinem Bericht über die diesjährige deutsche Software Engineering Konferenz auch meine Arbeit hier vorzustellen. Im Gegensatz zu den sonst hier üblichen Themen hat sich das […]