World Quality Report: Fehlende Teststrategie bei IoT und große Durchdringung von DevOps

Im jährlichen World Quality Report geht es um den Umgang mit Anwendungsqualität und Testing-Verfahren. Defizite werden beim Internet der Dinge gesehen, DevOps und agile Prozesse werden übergreifend als Erfolgsfaktoren für besser Qualität ausgemacht.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
World Quality Report 2016
Lesezeit: 4 Min.
Von
  • Alexander Neumann
Inhaltsverzeichnis

Seit 2009 veröffentlichen Capgemini, Sogeti und Hewlett Packard Enterprise den World Quality Report, der die Ergebnisse einer weltweiten Befragung zur Anwendungsqualität und Testing-Verfahren zusammenfasst. In der diese Woche herausgegebenen neuen, achten Auflage setzen die Herausgeber das Hauptaugenmerk auf das Internet der Dinge – vielleicht kein Wunder, denn in diesem immer noch relativ jungen IT-Gebiet sind das Fehlen eine Teststrategie am ehesten nachvollziehbar. Eine große Hilfe zur Verbesserung wird hingegen vor allem in den Prinzipien von agiler Softwareentwicklung und DevOps gesehen, und selbst Techniken der künstlichen Intelligenz spielen mittlerweile eine Rolle.

Der World Quality Report umfasst wieder 80 Seiten.

Das Budget für Qualitätssicherung ist im Vergleich zum Vorjahr um vier Prozent auf 31 Prozent des gesamten IT-Etats gefallen – nachdem es innerhalb der letzten vier Jahre signifikant von 18 auf 35 Prozent gestiegen war. Trotz des Rückgangs prognostizieren die befragten Experten jedoch übereinstimmend einen erneuten Anstieg der Ausgaben auf 40 Prozent bis 2019. Deutschland zeigt sich an der Stelle qualitätsbewusster und liegt mit 33 Prozent Budgetanteil über dem weltweiten Durchschnitt. Diese Zahl dürfte in den kommenden drei Jahren auf bis zu 44 Prozent weiter wachsen, so die Reportautoren.

Für 85 Prozent der befragten Unternehmen stellen IoT-fähige Geräte einen integralen Bestandteil ihrer Geschäftsprozesse dar, doch verfügen hierin über zwei Drittel (68 Prozent) davon derzeit noch über keine Teststrategie. Es greifen offenbar die Beobachtungen, dass Unternehmen vermehrt vor der Herausforderung stehen, neue digitale Produkte und Services anzubieten, aber auch, dass sie Schwierigkeiten damit haben, zwischen Qualitätsansprüchen und Entwicklungsgeschwindigkeit einen gesunden Mittelweg zu finden.

Während die Einführungsrate agiler Testmethoden in Deutschland dem weltweiten Durchschnitt etwa entspricht, liegt die Nutzung von DevOps hier weit höher als in den befragten Unternehmen aus über 30 anderen Nationen. Hierzulande berichten 60 Prozent (weltweit 39 %) der Befragten, dass sie DevOps bei mehr als der Hälfte aller Entwicklungsprojekte anwenden.

Der Begriff DevOps aus "Dev" für Anwendungsentwicklung (Development) und "Ops" für IT-Betrieb (Operations) steht für das Zusammenrücken der beiden Bereiche mit dem Ziel, dass eine Organisation Software schneller und fehlerfreier erstellen und verfügbar machen kann.

Außerdem gewinnt die Sicherheit in Deutschland an Bedeutung. Security-Tests finden dabei vermehrt im Kontext des Internet der Dinge statt. Gängig sind Penetrationstests mit 54 Prozent (weltweit 43 %) und Applikationssicherheitstests mit 58 Prozent (weltweit 50 %). Zudem hoch im Kurs steht das Thema Offshoring, und zwar offenbar über alle Branchen hinweg. Was diesen Trend befeuere, sei weniger der Kostendruck als die Suche nach qualifiziertem Fachpersonal, so die Autoren des Reports.

Um den Roll-out neuer Produkte und Services weiter zu beschleunigen, setzen Unternehmen verstärkt auf agile Testing-Methoden und DevOps. Knapp die Hälfte aller Verantwortlichen (44 %) bezieht Testing-Teams allerdings nur widerwillig in die erste Planungsphase mit ein. Grund dafür ist die Befürchtung, Releasezyklen könnten sich deswegen verzögern.

Darüber hinaus erkennt der Report, dass die Schwierigkeiten mit der Implementierung von DevOps weit über den Punkt der Qualitätssicherung hinausreiche. Sollte es den Unternehmen nämlich nicht gelingen, Silostrukturen im Unternehmen aufzubrechen, liefen sie Gefahr, die Vorteile der Methode zu verspielen. Um die zusätzlichen Kosten der neuen Technologien auszugleichen, setzt die Hälfte der befragten Unternehmen auf Predictive Analytics. Damit wollen sie viele Testing-Schritte automatisieren.

Die Studie belegt, dass sich mittlerweile viele Unternehmen der künstlichen Intelligenz bedienen, um die Geschäftsabläufe effizienter zu gestalten und gleichzeitig Kosten zu senken. Die steigende Nutzung digitaler Technologien verschlingt große Teile des Budgets, was es Unternehmen anscheinend zunehmend erschwert, Innovation und Kosten in Einklang zu bringen.Knapp die Hälfte der befragten Unternehmen (48 %) gab an, an den gegensätzlichen Anforderungen unterschiedlicher Testumgebungen zu scheitern.

Als Lösungsansatz rät der Report zu größeren Investitionen in erkenntnisgestützte Qualitätssicherung. So sollen Qualitätsprobleme identifiziert und vorausgesagt werden, noch bevor sie entstehen.

Laut den Studienherausgebern nahmen rund 1600 CIOs, Verantwortliche für die Qualitätssicherung und Testing sowie Anwendungen, IT-Leiter, CDOs, CMOs, CTO, Produktverantwortliche an der Befragung teil. Die Sammlung der Daten erfolgte zweistufig durch computergestützte Telefoninterviews, gefolgt von qualitativen tiefergehenden Interviews. (ane)