Top 10: Die zehn beliebtesten Artikel auf heise Developer im Jahr 2023

Seite 2: Die Top 5

Inhaltsverzeichnis

(Bild: T. Schneider/Shutterstock.com)

Die Übernahme des inzwischen in X umbenannten Social-Media-Dienstes Twitter durch Elon Musk im Herbst 2022 hatte zahlreiche Nutzerinnen und Nutzer abwandern lassen. Vielen galt ein dezentrales Fediverse – und dort insbesondere Mastodon – als willkommene neue Heimat. Einige hegten gar die Hoffnung, Mastodon hätte das Zeug, Teil einer kritischen Infrastruktur zu werden. Softwarearchitekt und Blogger bei heise Developer Golo Roden wollte es genau wissen und nahm Mastodon vor allem im Hinblick auf die technische Basis genau unter die Lupe: Im Interview berichtet er über seine persönlichen Erfahrungen beim Aufbau einer Mastodon-Instanz für sein Unternehmen the native web. Dabei kommt er zu dem ernüchternden Fazit, dass Mastodon aus technischer Sicht – zumindest zum damaligen Zeitpunkt – noch nicht reif für den großen Ansturm gewesen sei. Als Kernproblem dahinter identifiziert Golo Roden allerdings die insbesondere bei Open Source verbreitete Gratismentalität der Nutzerinnen und Nutzer. Das Engagement der Entwicklerinnen und Entwickler alleine reiche nicht, um solche Systeme dauerhaft mit einer skalierbaren Infrastruktur zu betreiben und zu pflegen – es brauche auch ein angemessenes Bezahlmodell.

(Bild: Pixels Hunter/Shutterstock.com)

In seinem Continuous-Architecture-Blog bei heise Developer stellte Eberhard Wolff die provokante Frage, ob Developer die natürlichen Feinde der Softwarearchitektur seien? Inspiriert zu der These hat ihn seine langjährige Erfahrung als Architekt und Berater, der in Projekten immer wieder erleben musste, dass Entwicklerinnen und Entwickler nicht das gleiche Ziel verfolgen wie die Softwarearchitektur. Im Hinblick auf zufriedene Anwenderinnen und Anwender sollte das erklärte gemeinsame Ziel aber sein, die richtigen Features zu implementieren und dabei möglichst unkomplizierten Code zu verwenden, der eine hohe Qualität und die Umsetzung der Architektur gewährleistet. In der Praxis stehen diesem Ziel aber häufig gerade jene als "gut" zertifizierten Developer entgegen, die zwar ein hohes Maß an Kompetenz in der Programmierung mitbringen, dadurch aber vor allem zu immer höherer Komplexität beitragen – die wiederum einer "sauberen" Architektur eher im Weg steht.

(Bild: chana/Shutterstock.com)

Im Rahmen der Reihe "Young Professionals schreiben für Young Professionals" vermittelt Clemens Sielaff in seinem kurzen Tutorial, welche "Magie" beim asynchronen Programmieren hinter dem Keyword await steckt. Es lässt schwierigen, asynchronen Code wie linearen erscheinen, ohne dabei die Komplexität preiszugeben, die sich hinter dem Begriff verbirgt. Sielaff vergleicht dazu beispielhaft den Einsatz einer Async-Library in Python, die auf das Keyword await verzichtet, mit Code, der await mit dem Python-Standardmodul asyncio nutzt.

(Bild: ThisisEngineering RAEng / Unsplash)

Wie schon die heise-Developer-Blogger Golo Roden und Eberhard Wolff gibt auch Stefan Mintert mit einer provokanten Frage Anlass zur Diskussion. Muss ein Scrum Master etwas von Softwareentwicklung verstehen? ließe sich schlicht mit "Nein" und dem Zusatz "es kann aber nicht schaden" beantworten. Denn zu den primären Aufgaben des Scrum Masters gehört es, die Kommunikation im Team erfolgreich zu managen. Aus Sicht der Developer findet die projektrelevante Kommunikation allerdings nicht nur in den typischen Scrum-Meetings statt, sondern eben auch in Pull Requests (PRs), aus denen sich Scrum Master üblicherweise heraushalten. Im Sinne einer konstruktiven und effizienten Kommunikation rät Stefan Mintert – aus eigener Erfahrung – dazu, dem Scrum Master Einblick in die PRs und die dort geführten Diskussionen zu verschaffen.

(Bild: Yurchanka Siarhei / Shutterstock.com)

Wenn schon das Kamel nicht durch das Nadelöhr passt, vielleicht lässt sich trotzdem ein LLaMA in die Westentasche packen? Mit der Vorstellung des eigenen großen Sprachmodells LLaMA (Large Language Model Meta AI) kam der Facebook-Mutterkonzern Meta dem Launch von GPT-4 durch OpenAI im Frühjahr 2023 drei Wochen zuvor. Daraufhin ging Christian Winkler für heise Developer der Frage nach, ob sich ein solches mit offenen Daten vortrainiertes, großes Sprachmodell auch auf dem eigenen Rechner lohnend einsetzen lässt. Obwohl ChatGPT und GPT-4 komfortabel zu nutzende APIs bereitstellen, bieten sie außer über Prompts keinerlei Einflussmöglichkeiten – die Modelle sind rein Blackboxen. LLaMA eröffnet dahingehend viel mehr Freiheiten und Möglichkeiten, zumal sich die verschiedenen Varianten des Modells auf zahlreichen Plattformen betreiben lassen – mit Einschränkungen sogar auf einem Raspberry Pi. Vor allem aber mache es Spaß, mit einem eigenen Modell zu interagieren und zu überprüfen, was es kann und was nicht, resümiert Winkler. Auch der Lerneffekt beim Ausprobieren verschieden großer Modelle und deren technischen Anforderungen sei enorm.

Zum Abschluss dieser Top 10 wünschen wir allen Lesern und Leserinnen schöne Feiertage und einen guten Start in das Jahr 2024.

(map)