Drei Fragen und Antworten: KI ist nichts für Citizen-Developer

Machen generative KI und Low Code den traditionellen Programmierer überflüssig? Das Gegenteil ist der Fall – was sich ändert, ist die Aufgabenteilung.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: iX)

Lesezeit: 5 Min.
Von
  • Harald Weiss

Schon seit geraumer Zeit zeichnet sich ab, dass Citizen-Developer mithilfe von Low Code nur sehr begrenzt komplexe Anwendungen entwickeln können. Stattdessen liegt deren Stärke in der Kombination von vorgefertigten Modulen, um damit ihre Business-Probleme anzugehen. Aber was ändert sich jetzt mit dem Einsatz von KI und neuen Datenstrukturmodellen? Wir sprachen darüber mit Rami-Habib Eid-Sabbagh, Direktor fürs Product Management bei Appian.

Herr Eid-Sabbagh, bei Low-Code-Plattformen für die Prozessautomatisierung herrscht geradezu eine Flut an GenAI-Funktionen. Aber ist das denn der richtige Weg – sind die viel gepriesenen Citizen-Developer damit nicht vielmehr überfordert?

Generell gesagt: Jede technische Neuerung bedeutet zunächst eine Belastung. Doch das legt sich nach kurzer Zeit wieder, weil die Anwender besser mit der Nutzung vertraut werden und sie die Vorteile erkennen. Und was die Citizen-Developer betrifft, so meine ich, dass sie die Objekte verwenden sollen, die von versierten Entwicklern erstellt wurden.

Wir haben praktisch eine zweistufige Struktur, in der wir von den Experten erwarten, dass sie komplizierte Aufgaben wie die Definition der Datenstruktur übernehmen, wogegen die Citizen-Developer entscheiden, welche Objekte für ihren jeweiligen Business-Case relevant sind. Bezogen auf KI bedeutet das, dass wir mit unseren Tools und den erfahrenen Entwicklern den Citizen-Developern einen einfachen und unkomplizierten Zugang zur Nutzung von KI in ihrem Aufgabenbereich ermöglichen.

Als Beispiel: Der Appian AI Copilot ermöglicht es den Entwicklern, mit wenigen Klicks eine Anwendungsschnittstelle direkt aus einem PDF heraus zu erstellen, was die weitere Softwareerstellung durch Citizen-Developer deutlich vereinfacht und beschleunigt.

Ihr Chef, Matt Calkins, hat in seiner jüngsten Keynote von einer "Private AI" gesprochen. Was ist darunter zu verstehen?

Zunächst einmal heißt das, dass der Datenschutz unsere Kunden bei uns höchste Priorität hat. Wenn man Daten in einer öffentlichen Cloud trainiert, gibt man nicht nur sensible und vertrauliche Kundeninformationen heraus, sondern möglicherweise auch Geschäftsgeheimnisse und Unternehmens-Know-how, das einen Wettbewerbsvorteil bietet. Immer mehr Organisationen und Unternehmen entscheiden sich dafür, ihre Unternehmensanwendungen mit sensiblen firmeneigenen und Kundendaten in einer privaten Cloud zu hosten. Das betrifft auch und gerade KI.

Wir empfehlen deshalb unseren Kunden dringend, ihre eigenen KI-Modelle zu verwenden, die innerhalb der Compliance-Grenzen ihrer Software oder ihres Cloud-Anbieters liegen und klare Zertifizierungen und Bescheinigungen darüber enthalten, wie die Daten verwendet, übertragen und gespeichert werden. Darüber hinaus gibt es auch handfeste Anwendungsgründe, die für eine ausschließliche Nutzung von internen Daten sprechen. Denken wir nur daran, dass sich die Daten und deren erlaubte Nutzung über der Zeit ändern. Man kann bei einem mit vielen Records trainierten Model nicht einfach eine Zeile heraustrennen, weil die darin enthaltenen Informationen nicht mehr verwendet werden dürfen. Knapp gesagt: Man kann ein Modell nicht partiell "rück-trainieren".

Der Ansatz einer Private AI bietet also nicht nur einen höheren Datenschutz, sondern ist auch effizienter, wenn es beispielsweise um die fortlaufende Anpassung an die sich stets ändernden Compliance-Auflagen geht. Darüber hinaus bieten wir unsere Private AI in einer einzigen Compliance-Grenze an. So können unsere Kunden beruhigt sein, wenn sie mehrere Anbieter in Betracht ziehen, denn sie wissen, wie ihre Daten zwischen denen übertragen werden. So können sie selbst für die Einhaltung der Compliance und den Datenschutz zwischen den Anbietern sorgen.

Die vielen neuen KI-basierten Erweiterungen der Appian-Plattform benötigen ein leistungsstarkes Large Language Model (LLM). Welches nutzen sie?

Wir sind technologieoffen, das ist eine unserer Grundregeln. Bei GenAI haben wir Partnerschaften mit Azure OpenAI, einschließlich ChatGPT, Pinecone und Amazon Bedrock; aber wir sind auch offen für andere KI-Produkte. Tatsächlich sind wir ein großer Anwender von leistungsstarken LLMs. Einige davon nutzen wir nur intern, beispielsweise zur Vektorisierung von Dokumenten, andere stellen wir unseren Kunden zur Verfügung, wie zum Beispiel den Appian AI Skill Designer für die Klassifizierung und Extraktion von E-Mails und Dokumenten. Außerdem können die Kunden mittels entsprechender APIs auch andere frei verfügbare LLMs ihrer Wahl einbinden.

Vielen Dank für Ihre Antworten, Herr Rami-Habib Eid-Sabbagh!

In der Serie "Drei Fragen und Antworten" will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.

(fo)