Ansicht umschalten
Avatar von amagde
  • amagde

mehr als 1000 Beiträge seit 19.01.2012

die Hoffnung auf lebbare MĂĽhelosigkeit und Planlosigkeit

Ich sehe den derzeitigen KI-Hyper immer wieder in Zusammenhängen, die mir den Eindruck vermitteln, dass es den meisten darum geht, keine organisatorischen Aufwendungen aufbringen zu müssen, die eigene Planlosigkeit einfach ignorieren zu können und ohne eigenen Mühen selbst Dinge zu schaffen, für die sie dann den Applaus auf ihrer Seite sehen wollen.
Wenn ich auf ein paar themenübergreifende Projekte zurückblicke, dann war das eigentlich immer eine organisierte Gruppenleistung. Man hat es in bearbeitbare Teile zerlegt, Anforderungen festgestellt, benötigte Expertisen herausgearbeitet und dann an die Spezialisten die Aufgaben verteilt.
Ich kann keine Grafiken, also geht die Anpassung des Logos an das Projekt an den Grafiker, nach einiger Zeit habe ich ein optisch und technisch perfektes Ergebnis. War ja nicht schwer fĂĽr den, nur kann ich es nicht. Die Grafik ich mir natĂĽrlich nicht ans Revers heften und zu allem Ăśberfluss musste ich das frĂĽhzeitig ins Projekt planen, weil da groĂźe Auslastung war.
Der KI-Apologet hingegen meint, sich diese Organisation, Interaktion, ggf. Kosten und - in meiner Erfahrung - das Teilen der Lorbeeren sparen zu können. Also lässt er sich die Grafik von der KI generieren und sich dafür feiern.
Das ist nur leider ein Weg, der schnell ins Abseits führt und einen zum Schluss mit einem gefühlt und kommuniziert eigenen Ergebnis plötzlich als eher mittelklassig dastehen lässt, weil man das Problem mit der Grafik nicht mal erkannt hat, auf die man da so stolz war.
Gerade erst erlebt. Inklusive der Erstreaktion vom KI-Könner, die Diskussion über die Gestaltung für einen Erfolg zu halten, einen Ausdruck seiner Innovativität. Bis es halt zerlegt wurde und der Rest des Tages von der Frage dominiert wurde, warum da niemand eingebunden wurde, der weiß was er tut.
Ăśbrigens eine Kritik, die strikt abgewiesen wurde, weil ja alles perfekt ist und die Fachleute das nur nicht sehen wĂĽrden.
Was mir auch allgemein so ein Trend zu sein scheint, dass da noch irgendwas anderes reinspielt, eher so auf der psychischen Ebene.
Anderer Fall, auch gerade erst erlebt: Eine Projektleitung verkündet, dass sie sich den Code für dies und jenes ja von der KI machen lassen könne. Das sei alles kein Problem und gehe total schnell, da rennt das Projekt dann ganz von selbst.
Nach einer kleinen Diskussion wurde dann deutlich, dass es als zu große Mühe empfunden wurde, die zu lösenden Probleme so zu beschreiben, dass die Programmierer im Haus die annehmen würden. Die hätten viel zu große Ansprüche.
Hab ich nichts mehr von gehört, allerdings shon mitbekommen, dass es als massiv unfair und "rückständig" kommuniziert wurde, dass man nicht _allen_ die Arbeit so erleichtern könnte.
Wäre ja auch zu schön, wenn man die Arbeit einfach von einer KI machen lassen könnte, statt sich selber irgendwie zu mühen.
Funktioniert nur leider nicht. Zumindest, wenn das Ergebnis nachher auch standhalten soll.
Was ich dazu gesehen habe, platzte aber viel schneller. Weil das Ergebnis im besten Fall halt nur sein könnte, wie die Anforderungen es hergeben. Und das verträgt sich nicht mit der KI-Philosophie "die macht das schon".

Meine eigenen Versuche mit der KI liefen eher im Bereich der Erstellung von Texten ab. Da machten die Ergebnisse auf den ersten Blick einen ganz ordentlichen Eindruck. Gut, bis auf die aus dem Nichts hinzuerfundenen Teile. Keine formellen Fehler, nicht die üblichen, beim Tippen vergessenen Worte, sprachlich alles schön rund.
Bei genauerem Hinschauen war das aber nichts außer Hochglanzformulierung mit eingebauten Inhaltszerstörern. Es scheint ja mittlerweile normal zu sein, dass Menschen Texte nicht negativ aufstoßen, die sich bei genauer Betrachtung inhaltlich selbst widersprechen oder schwurbelnd inkonsistent werden. Das geht nur in bestimmten Bereich nicht, z.b. bei dokumentativ eingesetzten Texten. Und oft kommt es eben auch auf die Kleinigkeiten an.
Fand ich dann besser, eigene MĂĽhen zu investieren, als einer "KI" das zu ĂĽberlassen, die ganz offnsichtlich inhaltlich ĂĽberhaupt gar nichts versteht.
In Gesprächen mit Kollegen sei sowas aber nur einer Frage der Version der KI und natürlich wird das alles viel besser.
Wird es nicht. Nicht solange das inhaltliche Verständnis komplett fehlt. Und das bleibt bei den LLMs als Problem bestehen.
Es gibt sogar Kollegen, die das Problem nicht verstehen und erstellte Texte voll super finden.
Offensichtlich aber halt Kollegen, die das inhaltlich auch nicht verstehen und denken, dass man das einfach nach der Form bewerten und für toll befinden könne.
Die gemeinsame Erkenntnis im engeren Kollegenkreis war dann auch, dass man KI auch für Texte ganz wunderbar benutzen könnte. Aber nur, wenn diese für Meetings oder Reporte an die Bereiche gedacht sind, die eigentlich überhaupt keine Ahnung von der Sache, aber das letzte Wort über jede Entscheidung haben.
Da ist es einfach egal, was man denen vorsetzt - Hauptsache, es klingt wie ein Hochglanzartikel im Managermagazin.
Dagegen spricht dann nur, dass oft aus verschiedensten Bereichen zum selben berichtet werden muss. Da müsste man also noch einmal eine KI über alles laufen lassen, damit das Bullshit-Bingo nicht zu auffällig durcheinander kommt.

Das Posting wurde vom Benutzer editiert (30.06.2024 10:10).

Bewerten
- +
Ansicht umschalten