Ein persöhnlicher Laienkommentar:
Ganz frĂŒher hat man noch Menschen beauftragt, die logische Ăberlegungen und Berechnungen "hĂ€ndisch" durchfĂŒhren. Manche waren besser (weniger Fehler) andere waren schneller. Dann hat man die Rechenmaschinen endeckt, die Leute damit arbeiten zu lassen hat komplizierte Berechnungen beschleunigt und die Fehlerrate wurde auch geringer.
Mit Taschenrechnern und Computern wurde es dann noch mal besser und schneller. (sofern das Personal noch gut genug in deren Bedienung geschult ist)
Gerade in guten Computerprogrammen können auch allerlei Fehler durch automatische PrĂŒfungen (gegenproben) vermieden werden auĂerdem sollte jedes errechnete Ergebnis nachvollziehbar sein.
Heutzutage, hat man selbstlernende KIs endeckt (in der Hoffnung den langsamen Menschen mit seinen Kosten, und Fehlerraten ganz aus der Gleichung zu nehmen) und viele Entscheider sowie Investoren halten es einfach fĂŒr die nĂ€chste Stufe der universellen technischen Wunderwaffen. Schneller sind sie auch und gut in der Mustererkennung. Nur bei der Fehlerraten sind sie den Menschen doch wieder zu Ă€hnlich (teilweise auch erheblich schlechter) und wie deren Ergebnisse zustandekommen, wissen nichteinmal die Programmierer.
AuĂerdem fehlt ihnen meist jedes grundlegende VerstĂ€ndniss fĂŒr logische ZusammenhĂ€nge, womit gut ausgebildete Menschen, meist fast automatisch, eine Gegenprobe der Ergebnisse durchfĂŒhren um grobe und systematische Fehler in den Ergebnissen zu finden.
"Lass das doch ne KI machen."
Da kann ja nix schief gehen. đ