Im AI-Act wird nämlich eine feste Grenze festgelegt, mit wie vielen FLOPs ein Basismodell trainiert werden darf, bevor es als "systemic risk" eingestuft wird, ohne zu berücksichtigen, dass sich die Hardware weiterentwickelt und diese Zahl irgendwann als klein angesehen wird. Wer sein Modell mit mehr als 10^25 FLOPs trainiert hat, könnte dann eventuell für seine Nutzer haftbar gemacht werden, was die Motivation ein Modell freizugeben wohl senken dürfte.
Das Posting wurde vom Benutzer editiert (08.08.2024 14:34).