Anthropic erhöht Claude-Nutzung für KI-Abonnenten durch Kooperation mit SpaceX

Die Nutzungslimits für Claude-Abonnenten werden enorm angehoben, da sich Anthropic neue KI-Rechenkapazitäten bei SpaceX sichert - wohl bald auch aus dem All.

vorlesen Druckansicht 20 Kommentare lesen
Anthropic steht auf einem Smartphone, im HIntergrund Claude.

Anthropic steht auf einem Smartphone, im HIntergrund Claude.

(Bild: Stockinq/Shutterstock.com)

Lesezeit: 3 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Anthropic ist eine Partnerschaft mit SpaceX eingegangen und hat sich dabei einen Großteil der KI-Rechenkapazitäten in dessen großen Supercomputer Colossus gesichert. Gleichzeitig und vielleicht auch deshalb erhöht das KI-Unternehmen die Nutzungslimits für Abonnenten seiner KI-Modelle dramatisch. Anwender von Claude Code bekommen deutlich mehr Nutzungszeit, und das bisherige Limit in Spitzenzeiten wird aufgehoben. Zudem werden die API-Grenzen für Token von Claude Opus deutlich angehoben.

Der Grund dürfte im Zukauf neuer Rechenkapazitäten liegen. Bei seiner Fertigstellung im Herbst 2024 galt Colossus als womöglich schnellster Supercomputer der Welt und wurde zunächst für das Training von Grok, dem KI-Modell von xAI, genutzt. Doch jetzt schreibt Anthropic, dass sich die KI-Firma „die gesamte Rechenkapazität“ dieses Rechenzentrums gesichert hat. Das läuft demnach auf eine Rechenleistung von 300 Megawatt pro Monat hinaus, basierend auf mehr als 220.000 Nvidia-GPUs.

Die zusätzliche Rechenkapazität soll Abonnenten von Claude Pro und Max zugutekommen. Deshalb verdoppelt Anthropic nach eigenen Angaben die bisherige Tarifbegrenzung von fünf Stunden für Pro-, Max-, Team- und Enterprise-Abos von Claude Code. Pro- und Max-Abonnenten dieses KI-Agenten für Programmieraufgaben werden zudem von der Begrenzung in Spitzenzeiten befreit. Diese Upgrades sind ab sofort nutzbar.

Videos by heise

Für Claude Opus, das Mitte April in der Version 4.7 freigegeben wurde und Anweisungen substanziell besser befolgen soll, wurden die Token-Limits bei der Nutzung per API auch ab sofort dramatisch erhöht. In der niedrigsten Stufe (Tier 1) wurden die Input-Token mehr als verzehnfacht (von 30.000 auf 500.000 pro Minute) und die Output-Token exakt verzehnfacht (von 8000 auf 80.000 pro Minute). In der höchsten Stufe (Tier 4) sind es nun 10 statt 2 Millionen Input-Token pro Minute und 800.000 statt 400.000 Output-Token pro Minute.

Anthropic erwägt zukünftig auch die Nutzung von Rechenzentren im Weltall für die eigenen KI-Modelle. „Wir haben außerdem unser Interesse an einer Partnerschaft mit SpaceX zur Entwicklung einer orbitalen KI-Rechenkapazität von mehreren Gigawatt bekundet“, heißt es seitens der KI-Firma. Einen Zeitplan gibt es bislang nicht, aber bei der Übernahme von xAI samt Grok und X durch SpaceX im Februar 2026 hatte Konzernchef Elon Musk erklärt, dass der Erdorbit aufgrund der Sonnenenergie schon in wenigen Jahren der günstigste Ort für KI-Rechenzentren sein werde.

(fds)