Amazon-CEO: Eigenes Sprachmodell und Wachstum dank KI in der Cloud
Amazon will Alexa mit eigenem KI-Sprachmodell ausstatten – dem besten. Auch die Cloud-Sparte soll vom Bedarf wegen zunehmender KI-Anwendungen profitieren.
Künstliche Intelligenz soll Amazon gleich in mehrfacher Hinsicht zu noch mehr Erfolg führen. Zum einen wird die Sprachassistentin Alexa mit einem neuen Sprachmodell ausgestattet – und zwar einem eigenen. Zum anderen setzt Amazon darauf, dass wegen des zunehmenden KI-Einsatzes anderer Unternehmen auch die eigene Cloud-Sparte wächst – unter anderem. "Und meiner Meinung nach sind sich nur wenige Leute bewusst, wie viel größer das Cloud-Geschäft in den nächsten Jahren sein wird, weil uns eine Flut von maschinellem Lernen bevorsteht", sagt Andy Jassy, CEO von Amazon bei der Veröffentlichung der Quartalszahlen.
Jassy betont in einer Fragerunde auch, dass Machine Learning (ML), ein Teilbereich der Künstlichen Intelligenz (KI), bereits in nahezu allen Amazon-Diensten steckt. Auch Alexa käme freilich schon jetzt nicht ohne aus. Sie werde aber dank eines neuen, eigenen Sprachmodells zum "weltbesten persönlichen Assistenten". Das jedoch ist nur die Spitze des Eisbergs. Amazon investiere seit mehr als 25 Jahren in Machine Learning: Produktvorschläge, das System für die Warenbestände und -ausgänge in den Lagern, Drohnen und selbst die stationären Supermärkte kämen nicht ohne ML aus. Nun seien in den vergangenen sechs bis neun Monaten die großen Sprachmodelle und generative KI derart verbessert worden, dass sie in jede existierende und noch nicht existierende Kundenbeziehung einziehen können.
LLM, Chips und viel, viel Cloud
Amazon arbeite laut Jassy seit Jahren an einem eigenen großen Sprachmodell (LLM). Daneben gäbe es aber zudem weitere Bereiche, die für Amazons Geschäft relevant sind: LLMs laufen auf Chips, diese sind teuer und knapp. Daher arbeite Amazon seit Jahren auch an anpassbaren Machine-Learning-Chips, die für das Training genutzt werden: Trainium ist spezialisiert auf das Modell Inferentia. Beides ist aktuell in einer zweiten Version veröffentlicht worden. "Und die Kombination aus Preis und Leistung, die sie von diesen Chips erhalten, ist ziemlich ausgewogen und sehr wichtig", sagt Jassy. Er erwartet, dass viel Training über AWS laufe, also Amazons Cloud-Sparte.
Außerdem baut Amazon darauf, dass nur eine kleine Anzahl Unternehmen überhaupt LLMs anbieten können. Die Entwicklung eines eigenen Sprachmodells sei teuer. Entsprechend wird AWS ein Modell für Unternehmen anbieten, das an den eigenen Bedarf angepasst und für die eigenen Daten optimiert werden kann. Bedrock nennt sich die bereits angekündigte Plattform, über die man Foundation-Models (Basismodelle) verarbeiten kann, die dann wiederum via API in eigenen Anwendungen integriert werden. Ebenfalls integriert werden können LLMs anderer Anbieter wie von Anthropic und StabilityAI, die dann dennoch über AWS laufen und den Sicherheitsstandards sowie dem Privatsphärenschutz von AWS entsprechen, sagt Jassy.
Zu den Ankündigungen gehört auch ein Chatbot, der wie ChatGPT beim Programmieren helfen soll. Der CodeWhisperer befindet sich noch in einer Preview-Phase. Ähnlich wie GitHubs beziehungsweise Microsofts Copilot kann er Code auf Eingaben in natürlicher Sprache hin generieren.
Lesen Sie auch
xAI: Musks KI-Unternehmen sammelt sechs Milliarden Dollar bei Finanzierungsrunde
Internetunternehmer Sriram Krishnan wird Trumps Top-Berater fĂĽr KI
Generative KI: AWS identifiziert Trends mit Start-up-Förderung
Googles KI-Ăśbersichten ist immer noch nicht zu trauen
Webbrowser: Neuer Spam-Schutz auf KI-Basis in Chrome und Edge gesichtet
(emw)