Einfach und sicher – vorkonfigurierte KI-Entwicklung mit Docker

Docker stellt vorkonfigurierte KI-Anwendungen vor, mit denen Entwicklerinnen und Entwickler einfach und sicher KI-Modelle in Projekte implementieren.

In Pocket speichern vorlesen Druckansicht
Container,Ship,In,The,Ocean,At,Sunset,Sky,Background,With

(Bild: Aun Photographer / Shutterstock.com)

Lesezeit: 2 Min.

Docker hat auf der DockerCon, seiner Hausmesse in Los Angeles, mit den beiden Werkzeugen GenAI-Stack und Docker AI eine großangelegte KI-Initiative ergriffen. Mit den Apps im GenAI-Stack binden Entwicklerinnen und Entwicklern auf einfache und sichere Weise vorkonfigurierte KI-Komponenten in ihre Projekte ein. Das Paket besteht aus vorbereiteten Large Language Modellen (LLMs), Vektor- und Graph-Datenbanken und dem LangChain-Framework. Docker AI hingegen unterstützt Anwenderinnen und Anwender kontextbezogen beim Konfigurieren der Docker-Systeme.

Das Stack-Paket enthält generative Anwendungsfälle, die Entwicklerinnen und Entwickler in ihren Projekten weiterverarbeiten. Es basiert auf vertrauenswürdigen Open-Source-Inhalten des Docker Hub. Im Detail:

  • Vorbereitete LLMs wie Code Llama/Llama 2, GPT-3.5/4 und Mistral.
  • Ollama für lokale Open-Source-LLMs.
  • Neo4j Graph- und Vektordatenbank als Langzeitspeicher für Modelle. Die Anwendung findet darüber hinaus explizite und implizite Muster in Daten und beschleunigt Modelle.
  • LangChain-Orchestrierung zwischen LLM, der Anwendung und der Datenbank.
  • Unterstützende Tools, Code-Vorlagen und Anleitungen zu bewährten, generativen KI-Verfahren.

Entwicklerinnen und Entwickler erstellen damit Vektorindizes für Fragen und Antworten, fassen Daten zusammen und zeigen Suchergebnisse als Knowledge Graphen. Antworten erscheinen in Formaten wie Aufzählungen, Gedankengängen, GitHub-Problemen, PDFs oder Gedichten. Das KI-Paket liegt als Repository im Learning Center in Docker Desktop vor.

Mit Docker AI, dem zweiten Teil der KI-Initiative, veröffentlicht der Hersteller sein erstes, eigenes KI-gestütztes Produkt, das Anwenderinnen und Anwendern beim Konfigurieren des Docker-Systems hilft, zum Beispiel beim Erstellen der Dockerfiles oder beim Debuggen der Konfiguration. Dabei arbeitet es kontextbezogen mit Best-Practice-Vorschlägen, ähnlich wie GitHub Copilot beim Programmieren. Die KI basiert auf dem Wissen von Millionen Docker-Entwicklungen und ist in einem Early-Access-Programm verfügbar.

(who)