Google Photos & Nano Banana 2: KI-Bilder mit nahestehenden Personen
Google bringt seinen Photos-Dienst und das KI-Modell Nano Banana 2 näher zusammen, damit Nutzer einfacher Bilder mit nahestehenden Personen generieren können.
(Bild: Primakov / Shutterstock.com)
Weniger erklären, mehr gestalten: Google bringt seinen Photos-Dienst und das generative KI-Modell Nano Banana 2 näher zusammen, damit Nutzer einfacher Bilder generieren können, in denen ihnen nahestehende Personen und Objekte auftauchen. Die Funktion setzt allerdings voraus, dass der Nutzer Google über eine Funktion namens Personal Intelligence erlaubt, auf die persönliche Fotosammlung zuzugreifen.
Nano Banana 2 ist Googles Bildgenerierungsmodell für die Gemini-Familie und erschien im Februar 2026. Beim Start der ersten Version des Bild-KI-Modells war Nano Banana ein großer Erfolg: Nutzer luden massenhaft Fotos hoch, um digitale Miniaturfiguren auf Basis eigener Fotos zu erstellen.
Googles Vorteil gegenüber dem Wettbewerb
Was Datenschützer aufhorchen lassen dürfte, soll nach Darstellung Googles einen häufigen Anwendungsfall deutlich vereinfachen. Zugleich soll es die Gemini-App stärker auf den Nutzer zuschneiden – anstatt ein generisches Werkzeug für alle zu sein. Google hat hier den großen Vorteil, dass viele Nutzer die dafür nötigen Daten mit ihren Fotos sowieso schon bei Google hochgeladen haben. Das Unternehmen arbeitet zudem an einer Gemini-App für macOS, die Bildschirminhalte analysieren kann, um zur Konkurrenz aufzuschließen. Europäer müssen sich vorerst keine Gedanken darüber machen, ob sie die Opt-in-Funktion nutzen wollen: Hier ist die Personal Intelligence gegenwärtig noch nicht verfügbar.
Videos by heise
Bislang müssen Nutzer jeweils in ihren Prompts ausführliche Beschreibungen formulieren und Referenzbilder manuell hochladen, wenn sie zum Beispiel Familienmitglieder in KI-Bildern darstellen wollen. Die KI soll aus der persönlichen Fotosammlung aber sogar zu Prompts wie „Gestalte mein Traumhaus“ eine passgenaue Antwort finden.
Keine Verwendung fürs Modelltraining
Die Personal Intelligence soll anhand vergebener Tags und Personenmarkierungen erkennen, wer welche Person in der Fotosammlung ist. Auf diese Weise könnten Vorlagen für Familienmitglieder und Haustiere gefunden werden. Wenn das Ergebnis dennoch nicht gefällt, habe der Nutzer die Möglichkeit, per Texteingabe Korrekturen vorzunehmen oder alternative Referenzbilder auszuwählen. Wer sich fragt, warum genau die KI zum Beispiel eine Person auf eine bestimmte Weise darstellt, kann sich auch die von der KI gewählten Quellen anzeigen lassen.
Google betont, dass die privaten Google-Photos-Bilder nicht direkt zum Modelltraining verwendet werden sollen. Aktuell wird die Funktion erstmal nur für Abonnenten von Google AI Plus, Pro und Ultra in den USA bereitgestellt. Sie soll später auch für weitere Nutzergruppen freigegeben werden. Die im Januar 2026 eingeführte Personal Intelligence geht noch über die Verknüpfung mit Fotos hinaus: Sie verbindet Gemini wahlweise auch mit Gmail, Google Calendar, Drive, YouTube, Search, Maps und weiteren Google-Apps.
(mki)