Auf dieser Seite wird beschrieben, wie Sie Ihre Kataloginformationen importieren und auf dem neuesten Stand halten.
Die Importverfahren auf dieser Seite gelten sowohl für Empfehlungen als auch für die Suche. Nach dem Import von Daten können beide Dienste diese Daten verwenden. Sie müssen also nicht dieselben Daten zweimal importieren, wenn Sie beide Dienste verwenden.
Sie können Ihre Produktdaten aus BigQuery importieren oder die Daten in der Anfrage inline angeben. Alle diese Verfahren sind einmalige Importe, mit Ausnahme der Verknüpfung des Merchant Center. Planen Sie regelmäßige Katalogimporte (idealerweise täglich), um sicherzustellen, dass Ihr Katalog auf dem neuesten Stand ist.
Weitere Informationen finden Sie unter Katalog auf dem neuesten Stand halten.
Sie können auch einzelne Produktelemente importieren. Weitere Informationen finden Sie unter Produkt hochladen.
Hinweise
Bevor Sie mit dem Importieren Ihres Katalogs beginnen, müssen Sie Folgendes tun:
- Ihr Projekt einrichten
- Erstellen Sie ein Dienstkonto.
- Fügen Sie das Dienstkonto Ihrer lokalen Umgebung hinzu.
Weitere Informationen finden Sie unter Voraussetzungen für die Einrichtung.
Überlegungen zum Katalogimport
In diesem Abschnitt werden die Methoden, die für den Batch-Import Ihrer Katalogdaten verwendet werden können, sowie einige der zugehörigen Methoden und Einschränkungen beschrieben.
BigQuery | Beschreibung | Importieren Sie Daten aus einer zuvor geladenen BigQuery-Tabelle, die das Vertex AI Search for Commerce-Schema verwendet. Kann mit der Google Cloud -Konsole oder curl ausgeführt werden. |
---|---|---|
Wann er genutzt wird |
Wenn Sie Produktkataloge mit vielen Attributen haben. Für den BigQuery-Import wird das Vertex AI Search for Commerce-Schema verwendet, das mehr Produktattribute als andere Importoptionen hat, einschließlich benutzerdefinierter Schlüssel/Wert-Attribute.
Wenn Sie große Datenmengen haben. In BigQuery gibt es kein Datenlimit. Wenn Sie BigQuery bereits verwenden. |
|
Beschränkungen | Erfordert den zusätzlichen Schritt, eine BigQuery-Tabelle zu erstellen, die dem Schema von Vertex AI Search for Commerce zugeordnet ist. | |
Cloud Storage | Beschreibung |
Importieren Sie Daten im JSON-Format aus Dateien, die in einen Cloud Storage-Bucket geladen wurden. Jede Datei kann maximal 2 GB groß sein und kann bis zu 100 Dateien gleichzeitig importieren. Der Import kann mit der Google Cloud -Konsole oder mit curl erfolgen. Verwendet das JSON-Datenformat Product , das benutzerdefinierte Attribute zulässt.
|
Wann er genutzt wird | Wenn Sie in einem einzigen Schritt eine große Datenmenge laden müssen. | |
Beschränkungen | Nicht ideal für Kataloge mit häufigen Bestands- und Preisaktualisierungen, da Änderungen nicht sofort wirksam werden. | |
Inline-Import | Beschreibung |
Importieren Sie mit einem Aufruf der Methode Product.import . Verwendet das ProductInlineSource -Objekt, das weniger Produktkatalogattribute als das Schema von Vertex AI Search for Commerce bietet, aber benutzerdefinierte Attribute unterstützt.
|
Wann er genutzt wird | Wenn Sie einfache, nicht relationale Katalogdaten oder eine hohe Häufigkeit von Mengen- oder Preisaktualisierungen haben. | |
Beschränkungen | Es können maximal 100 Katalogelemente gleichzeitig importiert werden. Es können jedoch viele Ladeschritte ausgeführt werden. Es gibt kein Limit für Elemente. |
Tutorials
In diesem Abschnitt werden verschiedene Methoden zum Importieren von Katalogen mit Video- und Shell-Anleitungen beschrieben.
Videoanleitung
In diesem Video erfahren Sie, wie Sie einen Katalog mit der Retail API importieren.
Anleitung zum Importieren von Katalogen aus BigQuery
In dieser Anleitung erfahren Sie, wie Sie eine BigQuery-Tabelle verwenden, um große Mengen an Katalogdaten ohne Einschränkungen zu importieren.
Anleitung zum Importieren eines Katalogs aus Cloud Storage
In dieser Anleitung erfahren Sie, wie Sie eine große Anzahl von Artikeln in einen Katalog importieren.
Anleitung zum Importieren von Katalogdaten inline
In dieser Anleitung wird gezeigt, wie Sie Produkte inline in einen Katalog importieren.
Best Practices für den Katalogimport
Für hochwertige Ergebnisse sind hochwertige Daten erforderlich. Wenn in Ihren Daten Felder fehlen oder Platzhalterwerte anstelle von tatsächlichen Werten vorhanden sind, leidet die Qualität Ihrer Vorhersagen und Suchergebnisse.
Achten Sie beim Importieren von Katalogdaten darauf, die folgenden Best Practices zu implementieren:
Achten Sie darauf, primäre Produkte und Varianten sorgfältig zu unterscheiden. Bevor Sie Daten hochladen, lesen Sie den Abschnitt Produktebenen.
Ändern Sie die Konfiguration auf Produktebene erst, nachdem Sie einen erheblichen Aufwand für den Import von Daten betrieben haben. Primäre Artikel (nicht Varianten) werden als Suchergebnisse oder Empfehlungen zurückgegeben.
Beispiel: Wenn die primäre SKU-Gruppe V-Shirt ist, gibt das Empfehlungsmodell ein V-Shirt und möglicherweise auch Shirts mit Rundhals- und U-Ausschnitt zurück. Wenn jedoch keine Varianten verwendet werden und jede Artikelnummer eine primäre Artikelnummer ist, wird jede Farb- oder Größenkombination des V-Ausschnitt-Shirts als separater Artikel im Empfehlungsfeld zurückgegeben: Braunes V-Ausschnitt-Shirt, Größe XL, Braunes V-Ausschnitt-Shirt, Größe L bis Weißes V-Ausschnitt-Shirt, Größe M, Weißes V-Ausschnitt-Shirt, Größe S.
Sammlungen können zusammen erkannt werden, sofern neben den primären Produkt-IDs auch Varianten-IDs in
collectionMemberIds[]
enthalten sind. Dadurch wird eine Produktgruppe erfasst, aus der ein Nutzer ein oder mehrere Produkte im Set gekauft haben kann. Das gesamte Set wird dem Kauf gutgeschrieben. So können demselben Nutzer bei einer zukünftigen ähnlichen Anfrage andere Produkte in einer bestimmten Sammlung präsentiert werden.Beispiel: Ein Nutzer hat bereits einen Bettbezug gekauft. Daher werden passende Produkte aus einer Bettwäschekollektion wie Kissenbezüge zurückgegeben.
Beachten Sie die Importbeschränkungen für die Produktelemente.
Für den Bulk-Import aus Cloud Storage darf die Größe jeder Datei maximal 2 GB betragen. Sie können bis zu 100 Dateien gleichzeitig in eine einzelne Bulk-Importanfrage einbeziehen.
Für den Inline-Import können Sie maximal 5.000 Produktelemente gleichzeitig importieren.
Achten Sie darauf, dass alle erforderlichen Kataloginformationen enthalten und korrekt sind. Verwenden Sie keine Platzhalterwerte.
Fügen Sie so viele optionale Kataloginformationen wie möglich hinzu.
Achten Sie darauf, dass für alle Ereignisse eine einzige Währung verwendet wird, insbesondere wenn Sie mit derGoogle Cloud -Konsole Umsatzmesswerte abrufen möchten. Die Vertex AI Search for Commerce API unterstützt nicht die Verwendung mehrerer Währungen pro Katalog.
Halten Sie Ihren Katalog auf dem neuesten Stand, idealerweise täglich. Durch die Planung regelmäßiger Katalogimporte wird verhindert, dass die Modellqualität im Laufe der Zeit sinkt. Sie können automatische, wiederkehrende Importe planen, wenn Sie Ihren Katalog über die Search for Commerce Console importieren. Alternativ können Sie für die Automatisierung von Importen den Google Cloud Scheduler verwenden.
Erfassen Sie keine Nutzerereignisse für Produktelemente, die noch nicht importiert wurden.
Überprüfen Sie nach dem Import der Kataloginformationen die Informationen zu Fehlerberichten und Logging für Ihr Projekt. Wenn Sie mehr als einige wenige Fehler finden, sollten Sie diese überprüfen und alle Prozessprobleme beheben, die zu den Fehlern geführt haben.
Die Pipeline für die Datenaufnahme von Vertex AI Search for Commerce umfasst sowohl Produktkatalog- als auch Nutzerereignisdaten. Dieser Datenstrom bildet die Grundlage für ein robustes Modelltraining und eine kontinuierliche Bewertung durch Feedbackmechanismen. Die genaue und vollständige Aufnahme von Daten ist nicht nur eine Voraussetzung, sondern ein fortlaufender Prozess, der für die Anpassungsfähigkeit der zugrunde liegenden Modelle unerlässlich ist. Das wiederum wirkt sich direkt auf die Qualität und Relevanz der Suchergebnisse aus und bietet einen erheblichen Return on Investment.
Berücksichtigen Sie beim Entwerfen Ihrer Lösung für die Suche im Handel die folgenden Best Practices für die Datenaufnahme.
Bulk-Import, Echtzeit-Streaming oder beides?
Vertex AI Search for Commerce bietet zwei primäre Methoden für die Katalogaufnahme:
Bulk-Import
Streaming in Echtzeit
Dieser duale Ansatz berücksichtigt die unterschiedlichen architektonischen Anforderungen verschiedener Kunden-Back-Ends. Sie müssen sich nicht für eine Methode entscheiden. Es ist auch ein hybrider Erfassungsmodus möglich, bei dem je nach Bedarf sowohl der Bulk-Import als auch Streaming-Updates verwendet werden.
Bulk-Importe sind ideal, wenn Sie Tausende von Produkten gleichzeitig hinzufügen, löschen oder aktualisieren möchten. Echtzeit-Streaming ist dagegen ideal, wenn kontinuierliche Aktualisierungen für eine relativ geringe Anzahl von Produkten erforderlich sind. Die Wahl zwischen diesen Methoden hängt von der Art Ihres Produktkatalogs, der Häufigkeit von Aktualisierungen und der Gesamtarchitektur Ihrer Backend-Systeme ab.
Die Funktion für den Massenimport unterstützt drei verschiedene Datenquellen:
- BigQuery: BigQuery ermöglicht eine schnelle Änderung von Katalogdaten, die Angabe von Partitionsdaten beim Import und eine effiziente Datentransformation durch SQL-Abfragen.
- Google Cloud Storage: Cloud Storage erfordert die Einhaltung bestimmter Formate wie JSON und Dateibeschränkungen. Nutzer sind für die Verwaltung von Bucket-Strukturen, das Aufteilen von Dateien in Chunks und andere Aspekte des Importvorgangs verantwortlich. Außerdem kann die direkte Bearbeitung des Katalogs in Cloud Storage umständlich sein. Sie ist zwar potenziell kostengünstig, aber weniger flexibel als andere Methoden.
- Inlinedaten: Bei umfangreichen Katalogen sind Inline-Importe aufgrund von Größenbeschränkungen möglicherweise nicht die skalierbarste Option. Verwenden Sie sie nur für kleinere Aktualisierungen oder experimentelle Tests.
Bei Szenarien mit einer großen Anzahl von Produktkatalogaktualisierungen (Tausende von Produktänderungen, ‑ergänzungen oder ‑löschungen) innerhalb eines kurzen Zeitraums und in regelmäßigen Abständen kann ein kombinierter Ansatz aus Bulk-Importen und Echtzeit-Streaming sehr effektiv sein. Stellen Sie die Aktualisierungen in BigQuery oder Cloud Storage bereit und führen Sie in regelmäßigen Abständen, z. B. stündlich oder alle zwei Stunden, inkrementelle Bulk-Importe durch. Mit dieser Methode lassen sich umfangreiche Updates effizient verwalten und Unterbrechungen minimieren.
Bei kleineren, selteneren Aktualisierungen oder solchen, die sofort im Katalog berücksichtigt werden müssen, sollten Sie die Echtzeit-Streaming-API verwenden. Beim Hybridansatz kann Echtzeit-Streaming die Lücken zwischen Bulk-Importen schließen und so dafür sorgen, dass Ihr Katalog auf dem neuesten Stand bleibt. Diese Strategie bietet ein ausgewogenes Verhältnis zwischen einzelnen REST API-Aufrufen (zum Patchen von Produkten) und Bulk-Änderungen. So werden sowohl Effizienz als auch Reaktionsfähigkeit bei der Verwaltung Ihres Vertex AI Search for Commerce-Katalogs optimiert.
Branching-Strategien für die Katalogverwaltung
Sie sollten einen einheitlichen Katalog in einer einzigen Filiale führen, anstatt unterschiedliche Kataloge in mehreren Filialen zu haben. Dadurch werden Katalogaktualisierungen optimiert und das Risiko von Inkonsistenzen beim Wechseln von Zweigen verringert.
Die folgenden gängigen Branching-Strategien sind für die Katalogverwaltung effektiv.
Aktualisierungen für einzelne Filialen
Legen Sie einen Live-Zweig als Standard fest und aktualisieren Sie ihn kontinuierlich, wenn sich der Katalog ändert. Verwenden Sie für Bulk-Aktualisierungen die Importfunktion in Zeiten mit geringem Traffic, um Unterbrechungen zu minimieren. Verwenden Sie Streaming-APIs für kleinere, inkrementelle Aktualisierungen oder fassen Sie sie für regelmäßige Importe in größeren Blöcken zusammen.
Zweigwechsel
Es gibt verschiedene Möglichkeiten, verschiedene Branches zu verwalten:
Branches für Staging und Überprüfung verwenden:
- Einige Entwickler von Commerce-Websites entscheiden sich für einen Ansatz mit Branch-Wechsel, bei dem der Katalog in einem nicht aktiven Branch aktualisiert und dann zum Standard- (aktiven) Branch gemacht wird, wenn er für die Produktion bereit ist. So kann der Katalog für den nächsten Tag im Voraus vorbereitet werden. Aktualisierungen können per Bulk-Import oder Streaming in den nicht aktiven Zweig vorgenommen werden. So ist ein nahtloser Übergang bei geringem Traffic möglich.
- Die Wahl zwischen diesen Strategien hängt von Ihren spezifischen Anforderungen, der Aktualisierungshäufigkeit und der Infrastruktur ab. Unabhängig von der gewählten Strategie ist es jedoch entscheidend, einen einheitlichen Katalog in einer einzelnen Filiale zu führen, um eine optimale Leistung und einheitliche Suchergebnisse in Vertex AI Search for Commerce zu erzielen.
Zweige für Sicherungen verwenden:
- Ein einzelner Live-Branch konzentriert sich auf die kontinuierliche Aufnahme und Verarbeitung von Produktaktualisierungen, um den Index von Vertex AI Search for Commerce nahezu in Echtzeit auf dem neuesten Stand zu halten.
- Ein weiterer Zweig konzentriert sich auf die Erstellung eines täglichen Snapshots der transformierten Daten in Retail Search. Er dient als robuster Fallback-Mechanismus bei Datenbeschädigung oder Problemen mit Zweig 0.
- Ein dritter Zweig konzentriert sich auf das Erstellen eines wöchentlichen Snapshots des transformierten Datums. So kann der Kunde eine Sicherung vom Vortag und eine Sicherung von vor einer Woche in verschiedenen Zweigen haben.
Katalogzweige dauerhaft löschen
Wenn Sie neue Katalogdaten in einen vorhandenen Branch importieren, muss der Katalogbranch leer sein, damit die in den Branch importierten Daten nicht beschädigt werden. Wenn der Branch leer ist, können Sie neue Katalogdaten importieren und den Branch mit einem Händlerkonto verknüpfen.
Wenn Sie Live-Vorhersage- oder Suchanfragen verarbeiten und planen, Ihren Standardzweig zu löschen, sollten Sie zuerst einen anderen Zweig als Standard festlegen. Da der Standardzweig nach dem Bereinigen leere Ergebnisse liefert, kann das Bereinigen eines aktiven Standardzweigs zu einem Ausfall führen.
So löschen Sie Daten aus einem Katalogzweig:
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“Wählen Sie im Feld Branch-Name einen Katalogzweig aus.
Wählen Sie im Dreipunkt-Menü neben dem Feld Branch-Name die Option Branch löschen aus.
Es wird eine Meldung angezeigt, in der Sie gewarnt werden, dass Sie alle Daten im Zweig sowie alle für den Zweig erstellten Attribute löschen.
Geben Sie den Zweig ein und klicken Sie auf Bestätigen, um die Katalogdaten aus dem Zweig zu löschen.
Ein Vorgang mit langer Ausführungszeit wird gestartet, um Daten aus dem Katalogzweig zu löschen. Wenn der Löschvorgang abgeschlossen ist, wird der Status des Löschvorgangs in der Liste Produktkatalog im Fenster Aktivitätsstatus angezeigt.
Bestandsaktualisierungen in Vertex AI Search for Commerce
In diesem Abschnitt wird beschrieben, wie Sie Vertex AI Search für die Commerce-Leistung optimieren, indem Sie regelmäßig Inventaraktualisierungen durchführen.
Streaming in Echtzeit
- Für dynamische Daten wie Inventarinformationen (Preis, Verfügbarkeit) und Details auf Geschäftsebene, einschließlich Erfüllungsstatus und geschäftsspezifischer Preise, ist Echtzeit-Streaming die einzige Option in Vertex AI Search for Commerce.
- Dieser Unterschied ergibt sich aus der hohen Frequenz von Inventarschwankungen im Vergleich zu den relativ statischen Produktkatalogdaten. Die Produktverfügbarkeit kann sich mehrmals täglich ändern, während Beschreibungen oder Attribute relativ konstant bleiben.
- Die Häufigkeit von Aktualisierungen auf Geschäftsebene nimmt mit der Anzahl der Einzelhandelsstandorte weiter zu.
Asynchrone Updates
- Um mit diesem rasanten Tempo Schritt zu halten, werden in Vertex AI Search for Commerce asynchrone Inventaraktualisierungen mithilfe von APIs verwendet, die eine Job-ID zurückgeben.
- Der Aktualisierungsvorgang gilt erst als abgeschlossen, wenn der Jobstatus abgefragt und bestätigt wurde. Dies kann zu einer geringfügigen Verzögerung von Sekunden bis Minuten führen.
Updates in falscher Reihenfolge
- Ein wichtiges Merkmal dieses Systems ist die Möglichkeit, Bestandsinformationen zu aktualisieren, bevor das entsprechende Produkt in den Katalog aufgenommen wird. So wird das häufige Szenario berücksichtigt, in dem Inventar- und Produktdatenpipelines unabhängig voneinander bei Einzelhändlern ausgeführt werden. Das kann dazu führen, dass Inventarinformationen verfügbar sind, bevor der Produktkatalog aktualisiert wird. Verwenden Sie beim Aktualisieren des Inventars die Option
allowMissing
, um Aktualisierungen des Inventars im Vergleich zum Produkt zu verarbeiten, die nicht in der richtigen Reihenfolge erfolgen. - Da Inventaraktualisierungen vor der Katalogaufnahme erfolgen können, werden diese Pipeline-Abweichungen in Vertex AI Search for Commerce berücksichtigt. So sind genaue Inventardaten auch für neu eingeführte Produkte verfügbar.
- Inventarinformationen für ein Produkt werden jedoch 24 Stunden lang aufbewahrt und gelöscht, wenn innerhalb dieses Zeitraums kein entsprechendes Produkt aufgenommen wird. Dieser Mechanismus sorgt für Datenkonsistenz und verhindert, dass veraltete Inventarinformationen im System verbleiben.
Vorabprüfungen des Produktkatalogs für robuste A/B-Tests in Vertex AI Search for Commerce
In diesem Abschnitt wird beschrieben, wie Sie Vorabprüfungen für die Produktkatalogdaten durchführen.
Für einheitliche Katalogaktualisierungen sorgen
- Zur Vorbereitung auf einen A/B-Test in Vertex AI Search für den Einzelhandel ist es entscheidend, dass der Legacy-Katalog (Kontrollgruppe) und der Vertex AI Search für den Einzelhandel-Katalog (Testgruppe) streng gleichwertig sind. Ungleichgewichte zwischen den beiden können sich negativ auf den A/B-Test auswirken und zu verzerrten Beobachtungen und möglicherweise ungültigen Ergebnissen führen. Beispielsweise können Inkonsistenzen bei der Produktverfügbarkeit, den Preisen oder auch nur geringfügige Attributabweichungen zu unbeabsichtigten Bias in den Testdaten führen.
- Um dieses Risiko zu minimieren, ist es unerlässlich, einen parallelen Aktualisierungsprozess für Kontroll- und Testkataloge zu entwickeln und sequenzielle Aktualisierungen nach Möglichkeit zu vermeiden. Ziel ist es, die Zeit zu maximieren, in der beide Kataloge synchronisiert sind. Serielle Updates können dagegen zu Verzögerungen auf einer oder beiden Fahrspuren führen. Diese Verzögerungen können zu vorübergehenden Katalogabweichungen führen, bei denen ein Produkt in einem Katalog auf Lager, im anderen jedoch nicht verfügbar ist. Oder ein neu hinzugefügtes Produkt wird in einem Katalog früher als im anderen angezeigt. Solche Unterschiede können das Nutzerverhalten, die Klicks und die Käufe erheblich beeinflussen und letztendlich zu einem unfairen Vergleich und ungenauen A/B-Testergebnissen führen.
- Durch die Priorisierung paralleler Aktualisierungen und das Bestreben nach einer konsistenten Katalogparität können Einzelhändler für faire A/B-Tests in Vertex AI Search for Commerce sorgen. Dieser Ansatz ermöglicht eine unvoreingenommene und faire Analyse der Testergebnisse, was zu zuverlässigeren Erkenntnissen und fundierten Entscheidungen führt.
Katalogdaten auf dem neuesten Stand halten
- Die Tiefe und Genauigkeit der Produktinformationen eines E-Commerce-Suchmodells hängen von der Fülle und Qualität der zugrunde liegenden Produktkataloginformationen ab. Je umfassender die Produktdaten im Katalog sind, desto besser kann das Modell Produkte effektiv verstehen und klassifizieren.
- Zur Vorbereitung auf A/B-Tests ist es daher unbedingt erforderlich, dass die in den Legacy-Katalog (Kontrollgruppe) und den Vertex AI Search for Retail-Katalog (Testgruppe) hochgeladenen Produktdaten identisch sind. Abweichungen bei den Produktinformationen zwischen diesen beiden Umgebungen können die A/B-Testergebnisse erheblich verfälschen.
- Wenn die alte Suchmaschine beispielsweise von einem umfangreicheren oder umfassenderen Katalog als Vertex AI Search for Commerce profitiert, entsteht ein unlauterer Vorteil. Fehlende Informationen im Vertex AI Search for Commerce-Katalog können sich negativ auf das Verständnis und die Klassifizierung von Produkten auswirken. Das kann zu ungenauen Suchergebnissen und irreführenden Leistungsvergleichen führen. Solche Unterschiede lassen sich mit externen Tools nur schwer erkennen und erfordern oft eine sorgfältige manuelle Überprüfung beider Kataloge.
- Wenn Einzelhändler sorgfältig darauf achten, dass beide Kataloge dieselben Produktdaten mit demselben Detaillierungsgrad enthalten, können sie faire A/B-Tests in Vertex AI Search for Commerce durchführen. Dieser Ansatz ermöglicht einen fairen und unvoreingenommenen Vergleich der beiden Suchmaschinen und eine genaue Bewertung ihrer jeweiligen Leistung und Funktionen.
Planung der Notfallwiederherstellung
Ein gut vorbereiteter Notfallwiederherstellungsplan sorgt dafür, dass Ihre Commerce-Suchfunktionen betriebsbereit und reaktionsschnell bleiben. So werden die Auswirkungen auf die Kundenzufriedenheit und die Umsatzgenerierung minimiert. Dieser Plan sollte eine schnelle Wiederherstellung des Katalogs ermöglichen, um das potenzielle Scheitern von Pipelines für die Aufnahme von Katalog- und Nutzerereignissen zu beheben, unabhängig von der zugrunde liegenden Ursache.
Die Verwendung von BigQuery für das Staging von Daten bietet einen deutlichen Vorteil bei der Notfallwiederherstellung. Wenn sich die aktuellen Katalog- oder Nutzerereignisdaten in Vertex AI Search for Commerce nicht wesentlich vom letzten in BigQuery gespeicherten Snapshot unterscheiden, kann durch Aufrufen der Import-API eine schnelle Wiederherstellung eingeleitet werden. So werden Ausfallzeiten minimiert und die Suchfunktion bleibt betriebsbereit.
Wenn BigQuery nicht in Ihre Datenpipeline eingebunden ist, müssen alternative Mechanismen vorhanden sein, um den Katalog schnell aus einem bekannten guten Zustand neu zu laden. Dazu können Back-up-Systeme, Datenreplikation oder andere Failover-Strategien gehören.
Wenn Sie diese Überlegungen zur Notfallwiederherstellung in Ihre Vertex AI Search for Commerce-Architektur einbeziehen, können Sie die Robustheit des Systems stärken und die Geschäftskontinuität auch bei unerwarteten Störungen aufrechterhalten.
Hochverfügbarkeit planen
Wenn Sie Ihren Produktkatalog in Vertex AI Search hochladen, ist es wichtig, zu berücksichtigen, wie verschiedene Google Cloud Dienste die Regionalität handhaben, um eine robuste Pipeline für die Datenaufnahme zu entwickeln.
Wenn Sie mit Dataflow eine Ingestionspipeline erstellen möchten, die für die Notfallwiederherstellung geeignet ist, stellen Sie Ihre Jobs in mehreren Regionen bereit. Verwenden Sie dazu eines der folgenden Designs:
- Aktiv/Aktiv:Dataflow-Instanzen in mehreren Regionen verarbeiten Daten gleichzeitig.
- Aktiv/Passiv:Eine Dataflow-Instanz in einer Region ist aktiv, während Instanzen in anderen Regionen im Standby-Modus bleiben.
So implementieren Sie diese Designs mit Pub/Sub und Dataflow:
- Globale Dienste:Einige Dienste wie Pub/Sub sind global verfügbar. Google Cloud verwaltet die Verfügbarkeit gemäß den jeweiligen Service Level Agreements (SLAs).
- Regionale Dienste:Andere Dienste wie Dataflow, die Sie möglicherweise zum Transformieren und Aufnehmen von Daten in Vertex AI Search verwenden, sind regional. Sie sind für die Konfiguration dieser Komponenten für Hochverfügbarkeit und Notfallwiederherstellung verantwortlich.
Wenn Sie beispielsweise BigQuery zum Speichern von Daten verwenden, kann es multiregional konfiguriert werden, sodass Datenredundanz und ‑verfügbarkeit automatisch von Google Cloudübernommen werden. Bei Verwendung von Cloud Storage kann es ebenfalls multiregional konfiguriert werden.
Aktiv/Aktiv
Beim Active/Active-Design werden Pub/Sub-Nachrichtenattribute und Abo-Filter verwendet, um sicherzustellen, dass jede Nachricht genau einmal von einem aktiven Dataflow-Job in einer bestimmten Region verarbeitet wird.
Nachrichtenattribute hinzufügen: Wenn Sie Nachrichten wie Produktaktualisierungen im Pub/Sub-Thema veröffentlichen, fügen Sie ein Attribut hinzu, das die Zielregion angibt. Beispiel:
region
:us-central1
region
:us-east1
Abo-Filter konfigurieren: Konfigurieren Sie für jede regionale Dataflow-Pipeline das zugehörige Pub/Sub-Abo so, dass nur Nachrichten abgerufen werden, die mit der Region übereinstimmen. Verwenden Sie dazu Nachrichtenfilter. Das Abo für den Dataflow-Job
us-central1
hätte beispielsweise einen Filter wieattributes.region = "us-central1"
.Failover: Wenn eine Region nicht mehr verfügbar ist, aktualisieren Sie Ihr Upstream-Veröffentlichungssystem, damit alle neuen Nachrichten mit einem Attribut für eine fehlerfreie Region getaggt werden. Dadurch wird die Nachrichtenverarbeitung an die Dataflow-Instanz in der Failover-Region weitergeleitet.
Mehrere in der Architektur verwendete Komponenten können standardmäßig für mehrere Regionen konfiguriert werden. Wenn Sie beispielsweise BigQuery zum Speichern von Daten verwenden, kann es multiregional konfiguriert werden, sodass Datenredundanz und ‑verfügbarkeit automatisch von Cloud Storage verwaltet werden. Wenn Sie Cloud Storage verwenden, kann es ebenfalls multiregional konfiguriert werden.
Aktiv/Passiv-Design
Bei diesem Design wird jeweils nur eine regionale Dataflow-Pipeline aktiv verwendet, um Nachrichten aus Pub/Sub abzurufen.
Ein Abo anhängen: Achten Sie darauf, dass nur das Pub/Sub-Abo für den Dataflow-Job der aktiven Region angehängt ist und Nachrichten abgerufen werden. Abonnements für Dataflow-Jobs in passiven Regionen sollten erstellt, aber getrennt bleiben.
Failover: Wenn in der aktiven Region ein Fehler auftritt, gehen Sie manuell oder programmgesteuert so vor:
- Trennen Sie das Pub/Sub-Abo, das dem Dataflow-Job der fehlgeschlagenen Region zugeordnet ist.
- Hängen Sie das Pub/Sub-Abo an, das einem Dataflow-Job in einer der passiven (Standby-)Regionen zugeordnet ist.
Dadurch wird die Last der Nachrichtenverarbeitung auf die neu aktivierte Region übertragen.
Robustheit und Forensik
Wenn Sie BigQuery in das Design für die Datenaufnahme einbeziehen, können Sie die Resilienz verbessern und die Möglichkeit für die Analyse und das Debugging schaffen. Wenn Produkte und Inventar direkt mit der patch
- und der addLocalInventory
-API erfasst werden, bedeutet das, dass beim Senden der Daten an Vertex AI Search for Commerce keine Spur der Produkt- und Inventaraktualisierung zurückbleibt. Nutzer möchten möglicherweise wissen, warum ein Produkt nicht wie erwartet angezeigt wird. Eine mit BigQuery erstellte Staging-Umgebung mit einem vollständigen Datenverlauf erleichtert diese Art von Untersuchung und Fehlerbehebung.
Referenzarchitektur
In dieser Architektur würde die Datenerfassung in der Regel aus den Phasen „Rohdaten“, „Aufbereitete Daten“ und „Verbrauch“ bestehen, die alle auf BigQuery basieren. Das System würde Daten zwischen den Phasen mit Dataflow verschieben und alles mit Cloud-Workflows automatisieren:
- Das System würde Rohdaten unverändert übernehmen und mit einem Zeitstempel versehen, um den Verlauf beizubehalten. Diese Daten sind unverändert, sodass Kunden sie als echte Quelle betrachten.
- Anschließend würde das System die Daten in eine kuratierte Phase umwandeln und noch einmal mit einem Zeit-Tag versehen. So wissen Kunden, wann die Transformation stattgefunden hat und ob etwas fehlgeschlagen ist.
- Schließlich würde das System in der Verbrauchsphase Ansichten der kuratierten Daten erstellen, wobei die Zeit verwendet wird, mit der das System die Daten zuvor getaggt hat. So wissen Kunden genau, welche transformierten Daten letztendlich in Vertex AI Search for Commerce aufgenommen werden sollen.
Branch 0, Branch 1 und Branch 2 dienen als Live- und Tages-Backup sowie als eine Woche alte Back-Branches. Daten, die direkt in Branch 0 aufgenommen werden, werden täglich in Branch 1 und wöchentlich in Branch 2 aggregiert und indexiert. So kann jede Beschädigung von Daten rückgängig gemacht werden, was die Geschäftskontinuität und Ausfallsicherheit des Systems verbessert.
Außerdem können Analysen und das Debugging durchgeführt werden, da der gesamte Verlauf und die Herkunft der Daten in globalen BigQuery-Datasets gespeichert werden.
Sonderfälle bei der Katalogaufnahme berücksichtigen
Sobald die grundlegenden Mechanismen für die Katalogaufnahme in Vertex AI Search für den Einzelhandel eingerichtet sind, wird proaktiv ihre Robustheit gegenüber verschiedenen Grenzbedingungen bewertet. Einige dieser Szenarien sind möglicherweise nicht sofort für Ihre spezifischen Geschäftsanforderungen relevant. Wenn Sie sie jedoch in Ihr Backend-Design einbeziehen, können Sie sich für die Zukunft rüsten.
Bei diesem vorbereitenden Schritt wird geprüft, ob Ihre Datenpipeline unerwartete oder Grenzfallszenarien bewältigen kann. So wird sichergestellt, dass sie robust ist und sich an sich ändernde Anforderungen anpassen kann. Wenn Sie potenzielle Probleme vorhersehen und proaktiv angehen, können Sie zukünftige Störungen vermeiden und dafür sorgen, dass Produktdaten nahtlos in Ihr Einzelhandelssuchsystem fließen.
Dazu sollte die Dataflow-Logik so aufgebaut sein, dass sie:
Prüft, ob jedes Element der Rohdaten einem gültigen Schema entspricht. Der Vertrag für die Rohdaten sollte im Voraus festgelegt werden und jedes Datenelement sollte immer mit dem Vertrag abgeglichen werden. Bei einem Validierungsfehler sollte das Rohdatenelement mit einem Zeitstempel versehen und in den BigQuery-Rohdatentabellen mit den tatsächlichen Fehlern gespeichert werden, die für die Analyse vorgesehen sind.
Beispiele für solche Fehler:
- Ein bestimmtes Attribut, das nicht Teil des Vertrags ist, wird plötzlich im Rohdatenelement angezeigt.
- Ein bestimmtes erforderliches Attribut ist im Rohdatenelement nicht vorhanden.
Jedes Element der Rohdaten wird auf die Transformation in das Vertex AI Search for Commerce-Format geprüft. Für die Aufnahme von Produkten sind einige Pflichtfelder erforderlich, die von Vertex AI Search for Commerce verwendet werden. Jedes Element der Rohdaten sollte noch einmal daraufhin überprüft werden, ob es erfolgreich in das Schemaformat von Vertex AI Search for Commerce transformiert werden kann. Bei einem Transformationsfehler sollte das Rohdatenelement mit einem Zeitstempel versehen und in den kuratierten BigQuery-Fehlertabellen mit tatsächlichen Fehlermeldungen gespeichert werden, die bei der Analyse helfen können.
Beispiele für solche Fehler:
- Ein bestimmtes Attribut wie der Preis kann nicht als Zahl formatiert werden, da das zugehörige Rohdatenelement alphanumerisch ist.
- Der Produktname fehlt vollständig.
In diesem Beispiel sehen Sie ein Beispiel für ein BigQuery-Tabellenschema, mit dem alle Fehler zur Fehlerbehebung gespeichert werden:
Beispiel für ein BigQuery-Tabellenschema ansehen
[ { "mode": "REQUIRED", "name": "ingestedTimestamp", "type": "TIMESTAMP" }, { "mode": "REQUIRED", "name": "payloadString", "type": "STRING" }, { "mode": "REQUIRED", "name": "payloadBytes", "type": "BYTES" }, { "fields": [ { "mode": "NULLABLE", "name": "key", "type": "STRING" }, { "mode": "NULLABLE", "name": "value", "type": "STRING" } ], "mode": "REPEATED", "name": "attributes", "type": "RECORD" }, { "mode": "NULLABLE", "name": "errorMessage", "type": "STRING" }, { "mode": "NULLABLE", "name": "stacktrace", "type": "STRING" } ]
Stresstests und Skalierbarkeit
Mit Stresstests und Skalierbarkeit können Sie sich auf Ereignisse mit hohem Volumen und Wachstum vorbereiten.
Veranstaltungen mit hohem Besucheraufkommen
Ereignisse mit hohem Traffic wie Feiertage stellen eine erhebliche Herausforderung für Pipelines zur Datenerfassung dar. Die Zunahme von Inventaraktualisierungen, einschließlich Lagerbeständen und Preisen, sowie potenzielle Änderungen an Produktattributen erfordern eine robuste Infrastruktur. Es ist wichtig, dass Sie prüfen, ob Ihr Aufnahmesystem diese erhöhte Last bewältigen kann. Durch simulierte Lasttests, bei denen Spitzenlastmuster nachgebildet werden, lassen sich Engpässe identifizieren und ein reibungsloser Betrieb in diesen kritischen Phasen sicherstellen.
Blitzverkäufe
Flash Sales stellen aufgrund ihrer kurzen Dauer und der schnellen Inventarschwankungen eine besondere Herausforderung dar. Eine Echtzeitsynchronisierung des Inventars ist unerlässlich, um Abweichungen zwischen Suchergebnissen und der tatsächlichen Verfügbarkeit zu vermeiden. Andernfalls kann es zu negativen Kundenerfahrungen kommen, z. B. wenn beliebte Produkte als auf Lager angezeigt werden, obwohl sie tatsächlich ausverkauft sind, oder umgekehrt. Außerdem können sich Preisänderungen während Flash Sales erheblich auf das Produkt-Ranking auswirken. Daher ist es wichtig, dass Preisaktualisierungen im Suchindex genau und zeitnah erfolgen.
Katalogerweiterung
Geschäftliches Wachstum oder die Erweiterung der Produktlinie können zu einem drastischen Anstieg der Anzahl der Produkte in Ihrem Katalog führen, z. B. um das 5- oder 10‑Fache. Ihre Erfassungsarchitektur muss skalierbar sein, um dieses Wachstum nahtlos zu bewältigen. Dies kann eine Überarbeitung der gesamten ETL-Pipeline (Extrahieren, Transformieren, Laden) erforderlich machen, insbesondere wenn neue Datenquellen oder Produktinformationsformate eingeführt werden.
Wenn Sie diese potenziellen Szenarien proaktiv angehen, können Sie dafür sorgen, dass Ihre Erfassungspipeline für Vertex AI Search for Commerce robust, skalierbar und reaktionsfähig bleibt, auch bei plötzlichen Traffic-Spitzen, Flash Sales oder einem erheblichen Katalogwachstum. Dieser proaktive Ansatz trägt dazu bei, dass Ihre Suchergebnisse präzise und zuverlässig sind. So wird eine positive Nutzererfahrung gefördert und der Geschäftserfolg gesteigert.
Die Leistung der Pipeline für die Datenaufnahme sollte anhand der folgenden Messwerte bewertet und eine Baseline gebildet werden:
- Wie lange dauert es, bis der gesamte Katalog und die Inventardaten veröffentlicht und aufgenommen werden? Dies kann während BFCM anlassbezogen erforderlich sein, wenn sich die Preise für den gesamten Katalog erheblich ändern.
- Wie lange dauert es, bis eine einzelne Produktaktualisierung berücksichtigt wird?
- Wie oft können Produkt- und Inventaraktualisierungen maximal vom System verarbeitet werden?
Engpässe
- Prüfen Sie, ob die Pipelines richtig skaliert werden können.
- Ermitteln Sie, ob die maximale Anzahl von Instanzen zu hoch oder zu niedrig ist.
- Prüfen Sie, ob das System durch Vertex AI Search for Commerce ratenbegrenzt wird, indem Sie nach dem HTTP-Code 429 suchen.
- Prüfen Sie, ob bestimmte API-Kontingente erhöht werden müssen, um die Ratenlimits zu senken.
Produktdatenstruktur für die Katalogaufnahme
In diesem Abschnitt wird beschrieben, wie Sie Ihre Produktdaten für die Katalogaufnahme vorbereiten.
Primäre Produkte
Primärprodukte dienen als Container zum Gruppieren von Variantenprodukten und als Einträge im Suchraster. Für Hauptprodukte dürfen nur gemeinsame Attribute angegeben werden, die für alle Varianten gelten. Dazu gehören:
- Primäre Produkt-ID
- Produkt-ID (identisch mit der primären Produkt-ID)
- Titel
- Beschreibung
Weitere Informationen finden Sie unter Produktattribute.
Produkte mit Varianten
Variantenprodukte übernehmen gemeinsame Attribute vom primären Produkt, können aber auch eindeutige Werte angeben.
Erforderliche Attribute:
- Alle Attribute, die für primäre Produkte angegeben sind (Titel, Beschreibung). Preis, Titel und Beschreibung können sich vom primären Produkt unterscheiden.
- Spezifische Variantenattribute (Farbe, Größe und andere relevante Produktvarianten).
Weitere Informationen finden Sie unter Produktattribute.
Abrufen von Attributen
Beim Abrufen werden alle durchsuchbaren Attribute für primäre Produkte und Varianten berücksichtigt.
Relevanzbewertung
Die Relevanzbewertung basiert ausschließlich auf den Feldern „Titel“ und „Beschreibung“. Um eine korrekte Unterscheidung zu gewährleisten, sollten Sie die Titel der Varianten leicht vom Titel des Hauptprodukts abwandeln, z. B. Produktname + Farbe.
Variantenabgleich in den Suchergebnissen
Beim Variantenabgleich (z. B. blaues Kleid) werden die Ergebnisse anhand vordefinierter Variantenattribute wie Farbe und Größe gefiltert. Die Suchergebnisse enthalten bis zu fünf passende Varianten für jedes primäre Produkt.
Merchant Center mit Vertex AI Search for Commerce synchronisieren
Mit dem Merchant Center können Sie Ihre Händler- und Produktdaten für Shopping-Anzeigen und andere Google-Dienste verfügbar machen.
Für eine kontinuierliche Synchronisierung zwischen dem Merchant Center und Vertex AI Search for Commerce können Sie Ihr Merchant Center-Konto mit Vertex AI Search for Commerce verknüpfen.
Wenn Sie eine Merchant Center-Synchronisierung für Vertex AI Search for Commerce einrichten, muss Ihnen im Merchant Center die IAM-Rolle Administrator zugewiesen sein. Mit einer Standardzugriffsrolle können Sie zwar die Merchant Center-Feeds lesen, aber wenn Sie versuchen, das Merchant Center mit Vertex AI Search for Commerce zu synchronisieren, erhalten Sie eine Fehlermeldung. Bevor Sie Ihr Merchant Center-Konto mit Vertex AI Search for Commerce synchronisieren können, müssen Sie Ihre Rolle aktualisieren.
Merchant Center-Konto verknüpfen
Da Vertex AI Search for Commerce mit dem Merchant Center-Konto verknüpft ist, werden Änderungen an Ihren Produktdaten im Merchant Center-Konto automatisch innerhalb weniger Minuten in Vertex AI Search for Commerce aktualisiert. Wenn Sie verhindern möchten, dass Merchant Center-Änderungen mit Vertex AI Search for Commerce synchronisiert werden, können Sie die Verknüpfung Ihres Merchant Center-Kontos aufheben.
Durch das Aufheben der Verknüpfung Ihres Merchant Center-Kontos werden keine Produkte in Vertex AI Search for Commerce gelöscht. Informationen zum Löschen importierter Produkte finden Sie unter Produktinformationen löschen.
Führen Sie die folgenden Schritte aus, um Ihr Merchant Center-Konto zu synchronisieren.
Merchant Center-Konto synchronisieren
Cloud Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Produktkatalog aus.
- Wählen Sie Merchant Center Sync als Datenquelle aus.
- Wählen Sie Ihr Merchant Center-Konto aus. Wenn Ihr Konto nicht angezeigt wird, prüfen Sie den Nutzerzugriff.
- Optional: Wählen Sie Merchant Center-Feeds filtern aus, um nur Angebote aus ausgewählten Feeds zu importieren.
Wenn Sie diese Option nicht angeben, werden Angebote aus allen Feeds importiert (auch aus zukünftigen Feeds). - Optional: Wenn Sie nur Angebote importieren möchten, die auf bestimmte Länder oder Sprachen ausgerichtet sind, maximieren Sie Erweiterte Optionen anzeigen und wählen Sie Merchant Center-Absatzländer und ‑Sprachen aus, nach denen gefiltert werden soll.
- Wählen Sie den Zweig aus, in den Sie Ihren Katalog hochladen.
- Klicken Sie auf Importieren.
curl
Prüfen Sie, ob das Dienstkonto in Ihrer lokalen Umgebung sowohl auf das Merchant Center-Konto als auch auf Vertex AI Search for Retail Zugriff hat. Unter Nutzerzugriff auf das Merchant Center können Sie prüfen, welche Konten Zugriff auf Ihr Merchant Center-Konto haben.
Verwenden Sie die Methode
MerchantCenterAccountLink.create
, um die Verknüpfung herzustellen.curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "merchantCenterAccountId": MERCHANT_CENTER_ID, "branchId": "BRANCH_ID", "feedFilters": [ {"dataSourceId": DATA_SOURCE_ID_1} {"dataSourceId": DATA_SOURCE_ID_2} ], "languageCode": "LANGUAGE_CODE", "feedLabel": "FEED_LABEL", }' \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_ID/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
- MERCHANT_CENTER_ID: Die ID des Merchant Center-Kontos.
- BRANCH_ID: Die ID des Zweigs, mit dem die Verbindung hergestellt werden soll. Akzeptiert die Werte "0", "1" oder "2".
- LANGUAGE_CODE: (OPTIONAL) Der aus zwei Buchstaben bestehende Sprachcode der Produkte, die Sie importieren möchten. Wie im Merchant Center in der Spalte
Language
des Produkts zu sehen ist. Wenn nichts festgelegt ist, werden alle Sprachen importiert. - FEED_LABEL: (OPTIONAL) Das Feedlabel der Produkte, die Sie importieren möchten. Das Feedlabel finden Sie im Merchant Center in der Spalte Feedlabel des Produkts. Wenn nicht festgelegt, werden alle Feedlabels importiert.
- FEED_FILTERS: (OPTIONAL) Liste der Hauptfeeds, aus denen Produkte importiert werden. Wenn Sie keine Feeds auswählen, werden alle Feeds des Merchant Center-Kontos freigegeben. Die IDs finden Sie in der Content API-Ressource „datafeeds“ oder im Merchant Center. Wählen Sie dort einen Feed aus und rufen Sie die Feed-ID über den Parameter afmDataSourceId in der Website-URL ab. Zum Beispiel:
mc/products/sources/detail?a=MERCHANT_CENTER_ID&afmDataSourceId=DATA_SOURCE_ID
.
Um Ihr verknüpftes Merchant Center aufzurufen, rufen Sie die Seite Daten der Commerce Console auf und klicken Sie oben rechts auf der Seite auf die Schaltfläche Merchant Center. Daraufhin wird der Bereich Verknüpfte Merchant Center-Konten geöffnet. In diesem Feld können Sie auch zusätzliche Merchant Center-Konten hinzufügen.
Eine Anleitung zum Aufrufen der importierten Produkte finden Sie unter Zusammengefasste Informationen zu Ihrem Katalog ansehen.
Verknüpfungen zu Ihrem Merchant Center-Konto auflisten
Cloud Console
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“Klicken Sie oben rechts auf die Schaltfläche Merchant Center, um eine Liste Ihrer verknüpften Merchant Center-Konten zu öffnen.
curl
Verwenden Sie die Methode MerchantCenterAccountLink.list
, um die Links-Ressource aufzulisten.
curl -X GET \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks"
Verknüpfung Ihres Merchant Center-Kontos aufheben
Wenn Sie die Verknüpfung Ihres Merchant Center-Kontos aufheben, werden keine Katalogdaten mehr mit Vertex AI Search for Retail synchronisiert. Mit diesem Verfahren werden keine Produkte in Vertex AI Search for Commerce gelöscht, die bereits hochgeladen wurden.
Cloud Console
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“Klicken Sie oben rechts auf die Schaltfläche Merchant Center, um eine Liste Ihrer verknüpften Merchant Center-Konten zu öffnen.
Klicken Sie neben dem Merchant Center-Konto, dessen Verknüpfung Sie aufheben möchten, auf Verknüpfung aufheben und bestätigen Sie Ihre Auswahl im angezeigten Dialogfeld.
curl
Verwenden Sie die Methode MerchantCenterAccountLink.delete
, um die Ressource MerchantCenterAccountLink
zu entfernen.
curl -X DELETE \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ "https://retail.googleapis.com/v2alpha/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/merchantCenterAccountLinks/BRANCH_ID_MERCHANT_CENTER_ID"
Einschränkungen bei der Verknüpfung mit dem Merchant Center
Ein Merchant Center-Konto kann mit einer beliebigen Anzahl von Katalogzweigen verknüpft werden, aber ein einzelner Katalogzweig kann nur mit einem Merchant Center-Konto verknüpft werden.
Ein Merchant Center-Konto darf kein Mehrfachkundenkonto sein. Sie können jedoch einzelne untergeordnete Konten verknüpfen.
Der erste Import nach der Verknüpfung Ihres Merchant Center-Kontos kann Stunden dauern. Die Dauer hängt von der Anzahl der Angebote im Merchant Center-Konto ab.
Produktänderungen, die API-Methoden verwenden, sind für Zweige deaktiviert, die mit einem Merchant Center-Konto verknüpft sind. Alle Änderungen an den Produktkatalogdaten in diesen Branches müssen mit dem Merchant Center vorgenommen werden. Diese Änderungen werden dann automatisch mit Vertex AI Search for Commerce synchronisiert.
Der Sammlungsprodukttyp wird für Branches, die die Merchant Center-Verknüpfung verwenden, nicht unterstützt.
Ihr Merchant Center-Konto kann nur mit leeren Katalogzweigen verknüpft werden, um die Richtigkeit der Daten zu gewährleisten. Informationen zum Löschen von Produkten aus einem Katalogzweig finden Sie unter Produktinformationen löschen.
Katalogdaten aus BigQuery importieren
Verwenden Sie das Vertex AI Search for Commerce-Schema, um Katalogdaten im richtigen Format aus BigQuery zu importieren. Erstellen Sie dann eine BigQuery-Tabelle mit dem richtigen Format und Laden Sie die leere Tabelle mit Ihren Katalogdaten. Laden Sie Ihre Daten dann in Vertex AI Search for Commerce hoch.
Weitere Informationen zu BigQuery-Tabellen finden Sie unter Einführung in Tabellen. Hilfe zu BigQuery-Abfragen finden Sie unter BigQuery-Daten abfragen.
So importieren Sie Ihren Katalog:
Wenn sich Ihr BigQuery-Dataset in einem anderen Projekt befindet, konfigurieren Sie die erforderlichen Berechtigungen, damit Vertex AI Search for Commerce auf das BigQuery-Dataset zugreifen kann. Weitere Informationen
Katalogdaten in Vertex AI Search for Commerce importieren
Cloud Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Produktkatalog aus.
- Wählen Sie BigQuery als Datenquelle aus.
- Wählen Sie den Zweig aus, in den Sie Ihren Katalog hochladen.
- Wählen Sie Schema von Produktkatalogen für den Einzelhandel aus. Dies ist das Produktschema für Vertex AI Search for Commerce.
- Geben Sie die BigQuery-Tabelle an, wo sich die Daten befinden.
- Optional: Geben Sie unter Erweiterte Optionen anzeigen den Speicherort eines Cloud Storage-Bucket in Ihrem Projekt als temporären Speicherort für Ihre Daten ein.
Wenn keine Angabe erfolgt, wird ein Standardspeicherort verwendet. Wenn Sie einen Speicherort angeben, müssen sich BigQuery und der Cloud Storage-Bucket in derselben Region befinden. - Wenn die Suche nicht aktiviert ist und Sie das Merchant Center-Schema verwenden, wählen Sie die Produktebene aus.
Sie müssen die Produktebene auswählen, wenn Sie Ihren Katalog zum ersten Mal importieren oder den Katalog nach dem Löschen noch einmal importieren. Weitere Informationen zu Produktebenen Das Ändern von Produktebenen nach dem Importieren von Daten erfordert einen erheblichen Aufwand.
Wichtig:Sie können die Suche für Projekte mit einem Produktkatalog, der als Varianten aufgenommen wurde, nicht aktivieren. - Klicken Sie auf Importieren.
curl
Legen Sie die Produktebenen mithilfe der Methode
Catalog.patch
fest, wenn Sie Ihren Katalog zum ersten Mal hochladen oder den Katalog nach dem Löschen noch einmal importieren. Für diesen Vorgang ist die Rolle "Einzelhandelsadministrator" erforderlich.ingestionProductType
: Unterstützt die Werteprimary
(Standard) undvariant
.merchantCenterProductIdField
: Unterstützt die WerteofferId
unditemGroupId
. Wenn Sie das Merchant Center nicht verwenden, müssen Sie dieses Feld nicht festlegen.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Erstellen Sie eine Datendatei für die Eingabeparameter für den Import.
Verwenden Sie das Objekt BigQuerySource, um auf Ihr BigQuery-Dataset zu verweisen.
- DATASET_ID: Die ID des BigQuery-Datasets.
- TABLE_ID: Die ID der BigQuery-Tabelle, die Ihre Daten enthält.
- PROJECT_ID: Die Projekt-ID, in der sich die BigQuery-Quelle befindet. Wenn keine Angabe erfolgt, wird die Projekt-ID von der übergeordneten Anfrage übernommen.
- STAGING_DIRECTORY: Optional. Ein Cloud Storage-Verzeichnis, das als Zwischenspeicherort für Ihre Daten verwendet wird, bevor sie in BigQuery importiert werden. Lassen Sie dieses Feld leer, damit automatisch ein temporäres Verzeichnis erstellt wird (empfohlen).
- ERROR_DIRECTORY: Optional. Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import. Lassen Sie dieses Feld leer, damit automatisch ein temporäres Verzeichnis erstellt wird (empfohlen).
dataSchema
: Verwenden Sie für das AttributdataSchema
den Wertproduct
(Standard). Sie verwenden das Vertex AI Search for Commerce-Schema.
Wir empfehlen, keine Staging- oder Fehlerverzeichnisse anzugeben, damit automatisch ein Cloud Storage-Bucket mit neuen Staging- und Fehlerverzeichnissen erstellt werden kann. Diese Verzeichnisse werden in derselben Region wie das BigQuery-Dataset erstellt und sind für jeden Import eindeutig. Dadurch wird verhindert, dass mehrere Importjobs Daten in dasselbe Verzeichnis bereitstellen und möglicherweise dieselben Daten neu importieren. Nach drei Tagen werden der Bucket und die Verzeichnisse automatisch gelöscht, um die Speicherkosten zu senken.
Ein automatisch erstellter Bucket-Name enthält die Projekt-ID, die Bucket-Region und den Datenschemanamen, getrennt durch Unterstriche (z. B.
4321_us_catalog_retail
). Die automatisch erstellten Verzeichnisse heißenstaging
odererrors
, gefolgt von einer Nummer (z. B.staging2345
odererrors5678
).Wenn Sie Verzeichnisse angeben, muss sich der Cloud Storage-Bucket in derselben Region wie das BigQuery-Dataset befinden. Andernfalls schlägt der Import fehl. Geben Sie die Staging- und Fehlerverzeichnisse im Format
gs://<bucket>/<folder>/
an. Sie sollten unterschiedlich sein.{ "inputConfig":{ "bigQuerySource": { "projectId":"PROJECT_ID", "datasetId":"DATASET_ID", "tableId":"TABLE_ID", "dataSchema":"product"} } }
Importieren Sie Ihre Kataloginformationen. Stellen Sie dazu eine
POST
-Anfrage an die REST-MethodeProducts:import
und geben Sie den Namen der Datendatei an (hier gezeigt alsinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Sie können den Status programmatisch mit der API prüfen. Sie sollten ein Antwortobjekt erhalten, das in etwa so aussieht:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
Das Feld "Name" ist die ID des Vorgangsobjekts. Um den Status dieses Objekts anzufordern, ersetzen Sie das Feld "Name" durch den Wert, der von der Methode
import
zurückgegeben wird, bis das Felddone
alstrue
zurückgegeben wird:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456"
Wenn der Vorgang abgeschlossen ist, hat das zurückgegebene Objekt den
done
-Werttrue
und enthält ein Statusobjekt, das dem folgenden Beispiel ähnelt:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse", }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
Sie können die Dateien im Fehlerverzeichnis in Cloud Storage prüfen, um festzustellen, ob während des Imports Fehler aufgetreten sind.
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zugriff auf Ihr BigQuery-Dataset einrichten
Führen Sie die folgenden Schritte aus, um den Zugriff einzurichten, wenn sich Ihr BigQuery-Dataset in einem anderen Projekt als Ihrem Vertex AI Search for Retail-Dienst befindet.
Öffnen Sie in der Google Cloud Console die Seite „IAM“.
Wählen Sie Ihr Vertex AI Search for Commerce-Projekt aus.
Suchen Sie das Dienstkonto mit dem Namen Retail-Dienstkonto.
Wenn Sie noch keinen Importvorgang initiiert haben, ist dieses Dienstkonto möglicherweise nicht aufgeführt. Wenn dieses Dienstkonto nicht angezeigt wird, kehren Sie zur Importaufgabe zurück und initiieren den Import. Wenn der Vorgang aufgrund von Berechtigungsfehlern fehlschlägt, kehren Sie hierher zurück und führen Sie diese Aufgabe aus.
Kopieren Sie die ID des Dienstkontos, die wie eine E-Mail-Adresse aussieht (z. B.
service-525@gcp-sa-retail.
).Wechseln Sie zu Ihrem BigQuery-Projekt (auf der gleichen Seite IAM und Verwaltung) und klicken Sie auf person_add Zugriff gewähren.
Geben Sie für Neue Hauptkonten die Kennzeichnung für das Vertex AI Search for Commerce-Dienstkonto ein und wählen Sie die Rolle BigQuery > BigQuery-Nutzer aus.
Klicken Sie auf Weitere Rolle hinzufügen und wählen Sie BigQuery > BigQuery-Dateneditor aus.
Wenn Sie die Rolle „Datenbearbeiter“ nicht für das gesamte Projekt bereitstellen möchten, können Sie diese Rolle direkt dem Dataset hinzufügen. Weitere Informationen
Klicken Sie auf Speichern.
Produktschema
Verwenden Sie beim Importieren eines Katalogs aus BigQuery das folgende Vertex AI Search for Commerce-Produktschema, um eine BigQuery-Tabelle mit dem richtigen Format zu erstellen und mit Ihren Katalogdaten zu laden. Anschließend importieren Sie den Katalog.
Katalogdaten aus Cloud Storage importieren
Zum Importieren von Katalogdaten im JSON-Format erstellen Sie eine oder mehrere JSON-Dateien mit den Katalogdaten, die Sie importieren möchten, und laden sie in Cloud Storage hoch. Von dort aus können Sie sie in Vertex AI Search for Commerce importieren.
Ein Beispiel für das JSON-Produktelementformat finden Sie unter JSON-Datenformat für Produktelemente.
Informationen zum Hochladen von Dateien in Cloud Storage finden Sie unter Objekte hochladen.
Das Vertex AI Search for Commerce-Dienstkonto muss die Lese- und Schreibzugriff auf den Bucket haben.
Das Dienstkonto für Vertex AI Search for Commerce wird auf der IAM-Seite in der Google Cloud Console mit dem Namen Retail-Dienstkonto aufgeführt. Verwenden Sie die Kennung des Dienstkontos, die wie eine E-Mail-Adresse aussieht (z. B.
service-525@gcp-sa-retail.
), wenn Sie das Konto Ihren Bucket-Berechtigungen hinzufügen.Importieren Sie Ihre Katalogdaten.
Cloud Console
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Zur Seite „Daten“ - Klicken Sie auf Importieren, um das Feld Daten importieren zu öffnen.
- Wählen Sie Produktkatalog als Datenquelle aus.
- Wählen Sie den Zweig aus, in den Sie Ihren Katalog hochladen.
- Wählen Sie Retail Product Catalogs Schema als Schema aus.
- Geben Sie den Cloud Storage-Speicherort Ihrer Daten ein.
- Wenn die Suche nicht aktiviert ist, wählen Sie die Produktebenen aus.
Sie müssen die Produktebenen auswählen, wenn Sie Ihren Katalog zum ersten Mal importieren oder den Katalog nach dem Löschen noch einmal importieren. Weitere Informationen zu Produktebenen Das Ändern von Produktebenen nach dem Importieren von Daten erfordert einen erheblichen Aufwand.
Wichtig:Sie können die Suche für Projekte mit einem Produktkatalog, der als Varianten aufgenommen wurde, nicht aktivieren. - Klicken Sie auf Importieren.
curl
Wenn Sie Ihren Katalog zum ersten Mal hochladen oder den Katalog nach dem Löschen noch einmal importieren, legen Sie die Produktebenen mit der Methode
Catalog.patch
fest. Weitere Informationen zu ProduktebeneningestionProductType
: Unterstützt die Werteprimary
(Standard) undvariant
.merchantCenterProductIdField
: Unterstützt die WerteofferId
unditemGroupId
. Wenn Sie das Merchant Center nicht verwenden, müssen Sie dieses Feld nicht festlegen.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data '{ "productLevelConfig": { "ingestionProductType": "PRODUCT_TYPE", "merchantCenterProductIdField": "PRODUCT_ID_FIELD" } }' \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog"
Erstellen Sie eine Datendatei für die Eingabeparameter für den Import. Verwenden Sie das Objekt
GcsSource
, um auf Ihren Cloud Storage-Bucket zu verweisen.Sie können mehrere Dateien oder nur eine bereitstellen. In diesem Beispiel werden zwei Dateien verwendet.
- INPUT_FILE: Eine oder mehrere Dateien in Cloud Storage, die Ihre Katalogdaten enthalten.
- ERROR_DIRECTORY: Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import.
Die Felder der Eingabedatei müssen das Format
gs://<bucket>/<path-to-file>/
haben. Das Fehlerverzeichnis muss das Formatgs://<bucket>/<folder>/
haben. Wenn das Fehlerverzeichnis nicht vorhanden ist, wird es erstellt. Der Bucket muss bereits vorhanden sein.{ "inputConfig":{ "gcsSource": { "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"] } }, "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"} }
Importieren Sie Ihre Kataloginformationen. Stellen Sie dazu eine
POST
-Anfrage an die REST-MethodeProducts:import
und geben Sie den Namen der Datendatei an (hier gezeigt alsinput.json
).curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" -d @./input.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Am einfachsten ist es, den Status des Importvorgangs mit der Google Cloud Console zu prüfen. Weitere Informationen finden Sie unter Status eines bestimmten Integrationsvorgangs ansehen.
Sie können den Status auch programmatisch mit der API prüfen. Sie sollten ein Antwortobjekt erhalten, das in etwa so aussieht:
{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "done": false }
Das Feld "Name" ist die ID des Vorgangsobjekts. Sie fordern den Status dieses Objekts an. Ersetzen Sie dabei das Feld "Name" durch den von der Importmethode zurückgegebenen Wert, bis das Feld
done
alstrue
zurückgegeben wird:curl -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/[OPERATION_NAME]"
Wenn der Vorgang abgeschlossen ist, hat das zurückgegebene Objekt den
done
-Werttrue
und enthält ein Statusobjekt, das dem folgenden Beispiel ähnelt:{ "name": "projects/PROJECT_ID/locations/global/catalogs/default_catalog/operations/import-products-123456", "metadata": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportMetadata", "createTime": "2020-01-01T03:33:33.000001Z", "updateTime": "2020-01-01T03:34:33.000001Z", "successCount": "2", "failureCount": "1" }, "done": true, "response": { "@type": "type.googleapis.com/google.cloud.retail.v2.ImportProductsResponse" }, "errorsConfig": { "gcsPrefix": "gs://error-bucket/error-directory" } }
Sie können die Dateien im Fehlerverzeichnis in Cloud Storage prüfen, um festzustellen, welche Art von Fehlern beim Import aufgetreten sind.
-
Rufen Sie in der Search for Commerce Console die Seite Daten auf.
Katalogdaten inline importieren
curl
Sie importieren Ihre Kataloginformationen inline, indem Sie mithilfe des Objekts productInlineSource
eine POST
-Anfrage an die Products:import
REST-Methode stellen, um Ihre Katalogdaten anzugeben.
Geben Sie ein ganzes Produkt in einer einzelnen Zeile an. Jedes Produkt sollte in einer eigenen Zeile stehen.
Ein Beispiel für das JSON-Produktelementformat finden Sie unter JSON-Datenformat für Produktelemente.
Erstellen Sie die JSON-Datei für Ihr Produkt und nennen Sie sie
./data.json
:{ "inputConfig": { "productInlineSource": { "products": [ { PRODUCT_1 } { PRODUCT_2 } ] } } }
Rufen Sie die Methode POST auf:
curl -X POST \ -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \ -H "Content-Type: application/json; charset=utf-8" \ --data @./data.json \ "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products:import"
Java
JSON-Datenformat für Produktelemente
Die Product
-Einträge in Ihrer JSON-Datei sollten wie die folgenden Beispiele aussehen.
Geben Sie ein ganzes Produkt in einer einzelnen Zeile an. Jedes Produkt sollte in einer eigenen Zeile stehen.
Pflichtfelder:
{ "id": "1234", "categories": "Apparel & Accessories > Shoes", "title": "ABC sneakers" } { "id": "5839", "categories": "casual attire > t-shirts", "title": "Crew t-shirt" }
Vollständiges Objekt ansehen
{ "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/1234", "id": "1234", "categories": "Apparel & Accessories > Shoes", "title": "ABC sneakers", "description": "Sneakers for the rest of us", "attributes": { "vendor": {"text": ["vendor123", "vendor456"]} }, "language_code": "en", "tags": [ "black-friday" ], "priceInfo": { "currencyCode": "USD", "price":100, "originalPrice":200, "cost": 50 }, "availableTime": "2020-01-01T03:33:33.000001Z", "availableQuantity": "1", "uri":"http://example.com", "images": [ {"uri": "http://example.com/img1", "height": 320, "width": 320 } ] } { "name": "projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/0/products/4567", "id": "4567", "categories": "casual attire > t-shirts", "title": "Crew t-shirt", "description": "A casual shirt for a casual day", "attributes": { "vendor": {"text": ["vendor789", "vendor321"]} }, "language_code": "en", "tags": [ "black-friday" ], "priceInfo": { "currencyCode": "USD", "price":50, "originalPrice":60, "cost": 40 }, "availableTime": "2020-02-01T04:44:44.000001Z", "availableQuantity": "2", "uri":"http://example.com", "images": [ {"uri": "http://example.com/img2", "height": 320, "width": 320 } ] }
Historische Katalogdaten
Vertex AI Search for Commerce unterstützt den Import und die Verwaltung von historischen Katalogdaten. Historische Katalogdaten können hilfreich sein, wenn Sie historische Nutzerereignisse für das Modelltraining verwenden. Frühere Produktinformationen können verwendet werden, um Verlaufsdaten für Nutzerereignisse anzureichern und die Modellgenauigkeit zu verbessern.
Historische Produkte werden als abgelaufene Produkte gespeichert. Sie werden nicht in Suchantworten zurückgegeben, sind aber für die API-Aufrufe Update
, List
und Delete
sichtbar.
Historische Katalogdaten importieren
Wenn das Feld expireTime
eines Produkts auf einen früheren Zeitstempel festgelegt ist, wird dieses Produkt als historisches Produkt betrachtet. Setzen Sie die Verfügbarkeit des Produkts auf OUT_OF_STOCK, um die Auswirkung von Empfehlungen zu vermeiden.
Wir empfehlen die folgenden Methoden zum Importieren von Katalogdaten:
- Aufrufen der Methode
Product.Create
. - Inline-Import abgelaufener Produkte
- Abgelaufene Produkte aus BigQuery importieren
Rufen Sie die Methode Product.Create
auf.
Verwenden Sie die Methode Product.Create
, um einen Product
-Eintrag mit dem Feld expireTime
zu erstellen, das auf einen früheren Zeitstempel gesetzt ist.
Inline-Import abgelaufener Produkte
Die Schritte sind mit dem Inline-Import identisch, mit der Ausnahme, dass für die Produkte die Felder expireTime
auf einen früheren Zeitstempel festgelegt sein müssen.
Geben Sie ein ganzes Produkt in einer einzelnen Zeile an. Jedes Produkt sollte in einer eigenen Zeile stehen.
Ein Beispiel für ./data.json
, das in der Inline-Importanfrage verwendet wird:
Dieses Beispiel in der Inline-Importanfrage ansehen
{ "inputConfig": { "productInlineSource": { "products": [ { "id": "historical_product_001", "categories": "Apparel & Accessories > Shoes", "title": "ABC sneakers", "expire_time": { "second": "2021-10-02T15:01:23Z" // a past timestamp } }, { "id": "historical product 002", "categories": "casual attire > t-shirts", "title": "Crew t-shirt", "expire_time": { "second": "2021-10-02T15:01:24Z" // a past timestamp } } ] } } }
Abgelaufene Produkte aus BigQuery oder Cloud Storage importieren
Verwenden Sie dieselben Verfahren, die für das Importieren von Katalogdaten aus BigQuery oder das Importieren von Katalogdaten aus Cloud Storage beschrieben werden. Setzen Sie das Feld expireTime
jedoch auf einen früheren Zeitstempel.
Katalog auf dem neuesten Stand halten
Für optimale Ergebnisse muss Ihr Katalog aktuelle Informationen enthalten. Wir empfehlen, Ihren Katalog täglich zu importieren, um sicherzustellen, dass der Katalog aktuell ist. Sie können Google Cloud Scheduler verwenden, um Importe zu planen, oder eine automatische Planungsoption auswählen, wenn Sie Daten über dieGoogle Cloud Console importieren.
Sie können nur neue oder geänderte Produktelemente aktualisieren oder den gesamten Katalog importieren. Wenn Sie Produkte importieren, die sich bereits in Ihrem Katalog befinden, werden sie nicht noch einmal hinzugefügt. Jedes geänderte Element wird aktualisiert.
Informationen zum Aktualisieren eines einzelnen Elements finden Sie unter Produktinformationen aktualisieren.
Batch-Update
Sie können die Importmethode verwenden, um Ihren Katalog im Batch zu aktualisieren. Gehen Sie genauso vor wie beim ersten Import. Folgen Sie der Anleitung unter Katalogdaten importieren.
Importstatus überwachen
So überwachen Sie die Katalogaufnahme und den Katalogzustand:
Auf dem Tab Katalog auf der Seite Daten für die Suche im Commerce-Bereich können Sie zusammengefasste Informationen zu Ihrem Katalog und eine Vorschau der hochgeladenen Produkte aufrufen.
Prüfen Sie auf der Seite Datenqualität, ob Sie Katalogdaten aktualisieren müssen, um die Qualität der Suchergebnisse zu verbessern und Leistungsstufen für die Suche freizuschalten.
Weitere Informationen dazu, wie Sie die Qualität von Suchdaten prüfen und Leistungsstufen für die Suche aufrufen, finden Sie unter Leistungsstufen für die Suche freischalten. Eine Zusammenfassung der auf dieser Seite verfügbaren Katalogmesswerte finden Sie unter Messwerte für die Katalogqualität.
Wenn Sie Benachrichtigungen erstellen möchten, die Sie informieren, wenn etwas mit Ihren Daten-Uploads passiert, folgen Sie der Anleitung unter Cloud Monitoring-Benachrichtigungen einrichten.
Es ist wichtig, Ihren Katalog auf dem neuesten Stand zu halten, um qualitativ hochwertige Ergebnisse zu erzielen. Mit Benachrichtigungen können Sie die Importfehlerraten überwachen und bei Bedarf Maßnahmen ergreifen.
Nächste Schritte
- Nutzerereignisse aufzeichnen
- Zusammengefasste Informationen zu Ihrem Katalog ansehen
- Richten Sie Benachrichtigungen über den Datenupload ein.