Integrazione con SAP

Questa pagina descrive i passaggi di integrazione per i carichi di lavoro operativi SAP (SAP ECC e SAP S/4 HANA) in Cortex Framework Data Foundation. Cortex Framework può accelerare l'integrazione dei dati SAP con BigQuery utilizzando modelli di elaborazione dei dati predefiniti con pipeline Dataflow in BigQuery, mentre Cloud Composer pianifica e monitora queste pipeline Dataflow per ottenere approfondimenti dai dati operativi SAP.

Il file config.json nel repository Cortex Framework Data Foundation configura le impostazioni necessarie per trasferire i dati da qualsiasi origine dati, inclusa SAP. Questo file contiene i seguenti parametri per i workload SAP operativi:

  "SAP": {
        "deployCDC": true,
        "datasets": {
            "cdc": "",
            "raw": "",
            "reporting": "REPORTING"
        },
        "SQLFlavor": "ecc",
        "mandt": "100"
    }

La tabella seguente descrive il valore di ogni parametro operativo SAP:

Parametro Significato Valore predefinito Descrizione
SAP.deployCDC Esegui il deployment di CDC true Genera script di elaborazione CDC da eseguire come DAG in Cloud Composer.
SAP.datasets.raw Set di dati di destinazione non elaborati - Utilizzato dal processo CDC, è dove lo strumento di replica inserisce i dati da SAP. Se utilizzi dati di test, crea un set di dati vuoto.
SAP.datasets.cdc Set di dati elaborato CDC - Dataset che funge da origine per le visualizzazioni dei report e da destinazione per i DAG di record elaborati. Se utilizzi dati di test, crea un set di dati vuoto.
SAP.datasets.reporting Set di dati dei report SAP "REPORTING" Nome del set di dati accessibile agli utenti finali per la generazione di report, in cui vengono implementate le viste e le tabelle rivolte agli utenti.
SAP.SQLFlavor Variante SQL per il sistema di origine "ecc" s4 o ecc. Per i dati di test, mantieni il valore predefinito (ecc).
SAP.mandt Mandante o cliente "100" Mandante o client predefinito per SAP. Per i dati di test, mantieni il valore predefinito (100).
SAP.languages Filtro per lingua ["E","S"] Codici lingua SAP (SPRAS) da utilizzare per i campi pertinenti (ad esempio i nomi).
SAP.currencies Filtro per valuta ["USD"] Codici valuta target SAP (TCURR) per la conversione di valute.

Sebbene non sia richiesta una versione minima di SAP, i modelli ECC sono stati sviluppati sulla versione di SAP ECC meno recente attualmente supportata. Sono previste differenze nei campi tra il nostro sistema e altri sistemi, indipendentemente dalla versione.

Modello dati

Questa sezione descrive i modelli di dati SAP (ECC e S/4 HANA) utilizzando i diagrammi entità-relazione (ERD).

SAP ECC

Diagramma delle relazioni tra entità per SAP ECC

Figura 2. SAP ECC: diagramma delle relazioni tra entità.

SAP S/4 HANA

Diagramma delle relazioni tra entità per SAP S/4 HANA

Figura 2. SAP S/4 HANA: Entity Relationship Diagram.

Visualizzazioni di base

Si tratta degli oggetti blu nel diagramma ERD e sono viste delle tabelle CDC senza trasformazioni, ad eccezione di alcuni alias dei nomi delle colonne. Vedi gli script in src/SAP/SAP_REPORTING.

Viste report

Si tratta degli oggetti verdi nel diagramma ERD e contengono gli attributi dimensionali pertinenti utilizzati dalle tabelle dei report. Vedi gli script in src/SAP/SAP_REPORTING.

Visualizzazione Utilità o BQML

Si tratta degli oggetti gialli nel diagramma ER e contengono i fatti e le dimensioni uniti tipo specifico di visualizzazione utilizzato per l'analisi e la generazione di report sui dati. Vedi gli script su src/SAP/SAP_REPORTING.

Tag aggiuntivi

I tag codificati per colore in questo diagramma ER rappresentano le seguenti funzionalità delle tabelle dei report:

Tag Colore Descrizione
L Giallo Questo tag si riferisce a un elemento o attributo di dati che specifica la lingua in cui i dati vengono archiviati o visualizzati.
S/4 Rosso Questo tag indica che attributi specifici sono specifici per SAP S/4 HANA (questo oggetto potrebbe non essere in SAP ECC).
MANDT Viola Questo tag indica che attributi specifici contengono il parametro MANDT (che rappresenta il cliente o l'ID client) per determinare a quale istanza di cliente o azienda appartiene un record di dati specifico.
EXT Rosso Questo tag indica che oggetti specifici vengono compilati da DAG o da set di dati esterni. Ciò significa che l'entità o la tabella contrassegnata non è memorizzata direttamente nel sistema SAP, ma può essere estratta e caricata in SAP utilizzando un DAG o un altro meccanismo.
T Viola Questo tag indica che attributi specifici verranno materializzati automaticamente utilizzando il DAG configurato.
S Rosso Questo tag indica che i dati all'interno di un'entità o di tabelle sono influenzati o interessati da più valute.

Prerequisiti per la replica SAP

Considera i seguenti prerequisiti per i dati di replica SAP con Cortex Framework Data Foundation:

  • Integrità dei dati: Cortex Framework Data Foundation prevede che le tabelle SAP vengano replicate con nomi, tipi e strutture di dati dei campi identici a quelli esistenti in SAP. Se le tabelle vengono replicate con lo stesso formato, gli stessi nomi dei campi e la stessa granularità dell'origine, non è necessario utilizzare uno strumento di replica specifico.
  • Denominazione delle tabelle: i nomi delle tabelle BigQuery devono essere creati in lettere minuscole.
  • Configurazione tabella: l'elenco delle tabelle utilizzate dai modelli SAP è disponibile e configurabile nel file CDC (Change Data Capture) cdc_settings.yaml. Se una tabella non è elencata durante il deployment, i modelli che dipendono da essa non andranno a buon fine, mentre gli altri modelli non dipendenti verranno implementati correttamente.
  • Considerazioni specifiche BigQuery Connector per SAP:
  • Replica dei metadati: se non esegui il deployment dei dati di test e non generi gli script DAG CDC durante il deployment, assicurati che la tabella DD03L per i metadati SAP venga replicata da SAP nel progetto di origine. Questa tabella contiene metadati sulle tabelle, ad esempio l'elenco delle chiavi, ed è necessaria per il funzionamento del generatore CDC e del resolver delle dipendenze. Questa tabella ti consente anche di aggiungere tabelle non coperte dal modello, ad esempio tabelle personalizzate o Z, in modo da poter generare script CDC.
  • Gestione di piccole variazioni del nome della tabella: se il nome di una tabella presenta piccole differenze, alcune visualizzazioni potrebbero non trovare i campi richiesti, perché i sistemi SAP potrebbero presentare piccole variazioni dovute a versioni o componenti aggiuntivi oppure perché alcuni strumenti di replica potrebbero gestire in modo leggermente diverso i caratteri speciali. Ti consigliamo di eseguire il deployment con turboMode : false per individuare il maggior numero di errori in un solo tentativo. Alcuni problemi comuni includono:

    • I campi che iniziano con _ (ad esempio, _DATAAGING) non hanno più _.
    • I campi non possono iniziare con / in BigQuery.

    In questa situazione, puoi modificare la visualizzazione non riuscita per selezionare il campo così come viene visualizzato dallo strumento di replica che preferisci.

Replicare i dati non elaborati da SAP

Lo scopo di Data Foundation è esporre modelli di dati e analisi per report e applicazioni. I modelli utilizzano i dati replicati da un sistema SAP utilizzando uno strumento di replica preferito, come quelli elencati nelle guide all'integrazione dei dati per SAP.

I dati del sistema SAP (ECC o S/4 HANA) vengono replicati in formato non elaborato. I dati vengono copiati direttamente da SAP a BigQuery senza alcuna modifica alla loro struttura. Si tratta essenzialmente di un'immagine speculare delle tabelle nel tuo sistema SAP. BigQuery utilizza nomi di tabelle in minuscolo per il suomodello dei datii. Pertanto, anche se le tabelle SAP potrebbero avere nomi in maiuscolo (come MANDT), vengono convertite in minuscolo (come mandt) in BigQuery.

Elaborazione Change Data Capture (CDC)

Scegli una delle seguenti modalità di elaborazione CDC offerte da Cortex Framework per gli strumenti di replica per caricare i record da SAP:

  • Aggiungi sempre: inserisci ogni modifica in un record con un timestamp e un flag di operazione (Inserisci, Aggiorna, Elimina), in modo che sia possibile identificare l'ultima versione.
  • Update when landing (Aggiorna all'arrivo) (unisci o upsert): crea una versione aggiornata di un record all'arrivo in change data capture processed. Esegue l'operazione CDC in BigQuery.

Cortex Framework Data Foundation supporta entrambe le modalità, anche se per l'accodamento permanente fornisce modelli di elaborazione CDC. Alcune funzionalità devono essere commentate per l'aggiornamento all'arrivo. Ad esempio, OneTouchOrder.sql e tutte le relative query dipendenti. La funzionalità può essere sostituita con tabelle come CDPOS.

Elaborazione CDC

Figura 1. Elaborazione del CDC.

Configura i modelli CDC per gli strumenti di replica in modalità di accodamento permanente

Ti consigliamo vivamente di configurare cdc_settings.yaml in base alle tue esigenze. Alcune frequenze predefinite potrebbero comportare costi inutili se l'attività non richiede un tale livello di aggiornamento dei dati. Se utilizzi uno strumento che viene eseguito in modalità di accodamento permanente, Cortex Framework Data Foundation fornisce modelli CDC per automatizzare gli aggiornamenti e creare una versione più recente della verità o del gemello digitale nel set di dati elaborato con CDC.

Puoi utilizzare la configurazione nel file cdc_settings.yaml se devi generare script di elaborazione CDC. Per le opzioni, vedi Configurare l'elaborazione CDC. Per i dati di test, puoi lasciare questo file come predefinito.

Apporta tutte le modifiche necessarie ai modelli DAG in base alla tua istanza di Airflow o Cloud Composer. Per saperne di più, vedi Raccolta delle impostazioni di Cloud Composer.

(Facoltativo) Se vuoi aggiungere ed elaborare le tabelle singolarmente dopo il deployment, puoi modificare il file cdc_settings.yaml per elaborare solo le tabelle che ti servono ed eseguire nuovamente la chiamata al modulo specificato src/SAP_CDC/cloudbuild.cdc.yaml direttamente.

Configurare l'elaborazione CDC

Durante il deployment, puoi scegliere di unire le modifiche in tempo reale utilizzando una vista in BigQuery o pianificando un'operazione di unione in Cloud Composer (o qualsiasi altra istanza di Apache Airflow). Cloud Composer può pianificare l'esecuzione degli script per elaborare periodicamente le operazioni di unione. I dati vengono aggiornati all'ultima versione ogni volta che vengono eseguite le operazioni di unione, tuttavia, operazioni di unione più frequenti si traducono in costi più elevati. Personalizza la frequenza pianificata in base alle esigenze della tua attività. Per saperne di più, consulta Pianificazione supportata da Apache Airflow.

Il seguente script di esempio mostra un estratto del file di configurazione:

  data_to_replicate:
    - base_table: adrc
      load_frequency: "@hourly"
    - base_table: adr6
      target_table: adr6_cdc
      load_frequency: "@daily"

Questo file di esempio di configurazione esegue le seguenti operazioni:

  1. Crea una copia da SOURCE_PROJECT_ID.REPLICATED_DATASET.adrc in TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adrc, se quest'ultima non esiste.
  2. Crea uno script CDC nel bucket specificato.
  3. Crea una copia da SOURCE_PROJECT_ID.REPLICATED_DATASET.adr6 in TARGET_PROJECT_ID.DATASET_WITH_LATEST_RECORDS.adr6_cdc, se quest'ultima non esiste.
  4. Crea uno script CDC nel bucket specificato.

Se vuoi creare DAG o visualizzazioni di runtime per elaborare le modifiche alle tabelle che esistono in SAP e non sono elencate nel file, aggiungile a questo file prima del deployment. Questa operazione funziona a condizione che la tabella DD03L venga replicata nel set di dati di origine e che lo schema della tabella personalizzata sia presente in questa tabella. Ad esempio, la seguente configurazione crea uno script CDC per la tabella personalizzata zztable_customer e una vista di runtime per analizzare le modifiche in tempo reale per un'altra tabella personalizzata denominata zzspecial_table:

    - base_table: zztable_customer
      load_frequency: "@daily"
    - base_table: zzspecial_table
      load_frequency: "RUNTIME"

Esempio di modello generato

Il seguente modello genera l'elaborazione delle modifiche. Modifiche, come il nome del campo timestamp o operazioni aggiuntive, possono essere modificate a questo punto:

  MERGE `${target_table}` T
  USING (
     SELECT *
     FROM `${base_table}`
     WHERE
        recordstamp > (
            SELECT IF(
                MAX(recordstamp) IS NOT NULL,
                MAX(recordstamp),
                TIMESTAMP("1940-12-25 05:30:00+00"))
            FROM `${target_table}` )
  ) S
  ON ${p_key}
  WHEN MATCHED AND S.operation_flag='D' AND S.is_deleted = true THEN
    DELETE
  WHEN NOT MATCHED AND S.operation_flag='I' THEN
    INSERT (${fields})
    VALUES
    (${fields})
  WHEN MATCHED AND S.operation_flag='U' THEN
  UPDATE SET
      ${update_fields}

In alternativa, se la tua attività richiede insight in tempo quasi reale e lo strumento di replica lo supporta, lo strumento di deployment accetta l'opzione RUNTIME. Ciò significa che non verrà generato uno script CDC. Una visualizzazione, invece, esegue la scansione e recupera l'ultimo record disponibile in fase di runtime per una coerenza immediata.

Struttura delle directory per i DAG e gli script CDC

La struttura del bucket Cloud Storage per i DAG SAP CDC prevede che i file SQL vengano generati in /data/bq_data_replication, come nell'esempio seguente. Puoi modificare questo percorso prima del deployment. Se non hai ancora un ambiente Cloud Composer disponibile, puoi crearne uno in un secondo momento e spostare i file nel bucket DAG.

with airflow.DAG("CDC_BigQuery_${base table}",
                template_searchpath=['/home/airflow/gcs/data/bq_data_replication/'], ##example
                default_args=default_dag_args,
                schedule_interval="${load_frequency}") as dag:
    start_task = DummyOperator(task_id="start")
    copy_records = BigQueryOperator(
      task_id='merge_query_records',
        sql="${query_file}",
        create_disposition='CREATE_IF_NEEDED',
        bigquery_conn_id="sap_cdc_bq", ## example
        use_legacy_sql=False)
    stop_task = DummyOperator (task_id="stop")
    start_task >> copy_records >> stop_task

Gli script che elaborano i dati in Airflow o Cloud Composer vengono generati appositamente separatamente dagli script specifici di Airflow. In questo modo puoi trasferire questi script a un altro strumento a tua scelta.

Campi CDC richiesti per le operazioni MERGE

Specifica i seguenti parametri per la generazione automatica dei processi batch CDC:

  • Progetto di origine + set di dati:il set di dati in cui vengono trasmessi o replicati i dati SAP. Affinché gli script CDC funzionino per impostazione predefinita, le tabelle devono avere un campo timestamp (denominato recordstamp) e un campo operazione con i seguenti valori, tutti impostati durante la replica:
    • I: per Inserisci.
    • U: per Aggiorna.
    • D: per l'eliminazione.
  • Progetto di destinazione + set di dati per l'elaborazione CDC: lo script generato per impostazione predefinita genera le tabelle da una copia del set di dati di origine se non esistono.
  • Tabelle replicate: le tabelle per cui devono essere generati gli script
  • Frequenza di elaborazione: seguendo la notazione Cron, la frequenza con cui è prevista l'esecuzione dei DAG:
  • Bucket Cloud Storage di destinazione in cui vengono copiati i file di output CDC.
  • Nome della connessione: il nome della connessione utilizzata da Cloud Composer.
  • (Facoltativo) Nome della tabella di destinazione: disponibile se il risultato dell'elaborazione CDC rimane nello stesso set di dati della destinazione.

Ottimizzazione delle prestazioni per le tabelle CDC

Per alcuni set di dati CDC, potresti voler sfruttare il partizionamento delle tabelle, il clustering delle tabelle o entrambi di BigQuery. Questa scelta dipende dai seguenti fattori:

  • Dimensioni e dati della tabella.
  • Colonne disponibili nella tabella.
  • Necessità di dati in tempo reale con visualizzazioni.
  • Dati materializzati come tabelle.

Per impostazione predefinita, le impostazioni CDC non applicano il partizionamento o il clustering delle tabelle. La scelta di configurarlo in base alle tue esigenze è tua. Per creare tabelle con partizioni o cluster, aggiorna il file cdc_settings.yaml con le configurazioni pertinenti. Per saperne di più, consulta Partizione della tabella e Impostazioni del cluster.

  1. Questa funzionalità si applica solo quando un set di dati in cdc_settings.yaml è configurato per la replica come tabella (ad esempio load_frequency = "@daily") e non definito come vista (load_frequency = "RUNTIME").
  2. Una tabella può essere sia tabella partizionata che raggruppata in cluster.

Se utilizzi uno strumento di replica che consente le partizioni nel set di dati non elaborati, come BigQuery Connector per SAP, è consigliabile impostare partizioni basate sul tempo nelle tabelle non elaborate. Il tipo di partizione funziona meglio se corrisponde alla frequenza dei DAG CDC nella configurazione cdc_settings.yaml. Per ulteriori informazioni, vedi Considerazioni sulla progettazione per la modellazione dei dati SAP in BigQuery.

(Facoltativo) Configurazione del modulo di inventario SAP

Il modulo Inventario SAP di Cortex Framework include le visualizzazioni InventoryKeyMetrics e InventoryByPlant che forniscono informazioni chiave sul tuo inventario. Queste visualizzazioni sono supportate da tabelle di snapshot mensili e settimanali che utilizzano DAG specializzati. Entrambi possono essere eseguiti contemporaneamente e non interferiscono tra loro.

Per aggiornare una o entrambe le tabelle snapshot:

  1. Aggiorna SlowMovingThreshold.sql e StockCharacteristicsConfig.sql per definire la soglia di lento movimento e le caratteristiche delle scorte per diversi tipi di materiali, in base ai tuoi requisiti.

  2. Per il caricamento iniziale o l'aggiornamento completo, esegui i DAG Stock_Monthly_Snapshots_Initial e Stock_Weekly_Snapshots_Initial.

  3. Per gli aggiornamenti successivi, pianifica o esegui i seguenti DAG:

    • Aggiornamenti mensili e settimanali:
      • Stock_Monthly_Snapshots_Periodical_Update
      • Stock_Weekly_Snapshots_periodical_Update
    • Aggiornamento giornaliero:
      • Stock_Monthly_Snapshots_Daily_Update
      • Stock_Weekly_Snapshots_Update_Daily
  4. Aggiorna le visualizzazioni intermedie StockMonthlySnapshots e StockWeeklySnapshots, seguite dalle visualizzazioni InventoryKeyMetrics e InventoryByPlants, rispettivamente, per visualizzare i dati aggiornati.

(Facoltativo) Configurare la visualizzazione Testi gerarchia prodotto

La visualizzazione Testi gerarchia prodotto appiattisce i materiali e le relative gerarchie di prodotto. La tabella risultante può essere utilizzata per fornire al componente aggiuntivo Trends un elenco di termini per recuperare Interesse nel tempo. Configura questa visualizzazione seguendo questi passaggi:

  1. Regola i livelli della gerarchia e la lingua nel file prod_hierarchy_texts.sql, nei marcatori per ## CORTEX-CUSTOMER.
  2. Se la gerarchia dei prodotti contiene più livelli, potresti dover aggiungere un'ulteriore istruzione SELECT simile all'espressione di tabella comune h1_h2_h3.

    Potrebbero essere disponibili personalizzazioni aggiuntive a seconda dei sistemi di origine. Ti consigliamo di coinvolgere gli utenti aziendali o gli analisti all'inizio del processo per individuarli.

(Facoltativo) Configurazione delle visualizzazioni di flattening della gerarchia

A partire dalla release v6.0, Cortex Framework supporta l'appiattimento della gerarchia come viste dei report. Si tratta di un miglioramento significativo rispetto al legacy hierarchy flattener, in quanto ora appiattisce l'intera gerarchia, esegue un'ottimizzazione migliore per S/4 utilizzando tabelle specifiche di S/4 anziché tabelle ECC legacy e migliora notevolmente le prestazioni.

Riepilogo delle viste report

Trova le seguenti visualizzazioni correlate all'appiattimento della gerarchia:

Tipo di gerarchia Tabella contenente solo la gerarchia piatta Visualizzazioni per visualizzare la gerarchia piatta Logica di integrazione del conto economico utilizzando questa gerarchia
Versione del rendiconto finanziario (FSV) fsv_glaccounts FSVHierarchyFlattened ProfitAndLossOverview
Centro di profitto profit_centers ProfitCenterHierarchyFlattened ProfitAndLossOverview_ProfitCenterHierarchy
Centro di costo cost_centers CostCenterHierarchyFlattened ProfitAndLossOverview_CostCenterHierarchy

Tieni presente quanto segue quando utilizzi le visualizzazioni di compressione della gerarchia:

  • Le visualizzazioni gerarchiche compresse sono funzionalmente equivalenti alle tabelle generate dalla soluzione di compressione gerarchica legacy.
  • Le viste panoramiche non vengono implementate per impostazione predefinita perché sono pensate per mostrare solo la logica BI. Trova il codice sorgente nella directory src/SAP/SAP_REPORTING.

Configurazione dell'appiattimento della gerarchia

In base alla gerarchia con cui stai lavorando, sono necessari i seguenti parametri di input:

Tipo di gerarchia Parametro obbligatorio Campo Origine (ECC) Campo Origine (S4)
Versione del rendiconto finanziario (FSV) Piano dei conti ktopl nodecls
Nome gerarchia versn hryid
Centro di profitto Classe del set setclass setclass
Unità organizzativa: area di controllo o chiave aggiuntiva per il set. subclass subclass
Centro di costo Classe del set setclass setclass
Unità organizzativa: area di controllo o chiave aggiuntiva per il set. subclass subclass

Se non hai la certezza dei parametri esatti, rivolgiti a un consulente SAP per la finanza o il controllo.

Una volta raccolti i parametri, aggiorna i commenti ## CORTEX-CUSTOMER all'interno di ciascuna delle directory corrispondenti, in base ai tuoi requisiti:

Tipo di gerarchia Posizione del codice
Versione del rendiconto finanziario (FSV) src/SAP/SAP_REPORTING/local_k9/fsv_hierarchy
Centro di profitto src/SAP/SAP_REPORTING/local_k9/profitcenter_hierarchy
Centro di costo src/SAP/SAP_REPORTING/local_k9/costcenter_hierarchy

Se applicabile, assicurati di aggiornare i ## CORTEX-CUSTOMERcommenti all'interno delle visualizzazioni dei report pertinenti nella directory src/SAP/SAP_REPORTING.

Dettagli della soluzione

Per l'appiattimento della gerarchia vengono utilizzate le seguenti tabelle di origine:

Tipo di gerarchia Tabelle di origine (ECC) Tabelle di origine (S4)
Versione del rendiconto finanziario (FSV)
  • fagl_011pc
  • fagl_011zc
  • ska1
  • hrrp_node
  • hrrp_directory
  • ska1
Centro di profitto
  • setheader
  • setnode
  • setleaf
  • sethanahier0106
Centro di costo
  • setheader
  • setnode
  • setleaf
  • sethanahier0101

Visualizzare le gerarchie

La soluzione di appiattimento della gerarchia SAP di Cortex appiattisce l'intera gerarchia. Se vuoi creare una rappresentazione visiva della gerarchia caricata che sia paragonabile a quella mostrata da SAP nell'interfaccia utente, esegui una query su una delle viste per visualizzare le gerarchie compresse con la condizione IsLeafNode=True.

Migrazione dalla soluzione di appiattimento della gerarchia legacy

Per eseguire la migrazione dalla soluzione di flattening della gerarchia precedente a Cortex v6.0, sostituisci le tabelle come mostrato nella tabella seguente. Assicurati di controllare l'accuratezza dei nomi dei campi, poiché alcuni sono stati leggermente modificati. Ad esempio, prctr in cepc_hier ora è profitcenter nella tabella profit_centers.

Tipo di gerarchia Sostituisci questa tabella: Con:
Versione del rendiconto finanziario (FSV) ska1_hier fsv_glaccounts
Centro di profitto cepc_hier profit_centers
Centro di costo csks_hier cost_centers

(Facoltativo) Configurazione del modulo SAP Finance

Il modulo SAP Finance di Cortex Framework include le visualizzazioni FinancialStatement, BalanceSheet e ProfitAndLoss che forniscono informazioni finanziarie chiave.

Per aggiornare queste tabelle di Finance:

Per il caricamento iniziale

  1. Dopo il deployment, assicurati che il set di dati CDC sia compilato correttamente (esegui i DAG CDC necessari).
  2. Assicurati che le visualizzazioni di compressione della gerarchia siano configurate correttamente per i tipi di gerarchie che utilizzi (FSV, Centro di costo e Centro di profitto).
  3. Esegui il DAG financial_statement_initial_load.

  4. Se vengono implementati come tabelle (opzione consigliata), aggiorna i seguenti elementi in ordine eseguendo i DAG corrispondenti:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Per l'aggiornamento periodico

  1. Assicurati che le visualizzazioni di compressione della gerarchia siano configurate correttamente e aggiornate per i tipi di gerarchie che utilizzi (FSV, centro di costo e centro di profitto).
  2. Pianifica o esegui il DAG financial_statement_periodical_load.

  3. Se vengono implementati come tabelle (opzione consigliata), aggiorna i seguenti elementi in ordine eseguendo i DAG corrispondenti:

    1. Financial_Statements
    2. BalanceSheets
    3. ProfitAndLoss

Per visualizzare i dati di queste tabelle, consulta le seguenti visualizzazioni Panoramica:

  • ProfitAndLossOverview.sql se utilizzi la gerarchia FSV.
  • ProfitAndLossOverview_CostCenter.sql se utilizzi la gerarchia dei centri di costo.
  • ProfitAndLossOverview_ProfitCenter.sql se utilizzi la gerarchia del Centro profitti.

(Facoltativo) Attivazione dei DAG dipendenti dalle attività

Cortex Framework fornisce facoltativamente impostazioni di dipendenza consigliate per la maggior parte delle tabelle SQL SAP (ECC e S/4 HANA), in cui tutte le tabelle dipendenti possono essere aggiornate da un singolo DAG. Puoi personalizzarli ulteriormente. Per ulteriori informazioni, consulta DAG dipendenti dalle attività.

Passaggi successivi