Versione 2.0: guida alle operazioni BigQuery Connector per SAP

Questa guida mostra agli amministratori di SAP LT Replication Server, ai data engineer SAP o ad altri utenti come eseguire attività operative, come l'ottimizzazione delle prestazioni e gli aggiornamenti della versione, per le versioni 2.0 e 2.1 del BigQuery Connector per SAP.

Ottimizzazione delle prestazioni della replica

Le prestazioni di replica possono essere influenzate da più fattori. I fattori specifici applicabili possono essere diversi dall'installazione all'installazione e possono cambiare nel tempo.

Le seguenti sezioni forniscono indicazioni su come ottimizzare alcuni dei fattori più comuni che possono influire sulle prestazioni.

Per ulteriori informazioni sulle prestazioni di replica con BigQuery Connector per SAP, consulta Pianificazione delle prestazioni.

Impostare le opzioni di rendimento per le tabelle

In SAP LT Replication Server puoi specificare le opzioni di replica per ogni tabella che influiscono sulle prestazioni.

In particolare, le prestazioni di replica per le tabelle di grandi dimensioni, che richiedono più tempo e risorse per la replica, possono trarre vantaggio dallo specificare gli intervalli e dall'aumento del numero massimo di job di replica paralleli utilizzabili per la tabella.

Esempi di tabelle che in genere diventano grandi sono MSEG, ACDOCA e MATDOC, tra le altre.

Quando specifichi job di replica paralleli per le tabelle di grandi dimensioni, devi bilanciare il numero di job paralleli consentiti per una determinata tabella rispetto al numero totale di job paralleli consentiti nella configurazione del trasferimento di massa. La tua organizzazione potrebbe anche limitare il numero di job di replica parallela che puoi specificare per un determinato server.

Per impostare le opzioni di rendimento per una tabella:

  1. Nella GUI di SAP, inserisci la transazione SAP LTRS.

  2. Nella schermata Impostazioni di replica avanzate, specifica l'ID delle impostazioni di trasferimento di massa per la tabella.

  3. Nella gerarchia delle cartelle Impostazioni di replica avanzate, fai clic sulla cartella Opzioni di rendimento per visualizzare le tabelle in cui sono definite le opzioni relative alle prestazioni.

  4. Se la tabella necessaria non è presente nell'elenco, fai clic con il pulsante destro del mouse sulla cartella Opzioni rendimento e seleziona Aggiungi tabella.

  5. Specifica un nome per la tabella.

  6. Specifica le seguenti opzioni in base alle tue esigenze:

    • In Opzioni generali di rendimento:
      • N. di job paralleli, per impostare il numero massimo di job di replica paralleli che possono essere utilizzati per la tabella.
      • Numero di sequenza, per dare priorità alla replica di questa tabella rispetto ad altre repliche.
    • In Opzioni di caricamento iniziali:
      • In Tipo di lettura, seleziona Calcolo intervallo Tipo di lettura 1, se la tabella non è troppo grande. Per ulteriori informazioni, consulta Prestazioni e impostazioni di replica avanzate di LTRS.
      • In Dimensione pacchetto, specifica le dimensioni in byte delle parti dei record che vengono inviate al server di replica SAP LT.
      • Se selezioni un tipo di lettura che utilizza intervalli, definisci gli intervalli appropriati.
    • In Opzione di replica:
      • In Intervalli per la tabella di logging, specifica Nessun intervallo per l'opzione più affidabile.
      • Se selezioni Specifica intervalli per manualmente, definisci gli intervalli appropriati.
  7. Fai clic su Salva.

Benchmark di rendimento di riferimento

Per aiutarti a valutare le prestazioni della replica, questa sezione contiene valori di riferimento delle prestazioni osservati nei sistemi di test di Google Cloud.

A causa dei numerosi fattori che influiscono sul rendimento, è probabile che i valori relativi al rendimento possano variare.

Ad esempio, se i tuoi sistemi SAP non sono in esecuzione su Google Cloud, le velocità di caricamento e replica potrebbero essere più lente rispetto alle tariffe di riferimento a causa di fattori quali la latenza di rete e l'overhead associato ai token di accesso. Se la tabella di origine ha meno colonne o installi il server di replica SAP LT sul proprio server in un'architettura autonoma, le tariffe potrebbero essere più rapide perché il server di replica SAP LT non deve competere con il sistema di origine per le risorse.

Numeri di riferimento osservati sulle prestazioni di riferimento

I seguenti valori relativi alle prestazioni rappresentano le prestazioni di riferimento che sono state osservate da Google Cloud per ogni tipo di sistema di origine durante i test. In ogni sistema di test, SAP LT Replication Server è stato installato sul sistema di origine SAP in un'architettura incorporata nelle VM di Compute Engine. Il sistema di origine SAP era in esecuzione nella stessa regione Google Cloud del set di dati BigQuery di destinazione.

Per informazioni sulla configurazione dei sistemi di test, consulta Configurazione del sistema di test delle prestazioni di riferimento.

Per visualizzare i valori sul rendimento, fai clic sul tipo di sistema di origine:

S/4HANA

  • Tabella: ACDOCA
    • 343 milioni di record
    • 477 colonne
  • Caricamento iniziale
    • Velocità di caricamento:350 milioni di record all'ora in media.
    • Durata di caricamento:in media 59 minuti.
  • Replica
    • Tasso di modifica della tabella di origine:50 milioni di record all'ora in media.
    • Frequenza di replica massima:50 milioni di record all'ora in media.

ECC

  • Tabella: MSEG
    • 203 milioni di record
    • 188 colonne
  • Caricamento iniziale
    • Velocità di caricamento:385 milioni di record all'ora in media.
    • Durata di caricamento:in media 32 minuti.
  • Replica
    • Tasso di modifica della tabella di origine:50 milioni di record all'ora in media.
    • Frequenza di replica massima:69 milioni di record all'ora in media.

I dati sulle prestazioni precedenti sono le basi osservate dai tester di Google Cloud.

Le prestazioni osservate erano migliori nei sistemi di test che avevano i seguenti attributi:

  • SAP LT Replication Server è stato installato sulla propria VM in un'architettura autonoma.
    • Per i sistemi S/4HANA, è stato osservato che un'architettura autonoma ha una velocità di caricamento iniziale di circa il 42% superiore rispetto a un'architettura incorporata, grazie alla scalabilità indipendente dei processi di SAP LT Replication Server.
    • Per i sistemi ECC, è stato osservato che un'architettura autonoma ha una velocità di caricamento iniziale di circa il 10% superiore rispetto a un'architettura incorporata, grazie alla scalabilità indipendente dei processi di SAP LT Replication Server.
  • La tabella di origine aveva meno colonne.
  • Le dimensioni in byte complessive dei record erano inferiori.

Per informazioni sugli attributi di sistema che puoi modificare per migliorare le prestazioni, vedi:

Configurazione del sistema di test delle prestazioni di riferimento

I sistemi di test descritti in questa sezione hanno prodotto i valori relativi alle prestazioni di riferimento elencati nella sezione precedente, Valori delle prestazioni di riferimento osservate.

I sistemi di test, inclusi il sistema di origine SAP, il server di replica SAP LT e il set di dati BigQuery, erano tutti in esecuzione su VM di Compute Engine nella stessa regione di Google Cloud.

In ciascun sistema, i server e il carico di lavoro sono stati progettati per simulare un carico di lavoro più pesante e un volume di replica più elevato che probabilmente troverai in molte installazioni reali.

Per visualizzare gli attributi del sistema di test, fai clic sul tipo di sistema di origine:

S/4HANA

  • Architettura di installazione del server di replica SAP LT:
    • Architettura incorporata
  • Server di sistema di origine:
    • Due server delle applicazioni, ciascuno su un tipo di macchina personalizzata di Compute Engine basato su N2 con le seguenti specifiche:
      • vCPU: 60
      • Memoria: 324 GB
      • Piattaforma CPU: Intel Cascade Lake
    • Un server SAP HANA su una VM Compute Engine m1-ultramem-80 con le seguenti specifiche:
      • vCPU: 80
      • Memoria: 1900 GB
      • Piattaforma CPU: Intel Broadwell
  • Versioni software:
    • S/4HANA 1909
    • Server di replica SAP LT: S/4CORE 104 SP00
  • Dimensioni della tabella:
    • Nome tabella: ACDOCA, dati elemento pubblicitario per le voci del diario del registro generale
    • Numero di record: 343 milioni
    • Numero di colonne: 477
  • Processi di lavoro su ciascun server delle applicazioni:
    • 60 Processi relativi alle finestre di dialogo
    • 220 Procedure in background
  • Carica le impostazioni in SAP LT Replication Server:
    • Posti di lavoro: 99
    • Tipo di lettura: 1 intervallo
    • Calcolo: intervalli automatici
  • Impostazioni di replica:
    • Posti di lavoro: 99
    • Utilizzare i campi chiave per calcolare gli intervalli per la tabella di logging
    • 128 intervalli

ECC

  • Architettura di installazione del server di replica SAP LT:
    • Architettura incorporata
  • Server di sistema di origine:
    • Due server delle applicazioni, ciascuno su una VM di Compute Engine n2-highmem-48 con le seguenti specifiche:
      • vCPU: 60
      • Memoria: 348 GB
      • Piattaforma CPU: Intel Cascade Lake
  • Versioni software:
    • SAP NetWeaver: 7.0 EHP2
    • Server di replica SAP LT: DMIS 2011_1_700 SP17
  • Dimensioni della tabella:
    • Tabella: MSEG, documenti per la gestione dell'inventario dei materiali
    • Numero di record: 203 milioni
    • Numero di colonne: 188
  • Processi di lavoro su ciascun server delle applicazioni:
    • 60 Processi relativi alle finestre di dialogo
    • 100 processi in background
  • Carica le impostazioni in SAP LT Replication Server:
    • Posti di lavoro: 99
    • Tipo di lettura: 5 mittente
    • Coda: intervalli manuali
  • Impostazioni di replica:
    • Posti di lavoro: 99
    • Intervalli per la tabella di logging: utilizzare i campi chiave per calcolare gli intervalli
    • Numero di intervalli: 128

Sposta le impostazioni del trasferimento di massa in produzione

Per portare le impostazioni del trasferimento di massa in produzione, devi prima esportarle da un sistema di sviluppo e poi importarle nel sistema di produzione.

Facoltativamente, puoi importare tre parti separate delle impostazioni di un trasferimento di massa in produzione:

  • Le impostazioni di replica avanzate, a cui è possibile accedere tramite la transazione LTRS.
  • Le impostazioni della chiave client dalla tabella /GOOG/CLIENT_KEY, a cui è possibile accedere mediante la transazione SM30.
  • BigQuery Connector per SAP consente di accedere alle impostazioni di trasferimento di massa, a cui è possibile accedere utilizzando la transazione /GOOG/SLT_SETTINGS.

Esportazione delle impostazioni di un trasferimento di massa da un sistema di sviluppo

Nel sistema di sviluppo SAP LT Replication Server, esporta ogni parte delle impostazioni del trasferimento di massa:

  1. Esporta le impostazioni di replica avanzate:

    1. Esegui la transazione LTRS.
    2. Seleziona i record del trasferimento di massa che intendi trasportare in produzione.
    3. Dal menu a discesa File, seleziona Esporta tutte le impostazioni.
    4. Nella finestra di dialogo Esporta impostazioni, seleziona una destinazione e fai clic su Salva. Le impostazioni vengono salvate in un file compresso in formato CSV sulla workstation locale.
  2. Esporta le impostazioni del trasferimento di massa BigQuery Connector per SAP:

    1. Esegui la transazione /GOOG/SLT_SETTINGS:

      /n/GOOG/SLT_SETTINGS
    2. Nel campo Tabella delle impostazioni, seleziona Trasferimento di massa.

    3. Seleziona i record del trasferimento di massa che intendi trasportare in produzione.

    4. Fai clic su Transport Mass Transfer.

    5. In Richiesta di prompt per Workbench, inserisci il numero della richiesta di trasporto e fai clic sull'icona Continua. Per ogni record di trasferimento di massa selezionato, nel trasporto sono incluse le impostazioni delle seguenti tabelle di configurazione personalizzate:

      • /GOOG/BQ_MASTR
      • /GOOG/BQ_TABLE
      • /GOOG/BQ_FIELD

    Le impostazioni del trasferimento di massa vengono salvate in una richiesta di trasporto.

  3. Esporta le impostazioni della chiave client includendo manualmente i contenuti della tabella /GOOG/CLIENT_KEY nella richiesta di trasporto.

  4. Salva i file sulla workstation locale.

Importazione delle impostazioni di trasferimento di massa in un sistema di produzione

Nel sistema di produzione SAP LT Replication Server, importa ogni parte delle impostazioni del trasferimento di massa:

  1. Creare una configurazione di replica del server di replica SAP LT per le impostazioni del trasferimento di massa.

  2. Importa le impostazioni di replica avanzate:

    1. Esegui la transazione LTRS.
    2. Seleziona il trasferimento di massa creato nel primo passaggio.
    3. Dal menu a discesa File, seleziona Import All Settings (Importa tutte le impostazioni).
    4. Nella finestra di dialogo Scegli file, seleziona il file compresso dalla workstation locale e fai clic su Apri. Le impostazioni vengono importate come impostazioni per il trasferimento di massa.
  3. Importa la richiesta di trasporto che contiene le impostazioni di trasferimento di massa.

  4. Esegui la transazione SM30.

  5. Aggiorna le impostazioni della chiave client in base alle esigenze dell'ambiente di produzione.

  6. Esegui la transazione /GOOG/SLT_SETTINGS:

    /n/GOOG/SLT_SETTINGS
  7. Verifica che nella schermata Trasferimenti di massa siano visualizzati i trasferimenti di massa corretti.

  8. Nella colonna Mass Transfer ID (ID trasferimento di massa), sostituisci l'ID trasferimento di massa dal sistema di sviluppo con l'ID trasferimento di massa della configurazione di replica creata nel primo passaggio.

  9. Nelle successive schermate di impostazioni Tabelle e Campi, aggiorna gli altri valori per la mappatura di tabelle e campi in base alle esigenze dell'ambiente di produzione.

  10. Testa la configurazione avviando un caricamento o una replica iniziale. Per informazioni sull'avvio di un caricamento o una replica iniziale, vedi:

    • Se SAP LT Replication Server è in esecuzione su una VM di Compute Engine, testa la replica.
    • Se SAP LT Replication Server è in esecuzione su un host esterno a Google Cloud, testa la replica.

Aggiornamento di BigQuery Connector per SAP

Google Cloud offre nuove release del BigQuery Connector per SAP durante il trasporto SAP.

Gli amministratori SAP possono aggiornare BigQuery Connector per SAP seguendo questi passaggi:

  1. Disattiva la configurazione in SAP LT Replication Server.
  2. Importa la nuova richiesta di trasporto SAP.
  3. Dopo aver convalidato l'importazione e l'attivazione degli oggetti riuscita, attiva la configurazione in SAP LT Replication Server.

Aggiorna gcloud CLI

Devi mantenere aggiornata Google Cloud CLI sull'host del server di replica SAP LT.

Per ulteriori informazioni sulla gestione di gcloud CLI, consulta Gestione dei componenti di gcloud CLI.

Monitoraggio

Puoi monitorare diversi punti lungo il percorso dati dall'origine dati SAP alla tabella BigQuery di destinazione, tra cui:

  • Infrastruttura: rete, hardware e sistema operativo
  • Il livello del database SAP
  • Il livello di applicazione SAP
  • BigQuery Connector per SAP
  • BigQuery

Le opzioni per il monitoraggio in ciascuno di questi punti sono presentate nelle seguenti sottosezioni.

Monitoraggio dell'infrastruttura

Su Google Cloud, puoi installare Ops Agent sulle VM host per il monitoraggio e il logging avanzati. Ops Agent invia i dati a Cloud Monitoring nella console Google Cloud.

Per ulteriori informazioni, vedi:

Per i sistemi che non sono in esecuzione su Google Cloud, puoi ottenere informazioni sul server anche eseguendo transazioni SAP, come la transazione ST06.

Monitoraggio del livello di database

Utilizza i codici transazione SAP standard per monitorare l'integrità del database.

Il codice di transazione DBACOCKPIT è la transazione più comune per il monitoraggio del database. Questa transazione fornisce anche log dettagliati che puoi utilizzare per la risoluzione degli errori.

Per SAP HANA, puoi utilizzare SAP HANA Studio per le operazioni SAP HANA. Puoi installare SAP HANA Studio su qualsiasi macchina front-end.

Quando cerchi di risolvere i problemi di prestazioni o di altro tipo, verifica quanto segue nel database di origine:

  • Istruzioni SQL costose
  • Serrature
  • Cronologia caricamenti
  • Indici
  • Processi

Monitoraggio del livello di applicazione

Puoi utilizzare gli strumenti di monitoraggio e risoluzione dei problemi delle applicazioni SAP per monitorare e risolvere i problemi BigQuery Connector per SAP, perché viene eseguito nel livello di applicazione.

Il monitoraggio e la risoluzione dei problemi delle applicazioni SAP possono essere ulteriormente classificati come segue:

  • Monitoraggio e risoluzione dei problemi SAP standard
  • Connettore BigQuery per il monitoraggio e la risoluzione dei problemi SAP

Per ambienti più ampi, puoi utilizzare SAP Solution Manager come strumento di monitoraggio centrale.

Puoi utilizzare i codici transazione SAP nell'elenco seguente per monitorare e diagnosticare i problemi su singoli sistemi di applicazioni SAP:

  • Stato configurazione SLT: LTRC
  • Errori SLT e log: LTRO e SLG1
  • Internet Communication Manager (chiamate HTTP e HTTPS): SMICM
  • Sicurezza e certificati: STRUST
  • Trasporti SAP: STMS
  • Connessioni RFC: SM59
  • Comando del sistema operativo: SM69
  • Controllo del pacco: SE80
  • Controlli delle autorizzazioni: SU53
  • Lavori in background: SM37
  • Log di sistema: SM21

Monitoraggio di BigQuery

Usa Cloud Monitoring per visualizzare le metriche BigQuery e creare grafici e avvisi. Ogni metrica ha un tipo di risorsa (bigquery_dataset, bigquery_project o global) e un insieme di etichette.

Utilizza i tipi di risorse e le etichette per creare query in Monitoring Query Language (MQL).

Puoi raggruppare o filtrare ogni metrica utilizzando le etichette.

Per ulteriori informazioni su Monitoring, consulta la documentazione di Cloud Monitoring.

Convalida della replica

Se selezioni il Flag campi aggiuntivi quando crei la tabella BigQuery di destinazione con transazione /GOOG/SLT_SETTINGS, vengono aggiunte colonne allo schema della tabella per archiviare il tipo di modifica apportata a ciascun record che ha attivato la replica e per un timestamp che rifletta il momento in cui il server SAP LT Replication Server ha ricevuto la parte contenente il record.

Puoi utilizzare i tipi di modifica e il timestamp per eseguire query sui seguenti tipi di conteggi di record:

  • Il numero di record caricati in una tabella BigQuery durante un caricamento iniziale.
  • Il numero di record replicati in un giorno specificato in una tabella BigQuery.
  • Il numero totale di record univoci in una tabella BigQuery.

Per ottenere questi conteggi, puoi eseguire query direttamente sulla tabella BigQuery inviando query SQL nella console Google Cloud. In alternativa, puoi eseguire lo strumento Convalida della replica, che genera report che confrontano i conteggi dei record BigQuery con le statistiche di SAP LT Replication Server o i conteggi dei record dalla tabella di origine.

Per una panoramica del Flag campi aggiuntivi, consulta Campi aggiuntivi per le modifiche ai record e le query di conteggio.

Per informazioni su come specificare il Flag campi aggiuntivi, vedi:

Query SQL per i conteggi dei record

Nella pagina Editor SQL di BigQuery nella console Google Cloud, puoi eseguire query SQL per controllare il numero di record nelle tabelle BigQuery.

Puoi quindi confrontare i conteggi dei record BigQuery con quelli nella tabella di origine o nelle statistiche di SAP LT Replication Server.

Esegui una query sul conteggio dei record inseriti in modalità di caricamento iniziale

Quando uno schema di tabella BigQuery include la colonna operation_flag facoltativa, i record che vengono inseriti nella tabella in modalità di caricamento iniziale includono il flag dell'operazione L.

Per ottenere il conteggio dei record ricevuti da BigQuery durante un caricamento iniziale, esegui la query seguente:

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'L'

Esegui una query sul numero di record inseriti in modalità di replica

Quando uno schema di tabella BigQuery include la colonna operation_flag facoltativa, i record che vengono inseriti nella tabella in modalità di replica includono uno dei seguenti flag dell'operazione:

  • I: il record è stato inserito nella tabella di origine.
  • D: il record è stato eliminato dalla tabella di origine.
  • U: il record è stato aggiornato nella tabella di origine.

Per ottenere il conteggio dei record ricevuti da BigQuery in modalità di replica, esegui la seguente query:

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'I' | 'D' | 'U'

Esegui una query sul conteggio totale dei record in una tabella BigQuery

Quando uno schema di tabella BigQuery include la colonna recordstamp facoltativa, il campo recordstamp corrispondente di ogni record inserito nella tabella contiene un timestamp che indica quando il record è stato inviato dal server di replica SAP LT a BigQuery.

Per ottenere un conteggio totale dei record in una tabella BigQuery da confrontare con il conteggio totale dei record in una tabella di origine, puoi utilizzare i campi recordstamp e is_deleted per conteggiare i record univoci nella tabella BigQuery che non sono stati eliminati dalla tabella di origine.

Se la tabella di origine viene aggiornata attivamente o la replica è attiva quando esegui query sui record, il numero dei record nelle tabelle di origine e di destinazione potrebbe non corrispondere esattamente.

Per ottenere il conteggio attuale dei record univoci nella tabella di destinazione BigQuery, esegui la query seguente:

SELECT COUNT(*)
  FROM (
    SELECT
      *,
      ROW_NUMBER() OVER (PARTITION BY KEY_FIELD_1, ..., KEY_FIELD_N ORDER BY recordstamp DESC) row_num
    FROM
      `PROJECT.DATASET.TABLE` )
  WHERE row_num = 1 AND is_deleted = false

Strumento di convalida della replica

Questa sezione fornisce una panoramica dello strumento di convalida della replica e delle sue operazioni.

Lo strumento Convalida della replica genera report che confrontano i conteggi dei record nella tabella BigQuery con le statistiche di SAP LT Replication Server e i conteggi dei record nella tabella di origine. Se i conteggi non corrispondono esattamente, lo strumento segnala il report con un cerchio rosso.

Per conteggiare i record in BigQuery, lo strumento utilizza le query SQL mostrate nella sezione precedente, Query SQL per i conteggi dei record.

Esegui periodicamente lo strumento di convalida della replica per verificare che il server di replica SAP LT e BigQuery Connector per SAP stiano replicando i record su BigQuery come previsto.

Per eseguire lo strumento di convalida della replica, inserisci la transazione personalizzata /GOOG/REPLIC_VALID preceduta da /n nella GUI di SAP. Per istruzioni dettagliate, consulta:

Report di convalida della replica

Con lo strumento Convalida della replica puoi generare i seguenti report di convalida:

  • Conteggi di carichi iniziali: un confronto tra il numero di record inviati da SAP LT Replication Server in modalità di caricamento e il numero di record caricati in BigQuery.
  • Numero di repliche: un confronto tra il numero di record inviati da SAP LT Replication Server in modalità di replica e il numero di record inseriti in BigQuery in un giorno specificato.
  • Conteggi correnti: un confronto point-in-time tra il numero di record nella tabella di origine e il numero di record univoci in BigQuery.

Puoi generare ogni report singolarmente oppure, selezionando Tutti i controlli quando esegui lo strumento, generare tutti e tre i report in un'unica esecuzione.

Visualizzazione dei report di convalida della replica

Dopo aver generato un report, puoi visualizzarlo selezionando il pulsante di opzione Visualizza report nella sezione Opzioni di elaborazione dell'interfaccia dello strumento Convalida della replica.

Le informazioni visualizzate dallo strumento Convalida della replica in ciascun report differiscono leggermente in base al tipo di report.

Tutti i report includono i seguenti tipi di informazioni:

  • Conteggio dei record di origine dalle statistiche di SAP LT Replication Server e dalla tabella di origine.
  • Conteggi dei record di destinazione dalla tabella BigQuery di destinazione.
  • Qualsiasi differenza tra i due conteggi. La differenza viene calcolata sottraendo i conteggi di BigQuery dai conteggi dei record di origine. Un valore positivo indica un probabile problema, perché suggerisce che non tutti i record di origine vengono inseriti in BigQuery.
  • La differenza dei conteggi visualizzati come percentuale del numero di record di origine.
  • Un indicatore visivo che indica se i conteggi di origine e di destinazione sono uguali o diversi.

Conteggi di record disuguali

Lo strumento Convalida della replica include un campo di stato con ogni report visualizzato.

Un quadrato verde nel campo dello stato indica che il numero di record di origine è uguale al numero di record di destinazione in BigQuery.

Un cerchio rosso nel campo dello stato indica che i conteggi dei record non sono uguali.

Un conteggio di record disuguali non indica sempre un problema. I seguenti indicatori suggeriscono un possibile problema:

  • Per un report Conteggi correnti, un valore diseguale indica sempre un problema.
  • Per un report Conteggi caricamenti iniziali o Conteggi repliche, un valore positivo indica un possibile problema.

    Un valore negativo relativamente basso non costituisce un problema. Il conteggio in una tabella BigQuery di destinazione a volte può essere leggermente superiore al numero dei record di origine a causa di eventi quali interruzioni temporanee della connettività che causano l'invio di nuovi dati da parte del server di replica SAP LT.

Se noti un conteggio disuguaglianza, esegui nuovamente il report per assicurarti che non sia causato da un problema transitorio. Un conteggio di record diseguale può verificarsi a causa dell'elaborazione della replica nel momento in cui lo strumento ha generato il report.

Per una tabella di origine di grandi dimensioni o una tabella con filtri impostati nel server di replica SAP LT per il caricamento o la replica iniziale, lo strumento di convalida della replica potrebbe non essere in grado di conteggiare tutti i record necessari per uno stesso conteggio.

Pianificazione dei controlli di convalida

Puoi pianificare l'esecuzione automatica a intervalli dello strumento di convalida della replica utilizzando la funzionalità dei job in background SAP.

Modificare la mappa dei campi BigQuery in un file CSV

Le seguenti sezioni descrivono come esportare la mappatura predefinita dei campi in modo che i data engineer o gli amministratori di BigQuery possano modificare i valori del campo di destinazione senza richiedere l'accesso a SAP LT Replication Server.

Crea un foglio di lavoro o un file di testo con le mappature dei campi predefinite

Per creare un file CSV da modificare al di fuori di SAP LT Replication Server:

  1. Esegui la transazione /GOOG/SLT_SETTINGS.

  2. Nella schermata SLT Settings Manutenzione, specifica i seguenti valori:

    • Nel campo Tabella delle impostazioni, specifica Campi.
    • Nel campo Chiave trasferimento di massa, specifica l'ID del trasferimento di massa che stai aggiornando.
    • Nel campo Nome tabella, lascia vuoto il campo per lavorare con tutti i campi di tutte le tabelle oppure specifica un nome di tabella per lavorare con una tabella specifica.
    • Lascia vuoti tutti gli altri campi.
  3. Fai clic sull'icona Esegui. Viene visualizzata la schermata Gestione impostazioni BigQuery - Campi.

  4. Nella schermata Manutenzione impostazioni BigQuery - Campi, nascondi tutte le colonne ad eccezione di quelle del seguente elenco facendo clic con il tasto destro del mouse sulle intestazioni di colonna e selezionando Nascondi dal menu a discesa:

    • Nome tabella SAP
    • Nome campo SAP
    • Elemento di dati esterno
    • Nome campo esterno
    • Descrizione campo
  5. Con le cinque colonne rimanenti visualizzate, fai clic sull'icona Esporta.

  6. Dal menu Esporta, seleziona una delle seguenti opzioni:

    • Foglio di lavoro
    • File locale: Per semplificare la conversione dei contenuti del file in formato CSV, ti consigliamo di salvare il file nel formato Testo con schede.
  7. Salva le mappature predefinite dei campi facendo clic sull'icona del segno di spunta.

Converti il foglio di lavoro o il file di testo in formato CSV

Per caricare le mappature dei campi modificati utilizzando la transazione personalizzata /GOOG/SLT_SETTINGS, le mappature dei campi devono essere in formato CSV.

Se utilizzi un foglio di lavoro, salvalo come file CSV prima di caricare il file.

Se utilizzi un file locale in formato separato da tabulazioni o in qualsiasi altro formato, devi modificarlo affinché sia conforme al formato CSV.

Ad esempio:

SAP Table,SAP Field Name,External Data Element,External Field Name,Field Description
SAP_TABLE_NAME,SAP_FIELD_NAME1,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME1,BIGQUERY_FIELD_DESCRIPTION1
SAP_TABLE_NAME,SAP_FIELD_NAME2,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME2,BIGQUERY_FIELD_DESCRIPTION2
SAP_TABLE_NAME,SAP_FIELD_NAME3,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME3,BIGQUERY_FIELD_DESCRIPTION3

Carica il file CSV

Per caricare un file CSV modificato:

  1. Esegui la transazione /GOOG/SLT_SETTINGS.

  2. Nella schermata SLT Settings Manutenzione, specifica i seguenti valori:

    • Nel campo Tabella delle impostazioni, specifica Campi.
    • Nel campo Chiave trasferimento di massa, specifica l'ID del trasferimento di massa che stai aggiornando.
    • Seleziona la casella di controllo Carica da file.
  3. Fai clic sull'icona Esegui. Viene visualizzata la finestra di dialogo Seleziona file da caricare.

  4. Nella finestra di dialogo Seleziona file da caricare, seleziona il file CSV che contiene i valori dei campi modificati.

  5. Fai clic su Apri.

  6. Se ricevi un avviso di sicurezza, fai clic su Consenti. Il file viene caricato e i valori modificati nel file vengono visualizzati nelle righe applicabili nella schermata Manutenzione impostazioni BigQuery - Campi.

  7. Fai clic sull'icona Salva.

  8. Per verificare che i valori vengano applicati, confronta i valori nel file CSV con i valori visualizzati da SAP LT Replication Server.

Gestione degli errori nei dati di origine

Dopo aver ricevuto un blocco di record da BigQuery Connector per SAP, l'API per i flussi di dati BigQuery controlla la presenza di errori nei dati prima di inserire qualsiasi record nella tabella BigQuery.

Puoi controllare il modo in cui l'API BigQuery e BigQuery Connector per SAP rispondono quando vengono rilevati errori nei dati specificando i seguenti flag nelle impostazioni di trasferimento di massa:

  • Flag Skip Invalid Records (SKIP)
  • Flag Break at First Error Flag (BREAK)

Il flag SKIP

Se specifichi il flag SKIP, quando l'API BigQuery riceve un blocco di record e trova un record con un errore nei dati, l'API BigQuery ignora o salta il record con l'errore e continua a inserire tutti gli altri record del blocco nella tabella BigQuery.

Se non specifichi il flag SKIP, quando BigQuery trova un record con un errore nei dati, elimina l'intero blocco senza inserire alcun record nella tabella BigQuery. Questo è il comportamento standard.

La specifica del flag SKIP è ideale per gli ambienti di sviluppo e QA e non è consigliata per gli ambienti di produzione.

Puoi specificare il flag SKIP nella transazione /GOOG/SLT_SETTINGS quando configuri la replica. La specifica è archiviata nella tabella di configurazione /GOOG/BQ_MASTR.

Per vedere in che modo le specifiche SKIP interagiscono con le specifiche BREAK, consulta la sezione Tabella delle matrici per le interazioni SKIP e BREAK.

Il flag BREAK

Se specifichi il flag BREAK, quando l'API BigQuery comunica che è stato rilevato un errore dati in un record, BigQuery Connector per SAP interrompe l'invio di record a BigQuery e termina il job di replica.

Se non specifichi il flag BREAK, quando BigQuery Connector per SAP notifica a BigQuery che è stato rilevato un errore di dati in un record, BigQuery Connector per SAP continua a inviare record a BigQuery inviando il blocco successivo e il job di replica continua. Questo è il comportamento standard.

È consigliabile specificare il flag BREAK negli ambienti di produzione.

Puoi specificare il flag BREAK nella transazione //GOOG/SLT_SETTINGS quando configuri la replica. La specifica è archiviata nella tabella di configurazione /GOOG/BQ_MASTR.

Per vedere in che modo le specifiche BREAK interagiscono con le specifiche SKIP, consulta la sezione Tabella delle matrici per le interazioni SKIP e BREAK.

Tabella matrice per interazioni SKIP e BREAK

Puoi configurare BigQuery Connector per SAP per gestire gli errori relativi ai dati nei seguenti modi:

SKIP flag BREAK flag Comportamento
FALSE TRUE

BigQuery ignora il blocco di record attuale senza inserire alcun record del blocco corrente nella tabella BigQuery.

BigQuery Connector per SAP non invia più blocchi di record dalla parte attuale e indica a SAP LT Replication Server di terminare il job di replica.

Questa è l'impostazione consigliata.

FALSE FALSE

BigQuery ignora il blocco di record attuale senza inserire alcun record del blocco corrente nella tabella BigQuery.

BigQuery Connector per SAP invia tutti i blocchi di record rimanenti dalla parte attuale dei record e poi comunica a SAP LT Replication Server di terminare il job di replica.

Questa è l'impostazione predefinita.

TRUE TRUE

BigQuery ignora solo il record che contiene l'errore e inserisce il resto dei record del blocco attuale nella tabella BigQuery.

BigQuery Connector per SAP non invia più blocchi di record dalla parte attuale e recupera la parte successiva. BigQuery Connector per SAP non indica al server di replica SAP LT di terminare il job di replica.

TRUE FALSE

BigQuery ignora solo il record che contiene l'errore e inserisce il resto dei record del blocco attuale nella tabella BigQuery.

BigQuery Connector per SAP invia tutti i blocchi di record rimanenti dalla parte corrente e recupera la parte successiva. BigQuery Connector per SAP non indica al server di replica SAP LT di terminare il job di replica.

Modifiche alla struttura della tabella

Questa sezione spiega come modificare la struttura della tabella di origine SAP, per la quale è in corso una replica LTRC esistente.

Aggiungere una colonna a una tabella di origine

Per aggiungere una nuova colonna a una tabella di origine:

  1. Aggiungi una nuova colonna alla tabella di origine. A seguito di questo passaggio, lo stato della replica passa a Load/Replication blocked.

  2. Nel sistema SLT, reimposta lo stato della replica utilizzando la transazione LTRC. Per maggiori informazioni fornite da SAP su come reimpostare lo stato della replica, consulta la Nota SAP 2204955: le tabelle SLT hanno lo stato "Caricamento /Replica bloccata".

  3. Aggiungi, aggiorna o elimina una voce nella tabella di origine.

  4. Convalida il risultato della replica in BigQuery.

Eliminare una colonna da una tabella di origine

Per eliminare una colonna esistente da una tabella di origine, procedi nel seguente modo:

  1. Nel sistema SLT, sospendi la replica utilizzando la transazione LTRC.

  2. Elimina una colonna dalla tabella di origine. A seguito di questo passaggio, i trigger SLT esistenti vengono eliminati o impostati su uno stato incoerente.

  3. In BigQuery, elimina la colonna dalla tabella BigQuery di destinazione. Per ulteriori informazioni sui passaggi per eliminare una colonna da una tabella esistente, consulta la documentazione di BigQuery.

  4. Nel sistema SLT, riprendi la replica utilizzando la transazione LTRC.

  5. Nel sistema SLT, ricrea i trigger SLT. Per maggiori informazioni da SAP su come ricreare i trigger SLT, consulta la Nota SAP 2254376 - Trigger SLT in uno stato incoerente.

  6. Se lo stato della replica è Load /Replication blocked, reimpostalo utilizzando la transazione LTRC. Per ulteriori informazioni da SAP su come reimpostare lo stato della replica, consulta Nota SAP 2204955 - Le tabelle SLT hanno lo stato "Caricamento /Replica bloccata".

  7. Cancella gli eventuali log precedenti.

  8. Aggiungi, aggiorna o elimina una voce nella tabella di origine.

  9. Convalida il risultato della replica in BigQuery.

Modificare il tipo di dati di una colonna esistente

Quando modifichi il tipo di dati di una colonna esistente nella tabella di origine SAP, devi seguire passaggi specifici a seconda che tu stia modificando il tipo di dati impostandolo su un tipo di dati compatibile o non compatibile con la tabella BigQuery di destinazione.

Un tipo di dati è compatibile con il tipo di dati nella tabella BigQuery di destinazione quando il tipo di dati esistente e il nuovo tipo di dati di una colonna esistente vengono mappati allo stesso tipo di dati nella tabella BigQuery di destinazione. Ad esempio, se il tipo di dati di una colonna viene modificato da INT1 a INT2 in una tabella di origine, entrambi i tipi di dati sono compatibili con il tipo di dati INTEGER nella tabella BigQuery di destinazione.

Per saperne di più sulla mappatura dei tipi di dati in BigQuery Connector per SAP, consulta Mappatura dei tipi di dati.

Modifica il tipo di dati impostandone uno compatibile

Per modificare il tipo di dati di una colonna esistente in un tipo di dati compatibile, segui questi passaggi:

  1. Modifica il tipo di dati impostandone uno compatibile nel sistema di origine. A seguito di questo passaggio, i trigger SLT esistenti vengono eliminati o impostati su uno stato incoerente.

  2. Nel sistema SLT, ricrea i trigger SLT. Per maggiori informazioni da SAP su come ricreare i trigger SLT, consulta la Nota SAP 2254376 - Trigger SLT in uno stato incoerente.

  3. Se lo stato della replica è Load /Replication blocked, reimpostalo utilizzando la transazione LTRC. Per ulteriori informazioni da SAP su come reimpostare lo stato della replica, consulta Nota SAP 2204955 - Le tabelle SLT hanno lo stato "Caricamento /Replica bloccata".

  4. Cancella gli eventuali log precedenti.

  5. Aggiungi, aggiorna o elimina una voce nella tabella di origine.

  6. Convalida il risultato della replica in BigQuery.

Modifica il tipo di dati impostandone uno non compatibile

Per modificare il tipo di dati di una colonna esistente in uno non compatibile, segui questi passaggi:

  1. Nel sistema SLT, arresta la replica utilizzando la transazione LTRC.
  2. In BigQuery, elimina la tabella di destinazione.
  3. Modificare il tipo di dati nel sistema di origine.
  4. Nel sistema SLT, avvia la replica utilizzando la transazione LTRC.

Uscite miglioramento

BigQuery Connector per SAP offre diversi punti di miglioramento nel codice, in cui uno sviluppatore ABAP può inserire il codice per aggiungere funzionalità personalizzate.

Nella tabella seguente sono elencate le funzioni supportate dai punti di miglioramento, i metodi e la classe che contiene il punto di miglioramento.

Funzione Classe Metodo Spot Opzione
Aggiorna la mappatura di un campo, ad esempio il nome del campo esterno, il tipo di dati e così via. /GOOG/CL_IUUC_REPL_RUNTIME CREATE_FLD_MAPPINGS /GOOG/ES_IUUC_REPL_RUNTIME /GOOG/UPDATE_FIELD_MAPPING
Aggiorna la mappatura per la tabella dei campi aggiungendo o rimuovendo campi. /GOOG/CL_IUUC_REPL_RUNTIME CREATE_FLD_MAPPINGS /GOOG/ES_IUUC_REPL_RUNTIME /GOOG/UPDATE_FIELD_MAPPINGS
Modifica il valore di un campo di origine prima che venga convertito in un campo di destinazione. /GOOG/CL_IUUC_REPL_RUNTIME_BQ FILL_TARGET_RECORDS /GOOG/ES_IUUC_REPL_RUNTIME_BQ /GOOG/CHANGE_SOURCE_FIELD
Dopo che un campo di origine è stato convertito in un campo di destinazione nella tabella di destinazione, modifica il valore del campo. /GOOG/CL_IUUC_REPL_RUNTIME_BQ FILL_TARGET_RECORDS /GOOG/ES_IUUC_REPL_RUNTIME_BQ /GOOG/FILL_TARGET_FIELD
Aggiungi alla tabella di destinazione un campo che non esiste nella tabella di origine durante la conversione della tabella da origine a target. /GOOG/CL_IUUC_REPL_RUNTIME_BQ FILL_TARGET_RECORDS /GOOG/ES_IUUC_REPL_RUNTIME_BQ /GOOG/FILL_EXTRA_FIELD
Prepara un campo dello schema BigQuery prima di creare la tabella BigQuery. /GOOG/CL_GCP_CLIENT_BQ PREP_BQ_TABLE_SCHEMA /GOOG/ES_GCP_CLIENT_BQ /GOOG/PREPARE_SCHEMA_FIELD