Modellierung
Grafische Modellierung
Datenfluss oder Datenflussvorlage anlegen
Objekte und Verbindungen in den Datenfluss einfügen
SAP Datenflussvorlagen verwenden
Namenskonventionen für die SAP Datenflussvorlagen
Namenskonventionen für die InfoProvider der SAP Datenflussvorlagen
Namenskonventionen für die InfoSources und DTPs der SAP Datenflussvorlagen
LSA100: Basic Flow - Layering Data & Logic
LSA110: Basic Flow Extensions - CM & Harmonization InfoSource
LSA300: Tactical Scalability - Flow Split Logical Partitioning
LSA310: Scalability - Flow Split and InfoSources
LSA315: Scalability - InfoSources & Single ERP Source
LSA320: Scalability - Entire Data Flow Split
LSA330: Scalability - Flow Split Using a Pass Thru DataStore Object
LSA400: Scalability & Domains - Strategic Flow Split
LSA410: Scalability & Domains - Strategic Flow Collect
LSA420: Scalability & Domains - Business Transformation Layer
Dokumentation einblenden und anlegen
Datenflussdokumentation als HTML-Datei speichern
Weitere Funktionen in der grafischen Datenflussmodellierung
Enterprise-Data-Warehouse-Schicht
DataSource
Funktionen zur DataSource
DataSource-Pflege im BW
DataSource aus SAP Quellsystem im BW bearbeiten
DataSource für Datei-Quellsystem anlegen
DataSource für UD Connect anlegen
DataSource für DB Connect anlegen
DataSource für Web Service anlegen
Emulation, Migration und Wiederherstellen von DataSources
DataSource 3.x emuliert verwenden
DataSource 3.x manuell migrieren (SAP-Quellsystem, Datei, DB Connect)
DataSource 3.x migrieren (UD Connect, Web Service)
DataSource 3.x manuell wiederherstellen
Persistent Staging Area
DB-Speicherparameter
Requests aus dem PSA löschen
Bisherige Technologie des PSA
Persistent Staging Area
Arten der Datenverbuchung mit PSA
Daten überprüfen und ändern
Daten mit Hilfe der PSA-APIs überprüfen und ändern
Versionierung
DB-Speicherparameter
PSA lesen und Datenziel verbuchen
InfoObject anlegen
InfoObjectCatalog anlegen
Zusätzliche Funktionen des InfoObjectCatalogs
InfoObject Namenskonventionen
InfoObject anlegen: Merkmal
Registerkarte: Allgemeines
Registerkarte: Business Explorer
Mapping georelevanter Merkmale
Statische und dynamische Geomerkmale
Shapefiles
Ausgelieferte Geomerkmale
SAPBWKEY Pflege für statische Geomerkmale
Lokale Arbeitskopie des Shapefile erstellen
BW-Stammdaten in eine dBase-Datei herunterladen
SAPBWKEY Spalte pflegen
Editiertes Shapefile ins BW-System hochladen
Geocodierung
BW-Stammdaten in eine dBase Datei herunterladen
Geocodierung mit ArcView GIS durchführen-
dBase Datei in CSV Datei umwandeln
Registerkarte: Stammdaten/Texte
Registerkarte: Hierarchie
Registerkarte: Attribute
Registerkarte: Klammerung
Registerkarte: BWA-Index
Merkmalsklammerung mit Quellsystem-ID
Quellsystem zu Quellsystem ID zuordnen
Navigationsattribut
Navigationsattribut anlegen
Performance von Navigationsattributen in Queries und Wertehilfen
Transitive Attribute als Navigationsattribute
Konvertierungsroutinen im BW-System
Konvertierungsroutine ALPHA
Konvertierungsroutine BUCAT
Konvertierungsroutine EAN11
Konvertierungsroutine GJAHR
Konvertierungsroutine ISOLA
Konvertierungsroutine MATN1
Konvertierungsroutine NUMCV
Konvertierungsroutine PERI5
Konvertierungsroutine PERI6
Konvertierungsroutine PERI7
Konvertierungsroutine POSID
Konvertierungsroutine PROJ
Konvertierungsroutine REQID
Konvertierungsroutine IDATE
Konvertierungsroutine RSDAT
Konvertierungsroutine SDATE
Konvertierungsroutine WBSEL
InfoObject anlegen: Kennzahl
Registerkarte: Typ/Einheit
Registerkarte: Aggregation
Registerkarte: Weitere Eigenschaften
InfoObject bearbeiten
Zusätzliche Funktionen in der InfoObject-Pflege
InfoObject als InfoProvider modellieren
Stammdaten und stammdatentragende Merkmale verwenden
Stammdatentypen: Attribute, Texte und Hierarchien
Stammdaten anlegen und ändern
Zeitabhängige Stammdaten pflegen
Zeitabhängige Stammdaten aus unterschiedlichen Systemen
Stammdaten auf Einzelsatzebene löschen
Attribute und Texte zu einem Merkmal löschen
Stammdaten aktivieren
Versionierung von Stammdaten
Stammdaten reorganisieren
Stammdatenladen simulieren
Stammdatensperre
Stammdaten direkt aus dem Quellsystem in einen InfoProvider laden
InfoProvider anlegen
InfoProvider-Typen
Entscheidungsbaum für InfoProvider
InfoProvider zur Ablage von wieder verwendbaren Daten
InfoProvider für definierte Reporting- und Analyseanforderungen
InfoProvider für Ad-Hoc-Reporting- und Analyseanforderungen
DataStore-Objekt anlegen
DataStore-Objekt-Typ bestimmen
DataStore-Objekt-Typen
Standard DataStore-Objekt
Schreiboptimiertes DataStore-Objekt
DataStore-Objekt für direktes Schreiben anlegen
APIs des DataStore-Objekts für direktes Schreiben
Einsatzszenario für Standard DataStore-Objekte
Einsatzszenario für schreiboptimierte DataStore-Objekte
Einsatzszenario für DataStore-Objekte für direktes schreiben
SAP-HANA-optimierte Aktivierung von DataStore-Objekten
SAP-HANA-optimiertes DataStore-Objekt (obsolet)
Einstellungen zum DataStore-Objekt
Zusätzliche Funktionen bei der DataStore-Objekt-Pflege
InfoProvider-Eigenschaften
DB-Speicherparameter
Partitionierung
InfoProvider über das Merkmal OFISCPER partitionieren
Repartitionierung
Mehrdimensionales Clustering
Definition des Clustering
Performance-Tipps für DataStore-Objekte
Integration in den Datenfluss
Semantische Partitionierung einsetzen
Semantisch partitioniertes Objekt anlegen
Der Wizard
Transformationen für semantisch partitioniertes Objekt anlegen
DTP für semantisch partitioniertes Objekt anlegen
Prozessketten für semantisch partitioniertes Objekt anlegen
Semantisch partitioniertes Objekt administrieren
Semantisch partitioniertes Objekt repartitionieren
BAdI: Partitionierung eines semantisch partitionierten Objekts
Konvertierung von semantisch partitionierten Objekten nach SAP-HANA-optimiert
Integration der physischen Partitionierung
Transformation
Regeltyp
Transformationsbibliothek und Formeleditor
Beispiel für die Verwendung des Formeleditors
BAdI: Kundendefinierte Funktionen im Formeleditor
Aufbau der Implementierung einer Funktion
Implementierung einer Kategorie
Aggregationsart
Regelgruppe
Transformation anlegen
InfoObject zum Stammdatennachlesen zuweisen
InfoObject zum Umrechnen von Mengen oder Währungen zuweisen
InfoObject für Zeitkonvertierung zuweisen
Beispiel: bedingte Fortschreibung durch semantische Gruppierung
Transformation für eine Hierarchie anlegen
Beispiele für eine Transformation einer Hierarchie
Transformation kopieren
Fehleranalyse in der Transformation
Regel testen
Routinen in der Transformation
Routine anlegen
Beispiel für Startroutine
Beispiel für Merkmalsroutine
Beispiel für Endroutine
Parameter der Startroutine
Parameter der Routine für Kennzahlen oder Merkmale
Parameter der Endroutine
Invertierungsroutine anlegen
Parameter der Invertierungsroutine
Beispiel für Invertierungsroutine
Details zur Implementierung der Invertierungsroutine
Reguläre Ausdrücke in Routinen
InfoSource
Empfehlungen zur Verwendung von InfoSources
Migration von Fortschreibungsregeln, InfoSource 3.x und Übertragungsregeln
Unterschiede im Routinen-Konzept
Beispiel für Migration einer Invertierungsroutine
Unterschiede bei der Verarbeitung von Einheiten
Transformation 3.x
Architected-Data-Mart-Schicht
InfoCube anlegen
Erweitertes Sternschema
Dimension
Line Item und hohe Kardinalität
Real-time-fähiger InfoCube
InfoCube mit Datenpersistenz im BWA
Einschränkungen für den InfoCube mit Datenpersistenz im BWA
SAP-HANA-optimierter InfoCube
Konvertierung von Standard InfoCubes nach SAP-HANA-optimiert
Zusätzliche Funktionen bei der InfoCube-Pflege
InfoProvider-Eigenschaften
In den InfoProvider geladene Daten überprüfen
Datenkonsistenz eines InfoCubes überprüfen
Bestandsparameterpflege
DB-Speicherparameter
Partitionierung
InfoProvider über das Merkmal OFISCPER partitionieren
Repartitionierung
Clustering
Definition des Clustering
Auswahl der MDC-Dimensionen
Reclustering
Empfehlungen zur Modellierung von InfoCubes
Übersicht über ladbare InfoSources zu einem InfoCube
HybridProvider anlegen
Struktur des HybridProviders auf DataStore-Objekt basierend
Struktur des HybridProviders auf Direktzugriff basierend
Direkten Datenzugriff modellieren
VirtualProvider auf Datentransferprozess basierend anlegen
Datentransferprozess für Direktzugriff anlegen
Struktur des VirtualProviders mit Datentransferprozess
Verarbeitung der Selektionsbedingungen
VirtualProvider auf InfoSource 3.x basierend anlegen
VirtualProvider mit BAPI anlegen
VirtualProvider mit Funktionsbaustein anlegen
Beschreibung der Schnittstellen
Datenfluss für Merkmale mit Direktzugriff modellieren
Datenfluss für Hierarchie mit Direktzugriff modellieren
InfoSet anlegen
Besonderheiten von InfoCubes in InfoSets
Zusätzliche Funktionen im InfoSet Builder
Abgleich von InfoSets
Join-Bedingung definieren
Join-Control
Left Outer Join
Anti-Join
Beispiele für die Umsetzung von Bedingungen
Temporaler Join
Verarbeitung der Zeitabhängigkeit
Most recent Reporting für InfoObjects
Empfehlungen zur Modellierung von InfoSets
BEx Queries über ein InfoSet
Interpretation von Queries über InfoSets
MultiProvider anlegen
Empfehlungen zur Modellierung von MultiProvidern
Prüfung der Klammerungskonsistenz
Pruning von Queries auf MultiProvidern
Pruning für MultiProvider administrieren
Zerlegung einer MultiProvider-Query in Teil-Queries
Beispiel: Plan-Ist-Daten
Beispiel: Verkaufsszenario
Virtuelle Data-Mart-Schicht
CompositeProvider
CompositeProvider in der Data Warehousing Workbench anlegen
Empfehlungen zur Modellierung von CompositeProvidern
VirtualProvider auf einem SAP-HANA-Modell basierend anlegen
Virtuelle Stammdaten verwenden
TransientProvider auf SAP-HANA-Modell anlegen
TransientProvider vom Analytischen Index abgeleitet
Datenbereitstellung
Quellsystem
Verbindung zwischen Quellsystem und BW
Logischer Systemname
SAP Quellsystem anlegen
Konfigurationen im BW
Konfigurationen im SAP Quellsystem
Globale Einstellungen übernehmen
Fremdsystem anlegen
Dateisystem anlegen
Datenbankmanagementsystem als Quellsystem anlegen
UD Connect-Quellsystem anlegen
Quellsystem prüfen
Datenextraktion aus SAP Quellsystemen
SAP Quellsystem anlegen
Konfigurationen im BW
Konfigurationen im SAP Quellsystem
Globale Einstellungen übernehmen
Quellsystem-Attrappe anlegen
DataSource im SAP Quellsystem
Extraktstruktur
DataSource des BI Content in aktive Version übernehmen
DataSource im Quellsystem bearbeiten
Replikation von DataSources
Schalter replizieren
DataSource aus SAP Quellsystem im BW bearbeiten
Herkunftsnachweis für DataSource-Felder anzeigen
DataSource 3.x emuliert verwenden
Datenabgleich
Delta-Verfahren
Funktionen im SAP Quellsystem
Steuerparameter zur Datenübertragung pflegen
Datenübertragung mit qRFC-Ausgangsqueue
Berechtigungen für die Extraktion einschränken
Delta-Queue überprüfen
Delta-Queues überwachen
Funktionen des Delta-Queue-Monitors
Requests im Delta-Queue-Monitor überwachen
Abonnement für inaktive Abonnenten beenden
Anwendungskomponentenhierarchie übernehmen
BI Content DataSources übernehmen
Generische DataSource pflegen
Einstellungen zur Deltaübertragung
Funktionsbaustein: Schnittstellenbeschreibung und Ablauf
Extraktion testen
Extraktion über die SAP Query
Anmerkungen zur Extraktion über SAP Query
SAP Query: Zuordnung zu einer Benutzergruppe
DataSources und Anwendungskomponentenhierarchie bearbeiten
DataSource erweitern
Übertragung von Daten über Web Service
Web-Service-Quellsystem anlegen
DataSource für Web Service anlegen
Daten über Web Service übertragen (Standard)
Request über eine Prozesskette schließen
Übertragung von Daten mit Operational Data Provisioning
Hinweise zur Übertragung von Daten über ODP aus SAP HANA
Hinweise zur Übertragung von Daten über ODP aus SAP-Business-ByDesign-Systemen
ODP-Quellsystem anlegen
DataSource für ODP-Quellsystem anlegen
Übertragung von Daten mit UD Connect
UD Connect-Quellsystem anlegen
DataSource für UD Connect anlegen
DataSource 3.x emuliert verwenden
Verwendung von InfoObjects bei UD Connect
Datentypen und deren Konvertierung
Verwendung des SAP Namensraumes für generierte Objekte
Nutzung von relationalen UD Connect Quellen (JDBC)
BI Java Connector
Konfiguration des BI Java Connectors
BI JDBC Connector
Übertragung von Daten mit DB Connect
DB Connect Architektur
Installation der Database shared library (DBSL)
Unterstützte Datenbanken
Anforderungen an die Datenbanktabellen bzw. -Views
Datenbankbenutzer und Datenbankschema
Datenbankmanagementsystem als Quellsystem anlegen
DataSource für DB Connect anlegen
Lokalisierung von Fehlern
Metadaten aktualisieren
Übertragung von Daten aus flachen Dateien
DataSource für Datei-Quellsystem anlegen
Generisches BW-Delta verwenden
DataSource 3.x emuliert verwenden
Übertragung von Daten über Staging BAPIs
Übertragung von Daten mit SAP Data Services
SAP-Data-Services-Quellsystem anlegen
Quell-Datastore im SAP-Data-Services-System anlegen
DataSource für die Datenübertragung mit SAP Data Services anlegen
InfoPackage für die Datenübertragung mit SAP Data Services anlegen
Übertragung von Daten mit SAP Landscape Transformation Replication Server
Daten aus SLT über Operational Data Provisioning übertragen
Daten aus SLT über Web Service übertragen
Ladeprozess wieder aufsetzen
Datenaustausch in andere Systeme
Datenaustausch zwischen BW-Systemen
Data Mart Interface zwischen mehreren Systemen
Data Mart Interface verwenden
Export-DataSource für einen InfoProvider generieren
Stammdaten Export-DataSource generieren
Datenübernahme über das Data Mart Interface
Datenaustausch zwischen BW-Systemen via ODP-Quellsystem
Daten aus dem BW-System extrahieren
Daten aus dem BW-System verteilen
Open Hub Destination anlegen
Datenbanktabelle als Destination wählen
Datei als Destination wählen
SAP Data Services und Drittanbieterwerkzeuge als Destination
In das Drittanbieterwerkzeug extrahieren
APIs für Drittanbieterwerkzeuge als Destination
API: RSB_API_OHS_DEST_SETPARAMS
API: RSB_API_OHS_3RDPARTY_NOTIFY
API: RSB_API_OHS_REQUEST_SETSTATUS
API: RSB_API_OHS_DEST_GETLIST
API: RSB_API_OHS_DEST_GETDETAIL
API: RSB_API_OHS_DEST_READ_DATA_RAW
API: RSB_API_OHS_DEST_READ_DATA
Felddefinition
Open Hub Service (3.x)
InfoProvider remodellieren
InfoCube remodellieren
DataStore-Objekt remodellieren
Customer-Exit in der Remodellierung
Monitor und Fehlerbehandlung
Bearbeitung von Datenflüssen
Datenfluss für ein Objekt anzeigen
Einfachen Datenfluss wizard-basiert erzeugen
Datenfluss kopieren
Übersicht über Datenflusskopiervorgänge
Datenfluss migrieren
Migrationsprojekt anlegen und bearbeiten
Migrationsprojekt ausführen
Hinweise zur Behandlung spezieller Objekte bei der Migration
Migrationsprojekt überwachen
Migrierten Datenfluss überprüfen
Migrationsprojekt transportieren
Migrationsprojekt löschen
Metadaten mit dem Metadata Repository analysieren
Namensräume für BW-Objekte