ibm ix812g - informix 11.7 system … ix812g - informix 11.7 system administration dauer: 4 tage...

99
IBM IX812G - INFORMIX 11.7 SYSTEM ADMINISTRATION Dauer: 4 Tage Durchführungsart: Präsenztraining Zielgruppe: This intermediate course is for Informix Administrators, Database Administrators, and Applications Developers. Voraussetzungen: You should have the following knowledge and skills: - Ability to write complex SQL queries- Ability to navigate through a Linux/UNIX file system and use common utilities in that environment Nr.: 37429 Preis: 2.890,00 € (netto) / 3.439,10 € inkl. 19% MwSt. Schulungsmethode: presentation, discussion, hands-on exercises, demonstrations on the system. In this course, you will develop the skills necessary to administer one or more database servers. You will learn how to configure and initialize a database server instance, configure and test client connectivity, configure and manage memory and disk usage, plan and implement system maintenance tasks, and configure the server for optimal Online Transaction Processing (OLTP) or decision support. This course is based on the 11.7 version of IBM Informix. Training Paths that reference this course are: - IBM Informix System Administrator Programm Key topics Day 1 Unit 1: Overview of the Informix Database Server Unit 2: Preparing for Configuration Unit 3: Configuring Client-Server Connectivity Unit 4: Configuring a Database Server Unit 5: Monitoring Dynamic Server Day 2 Unit 6: Managing Shared Memory Unit 7: Virtual Processors and Threads Unit 8: Disk Architecture Unit 9: Managing and Monitoring Disk Space Unit 10: Physical and Logical Logging Day 3 Unit 11: The Shared Memory Buffer Pool Unit 12: Fault Tolerance

Upload: buituong

Post on 31-Mar-2018

219 views

Category:

Documents


3 download

TRANSCRIPT

IBM IX812G - INFORMIX 11.7 SYSTEM ADMINISTRATION

Dauer: 4 Tage

Durchführungsart: Präsenztraining

Zielgruppe: This intermediate course is for Informix Administrators,Database Administrators, and Applications Developers.

Voraussetzungen: You should have the following knowledge andskills:- Ability to write complex SQL queries- Ability to navigate through aLinux/UNIX file system and use common utilities in thatenvironment

Nr.: 37429Preis: 2.890,00 € (netto) / 3.439,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

In this course, you will develop the skills necessary to administer one or more database servers. You will learn how to configure andinitialize a database server instance, configure and test client connectivity, configure and manage memory and disk usage, plan andimplement system maintenance tasks, and configure the server for optimal Online Transaction Processing (OLTP) or decision support.This course is based on the 11.7 version of IBM Informix.

Training Paths that reference this course are:

- IBM Informix System Administrator

Programm

Key topicsDay 1

Unit 1: Overview of the Informix Database Server

Unit 2: Preparing for Configuration

Unit 3: Configuring Client-Server Connectivity

Unit 4: Configuring a Database Server

Unit 5: Monitoring Dynamic Server

Day 2

Unit 6: Managing Shared Memory

Unit 7: Virtual Processors and Threads

Unit 8: Disk Architecture

Unit 9: Managing and Monitoring Disk Space

Unit 10: Physical and Logical Logging

Day 3

Unit 11: The Shared Memory Buffer Pool

Unit 12: Fault Tolerance

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37429

Unit 13: Introduction to Backup and Restore

Unit 14: Backup and Restore Using Ontape

Unit 15: Temporary Files and Tables

Unit 16: Performance Features

Day 4

Unit 17: Monitoring User Activity

Unit 18: Event Alarms

Unit 19: SQL Admin Functions and Task Scheduler

Unit 20: Troubleshooting

Unit 21: A Configuration Case

Objectives

- Describe the components of a database server.

- Configure and initialize a database server

- Configure the server to allow both local and remote connections

- Use Informix utilities to monitor server activity

- Describe the components of shared memory and configure the component sizes

- List, describe, and configure the different classes of virtual processors

- Identify the components of the database server disk architecture

- Create dbspaces, blobspaces, and sbspaces and add chunks to these spaces

- Explain the purpose of physical and logical logs and monitor log activity

- View the individual transactions that are written to the logical log files

- Describe the importance of checkpoints on the server

- Describe the importance of fast recovery

- Perform backups of the database server and logical logs

- Use different methods to restore a database server from backup

- Explain the purpose of temporary spaces used by the server

- Configure the database server to operate more efficiently using parallel operations

- Monitor the resources used by individual user sessions

- Configure the server to respond to specific events by executing an alarm program

- Use various troubleshooting techniques to identify and resolve common problems

IBM IX223G - INFORMIX 12.10 DATABASE ADMINISTRATION

Dauer: 4 Tage

Durchführungsart: Präsenztraining

Zielgruppe: The main audience for this course is Informix DatabaseAdministrators. It is also appropriate for Informix SystemAdministrators and Informix Application Developers.

Voraussetzungen: Students in this course should satisfy thefollowing prerequisites:IX101 - Introduction to Informix terminology and data types (orequivalent experience or knowledge)Knowledge of Structured Query Language (SQL)Experience using basic Linux functionality

Nr.: 36840Preis: 2.990,00 € (netto) / 3.558,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

In this course, students will learn the basic concepts of data management with Informix 12.10. They will learn how to create, manage,and maintain tables and indexes; how the Informix Optimizer works; and how to use the SET EXPLAIN feature to determine queryeffectiveness.

Programm

Key Topics

Unit 1 - Creating databases and tables

• Databases

• Tables

• DBSCHEMA, ONCHECK, and ONSTAT

• Sysmaster

Unit 2 - Altering and deleting databases and tables

• ALTER

• Data space reclamation

• Renaming

• Dropping

Unit 3 - Creating, altering, and dropping indexes

• Indexes

• Sysmaster

• Forest of trees

Unit 4 - Managing and maintaining indexes

• Benefits and costs

• Guidelines

• Calculating size

Unit 5 - Table and index partitioning

• Fragmentation

• Distribution schemes

• Sysmaster

Unit 6 - Maintaining table and index partitioning

• ALTER FRAGMENT

Unit 7 - Cost-based query optimizer

• Access plan

• Join methods

• EXPLAIN

• Scans

Unit 8 - Updating statistics and data distributions

• UPDATE STATISTICS

• Distribution information

• Process

• Updating statistics

Unit 9 - Managing the optimizer

• Optimization options

• Directives

Unit 10 - Referential and entity integrity

• Integrity

• Constraints

Unit 11 - Managing constraints

• Transaction modes

• Dropping a constraint

Unit 12 - Modes and violations detection

• Object modes

• Disabling an object

• Recording violations

• Sysmaster

Unit 13 - Concurrency control

• Isolation

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/36840

• Locks

• Row versioning

Unit 14 - Data security

• Levels of data security

• Privileges

• Roles

Unit 15 - Views

• Working with views

• WITH CHECK OPTION

• Sysmaster

Unit 16 - Introduction to stored procedures

• Stored procedures

• Sysmaster

Unit 17 - Triggers

• Working with triggers

• Triggers and stored procedures

• Dropping a trigger

• Cursors and triggers

• Triggers and constraint checking

• Sysmaster

• Managing triggers

Appendix A - Terminology

• Terminology

Appendix B - Data types

• Data types

Appendix C - XML publishing

• XML publishing

Appendix D - Basic Text Search DataBlade Module

• BTS DataBlade Module

Appendix E - Node DataBlade Module

• Node DataBlade Module

Appendix F - Using Global Language Support

• Using GLS

NOSQL: NICHT-RELATIONALE DATENBANKENTechnologien, Einsatzbereiche, Produktübersicht

Dauer: 4 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Software-Ingenieure, Anwendungsentwickler,Datenbank-Programmierer.

Voraussetzungen: Grundkenntnisse der Programmierung,Kenntnisse in Java oder JavaScript sind von Vorteil.

Nr.: 33090Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion, Übungen, Praktikum amSystem.

In diesem Seminar werden Ihnen Architektur und Arbeitsweise von nicht-relationalen Datenbanken präsentiert. Dabei werden Ihnengängige Strategien (Dokumenten- und Graphen-orientiert, Key-Value) sowie darauf basierende konkrete Produkte im Einsatz gezeigt.Sie lernen konkret, wie Daten innerhalb der Datenbanken strukturiert organisiert, abgelegt und darauf zugegriffen werden kann.

Programm

Grundlagen:

Warum NoSQL?Abgrenzung zu relationalen DatenbankenArbeitsweise: Dokumentenorientierte Datenbanken, Graphendatenbanken, Objekt-Datenbanken, Key-ValueBig Data und ShardingParallelisierung und MapReduceProduktübersicht

MongoDB und CouchDB:

Installation und AdministrationOrganisation der Daten in DokumentenDie Rolle von JavaScript und JSONSchreiben, Lesen, Löschen von DokumentenAbfragenDatenkonsistenzSkalierbarkeit und Replikation

Die graphenorientierte Neo4j:

Installation und AdministrationGraphenorientierte Ablage von DatenSchreiben, Lesen, LöschenAbfragenTransaktionssicherheitSkalierbarkeit und Replikation

Die Column-orientierte HBase:

Das Prinzip Spalten-orientierter DatenbankenDaten-DefinitionLesen, Schreiben, AbfragenDie Rolle von Apache Hadoop

Werkzeuge:

Treiber-Software: Unterstützte Sprachen, Installation und APIClient-Zugriff mit RESTAdministrations-WerkzeugeÜberwachungReporting

Weitere Systeme:

Redis: Eine Key-Value-DatenbankÜbersicht existierender objektorientierter und XML-basierter Datenbanken

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/33090

Termine und Orte: 27 Mai 2018 – Nr.: 33090

München

04 Jun - 06 Jun 2018 Garantietermin

Hamburg

12 Nov - 14 Nov 2018

POSTGRESQLProgrammierung und Administration

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Webentwickler mit Programmierkenntnissen.

Voraussetzungen: Grundkenntnisse in relationalen Datenbankenund Programmierlogik sind von Vorteil.

Nr.: 11828Preis: 2.190,00 € (netto) / 2.606,10 € inkl. 19% MwSt.

Schulungsmethode: Plattform: UNIX/Linux.

Nach dem Seminar können Sie Datenbanken entwerfen und mit PostgreSQL anlegen. Sie erlernen die Installation und die Konfigurationvon PostgreSQL. Darüber hinaus werden Sie die PostgreSQL Datentypen, Funktionen und die Transaktionssteuerung ebenso kennenlernen wie die PostgreSQL-API für die Entwicklung von Client/Server-Anwendungen

Programm

Installation und Konfiguration:

Installation von PostgreSQLKonfiguration von PostgreSQL

Administration:

BenutzerverwaltungZugriffsrechte und SicherheitskonzepteDatensicherung und Wiederherstellung

Datentypen und Funktionen:

Aufbau von PostgreSQLDatentypen (Feldtypen)Basis-FunktionenFortgeschrittene Funktionen

Programmierung:

Zugriff via ODBCPostgreSQL interne Programmierung mit PL/PGSQL - Perl-, PHP- und Java-Schnittstellen

PostgreSQL Geschwindigkeit:

Optimierung und Tuning der AbfragenIndicesNormalisierung vs. Effizienz

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11828

Termine und Orte: 27 Mai 2018 – Nr.: 11828

Frankfurt

25 Jun - 29 Jun 2018

Hamburg

15 Okt - 19 Okt 2018

MYSQL ADMINISTRATION

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Systemadministratoren, Anwendungsentwickler,Webmaster.

Voraussetzungen: Erfahrung in der Administration von UNIX/LinuxSystemen. SQL-Kenntnisse sind von Vorteil.

Nr.: 11824Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Übungen, Praktikum am LinuxSystem.

Nach diesem Seminar "MySQL Administration" sind Sie in der Lage, MySQL Datenbankserver zu administrieren. Sie können sämtlicheSchritte von der Planung über die Installation bis zur Wartung und Fehlersuche durchführen

Programm

Installation und Konfiguration unter Linux:

BezugsquellenPlanungErstinstallation und -KonfigurationAdministrationswerkzeugeKonfiguration zur LaufzeitVersionsunterschiede

Benutzerverwaltung:

Anlegen von BenutzernDas MySQL-RechtesystemZuweisen und Entziehen von Rechten

Datenbankverwaltung:

Anlegen und Löschen von DatenbankenAnlegen von TabellenSHOW und die Datenbank INFORMATION_SCHEMA

Speicherengines und ihre Vorteile:

MyISAMInnoDBMergeMemoryUmwandeln von Tabellenformaten

Datenbanksicherheit:

Überwachung der DatenbankLoggingBackup und RestoreFehlerdiagnose und -behebungReparaturReplikation

Optimierung:

Caches und BufferQuery CacheServereinstellungenProfiling

Installation und Konfiguration unter Windows:

ErstinstallationServerGrafische ClientsMigration der Datenbanken zwischen den Betriebssystemen

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11824

Termine und Orte: 26 Mai 2018 – Nr.: 11824

Berlin

11 Jul - 13 Jul 2018

München

10 Okt - 12 Okt 2018

MYSQL ANWENDUNGSENTWICKLUNGWebanwendungen mit MySQL und PHP

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Anwendungsentwickler, Webentwickler mitProgrammierkenntnissen.

Voraussetzungen: 8230 oder vergleichbare Kenntnisse. HTML- undPHP-Kenntnisse oder gute Programmierkenntnisse in einer anderenProgrammiersprache.

Nr.: 11825Preis: 2.190,00 € (netto) / 2.606,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Übungen, Praktikum am System.

Nach dem Seminar können Sie Datenbanken entwerfen und mit MySQL anlegen. Sie lernen die Besonderheiten der AbfragespracheSQL unter MySQL kennen. Mithilfe des PHP-API können Sie auf MySQL zugreifen. Gezeigt wird der Entwurf von webbasiertenAnwendungen und klassischen Client/Server-Anwendungen.

Voraussetzungstest zu diesem Seminar

Programm

Datenbankentwurf:Das relationale Modell - Entwurfsverfahren - Normalisierung - ER-Diagramme

SQL-Grundlagen:

Datendefinition - Datenmanipulation - Datenbankabfragen - Besonderheiten von MySQL

Webschnittstellen und Formulardaten:

CGI - HTML-Formulare - Formularauswertung mit PHP - Plausibilitäts- und Validitätsprüfung - Sicheres Übernehmen von Daten -Zeichensätze und Sortierfolgen

Das MySQL-PHP-API:

Einrichten und Konfiguration der API-Schnittstelle - Funktionsweise - Funktionen - Verbindungsaufnahme - Befehle absetzen -Ergebnisse auswerten - Fehlermeldungen auswerten - Daten manipulieren - Transaktionen

MySQL Geschwindigkeit:

Optimierung der Abfragen - Indizes - Normalisierung vs. Effizienz - Fehlerbehandlung - Logging

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11825

Termine und Orte: 26 Mai 2018 – Nr.: 11825

Frankfurt

30 Jul - 03 Aug 2018

Hamburg

19 Nov - 23 Nov 2018

MYSQL FüR FORTGESCHRITTENE

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Datenbankadministratoren und Entwickler mitErfahrung in MySQL-Datenbanken.

Voraussetzungen: 11825 oder vergleichbare Kenntnisse. SQL-Kenntnisse.

Nr.: 11826Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Übungen, Praktikum an MySQL/LinuxSystemen.

Sie sind in der Lage, mittels SQL-Abfragen Informationen über Datenbankobjekte und Funktionalität des MySQL-Servers zu erlangenund Servereinstellungen zur Laufzeit zu verändern.Sie kennen die erweiterte Funktionalität der InnoDB Storage Engine und können sieeinsetzen. Sie wissen, wie man Stored Procedures und Trigger in MySQL Datenbanken anlegt und verwaltet.Sie können dieverschiedenen Verfahren zu Replikation und Clustering bezüglich ihrer Anwendung einschätzen und können einfacheReplikationsumgebungen selbst einrichten

Programm

Konfiguration:

Server-KonfigurationsvariablenSicherheit

Transaktionen:

Transaktionen und Fremdschlüsselbeziehungen bei InnoDB-Tabellen

MySQL 5:

Stored ProceduresTriggerViewsCursorInformation_Schema

Replikation:

Die Implementierung von MySQL-ReplikationEinfache Master/Slave-Replikationsumgebung aufsetzenMulti-Master- bzw. Ring-ReplikationBackup

Cluster:

Konzepte von MySQL Clustern

High Availability ClusteringDie Knoten im MySQL ClusterDie Verteilung und Replikation der Daten in MySQL Cluster

Konfiguration:

Server-KonfigurationsvariablenSicherheit

Transaktionen:

Transaktionen und Fremdschlüsselbeziehungen bei InnoDB-Tabellen

MySQL 5:

Stored ProceduresTriggerViewsCursorInformation_Schema

Replikation:

Die Implementierung von MySQL-ReplikationEinfache Master/Slave-Replikationsumgebung aufsetzenMulti-Master- bzw. Ring-ReplikationBackup

Cluster:

Konzepte von MySQL ClusternHigh Availability ClusteringDie Knoten im MySQL ClusterDie Verteilung und Replikation der Daten in MySQL Cluster

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11826

Termine und Orte: 27 Mai 2018 – Nr.: 11826

Hamburg

13 Aug - 15 Aug 2018

Frankfurt

24 Okt - 26 Okt 2018

KNOWLEDGE WAREHOUSE UND WISSENSMANAGEMENT

Dauer: 4 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Fach- und Führungskräfte, Projektleiter, IT-Experten,Datenanalysten, Data Warehouse Architekten, KnowledgeIngenieure, Wissensmanager, IT-Koordinatoren.

Voraussetzungen: Das Seminar setzt keine speziellen Kenntnissevoraus.

Nr.: 5693Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion DurchgängigesFallbeispiel, Musterentwürfe.

Nach dem Seminar kennen Sie die wichtigsten Konzepte des Wissensmanagements aus Betriebswirtschaft, IT und Soziologie. Siekönnen abschätzen, welche der Konzepte für ihre Unternehmenssituation angemessen und eventuell sogar erforderlich sind. Sie lernenein Wissensmanagement-Projekt aufzusetzen und werden mit der Rolle "Wissensmanager" vertraut. Sie wissen, wie aus einem DataWarehouse ein Knowledge Warehouse wird. Sie können ein ISO15504 konformes Wissensmanagement Audit gestalten

Programm

Grundlagen der Informationsqualität:Motivation, Ziele und Nutzen des Wissensmanagement - Daten, Informationen, Wissen - die Informationsniveaus nach Rehhäuserund Krcmar - Wissen aus betriebswirtschaftlicher Sicht - Soziologische Auffassungen von Wissen - Wissen aus technischer Sicht -Wissensaspekte für die Gestaltungspraxis im Unternehmen

Der Wissensmanagement-Prozess und seine Methoden:

Wissensbausteine nach Romhardt und Probst - Wissensmanagement-Zielsetzung, Wissensbilanz, Balanced Wissensmanagement-Scorecard - Wissensidentifizierung, Wissenstopografie, Indizierungsarten, Semantische Netze, Thesaurus, Taxonomie -Wissensbeschaffung, Wissensquellentypen, Wissenssuche - Wissensgenerierung, Reasoning, Ontologies - Wissensverteilung,Darstellung wissensintensiver Prozesse mit der IUM - Wiki-Lösungen - Wissensnutzung, Wissenserhaltung, Wissensmarktkonzeptnach North, Wissenssozialisierung nach Nonaka und Takeuchi - Das Konzept der lernenden Organisation von Argyris -Wissensstatusmessung, Wissensbewertung

Die IT-Architektur des Wissensmanagement-Systems:

Architektur nach Riempp - Komponenten eines Wissensmanagement-Systems nach ITIL - Produkttypen von Wissensmanagement-Systemen des SW-Marktes

Das Wissensmanagement-Projekt:

Anforderungen an die Wissensmanagement-Lösung und Anforderungs-templates - Projekttypen des Wissensmanagement - Phasenund Aktivitäten eines Wissensmanagement-Projekts - Sozialtechniken für das Wissensmanagement im Projektverlauf - Entwurf derWissensmanagement-Lösung - Spezifikation der Inhalte - Soziale Aspekte des Wissensmanagement-Projekts: Implementierungeiner Wissens-Community - Kalkulationshilfen für ein Wissensmanagement-Projekt

Das Knowledge Management-Assessment:

Reifegradekonzept nach ISO15504, Prozessgebiete und Indikatoren aus KPQM, KMMM, KKMM - Das Wissensmanagement-Audit -Literaturdiskussion

Hinweis

Das Seminar ist eine optimale Fortsetzung des Seminars 05685 "Data Warehouse - Konzepte und Projektierung"

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5693

Termine und Orte: 26 Mai 2018 – Nr.: 5693

Düsseldorf

23 Jul - 26 Jul 2018

Frankfurt

13 Nov - 16 Nov 2018

REPORTING UND KENNZAHLEN-VISUALISIERUNG

Dauer: 2 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Projektleiter, Organisatoren, Data Warehouse-Architekten, Datenqualitätsmanager, Revisionisten,Anforderungsanalytiker, Geschäftsführungsassistenten.

Voraussetzungen: Anwender-Kenntnisse über IT-Systeme.Grundkenntnisse zu Projektmanagement und Projektplanung, DataWarehouse-Kenntnisse.

Nr.: 5689Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion, Durchspielen einesFallbeispiels.

Nach diesem Seminar verstehen Sie das Dashboard als Dach einer Data Warehouse-Lösung und als integrierte Komponente derBusiness Intelligence Architektur. Sie können die Anforderungen Reports und Kennzahlen präzise definieren. Sie verstehenUnternehmenskennzahlenmodelle und ihre Position in der Business Intelligence Systematik. Sie lernen Varianten vonKennzahlensystemen kennen. Sie können ein Dashboard-Projekt aufsetzen.

Programm

Nutzen und Umfang des Company Performance Management:Reporting und Dashboard in der BIS-Architektur - Die Steuerungsebenen des Unternehmens - Umwelt-Informationssysteme undFrühwarnsysteme - Wert-Begriff und Value-Management - Besondere Reports: Sozialbilanz und Umweltbilanz - Ziele, Nutzen undAufwand des Reportings

Komponenten für das Unternehmensreporting:

Integration im Data Warehouse-Architektur-Referenzmodell - Reportarten und die Dialogstruktur von Reports - Strategy Map -Balanced Scorecard - Kennzahlensysteme, erweitertes ROI-Schema von DuPont - IT-Kennzahlen aus COBIT und ITIL

Entwicklung eines Dashboard:

Vorgehensmodell und Projektierung - Anforderungserhebung für Inhalt und Form von Reports und ihre Präsentation im Dashboard -Entwurf des Dashboard, GUI-Elemente, Typen von Geschäftsgrafiken - Visualisierungsregeln nach Hichert und Few - Darstellungvon Kennzahlensystemen - Das Kennzahlensystem von Reichmann - Die Balanced Scorecard Kaskade - Prozess der Aktualisierungdes Dashboard

Produkte und Evaluation:

Dashboard-Produkte ausgewählter Hersteller - Evaluationsmethodik, Evaluationskriterien

Planung und Kalkulation eines Dashboard-Projekts:

Projektphasen und Aktivitäten in der Projektleitlinie - Kalkulationsschema

Hinweis

Das Seminar ist eine gute Ergänzung zu den Seminaren Sem. 05685 05685 und Sem. 05688 05688.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5689

Termine und Orte: 26 Mai 2018 – Nr.: 5689

Frankfurt

11 Okt - 12 Okt 2018

DATA WAREHOUSE - KONZEPTION UND PROJEKTIERUNG

Dauer: 4 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar "Data Warehouse - Konzeption undProjektierung“ richtet sich an Fach- und Führungskräfte,Projektleiter, Organisatoren, Data Warehouse Architekten, DataWarehouse Key-User und Anforderungsanalytiker, die ein DataWarehouse Projekt begleiten und eine Data Warehouse-Lösunggestalten müssen.

Voraussetzungen: Um an dem Kurs erfolgreich teilnehmen zukönnen, sollten sie Anwender-Kenntnisse über IT-Systeme,Grundkenntnisse zu Projektmanagement und Projektplanung undGrundkenntnisse über Anforderungsanalyse mitbringen.

Nr.: 5685Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.

Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Diskussion und Durchspielen einesFallbeispiels alle Lerninhalte.

Im Seminar "Data Warehouse - Konzeption und Projektierung“ werden alle Aspekte der Gestaltung einer Data Warehouse-Lösungbehandelt. Sie kennen die Architektur und die Komponenten von Data Warehouse-Lösungen. Sie können ein Data Warehouse-Projektplanen und kalkulieren. Sie können Vorzüge und Nachteile verschiedener Lösungswege beurteilen. Sie gewinnen einen Marktüberblicküber die wichtigsten Hersteller und ihre Produkte und kennen die wesentlichen Evaluationskriterien.

Programm

Data Warehouse (DWH) - Fundament zur Business Intelligence:

Das Problem der DatenintegrationEIS, MIS, Business Intelligence und DWHKurze Historie der MIS-KonzepteTypische Eigenschaften eines DWHBegründung für ein DWH-Projekt und dessen Besonderheiten.

Komponenten eines Data Warehouse:

Ein Architektur-ReferenzmodellDie Datenquellen-Schicht und deren unterschiedliche DatenstrukturenDatenextraktion, Transformation und Laden, ETLDWH-Datenbank, Multidimensionale Datenbank, Metadaten, OLAP, ROLAP, MOLAP, Big Data-AnsatzAnalyse-WerkzeugeData Mining-Prinzip, Technologie-KomponentenFront-End-DatenzugangswerkzeugeDas DWH-Architekturkonzept.

Entwicklung eines Data Warehouse:

Vorgehensmodell und ProjektierungAnforderungserhebung, Besonderheiten der DWH-Anforderungen, Lösungskonzeption und LastenheftEntwurfsaufgaben und OLAP-Struktur, Starschema

Grundlegende HardwarefragenRealisierungsaufgabenRollen der DWH-Organisation, Aufbau einer DWH-Richtlinie.

Produkte und Evaluation:

EvaluationsquellenAusgewählte Produktkonzepte, Produkttypen ausgewählter Hersteller im VergleichEvaluationsmethodik, EvaluationskriterienBeispiele integrierter BIS-Architekturen.

Planung und Kalkulation eines DWH-Projekts:

DWH-VorgehensmodellDWH-ProjektleitlinieKalkulationsschema für DWH-Projekte.

Betrieb und Service:

Grundlegende BetriebsaufgabenService Level und Service-AufgabenITIL-Integration und Trouble Ticketing für DWH.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5685

Termine und Orte: 26 Mai 2018 – Nr.: 5685

Berlin

20 Aug - 23 Aug 2018 Garantietermin

Stuttgart

20 Nov - 23 Nov 2018

DATA WAREHOUSE - ENTWURF UND MODELLIERUNG

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar "Data Warehouse - Entwurf undModellierung“ richtet sich an Fach- und Führungskräfte,Projektleiter, Data Warehouse Architekten und Data WarehouseSystemingenieure, die eine Datenstruktur für ein Data Warehouseentwerfen oder prüfen müssen.

Voraussetzungen: Um dem Lernstoff leicht folgen zu können,sollten Sie das Sem. 05685 05685 besucht haben odervergleichbare Kenntnisse haben. Anwender-Kenntnisse über IT-Systeme, Datenbanken und Applikationen und Grundkenntnisse imDatenmodellieren sollten Sie auch mitbringen.

Nr.: 5686Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.

Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Fallbeispiele und Durchspielen vonMusterentwürfen alle Lerninhalte.

Im Seminar "Data Warehouse - Entwurf und Modellierung“ lernen Sie, was Sie beim Entwurf und bei der Erstellung einer DataWarehouse Datenbank berücksichtigen sollten. Sie kennen Entwurfsmuster für DWH-Datenmodelle, können dimensionaleGesamtmodelle entwickeln und kennen die Vor- und Nachteile der Modell-Alternativen. Sie kennen die Schritte des ETL-Prozesses unddie dafür zu erledigenden Entwurfsaufgaben. Sie verstehen das Mapping zwischen Datenstrukturen.

Programm

Prinzipien und Architektur eines Data Warehouse (DWH):

Motivation eines DWH-ProjektsEine DWH-ArchitekturKonkurrierende LösungstypenEntwurfsaufgaben und Grundsatzentscheidungen.

Dimensionale Modellierung:

Eigenschaften und Stärken des dimensionalen ModellsUnterschied zum ERMFakt- und DimensionstabellenStar-Schema, Snowflake-DiagrammDimensionenartenFaktenartenEntwurfsfälle und MusterlösungenEntwurfsprinzipien.

Aggregation und Kennzahlen:

Aggregations-DiagrammeKennzahlen-DiagrammeFact Constellation-Schema.

Dimensionales Gesamtmodell:

Wertkette und FaktenverbundData Mart, Dimensionen und Daten-Fakten-Matrix (Datenbus)Daten-GalaxieData Mart-AuffassungenStufen zum Aufbau des dimensionalen Gesamtmodells.

Physische Datenhaltungsebene:

KonventionenPhysisches ModellMengenkalkulationIndizierung und IndexplanPlanung der Speicherstruktur.

Datenübernahmeentwurf:

Planung der übernahmeschritteInfrastrukturplanVerteilungsmöglichkeiten von Data MartsQuellen-Ziel-MappingLadeschemaLadeschritteKontrolle der Ergebnisse.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5686

Termine und Orte: 26 Mai 2018 – Nr.: 5686

München

02 Jul - 04 Jul 2018

Hamburg

17 Sep - 19 Sep 2018 Garantietermin

Stuttgart

05 Dez - 07 Dez 2018

DATA MININGInformationsgewinnung für die Unternehmenssteuerung

Dauer: 2 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar "Data Mining“ wendet sich an Fach- undFührungskräfte, Projektleiter, IT-Experten und Datenanalysten, diein Data Mining-Projekte involviert sind und vor der Beschaffungeines Data Mining Tools stehen oder einfach die Leistungsfähigkeitdes Data Mining für Big Data-Themen erkennen wollen.

Voraussetzungen: Um an dem Kurs "Data Mining“ erfolgreichteilnehmen zu können, sollten Sie das Sem. 05685 05685 besuchthaben oder gleichwertige Kenntnisse besitzen. Kenntnisse inStatistik sind nicht erforderlich.

Nr.: 5687Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.

Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Diskussion, Gruppenarbeit und kleineÜbungen die Inhalte des Seminars.

Im Seminar "Data Mining“ werden die Möglichkeiten von Data Mining zur Veredelung von Informationen zu Wissen erläutert. Siekennen die Prinzipien der wichtigsten Methoden, Visualisierungsarten und Technologien weitgehend "Mathematik-frei". Sie könnenWerkzeuge zum Einsatz von Data Mining anhand der besprochenen Methoden auswählen. Sie lernen, wie ein Data Mining-Projektgestaltet wird. Sie wissen, was die Rolle "Data Mining Ingenieur" umfasst.

Programm

Data Mining - Bedeutung und Motivation:- Ziele, Einsatzgebiete, Problemkreise

- Erhebung zur Beliebtheit und Motivation

- Produktreife im Hypecycle.

Data Mining-Architekturen:

- Ausgewählte Architekturen wichtiger Hersteller

- Einbettung von Data Mining in DWH-Architekturen.

Data Mining-Prozess:

- Der Data Mining-Prozess aus der Sicht einiger Hersteller

- Der Data Mining-Prozess nach Fayyad

- Problemspezifikation

- Datenbeschaffung

- Datenaufbereitung, Transformation, Lifting

- Data Mining

- Interpretation

- Umsetzung.

Data Mining-Methoden und Technologien:

- Statistik visuell aufbereitet, Regression, Histogramm, Korrelation, ABC-Analyse, Portfolio-Analyse

- Memory based Reasoning, Induktion von Regeln, Warenkorbanalyse, Clustering, Entscheidungsbaum

- Neuronale Netze

- Evolutionäre Algorithmen.

Data Mining-Visualisierung:

- Diagrammarten

- 3-D-Darstellungen

- Hyperslice, Prosection view, parallele Koordinaten

- Tree Map.

Data Mining-Werkzeuge:

- Ausgewählte Data Mining-Werkzeuge

- Ausgewählte Eigenschaften einiger Produkte im Vergleich.

Das Data Mining-Projekt:

- Phasengliederung

- Anforderungen und Fachkonzept

- Kriterien zur Tool-Evaluation

- Der Data Mining Prozess

- Literaturdiskussion.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5687

Termine und Orte: 26 Mai 2018 – Nr.: 5687

Hamburg

25 Jun - 26 Jun 2018

Frankfurt

08 Nov - 09 Nov 2018

DATEN- UND INFORMATIONSQUALITäT

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar "Daten- und Informationsqualität“ wendetsich an Fach- und Führungskräfte, Projektleiter, IT-Experten,Datenanalysten, Data Warehouse Architekten,Datenqualitätsbeauftragte und IT-Koordinatoren, die bei derLösung von Datenqualitätsproblemen kompetent mitsprechenwollen.

Voraussetzungen: Um an dem Kurs erfolgreich teilnehmen zukönnen, sollten Sie Grundkenntnisse der Unternehmensinformatikmitbringen. Das Seminar kann auch als Vertiefung des Sem. 0568505685 genutzt werden.

Nr.: 5688Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.

Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag und Diskussion sowie an einem durchgängigenFallbeispiel und mittels Musterentwürfen denDatenqualitätsmanagement-Prozess.

Im Seminar "Daten- und Informationsqualität“ werden Ihnen alle wichtigen Aufgaben für die Verbesserung der Daten- undInformationsqualität für Ihr Unternehmen vorgestellt. Sie können die aktuellen Maßnahmen zur Informationsqualität beurteilen undDatenqualitätsindikatoren definieren. Sie können helfen, die Datenfehler im Unternehmen zu reduzieren und damit zur Effizienz derGeschäftsprozesse beitragen. Sie wissen, wie das der Informationsqualitätsmanagement als Prozess organisiert wird.

Programm

Grundlagen der Informationsqualität:

Ziele und Nutzen des DatenqualitätsmanagementInformationsniveaus nach Rehhäuser und KrcmarQualitätsbegriff allgemein und bezogen auf Daten, Informationen, WissenModelle der Dimensionen der Datenqualität.

Data Governance:

IT-Governance KomponentenCompliance und DatenqualitätAlignment und InformationsmanagementInformationsarchitektur als View (Dimension) der Enterprise ArchitekturImprovement der IQ-ProzesseEntscheidungsfindung für das IQ-Management.

Methoden zur Analyse der Datenqualität:

Fehlerklassifikation von DatenMetriken zur DatenqualitätMethoden zur FehlererkennungStatistik zur Analyse der Datenqualität, Rang-Listen, Regression, Histogramm, Korrelation, Data Profiling zur Visualisierung vonDatenqualitätsmängelnAutomatische Klassifikation zur Entdeckung von DatenqualitätsmängelnMethoden zur Verbesserung der Datenqualität und zur Fehlerbehebung.

Die Organisation der Datenqualität:

Daten-Qualitätsmanagementprozess der DAMAIQ-PolicyAnforderungen an die DatenqualitätAufgaben und Phasen einer integrierten und kontinuierlichen DatenqualitätssicherungDatenqualitätsauditBeurteilen der Datenqualität und Vorschläge zur VerbesserungData Tracking nach RedmanPriorisierung von DQ-Maßnahmen.

Das Informations-Lebenszyklus-Qualitätsmanagement-Assessment:

ReifegradeProzessgebiete und Indikatoren des IQM-CMMOrganisationsaufgabe IQMDienstleister am MarktLiteraturdiskussion.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5688

Termine und Orte: 26 Mai 2018 – Nr.: 5688

Frankfurt

30 Jul - 01 Aug 2018 Garantietermin

Berlin

28 Nov - 30 Nov 2018

DATENBANKSYSTEME - TECHNIKEN, SYSTEMVERGLEICH, DESIGNTechniken, Systemvergleich, Design

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Führungskräfte, Systemanalytiker,Organisationsprogrammierer, angehende Datenbankexperten.

Voraussetzungen: Grundkenntnisse über Datenbanksysteme sindvon Vorteil.

Nr.: 4010Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion, Übungen,Demonstrationen.

Sind Sie im Begriff, eine Datenbank aufzubauen, oder wollen Sie die in Ihrem Hause eingesetzte Datenbank-Software optimal nutzen?Kennen Sie die Unterschiede zwischen den heute eingesetzten Datenbanksystemen? Sie erhalten einen umfassenden Überblick überdie am Markt angebotene Datenbank-Software. Sie wissen, welche Kriterien für den Einsatz der verschiedenen Datenbanktechniken zubeachten sind und erhalten Hinweise zur Vorgehensweise für ein optimales Design.

Programm

Klassifizierung von Datenbanksystemen:

Lineare DatenbankenHierarchische DatenbankenRelationale DatenbankenObjektorientierte DatenbankenNoSQL-Datenbanken

Kriterien für das Datenbankdesign:

NormalisierungER-ModellierungUMLRedundanz und ZugriffsgeschwindigkeitFlexibilität und ProgrammunabhängigkeitReorganisationNeue Anforderungen an die DatensicherungTransaktionsproblem

Datenbankobjekte bei RDBMS:

DatabaseTablespaceTableIndexDatenintegritätPerformanceüberlegungen

Interfaces:

Interaktives SQLEmbedded SQL (statisch-dynamisch), ODBC, SQLJ, JDBC

Neue Anforderungen und Entwicklungen im verteilten Umfeld:

Verteilte DatenbankenClient/Server-DatenbankenStored Procedures, Triggers, User Defined FunctionsObjektorientierung: OODBMS, ORDBMSMultidimensionale DBMS, Open SourceSchlüssel/Werte-Speicherung in verteilten NoSQL-Datenbanken

Gegenüberstellung wichtiger Datenbank-Software-Pakete:

DB2 für z/OSIMSADABASINFORMIX, INGRES, ORACLESybase, DB2 für LUW, MS SQL Server, MS Access, MySQL

Vorgehensweise bei der Planung und Realisierung einer Datenbank:

Datenmodellierung und DatenadministrationPlanungsphasenLogisches und physisches Datenbankdiagramm

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4010

Termine und Orte: 26 Mai 2018 – Nr.: 4010

Stuttgart

28 Mai - 30 Mai 2018 Garantietermin

Düsseldorf

26 Sep - 28 Sep 2018

ORACLE DATENBANK SUMMARYÜberblick über das ORACLE Datenbanksystem und seine Werkzeuge

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Training "ORACLE Datenbank Summary“ richtetsich an Führungskräfte, IT-Projektleiter, Softwaredesigner,Fachkonzeptentwickler, Organisatoren, Mitarbeiter derFachabteilung und Systembetreuer, die einen Einstieg in dieORACLE Datenbankwelt gewinnen möchten.

Voraussetzungen: Um an dem Training "ORACLE DatenbankSummary“ erfolgreich teilzunehmen, sind IT-Grundkenntnisse undGrundkenntnisse einer Programmiersprache von Vorteil.

Nr.: 4042Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion und Praktikum am System,in dem Sie das Erlernte zum ORACLE Datenbanksystemausprobieren und festigen können.

Nach dem Seminar "ORACLE Datenbank Summary“ kennen Sie die wichtigsten Begriffe aus der ORACLE Welt sowie die Werkzeuge desORACLE Datenbankmanagementsystems. Auch die Wichtigkeit des sauberen Designs und der Modellierung wird Ihnen ersichtlich. Siesind in der Lage, die Einsatzzwecke der Sprachen SQL und PL/SQL einzuschätzen und zu differenzieren sowie einfache SQL Statementsund PL/SQL Programme selbst zu schreiben und auszuführen. Die Informationen über Speichermöglichkeiten der Daten im XML Formatwerden Sie für dieses Thema sensibilisieren.

Programm

Relationale Datenbanken:

Grundlagen der Datenmodellierung, des ERM und der relationalen ModellierungTabellenPrinzip der referentiellen Integritätüberblick über ORACLE Datenbankeditionenüberblick über die ORACLE Architektur.

Die Benutzerschnittstellen SQL*Plus, SQL Developer, ORACLE Enterprise

Manager Database Control:

SQLEditorSQL*Plus KommandosStarten, Einloggen und Benutzen.

Die Sprache SQL:

SELECTFROMWHEREGROUP BY

HAVINGORDER BYSortierungBedingungenSubqueriesVerknüpfungen von Tabellen (INNER JOIN vs. OUTER JOIN)Mengenoperatoren (UNION, UNION ALL, INTERSECT, MINUS)DML Befehle (INSERT, UPDATE, DELETE)DDL Befehle (CREATE, ALTER, DROP).

Die Sprache PL/SQL:

Blockstruktur und Arten von PL/SQL-RoutinenNotwendige RechteVariablendeklarationsteil und AusführungsteilVerzweigungenSchleifenEinsatz der SQL Befehle innerhalb der PL/SQL Programme.

XML:

XML ModellAbbildungsmöglichkeiten von XML Schemas auf RelationenFallstudie zu XML Verarbeitung in ORACLE.

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4042

Termine und Orte: 26 Mai 2018 – Nr.: 4042

München

29 Okt - 31 Okt 2018

ORACLE DATENMODELLIERUNG UND DATENBANKDESIGN

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Datenbankdesigner, Anwendungsentwickler,Datenbankadministratoren, Consultants.

Voraussetzungen: Grundkenntnisse über relationaleDatenbanksysteme.

Nr.: 4062Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Gruppenarbeit, Erfahrungsaustauschund Training der datenmodellierungsrelevanten Interview-Technik.

Im Seminar wird ein strukturiertes Vorgehen von der Datenanalyse und -modellierung bis zum logischen und physischen Design vonORACLE Datenbanken behandelt, wobei der Schwerpunkt auf die Vermittlung fundierter Datenmodellierungskenntnisse gelegt wird. AlsMethode zur Datenmodellierung wird das Entity-Relationship-Modell benutzt. Nach diesem Seminar können Sie ein Datenmodell unterBeachtung ORACLE-spezifischer Aspekte in eine Datenbank umsetzen

Programm

Einführung in die Datenmodellierung:

Datenmodellierung im SoftwareprojektRelationale DatenbanksystemeDrei-Sichten-ModellVorgehensweise

Datenmodellierung:

EntitätsmengenAttributmengenBeziehungsmengenDomäneNormalisierungsprozessIntegritätsregelnDarstellungsarten im E/R-ModellEinfache und anspruchsvolle Modellierungsmuster

Denormalisierung und Designergänzungen:

Vor-/Nachteile normalisierter/denormalisierter TabellenZugriffspfadmatrix für TabellenDesignergänzungen (Teilmengen, Historisierung, weitere Aspekte zur Performance-Verbesserung)

Datenbank-Objektdesign:

Logische und physische Struktur einer ORACLE Datenbank (Instance, Tablespace, Table (inkl. Partitionierung), Index, View,Materialized View,...)

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4062

Termine und Orte: 26 Mai 2018 – Nr.: 4062

München

24 Sep - 26 Sep 2018

ORACLE DATA WAREHOUSE - DESIGN UND IMPLEMENTIERUNG

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Datenbank- und Data Warehouse-Designer,Anwendungsentwickler, Datenbankadministratoren, Consultants.

Voraussetzungen: Grundkenntnisse über ORACLE undDatenmodellierung entsprechend Sem. 04062.

Nr.: 4073Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Gruppenarbeit, Fallbeispiele,praktische Übungen.

Nach dem Seminar wissen Sie, was beim Entwurf und der Erstellung eines Data Warehouse (DWH) zu berücksichtigen ist. Sie erlernendimensionale Modelle zu entwickeln und erhalten Leitlinien für die Aggregatbildung, um dann das physische Datenbankdesignumzusetzen. Aufbauend dazu lernen Sie Vorzüge, Besonderheiten und Einschränkungen durch die Verwendung der DatenbankobjekteBitmap Index und Materialized View kennen und sind vertraut mit Methoden wie Partitionierung und Parallelisierung

Programm

Überblick:Einführung in das logische Design für ein Data Warehouse - Fakt- und Dimensionstabellen - Vergleich zu Entity-Relationship-Modellierung (ERM)

Dimensionale Modellierung:

Eigenschaften und Stärken des dimensionalen Modells - Herleitung eines dimensionalen Modells aus einem E/R-Modell - Arten vonDimensions- und Faktentabellen - Star-Schema, Snowflake-Schema - Festlegung der Granularität - Familien von Fakt-Tabellen -Gestaltungsfälle - Aggregate - Faktenverbund, Data Marts und Dimensionales Gesamtmodell

Implementierung des physischen Designs in ORACLE:

Planung der Speicherstruktur - Designstruktur vs. Fragmentierung - Tabellen und Partitionen - Extentmanagement im Tablespace -Indizes, Views, Star Transformation

ETL:

Berücksichtigung der Prozesse Transformation und Laden ins DWH - Transformieren mit SQL (CTAS, Merge, Multitable Insert) undPL/SQL - Fehler-Logging und Verarbeitungsmechanismen mit ORACLE 11g - Direct Path Insert

Performance-Betrachtungen:

Bitmap Index - Bitmap Join Index - Materialized Views - Refresh-Methoden - Materialized View Logs - Dimensionen und Hierarchien -Query-Rewrite - Partitions- und Parallelverarbeitung

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4073

Termine und Orte: 27 Mai 2018 – Nr.: 4073

Frankfurt

01 Aug - 03 Aug 2018

München

17 Okt - 19 Okt 2018

ORACLE APPLICATION EXPRESS

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Anwendungsentwickler, Datenanalysten,Systembetreuer, Datenbankadministratoren, Consultants.

Voraussetzungen: Grundkenntnisse in relationalen Datenbankenund SQL.

Nr.: 4044Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion, Praktikum am System.

ORACLE Application Express (APEX) dient zur effizienten Entwicklung von datenbankbezogenen Web-Anwendungen.Nach dem Seminar kennen Sie die Architektur von APEX und sind in der Lage, Web-Anwendungen mit APEX zu entwickeln. Sie habeneinen Überblick über die Möglichkeiten der Administration von APEX Templates, Workspaces, Benutzern und Datenbankobjekten. Auchgrundlegende Dinge zur Absicherung und zum Troubleshooting von APEX-Anwendungen sind Ihnen bekannt

Programm

Konzepte von ORACLE Application Express (APEX)

Anwendungsentwicklung mit Application Builder

Berichts- und Formularerstellung

Platzierung von Regions

Items (Formularelemente wie Checkbox, Radigroup, Select List)

Erklärung der Wizards

Integration von Diagrammen und Flash-Grafiken

SQL Zugriff auf Datenbankobjekte mit SQL Workshop

Import und Export von Daten mit Data Workshop

Benutzer- und Workspaceverwaltung

Installation und Troubleshooting

Dynamic Actios

Security

Oberflächengestaltung mittels Themes / Templates

Neuerungen in V 5

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4044

Termine und Orte: 26 Mai 2018 – Nr.: 4044

Berlin

23 Jul - 27 Jul 2018 Garantietermin

ORACLE XML DB

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Der Kurs "ORACLE XML DB“ wendet sich anDatenbankentwickler.

Voraussetzungen: Um am Seminar "ORACLE XML DB“ erfolgreichteilnehmen zu können, sollten Sie Grundkenntnisse in XML,ORACLE SQL und ORACLE PL/SQL haben.

Nr.: 4086Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Demonstrationen am System sowiepraktische Übungen, in denen Sie das Erlernte ausprobieren undfestigen können.

Nach dem Seminar "ORACLE XML DB“ kennen Sie die verschiedenen Ansätze, XML-Daten in der ORACLE Datenbank zu speichern bzw.zu generieren und können deren Vor- und Nachteile einschätzen. Sie haben einen Überblick über die relevanten Standards und dieUnterstützung durch die ORACLE-spezifischen Erweiterungen.

Programm

Abbildung zwischen XML und relationalem Modell:

Hierarchisches Datenmodell versus RelationenOpake Speicherung als LOB (Large Object)Zerlegung und Verteilung der XML-Daten auf TabellenGenerierung von XML-Dokumenten aus relationalen DatenKonvertierung der verschiedenen DatentypsystemeUnterstützung von XML Schemata und DTDs

Die Erweiterung SQL/XML des SQL-Standards:

XML als DatentypAbbildung der SQL- auf XML-KonzepteOperatoren auf dem Datentyp XMLEinbettung in SQLVerarbeitung mit PL/SQL

Die Abfragesprache XQuery als W3C-Standard:

XPath zur Adressierung von XML-DokumentteilenXPath-Ausdrücke und -FunktionenXQuery-KonzepteDas XQuery-DatenmodellFLWOR-Ausdrücke (For-Let-Where-Order By-Return)Verbundoperationen und GruppierungenErweiterte Ausdrücke und Funktionen

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4086

Termine und Orte: 26 Mai 2018 – Nr.: 4086

Düsseldorf

30 Jul - 01 Aug 2018

München

21 Nov - 23 Nov 2018

ORACLE SQL DEVELOPER

Dauer: 2 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Anwendungsentwickler, Organisatoren, Führungskräfte,Mitarbeiter der Fachabteilung, Softwaredesigner,Fachkonzeptentwickler, IT-Projektleiter, Consultants,Systembetreuer.

Voraussetzungen: SQL und PL/SQL entsprechend Sem. 4042 odervergleichbare Kenntnisse.

Nr.: 4076Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Diskussion, Praktikum am System.

Der ORACLE SQL Developer ist ein kostenloses Tool, das seit Version 11g in jeder ORACLE Installation integriert ist. Nach dem Seminarkönnen Sie den ORACLE SQL Developer für die Erstellung von SQL Statements und PL/SQL Programmen einsetzen und sind in derLage, sich einen Überblick über Struktur und Aufbau der Datenbankobjekte, insbesondere Tabellen, Indizes und Abfragen zuverschaffen

Programm

Agenda:

- Einrichten von Datenbankverbindungen zu ORACLE, Access etc.- SQL- und PL/SQL- Statements im SQL Worksheet- Optionen und Einstellungen des SQL Developers anpassen- Data Modeler, Visualisierung und Erstellung von ERDs (Entitiy Relationship Diagrams)- Snippets nützen und selber erstellen- Vordefinierte und benutzerdefinierte Reports- Autotrace und Ausführungspläne- Import von Daten über external Tables etc.- Export von Code und Tabellen- Tools zum Schema-Vergleich- PL/SQL Code erstellen und Compilerfehler beheben- PL/SQL Debugging- Erstellung von Unit Tests- Versionierung mit CVS oder Subversion

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4076

Termine und Orte: 26 Mai 2018 – Nr.: 4076

Stuttgart

11 Jun - 12 Jun 2018 Garantietermin

Frankfurt

04 Okt - 05 Okt 2018

ORACLE SQL OPTIMIERUNG

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar "ORACLE SQL Optimierung“ richtet sichvor allem an Anwendungsentwickler, Datenbankadministratorenund Consultants sowie an alle, die für die Performancesicherungeines Datenbanksystems oder einer Applikation verantwortlichsind.

Voraussetzungen: Um an dem Training "ORACLE SQL Optimierung“erfolgreich teilnehmen zu können, sollten Sie SQL Kenntnisseentsprechend Sem. 4051 4051 mitbringen. GrundlegendeProgrammierkenntnisse sind auch von Vorteil.

Nr.: 4068Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Die praxiserfahrenen Trainer vermitteln dieGrundlagen zur Optimierung anhand von Vortrag und Diskussionund zeigen wichtige Lösungsansätze durch Praxis am System.

Das Seminar "ORACLE SQL Optimierung" vertieft Ihre SQL-Kenntnisse. Sie können komplexe SELECT-Statementserstellen und vorhandene Statements optimieren. Dazu lernen Sie in Grundzügen die Wirkungsweise des ORACLE-Optimizer kennenund sammeln Erfahrungen im Umgang mit AUTOTRACE und TKPROF.Sie erhalten Tipps für den sinnvollen Einsatz der verschiedenen Indexarten, der Parallelisierung von Operationen und den Einsatz vonPartitionierung. Das erworbene Wissen ermöglicht Ihnen, potenzielle Performancemängel in der Entwicklung zu vermeiden,bestehende Probleme im OLTP- und Data Warehouse-Umfeld zu erkennen und durch SQL Tuning-Maßnahmen zu beheben.

Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.

Programm

ORACLE Interna:

Physische DatenspeicherungIndexartenGrundlagen zur Parallel Query OptionBasiswissen zur PartitionierungWichtige Data Dictionary Views für SQL Monitoring.

Komplexe SELECT-Anweisungen:

Datenanalyse mit ROLLUP, CUBE und Top-N-AbfragenFormulierung von JoinsSubqueries und Inline ViewsTipps und TricksNeuerungen in den Versionen 11g und 12c.

Der Optimizer:

Kostenbasierter Optimizer

Statistiken erzeugen und verwalten mit DBMS_STATSErzeugen und Auswerten von Histogrammen.

SQL Tuning:

Performancesicherung als Prozess begreifenEngpässe erkennenTuningstrategie entwickeln und umsetzenAusführungspläne lesen und interpretierenEXPLAIN PLANAUTOTRACETKPROFIndexarten vergleichen und Zugriffsmethoden bewertenResult CacheHints einsetzen.

SQL & OLTP:

Phasen der SQL VerarbeitungStatisches und dynamisches SQLBindvariablen einsetzenParsen vermeiden(Adaptives) Cursor SharingSQL Plan Management.

SQL & Data Warehouse:

Materialized Views und Query RewriteWarehouse Schemata unter ORACLEStar QueryStar Transformation.

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4068

Termine und Orte: 27 Mai 2018 – Nr.: 4068

Frankfurt

04 Jul - 06 Jul 2018 Garantietermin

München

06 Aug - 08 Aug 2018

Düsseldorf

12 Sep - 14 Sep 2018

Stuttgart

15 Okt - 17 Okt 2018 Garantietermin

Hamburg

12 Dez - 14 Dez 2018

ORACLE UND PL/SQL

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Training "ORACLE und PL/SQL" richtet sich anAnwendungsentwickler, Datenbankadministratoren undConsultants, die mit der prozeduralen Programmiersprache PL/SQLarbeiten möchten.

Voraussetzungen: Um an dem Training "ORACLE und PL/SQL"erfolgreich teilzunehmen, sollten Sie SQL-Kenntnisse entsprechendSem. 4051 4051 mitbringen.

Nr.: 4053Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Demonstrationen am System undDiskussion. Anhand zahlreicher PL/SQL-Übungsaufgaben wendenSie die erworbenen PL/SQL-Theoriekenntnisse direkt im Kurspraktisch an und festigen damit das Erlernte.

Nach dem Seminar "ORACLE und PL/SQL" kennen Sie die wesentlichen Bestandteile der prozeduralenProgrammiersprache PL/SQL und können komplexe Programme mit ihr entwickeln. Sie können auch einschätzen, in welchem Umfeldder Einsatz von PL/SQL sinnvoll ist.

Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.

Programm

PL/SQL-Grundlagen:

Blockstruktur und Arten von PL/SQL-RoutinenNotwendige RechteSkalare Datentypen

Aufbau eines PL/SQL-Programms:

Zuweisungen, OperatorenZulässige und nicht zulässige SQL-BefehleDeklarations-, Ausführungs- und FehlerbehandlungsteilSkalare Variablen, Records, Assoziative Arrays

Cursor:

Cursortypen, Cursor mit Parametern, dynamische Cursor

Programmflusskontrolle:

Verzweigungen (IF THEN ELSE, CASE)Schleifen

Fehlerbehandlung:

Vordefinierte, nicht vordefinierte und user-definierte FehlerMöglichkeiten der Fehlerbehandlung

Gespeicherte Programme:

Erstellung, Verwendung, Löschen von Prozeduren, Funktionen und PackagesRechte zur Ausführung (AUTHID)Konzept des Overloading bei PackagesVorteile von PackagesPackage- und Stand-alone-Funktionen in SQL-Ausdrücken

Trigger:

Erstellung, Verwendung, EinsatzgebieteDML, DDL, Instead Of und Compound Trigger

ORACLE Packages:

übersicht über vordefinierte Packages, Syntax und Beispiele zu UTL_FILE, DBMS_JOB, DBMS_SCHEDULER, DBMS_LOB.

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4053

Termine und Orte: 26 Mai 2018 – Nr.: 4053

Berlin

28 Mai - 01 Jun 2018 Garantietermin

München

11 Jun - 15 Jun 2018 Garantietermin 26 Nov - 30 Nov 2018

Frankfurt

09 Jul - 13 Jul 2018

Hannover

06 Aug - 10 Aug 2018

Stuttgart

27 Aug - 31 Aug 2018

Hamburg

24 Sep - 28 Sep 2018

Köln

05 Nov - 09 Nov 2018

ORACLE PL/SQL FüR FORTGESCHRITTENE

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Anwendungsentwickler, Datenbankadministratoren,Systembetreuer, Consultants.

Voraussetzungen: Sem. 4053 oder vergleichbare Kenntnisse.

Nr.: 4043Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Fallbeispiele, praktische Übungen.

Im Seminar vertiefen Sie Ihre PL/SQL-Kenntnisse. Anhand von Beispielen aus der Praxis lernen Sie den effektiven Umgang mit PL/SQLund können komplexe Anforderungen effizient umsetzen.Darüber hinaus erhalten Sie einen Überblick über interessante ORACLE Packages und Schnittstellen zu anderen Programmen.

Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.

Programm

Wiederholung der PL/SQL-Grundlagen

Typen von Arrays in PL/SQL:

Associative Arrays, Nested Tables und VarraysCollection MethodenBulk BindingBulk DML mit ForallTable Functions und Pipelined Table Functions

Dynamische Programmierung:

DBMS_SQLExecute Immediate, REF CURSOR (starke und schwache REF CURSOR, Funktion mit REF CURSOR als IN-Parameter)

Ausgewählte Packages:

Grundlagen des Advanced QueuingDBMS_JOB, DBMS_SCHEDULER, DBMS_LOB, UTL_SMTP, UTL_MAIL, UTL_FILE, DBMS_LOGMNR, DBMS_METADATA, DBMS_RLS,DBMS_CRYPTO, DBMS_COMPARISON

PL/SQL und objektorientierte Konzepte

PL/SQL Optimierung:

PL/SQL Performancemessung mit DBMS_PROFILERPLSQL_OPTIMIZE_LEVEL (10g/11g)Pragma InlineNative Kompilierung (10g/11g)RESULT CACHE in PL/SQLFine Grained Dependency Tracking

Diverses:

Reguläre Ausdrücke in PL/SQLOptimierte Fehlerbehandlung (Nützliche Tools zur Fehlersuche ab 10g, DBMS_ERRLOG, Beispiel für ein zentrales Fehlerpackage)

Schnittstellen:

Einsatz von externen Routinen (Callouts nach C und Java)Verbindungen zu OLE, OLE DB, Visual Basic, Visual Basic for Applications, Windows Scripting Host, PHP und Perl

Neuerungen:

Nutzung der neuen Features in aktuellen Versionen

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4043

Termine und Orte: 26 Mai 2018 – Nr.: 4043

Berlin

27 Jun - 29 Jun 2018

Stuttgart

24 Sep - 26 Sep 2018

München

17 Dez - 19 Dez 2018

ORACLE UND SQL

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Training "ORACLE und SQL" richtet sich anAnwendungsentwickler, Projektleiter, Organisatoren,Datenadministratoren, Mitarbeiter der Fachabteilung undConsultants, die fundierte Kenntnisse der Datenbanksprache SQL ineiner ORACLE-Umgebung erwerben möchten. Das Training istsowohl als Basisausbildung für zukünftige ORACLE-Experten alsauch für Endbenutzer geeignet.

Voraussetzungen: Um an dem Training "Oracle und SQL"erfolgreich teilzunehmen, sollten Sie IT-Grundkenntnissemitbringen. Grundkenntnisse in relationalen Datenbanken sind vonVorteil.

Nr.: 4051Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.

Schulungsmethode: Vortrag, Demonstrationen am System undKommunikation untereinander. Sehr nützlich ist für Sie dasPraktikum am System, in dem Sie das Erlernte ausprobieren undfestigen können.

Nach dem Seminar "ORACLE und SQL" können Sie die Sprache SQL in einer ORACLE-Umgebung einsetzen und sind in derLage, Tabellen zu erstellen und deren Daten zu verwalten. Sie lernen den Umgang mit den ORACLE-Benutzerschnittstellen zuminteraktiven Arbeiten mit SQL. Sie erhalten in diesem Kurs das Rüstzeug für den Besuch weiterführender ORACLE-Seminare.

Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.

Programm

Relationale Datenbanken:

Grundlagen der Datenmodellierung, des ERM und der relationalen ModellierungTabellenReferentielle Integritätüberblick über ORACLE-Datenbanksysteme und ORACLE-Werkzeuge

Die Benutzerschnittstellen SQL*Plus, Oracle SQL Developer:

SQL-EditorSQL*Plus Kommandos

Das SELECT-Statement, einfache und komplexe Abfragen:

SELECTFROM WHERE GROUP BY HAVING

ORDER BY Sortierung Bedingungen Subqueries (einfache und synchronisierte) Verknüpfungen von Tabellen (INNER JOIN vs. OUTER OIN) Mengenoperatoren (UNION, UNION ALL, INTERSECT, MINUS) Hierarchische Abfragen

Funktionen:

Gruppenfunktionen Arithmetische Funktionen Zeichenkettenfunktionen Datumsfunktionen DECODE-Funktion NVL-Funktion

DML-Anweisungen:

INSERT UPDATE DELETE MERGE Einfügen, Verändern und Löschen von Datensätzen

Transaktionskontrolle:

SET TRANSACTION SAVEPOINT COMMIT ROLLBACK

DDL-Anweisungen:

CREATE ALTER DROP Erstellen, Verändern und Löschen von Objekten (Tabellen, Views, Indizes, Sequenzen, Synonyme) Integritätsverwaltung mit Constraints (PRIMARY KEY, FOREIGN KEY, UNIQUE KEY, CHECK, NOT NULL) Sperrmechanismen

DCL (Grundlagen der Rechteverwaltung):

Benutzerverwaltung Vergabe von System- und Objektprivilegien Das Rollenkonzept

Neuerungen in aktuellen Versionen

Hinweis

Eingesetzt wird die ORACLE Version 12c.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4051

Termine und Orte: 27 Mai 2018 – Nr.: 4051

Frankfurt

11 Jun - 15 Jun 2018 Garantietermin 27 Aug - 31 Aug 2018

Köln

02 Jul - 06 Jul 2018 26 Nov - 30 Nov 2018

Hamburg

16 Jul - 20 Jul 2018

München

06 Aug - 10 Aug 2018

Hannover

10 Sep - 14 Sep 2018

Stuttgart

08 Okt - 12 Okt 2018 Garantietermin

Berlin

05 Nov - 09 Nov 2018

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/16814

SAP BUSINESSOBJECTS 4.X - UNIVERSE DESIGNSAP BO Information Design Tool

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Projektleiter, Fachanwender und Datenbank-Administratoren, IT - Fachmitarbeiter

Voraussetzungen: Sie haben Kenntnisse über relationaleDatenbanken (inkl. Design) und können auf eine Datenbankbezogen SQL (Structured Query Language)-Abfragen generieren.Windows-Kenntnisse und Erfahrungen mit den MS Office-Anwendungen sind ebenfalls erforderlich.

Nr.: 16814

Schulungsmethode: Interaktiver Workshop, Theorie und Praxis

Nach diesem Seminar kennen Sie die Leistungsfähigkeit des Universums als semantische Ebene von SAP BO 4.x sowie die Erstellungvon MultiSource-Universen zur Verknüpfung unterschiedlicher Datenquellen in einem Universum. Sie erhalten einen vertieften Einblickin die Erstellung und Modellierung von Universen.

Programm

• Einordnung Universe Design in die SAP BO 4.x Werkzeugpalette• Architektonischer Überblick (Schichtenarchitektur)

• Arten von Universen (SingleSource/ MultiSource

• Elemente von Universen

• Aufbau des SAP Business Objects Information Design Tools

• Verbindung zur Datenquelle (Aufbau und Konfiguration)

• Datengrundlage (Erstellung und Konfiguration)

• Business-Schicht (konzeptioneller Aufbau und Einrichtung)

• Veröffentlichung des Universums

• Universumsfilter

• benutzerdefinierte Wertelisten

• Aufbau von Navigationspfaden für den Drill-Down im Berichtswerkzeug

SAP NETWEAVER SYSTEMARCHITEKTUR

Dauer: 3 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Das Seminar SAP NetWeaver Systemarchitektur richtetsich an Mitglieder des Projektteams, Projektleiter, Organisatoren,Entscheider, die die grundlegende technische Architektur desintegrierten SAP-Systems mit seinen vielfältigen Ausprägungen undMöglichkeiten verstehen möchten.

Voraussetzungen: Sie sollten Grundkenntnisse zu SAP ERPmitbringen, wie sie beispielsweise in unserem Seminar 6905vermittelt werden.

Nr.: 6912Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.

Schulungsmethode: Freuen Sie sich auf einen lebendigen Vortragmit zahlreichen Demonstrationen am System. Profitieren Sie vonden umfangreichen Erfahrungen unserer SAP-Experten.Das wichtigste aber sind die zahlreichen Übungen, mit denen Siedas erlernte selber ausprobieren und festigen. Sie arbeiten miteinem Mini-SAP System, das Sie Ihnen im Rahmen des "SAPEvaluation License Agreement" auch nach dem Ende des Seminarsweiter zur Verfügung steht.

Nach dem Seminar "SAP NetWeaver Systemarchitektur" haben Sie einen Überblick über die Architektur des NetWeaver und derEnterprise SOA. Sie kennen die Komponenten des SAP ERP-Systems und dessen Integrationsbeziehungen. Alle wichtigen Bestandteiledes Web Application Server sind Ihnen geläufig

Programm

NetWeaver als Integrationsplattform:Definition, Konzept, Strategien

Integrationsebenen und Inhalte

e-Business

Integration von WebSphere und Microsoft.NET

Integrationsebenen und Produkte:

Enterprise Service Architecture

Business Process Management

People Integration

Information Integration

Process Integration

Application Integration

SAP-Produkte ERP, HCM, SCM, PLM, CRM und SRM

NetWeaver-Produkte EP, BW, SEM, PI, WAS, Solution Manager, Landscape Directory

Visual Composer

Web Services

xAPPs

Applikationsplattform Web Application Server:

ABAP und Java-Engine

GUI und Web-Frontend

Architektur

Instanzen

Workprozesse

Internet Communication Manager

JavaEE Engine

Schnittstellentechnologien:

BDC

RFC

BAPI

ALE

IDoc

Internet

HTML

XML

WebServices

JDBC

JMS

J2EE

JavaEE

Business Connector

Process Integration:

Business Process Engine

Integration Server

Repository

Directory

Adapter Engine

Testumgebung

Business Intelligence:

OLAP und OLTP

Administrator Workbench

Infocube

ODS-Objekte

BEx-Analyzer

BEx-WEB

Integrierte Planung

Business Content

Enterprise Portal:

Portal Framework

Navigation

Single-Sign-On

iView

Guided Procedures

Entwicklung mit NetWeaver:

ABAP Workbench

Reports

Dialogprogramme

Objekte und Klassen

Business Serverpages

NetWeaver Studio

Enterprise Java Beans

Applikationspakete

JavaEE Anwendungen

Java Serverpages

Web Dynpro

Transport- und Änderungswesen

Beispielanwendungen

NetWeaver Fallstudie:

Integrierte Nutzung von NetWeaverkomponenten für komplexe Businessprozesse

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/6912

Termine und Orte: 26 Mai 2018 – Nr.: 6912

Stuttgart

27 Jun - 29 Jun 2018

Düsseldorf

08 Okt - 10 Okt 2018 Garantietermin

IBM 0A057G - ADVANCED DATA PREPARATION USING IBM SPSS MODELER (V18)0A057G

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: This advanced course is intended for anyone whowishes to become familiar with the full range of techniquesavailable in IBM SPSS Modeler for data manipulation.

Voraussetzungen: - General computer literacy- Experience using IBM SPSS Modeler including familiarity with theModeler environment, creating streams, reading data files,exploring data, setting the unit of analysis, combining datasets,deriving and reclassifying fields, and basic knowledge of modeling.-Prior completion of Introduction to IBM SPSS Modeler and DataMining (v18) is recommended.

Nr.: 38441Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course covers advanced topics to aid in the preparation of data for a successful data mining project. You will learn how to usefunctions, deal with missing values, use advanced field operations, handle sequence data, apply advanced sampling methods, andimprove efficiency.

Programm

1: Using functions to cleanse and enrich data- Use date functions

- Use conversion functions

- Use string functions

- Use statistical functions

- Use missing value functions

2: Using additional field transformations

- Replace values with the Filler node

- Recode continuous fields with the Binning node

- Change a field’s distribution with the Transform node

3: Working with Sequence Data

- Use cross-record functions

- Count an event across records

- Expand a continuous field into a series of continuous fields with the Restructure node

- Use geospatial and time data with the Space-Time-Boxes node

4: Sampling, partitioning and balancing data

- Draw simple and complex samples with the Sample node

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38441

- Create a training set and testing set with the Partition node

- Reduce or boost the number of records with the Balance node

5: Improving Efficiency

- Use database scalability by SQL pushback

- Process outliers and missing values with the Data Audit node

- Use the Set Globals node

- Use parameters

- Use looping and conditional execution

Hinweis

Kurssprache ist Deutsch, Unterlagen sind Englisch.

IBM 0A0U8G - PREDICTIVE MODELING FOR CATEGORICAL TARGETS USING IBMSPSS MODELER (V18.1)

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Analytics business users who have completed theIntroduction to IBM SPSS Modeler and Data Mining course and whowant to become familiar with analytical models to predict acategorical field (yes/no churn, yes/no fraud, yes/no response to amailing, pass/fail exams, yes/no machine break-down, and soforth).

Voraussetzungen: Experience using IBM SPSS Modeler includingfamiliarity with the Modeler environment, creating streams,reading data files, exploring data, setting the unit of analysis,combining datasets, deriving and reclassifying fields, and a basicknowledge of modelingPrior completion of Introduction to IBM SPSS Modeler and DataScience (v18.1) is recommended

Nr.: 38454Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course focuses on using analytical models to predict a categorical field, such as churn, fraud, response to a mailing, pass/failexams, and machine break-down. Students are introduced to decision trees such as CHAID and C&R Tree, traditional statistical modelssuch as Logistic Regression, and machine learning models such as Neural Networks. Students will learn about important options indialog boxes, how to interpret the results, and explain the major differences between the models.

Programm

Key topics:

1: Introduction to predictive models for categorical Targets

Identify three modeling objectivesExplain the concept of field measurement level and its implications for selecting a modeling techniqueList three types of models to predict categorical targets

2: Building decision trees interactively with CHAID

Explain how CHAID grows decision treesBuild a customized model with CHAIDEvaluate a model by means of accuracy, risk, response and gainUse the model nugget to score records

3: Building decision trees interactively with C&R Tree and Quest

Explain how C&R Tree grows a treeExplain how Quest grows a tree

Build a customized model using C&R Tree and QuestList two differences between CHAID, C&R Tree, and Quest

4: Building decision trees directly

Customize two options in the CHAID nodeCustomize two options in the C&R Tree nodeCustomize two options in the Quest nodeCustomize two options in the C5.0 nodeUse the Analysis node and Evaluation node to evaluate and compare modelsList two differences between CHAID, C&R Tree, Quest, and C5.0

5: Using traditional statistical models

Explain key concepts for DiscriminantCustomize one option in the Discriminant nodeExplain key concepts for LogisticCustomize one option in the Logistic node

6: Using machine learning models

Explain key concepts for Neural NetCustomize one option in the Neural Net node

Objectives:

Please refer to course overview.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38454

Termine und Orte: 26 Mai 2018 – Nr.: 38454

Berlin

22 Okt - 22 Okt 2018

IBM 0A038G - ADVANCED PREDICTIVE MODELING USING IBM SPSS MODELER(V18.1.1)

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Business AnalystsData ScientistsUsers of IBM SPSS Modeler responsible for building predictivemodels

Voraussetzungen: Familiarity with the IBM SPSS Modelerenvironment (creating, editing, opening, and saving streams).Familiarity with basic modeling techniques, either throughcompletion of the courses Predictive Modeling for CategoricalTargets Using IBM SPSS Modeler and/or Predictive Modeling forContinuous Targets Using IBM SPSS Modeler, or by experience withpredictive models in IBM SPSS Modeler.

Nr.: 38459Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course presents advanced models to predict categorical and continuous targets. Before reviewing the models, data preparationissues are addressed such as partitioning, detecting anomalies, and balancing data. The participant is first introduced to a techniquenamed PCA/Factor, to reduce the number of fields to a number of core fields, referred to as components or factors. The next unitsfocus on supervised models, including Decision List, Support Vector Machines, Random Trees, and XGBoost. Methods are reviewed tocombine supervised models and execute them in a single run, both for categorical and continuous targets.

Programm

Key topics:

1. Preparing data for modelingAddress general data quality issuesHandle anomaliesSelect important predictorsPartition the data to better evaluate modelsBalance the data to build better models

2. Reducing data with PCA/FactorExplain the idea behind PCA/FactorDetermine the number of components/factorsExplain the principle of rotating a solution

3. Creating rulesets for flag targets with Decision ListExplain how Decision List builds a rulesetUse Decision List interactivelyCreate rulesets directly with Decision List

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38459

4. Exploring advanced supervised modelsExplain the principles of Support Vector Machine (SVM)Explain the principles of Random TreesExplain the principles of XGBoost

5. Combining modelsUse the Ensemble node to combine model predictions

Improve model performance by meta-level modeling

6. Finding the best supervised modelUse the Auto Classifier node to find the best model for categorical targets

Use the Auto Numeric node to find the best model for continuous targets

Objectives:

Please refer to course overview.

IBM 0A037G - ADVANCED PREDICTIVE MODELING USING IBM SPSS MODELER (V18)

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Users of IBM SPSS Modeler responsible for buildingpredictive models who want to leverage the full potential ofclassification models in IBM SPSS Modeler.

Voraussetzungen: - General computer literacy- Experience using IBM SPSS Modeler including familiarity with theModeler environment, creating streams, reading data files,exploring data, setting the unit of analysis, combining datasets,deriving and reclassifying fields, and basic knowledge of modeling.-Prior completion of Introduction to Predictive Models using IBMSPSS Modeler (v18) is recommended.- Familiarity with basicmodeling techniques, either through completion of the coursesPredictive Modeling for Categorical Targets Using IBM SPSSModeler and/or Predictive Modeling for Continuous Targets UsingIBM SPSS Modeler, or by experience with predictive models in IBMSPSS Modeler.

Nr.: 38439Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course builds on the courses Predictive Modeling for Categorical Targets Using IBM SPSS Modeler (v18) and Predictive Modeling forContinuous Targets Using IBM SPSS Modeler (v18). It presents advanced techniques to predict categorical and continuous targets.Before reviewing the modeling techniques, data preparation issues are addressed such as partitioning and detecting anomalies. Also, amethod to reduce the number of fields to a number of core fields, referred to as components or factors, is presented. Advancedclassification models, such as Decision List, Support Vector Machines and Bayes Net, are reviewed. Methods are presented to combineindividual models into a single model in order to improve predictive power, including running and evaluating many models in a singlerun, both for categorical and continuous targets.

Programm

1. Preparing Data for Modeling- Address general data quality issues

- Handle anomalies

- Select important predictors

- Partition the data to better evaluate models

- Balance the data to build better models

2. Reducing Data with PCA/Factor

- Explain the basic ideas behind PCA/Factor

- Customize two options in the PCA/Factor node

3. Using Decision List to Create Rulesets

- Explain how Decision List builds a ruleset

- Use Decision List interactively

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38439

- Create rulesets directly with Decision List

4. Exploring advanced predictive models

- Explain the basic ideas behind SVM

- Customize two options in the SVM node

- Explain the basic ideas behind Bayes Net

- Customize two options in the SVM node

5. Combining Models

- Use the Ensemble node to combine model predictions

- Improve the model performance by meta-level modeling

6. Finding the Best Predictive Model

- Find the best model for categorical targets with AutoClassifier

- Find the best model for continuous targets with AutoNumeric

Hinweis

Kurssprache ist Deutsch, Unterlagen sind Englisch.

IBM 0A047G - CLUSTERING AND ASSOCIATION MODELING USING IBM SPSSMODELER (V18)0A047G

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Modelers, Analysts.

Voraussetzungen: - Experience using IBM SPSS Modeler- A familiarity with the IBM SPSS Modeler environment: creatingmodels, creating streams, reading in data files, and assessing dataquality- A familiarity with handling missing data (including Typeand Data Audit nodes), and basic data manipulation (includingDerive and Select nodes)

Nr.: 38440Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

Clustering and Association Modeling Using IBM SPSS Modeler (v18) introduces modelers to two specific classes of modeling that areavailable in IBM SPSS Modeler: clustering and associations. Participants will explore various clustering techniques that are oftenemployed in market segmentation studies. Participants will also explore how to create association models to find rules describing therelationships among a set of items, and how to create sequence models to find rules describing the relationships over time among aset of items.

Programm

1: Introduction to clustering and association models- Identify the association and clustering modeling techniques available in IBM SPSS Modeler

- Explore the association and clustering modeling techniques available in IBM SPSS Modeler

- Discuss when to use a particular technique on what type of data

2: Clustering models and K-Means clustering

- Identify basic clustering models in IBM SPSS Modeler

- Identify the basic characteristics of cluster analysis

- Recognize cluster validation techniques

- Understand K-Means clustering principles

- Identify the configuration of the K-means node

3: Clustering using the Kohonen network

- Identify the basic characteristics of the Kohonen network

- Understand how to configure a Kohonen node

- Model a Kohonen network

4: Clustering using TwoStep clustering

- Identify the basic characteristics of TwoStep clustering

- Identify the basic characteristics of Two Step AS clustering

- Model and analyze a TwoStep clustering solution

5: Use Apriori to generate association rules

- Identify three methods of generating association rules

- Use the Apriori node to build a set of association rules

- Interpret association rules

6: Use advanced options in Apriori

- Identify association modeling terms and rules

- Identify evaluation measures used in association modeling

- Identify the capabilities of the Association Rules node

- Model associations and generate rules using Apriori

7: Sequence detection

- Explore sequence detection association models

- Identify sequence detection methods

- Examine the Sequence node

- Interpret the sequence rules and add sequence predictions to steams

8: Advanced Sequence detection

- Identify advanced sequence detection options used with the Sequence node

- Perform in-depth sequence analysis

- Identify the expert options in the Sequence node

- Search for sequences in Web log data

A: Examine learning rate in Kohonen networks (Optional)

- Understand how a Kohonen neural network learns

B: Association using the Carma model (Optional)

- Review association rules

- Identify the Carma model

- Identify the Carma node

- Model associations and generate rules using Carma

Hinweis

Kurssprache ist Deutsch, Unterlagen sind Englisch.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38440

Termine und Orte: 26 Mai 2018 – Nr.: 38440

Stuttgart

27 Jul - 27 Jul 2018

IBM 0A048G - CLUSTERING AND ASSOCIATION MODELING USING IBM SPSSMODELER (V18.1)

Dauer: 1 Tag

Durchführungsart: Präsenztraining

Zielgruppe: Modelers, Analysts.

Voraussetzungen: Experience using IBM SPSS ModelerA familiarity with the IBM SPSS Modeler environment: creatingmodels, creating streams, reading in data files, and assessing dataqualityA familiarity with handling missing data (including Type and DataAudit nodes), and basic data manipulation (including Derive andSelect nodes)

Nr.: 38453Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

Clustering and Association Modeling Using IBM SPSS Modeler (v18.1) introduces modelers to two specific classes of modeling that areavailable in IBM SPSS Modeler: clustering and associations. Participants will explore various clustering techniques that are oftenemployed in market segmentation studies. Participants will also explore how to create association models to find rules describing therelationships among a set of items, and how to create sequence models to find rules describing the relationships over time among aset of items.

Programm

Key topics:

1: Introduction to clustering and association modeling

Identify the association and clustering modeling techniques available in IBM SPSS ModelerExplore the association and clustering modeling techniques available in IBM SPSS ModelerDiscuss when to use a particular technique on what type of data

2: Clustering models and K-Means clustering

Identify basic clustering models in IBM SPSS ModelerIdentify the basic characteristics of cluster analysisRecognize cluster validation techniquesUnderstand K-Means clustering principlesIdentify the configuration of the K-means node

3: Clustering using the Kohonen network

Identify the basic characteristics of the Kohonen networkUnderstand how to configure a Kohonen nodeModel a Kohonen network

4: Clustering using TwoStep clustering

Identify the basic characteristics of TwoStep clustering

Identify the basic characteristics of Two Step AS clusteringModel and analyze a TwoStep clustering solution

5: Use Apriori to generate association rules

Identify three methods of generating association rulesUse the Apriori node to build a set of association rulesInterpret association rules

6: Use advanced options in Apriori

Identify association modeling terms and rulesIdentify evaluation measures used in association modeling

Identify the capabilities of the Association Rules nodeModel associations and generate rules using Apriori

7: Sequence detection

Explore sequence detection association modelsIdentify sequence detection methodsExamine the Sequence nodeInterpret the sequence rules and add sequence predictions to steams

8: Advanced Sequence detection

Identify advanced sequence detection options used with the Sequence nodePerform in-depth sequence analysisIdentify the expert options in the Sequence nodeSearch for sequences in Web log data

A: Examine learning rate in Kohonen networks (Optional)

Understand how a Kohonen neural network learns

B: Association using the Carma model (Optional)

Review association rulesIdentify the Carma modelIdentify the Carma nodeModel associations and generate rules using Carma

Objectives:

Please refer to course overview.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38453

Termine und Orte: 27 Mai 2018 – Nr.: 38453

Düsseldorf

29 Okt - 29 Okt 2018

IBM 0A007G - INTRODUCTION TO IBM SPSS MODELER AND DATA MINING (V18)

Dauer: 2 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Anyone who wants to become familiar with IBM SPSSModeler.

Voraussetzungen: General computer literacy.

Nr.: 37462Preis: 1.390,00 € (netto) / 1.654,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course provides an overview of data mining and the fundamentals of using IBM SPSS Modeler. The principles and practice of datamining are illustrated using the CRISP-DM methodology. The course structure follows the stages of a typical data mining project, fromcollecting data, to data exploration, data transformation, and modeling to effective interpretation of the results. The course providestraining in the basics of how to read, prepare, and explore data with IBM SPSS Modeler, and introduces the student to modeling.

Programm

Key topics:1: Introduction to data mining

• List two applications of data mining

• Explain the stages of the CRISP-DM process model

• Describe successful data-mining projects and the reasons why projects fail

• Describe the skills needed for data mining

2: Working with IBM SPSS Modeler

• Describe the MODELER user-interface

• Work with nodes

• Run a stream or a part of a stream

• Open and save a stream

• Use the online Help

3: Creating a data-mining project

• Explain the basic framework of a data-mining project

• Build a model

• Deploy a model

4: Collecting initial data

• Explain the concepts "data structure", "unit of Analysis", "field storage" and "field measurement Level"

• Import Microsoft Excel files

• Import IBM SPSS Statistics files

• Import text files

• Import from databases

• Export data to various formats

5: Understanding the data

• Audit the data

• Explain how to check for invalid values

• Take action for invalid values

• Explain how to define blanks

6: Setting the unit of analysis

• Set the unit of analysis by removing duplicate records

• Set the unit of analysis by aggregating records

• Set the unit of analysis by expanding a categorical field into a series of flag fields

7: Integrating data

• Integrate data by appending records from multiple datasets

• Integrate data by merging fields from multiple datasets

• Sample records

8: Deriving and reclassifying fields

• Use the Control Language for Expression Manipulation (CLEM)

• Derive new fields

• Reclassify field values

9: Identifying relationships

• Examine the relationship between two categorical fields

• Examine the relationship between a categorical field and a continuous field

• Examine the relationship between two continuous fields

10: Introduction to modeling

• List three modeling objectives

• Use a classification model

• Use a segmentation model

Objectives:

Please refer to course overview.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37462

Termine und Orte: 26 Mai 2018 – Nr.: 37462

Köln

26 Jul - 27 Jul 2018

IBM B6061G - IBM COGNOS ANALYTICS - AUTHOR REPORTS WITHMULTIDIMENSIONAL DATA (V11.0)

Dauer: 2 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Report authors working with dimensional data sources.

Voraussetzungen: - IBM Cognos Analytics: Author ReportsFundamentals (v11.0)- Knowledge of your business requirements- Knowledge ofdimensional data

Nr.: 37467Preis: 1.390,00 € (netto) / 1.654,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This course is designed to guide report authors in building on their expertise with IBM Cognos Analytics by applying dimensionaltechniques to reports. Through interactive demonstrations and exercises, participants will learn how to author reports that navigateand manipulate dimensional data structures using the specific dimensional functions and features available in IBM Cognos Analytics.

Learning Journeys or Training Paths that reference this course:

- Analytics Business Intelligence

- IBM Cognos Analytics 11.0 - Author Role

- IBM Cognos Analytics 11.0 - Author Role

Programm

Key topics:1. Introduction to Dimensional Concepts

• Identify different data sources and models

• Investigate the OLAP dimensional structure

• Identify dimensional data items and expressions

• Differentiate the IBM Cognos Analytics query language from SQL and MDX

• Differentiate relational and dimensional report authoring styles

2. Introduction to Dimensional Data in Reports

• Work with members

• Identify sets and tuples in IBM Cognos Analytics

3. Dimensional Report Context

• Understand the purpose of report context

• Understand how data is affected by default and root members

4. Focus Your Dimensional Data

• Compare dimensional queries to relational queries

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37467

• Explain the importance of filtering dimensional queries

• Evaluate different filtering techniques

• Filter based on dimensions and members

• Filter based on measure values

• Filter using a slicer

5. Calculations and Dimensional Functions

• Use IBM Cognos Analytics dimensional functions to create sets and tuples

• Perform arithmetic operations in OLAP queries

• Identify coercion errors and rules

6. Functions for Navigating Dimensional Hierarchies

• Navigate dimensional data using family functions

7. Relative Functions

• Navigate dimensional data using relative functions

• Navigate dimensional data using relative time functions

8. Advanced Drilling Techniques and Member Sets

• Understand default drill-up and drill-down functionality

• Identify cases when you need to override default drilling behavior

• Configure advanced drilling behavior to support sophisticated use cases

• Define member sets to support advanced drilling

• Define member sets to support functions

9. Set Up Drill-Through Reports

• Navigate from a specific report to a target report

• Drill down to greater detail and then navigate to target report

• Navigate between reports created using different data sources

10. End-to-End Workshop

• Review concepts covered throughout the course

Objectives:

Please refer to course overview

IBM B6070G - ESSENTIALS FOR IBM COGNOS ANALYTICS (V11.0)

Dauer: 5 Tage

Durchführungsart: Präsenztraining

Zielgruppe: Core Project Team members:- Project Managers- Technical Analysts- Developers

Voraussetzungen: - Knowledge of common industry-standard datastructures and design.- Experience with SQL- Experience gathering requirements andanalyzing data.- Knowledge of Web application serverarchitectures- Security systems administration- Knowledge of yourbusiness requirements- Experience using the Windows operatingsystem- Experience using a web browser

Nr.: 37468Preis: 3.590,00 € (netto) / 4.272,10 € inkl. 19% MwSt.

Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.

This accelerated offering is intended for core project team members wanting to acquire a broad understanding of IBM Cognos Analyticplatform implementation. During the ILT segments, participants will perform hands-on demonstrations and exercises that cover threeessential topic areas: modeling, report authoring, and administration of IBM Cognos Analytics. During the WBT portion of the course,students will be required to complete 16.5 hours of eLearning (6 WBTs and 1 recording).

eLearning:

- B5130G - IBM Cognos for Microsoft Office: Integrate with Microsoft Office (v10.1/10.2)

- B5231G - IBM Cognos BI Event Studio: Create and Manage Agents (v8.4/10.1)

- B5169G - IBM Cognos Transformer: Create PowerCubes (v10.1)

- B6088G - IBM Cognos Analytics for Consumers (v11.0)

- B6089G - IBM Cognos Analytics: Create Dashboards (v11.0)

- B6090G - IBM Cognos Analytics: Create Data Modules (v11.0)

- B6091G - IBM Cognos Analytics: Departmental Administration (v11.0)

Learning Journeys or Training Paths that reference this course:

- Analytics Business Intelligence

- IBM Cognos Analytics 11.0 - Project Manager Role

- IBM Cognos Analytics 11.0 - Developer Role

Programm

Key topics:1: Introduction to IBM Cognos Analytics

• Describe IBM Cognos Analytics and its position within an analytics solution

• Describe IBM Cognos Analytics components

• Describe IBM Cognos Analytics at a high level

• Explain how to extend IBM Cognos Analytics

2: Identifying common data structures

• Define the role of a metadata model in Cognos Analytics

• Distinguish the characteristics of common data structures

• Understand the relative merits of each model type

• Examine relationships and cardinality

• Identify different data traps

• Identify data access strategies

3: Defining requirements

• Examine key modeling recommendations

• Define reporting requirements

• Explore data sources to identify data access strategies

• Identify the advantages of modeling metadata as a star schema

• Model in layers

4: Creating a baseline project

• Follow the IBM Cognos and Framework Manager workflow processes

• Define a project and its structure

• Describe the Framework Manager environment

• Create a baseline project

• Enhance the model with additional metadata

5: Preparing reusable metadata

• Verify relationships and query item properties

• Create efficient filters by configuring prompt properties

6: Modeling for predictable results: Identifying reporting Issues

• Describe multi-fact queries and when full outer joins are appropriate

• Describe how IBM Cognos uses cardinality

• Identify reporting traps

• Use tools to analyze the model

7: Modeling for predictable results: Virtual star schemas

• Understand the benefits of using model query subjects

• Use aliases to avoid ambiguous joins

• Merge query subjects to create as view behavior

• Resolve a recursive relationship

• Create a complex relationship expression

8: Modeling for predictable results: consolidate metadata

• Create virtual dimensions to resolve fact-to-fact joins

• Create a consolidated modeling layer for presentation purposes

• Consolidate snowflake dimensions with model query subjects

• Simplify facts by hiding unnecessary codes

9: Creating calculations and filters

• Use calculations to create commonly-needed query items for authors

• Use static filters to reduce the data returned

• Use macros and parameters in calculations and filters to dynamically control the data returned

10: Implementing a time dimension

• Make time-based queries simple to author by implementing a time dimension

• Resolve confusion caused by multiple relationships between a time dimension and another table

11: Specifying determinants

• Use determinants to specify multiple levels of granularity and prevent double-counting

12: Creating the presentation view

• Identify the dimensions associated with a fact table

• Identify conformed vs. non-conformed dimensions

• Create star schema groupings to provide authors with logical groupings of query subjects

13: Creating Analysis objects

• Apply dimensional information to relational metadata to enable OLAP-style queries

• Sort members for presentation and predictability

• Define members and member unique names

• Identify changes that impact a MUN

14: Introduction to IBM Cognos Analytics - Reporting

• Examine IBM Cognos Analytics - Reporting and its interface

• Explore different report types

• Create reports in preview or design mode

• Create a simple, sorted, and formatted report

• Examine dimensionally modelled and dimensional data sources

• Explore how data items are added queries

• Examine personal data sources and data modules

15: Creating list reports

• Group, format, and sort list reports

• Describe options for aggregating data

• Create a multi-fact query

• Create a report with repeated data

16: Focusing reports using filters

• Create filters to narrow the focus of reports

• Examine detail filters and summary filters

• Determine when to apply filters on aggregate data

17: Creating crosstab reports

• Format and sort crosstab reports

• Create complex crosstabs using drag and drop functionality

• Create crosstabs using unrelated data items

18: Present data graphically

• Create charts containing peer and nested columns

• Present data using different chart type options

• Add context to charts

• Create and reuse custom chart palettes

• Introduce visualization

• Present key data in a single dashboard report

19: Focusing Reports Using Prompts

• Identify various prompt types

• Use parameters and prompts to focus data

• Search for prompt types

• Navigate between pages

20: Extend reports using calculations

• Create calculations based on data in the data source

• Add run-time information to the reports

• Create expressions using functions

21: Customizing reports with conditional formatting

• Create multi-lingual reports

• Highlight exceptional data

• Show and hide data

• Conditionally render objects in reports

• Conditionally format one crosstab measure based on another

22 Drill-through definitions

• Discuss parameter-driven drill through

• Discuss dynamic drill through

• Set up package-based drill-through definitions

• Set scope

• Use the Drill Through Assistant

23 Introduction to IBM Cognos BI Administration

• IBM Cognos Analytics enterprise components

• Role of the Administrator in relation to the IBM Cognos Analytics administration workflow process

• Role of IBM Cognos Administration and IBM Cognos Configuration

24 Identifying IBM Cognos architecture

• The features of the IBM Cognos Analytics architecture

• The three architectural tiers

• IBM Cognos Analytics servlets and services

• The default servlet container and alternatives to its use

• An example of IBM Cognos Analytics request processing

• Installation options

• Load balancing mechanisms

• Configuration options

• The IBM Cognos Application Firewall

25: Securing the IBM Cognos Analytics environment

• Identify the IBM Cognos Analytics security model

• Define authentication in IBM Cognos Analytics

• Define authorization in IBM Cognos Analytics

• Identify security policies

• Secure the IBM Cognos Analytics environment

26: Managing run activities

• Manage current, upcoming and past activities

• Manage schedules

• Enable and disable schedules

• Set queue priority for schedules

• Suspend a schedule until a later time

27: Managing content in IBM Cognos Administration

• Add a data source

• Distribute data and create a distribution list

• Add visualizations to the Library

• Plan and perform a deployment

• Identify how to maintain the IBM Cognos Analytics content store

• Configure saving content outside of the content store

• Customize the appearance of IBM Cognos Analytics using styles

• Use portlets to display custom Web content

Objectives:

Please refer to course overview.

Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37468

Termine und Orte: 26 Mai 2018 – Nr.: 37468

Berlin

30 Jul - 03 Aug 2018