ibm ix812g - informix 11.7 system … ix812g - informix 11.7 system administration dauer: 4 tage...
TRANSCRIPT
IBM IX812G - INFORMIX 11.7 SYSTEM ADMINISTRATION
Dauer: 4 Tage
Durchführungsart: Präsenztraining
Zielgruppe: This intermediate course is for Informix Administrators,Database Administrators, and Applications Developers.
Voraussetzungen: You should have the following knowledge andskills:- Ability to write complex SQL queries- Ability to navigate through aLinux/UNIX file system and use common utilities in thatenvironment
Nr.: 37429Preis: 2.890,00 € (netto) / 3.439,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
In this course, you will develop the skills necessary to administer one or more database servers. You will learn how to configure andinitialize a database server instance, configure and test client connectivity, configure and manage memory and disk usage, plan andimplement system maintenance tasks, and configure the server for optimal Online Transaction Processing (OLTP) or decision support.This course is based on the 11.7 version of IBM Informix.
Training Paths that reference this course are:
- IBM Informix System Administrator
Programm
Key topicsDay 1
Unit 1: Overview of the Informix Database Server
Unit 2: Preparing for Configuration
Unit 3: Configuring Client-Server Connectivity
Unit 4: Configuring a Database Server
Unit 5: Monitoring Dynamic Server
Day 2
Unit 6: Managing Shared Memory
Unit 7: Virtual Processors and Threads
Unit 8: Disk Architecture
Unit 9: Managing and Monitoring Disk Space
Unit 10: Physical and Logical Logging
Day 3
Unit 11: The Shared Memory Buffer Pool
Unit 12: Fault Tolerance
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37429
Unit 13: Introduction to Backup and Restore
Unit 14: Backup and Restore Using Ontape
Unit 15: Temporary Files and Tables
Unit 16: Performance Features
Day 4
Unit 17: Monitoring User Activity
Unit 18: Event Alarms
Unit 19: SQL Admin Functions and Task Scheduler
Unit 20: Troubleshooting
Unit 21: A Configuration Case
Objectives
- Describe the components of a database server.
- Configure and initialize a database server
- Configure the server to allow both local and remote connections
- Use Informix utilities to monitor server activity
- Describe the components of shared memory and configure the component sizes
- List, describe, and configure the different classes of virtual processors
- Identify the components of the database server disk architecture
- Create dbspaces, blobspaces, and sbspaces and add chunks to these spaces
- Explain the purpose of physical and logical logs and monitor log activity
- View the individual transactions that are written to the logical log files
- Describe the importance of checkpoints on the server
- Describe the importance of fast recovery
- Perform backups of the database server and logical logs
- Use different methods to restore a database server from backup
- Explain the purpose of temporary spaces used by the server
- Configure the database server to operate more efficiently using parallel operations
- Monitor the resources used by individual user sessions
- Configure the server to respond to specific events by executing an alarm program
- Use various troubleshooting techniques to identify and resolve common problems
IBM IX223G - INFORMIX 12.10 DATABASE ADMINISTRATION
Dauer: 4 Tage
Durchführungsart: Präsenztraining
Zielgruppe: The main audience for this course is Informix DatabaseAdministrators. It is also appropriate for Informix SystemAdministrators and Informix Application Developers.
Voraussetzungen: Students in this course should satisfy thefollowing prerequisites:IX101 - Introduction to Informix terminology and data types (orequivalent experience or knowledge)Knowledge of Structured Query Language (SQL)Experience using basic Linux functionality
Nr.: 36840Preis: 2.990,00 € (netto) / 3.558,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
In this course, students will learn the basic concepts of data management with Informix 12.10. They will learn how to create, manage,and maintain tables and indexes; how the Informix Optimizer works; and how to use the SET EXPLAIN feature to determine queryeffectiveness.
Programm
Key Topics
Unit 1 - Creating databases and tables
• Databases
• Tables
• DBSCHEMA, ONCHECK, and ONSTAT
• Sysmaster
Unit 2 - Altering and deleting databases and tables
• ALTER
• Data space reclamation
• Renaming
• Dropping
Unit 3 - Creating, altering, and dropping indexes
• Indexes
• Sysmaster
• Forest of trees
Unit 4 - Managing and maintaining indexes
• Benefits and costs
• Guidelines
• Calculating size
Unit 5 - Table and index partitioning
• Fragmentation
• Distribution schemes
• Sysmaster
Unit 6 - Maintaining table and index partitioning
• ALTER FRAGMENT
Unit 7 - Cost-based query optimizer
• Access plan
• Join methods
• EXPLAIN
• Scans
Unit 8 - Updating statistics and data distributions
• UPDATE STATISTICS
• Distribution information
• Process
• Updating statistics
Unit 9 - Managing the optimizer
• Optimization options
• Directives
Unit 10 - Referential and entity integrity
• Integrity
• Constraints
Unit 11 - Managing constraints
• Transaction modes
• Dropping a constraint
Unit 12 - Modes and violations detection
• Object modes
• Disabling an object
• Recording violations
• Sysmaster
Unit 13 - Concurrency control
• Isolation
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/36840
• Locks
• Row versioning
Unit 14 - Data security
• Levels of data security
• Privileges
• Roles
Unit 15 - Views
• Working with views
• WITH CHECK OPTION
• Sysmaster
Unit 16 - Introduction to stored procedures
• Stored procedures
• Sysmaster
Unit 17 - Triggers
• Working with triggers
• Triggers and stored procedures
• Dropping a trigger
• Cursors and triggers
• Triggers and constraint checking
• Sysmaster
• Managing triggers
Appendix A - Terminology
• Terminology
Appendix B - Data types
• Data types
Appendix C - XML publishing
• XML publishing
Appendix D - Basic Text Search DataBlade Module
• BTS DataBlade Module
Appendix E - Node DataBlade Module
• Node DataBlade Module
Appendix F - Using Global Language Support
• Using GLS
NOSQL: NICHT-RELATIONALE DATENBANKENTechnologien, Einsatzbereiche, Produktübersicht
Dauer: 4 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Software-Ingenieure, Anwendungsentwickler,Datenbank-Programmierer.
Voraussetzungen: Grundkenntnisse der Programmierung,Kenntnisse in Java oder JavaScript sind von Vorteil.
Nr.: 33090Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion, Übungen, Praktikum amSystem.
In diesem Seminar werden Ihnen Architektur und Arbeitsweise von nicht-relationalen Datenbanken präsentiert. Dabei werden Ihnengängige Strategien (Dokumenten- und Graphen-orientiert, Key-Value) sowie darauf basierende konkrete Produkte im Einsatz gezeigt.Sie lernen konkret, wie Daten innerhalb der Datenbanken strukturiert organisiert, abgelegt und darauf zugegriffen werden kann.
Programm
Grundlagen:
Warum NoSQL?Abgrenzung zu relationalen DatenbankenArbeitsweise: Dokumentenorientierte Datenbanken, Graphendatenbanken, Objekt-Datenbanken, Key-ValueBig Data und ShardingParallelisierung und MapReduceProduktübersicht
MongoDB und CouchDB:
Installation und AdministrationOrganisation der Daten in DokumentenDie Rolle von JavaScript und JSONSchreiben, Lesen, Löschen von DokumentenAbfragenDatenkonsistenzSkalierbarkeit und Replikation
Die graphenorientierte Neo4j:
Installation und AdministrationGraphenorientierte Ablage von DatenSchreiben, Lesen, LöschenAbfragenTransaktionssicherheitSkalierbarkeit und Replikation
Die Column-orientierte HBase:
Das Prinzip Spalten-orientierter DatenbankenDaten-DefinitionLesen, Schreiben, AbfragenDie Rolle von Apache Hadoop
Werkzeuge:
Treiber-Software: Unterstützte Sprachen, Installation und APIClient-Zugriff mit RESTAdministrations-WerkzeugeÜberwachungReporting
Weitere Systeme:
Redis: Eine Key-Value-DatenbankÜbersicht existierender objektorientierter und XML-basierter Datenbanken
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/33090
Termine und Orte: 27 Mai 2018 – Nr.: 33090
München
04 Jun - 06 Jun 2018 Garantietermin
Hamburg
12 Nov - 14 Nov 2018
POSTGRESQLProgrammierung und Administration
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Webentwickler mit Programmierkenntnissen.
Voraussetzungen: Grundkenntnisse in relationalen Datenbankenund Programmierlogik sind von Vorteil.
Nr.: 11828Preis: 2.190,00 € (netto) / 2.606,10 € inkl. 19% MwSt.
Schulungsmethode: Plattform: UNIX/Linux.
Nach dem Seminar können Sie Datenbanken entwerfen und mit PostgreSQL anlegen. Sie erlernen die Installation und die Konfigurationvon PostgreSQL. Darüber hinaus werden Sie die PostgreSQL Datentypen, Funktionen und die Transaktionssteuerung ebenso kennenlernen wie die PostgreSQL-API für die Entwicklung von Client/Server-Anwendungen
Programm
Installation und Konfiguration:
Installation von PostgreSQLKonfiguration von PostgreSQL
Administration:
BenutzerverwaltungZugriffsrechte und SicherheitskonzepteDatensicherung und Wiederherstellung
Datentypen und Funktionen:
Aufbau von PostgreSQLDatentypen (Feldtypen)Basis-FunktionenFortgeschrittene Funktionen
Programmierung:
Zugriff via ODBCPostgreSQL interne Programmierung mit PL/PGSQL - Perl-, PHP- und Java-Schnittstellen
PostgreSQL Geschwindigkeit:
Optimierung und Tuning der AbfragenIndicesNormalisierung vs. Effizienz
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11828
Termine und Orte: 27 Mai 2018 – Nr.: 11828
Frankfurt
25 Jun - 29 Jun 2018
Hamburg
15 Okt - 19 Okt 2018
MYSQL ADMINISTRATION
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Systemadministratoren, Anwendungsentwickler,Webmaster.
Voraussetzungen: Erfahrung in der Administration von UNIX/LinuxSystemen. SQL-Kenntnisse sind von Vorteil.
Nr.: 11824Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Übungen, Praktikum am LinuxSystem.
Nach diesem Seminar "MySQL Administration" sind Sie in der Lage, MySQL Datenbankserver zu administrieren. Sie können sämtlicheSchritte von der Planung über die Installation bis zur Wartung und Fehlersuche durchführen
Programm
Installation und Konfiguration unter Linux:
BezugsquellenPlanungErstinstallation und -KonfigurationAdministrationswerkzeugeKonfiguration zur LaufzeitVersionsunterschiede
Benutzerverwaltung:
Anlegen von BenutzernDas MySQL-RechtesystemZuweisen und Entziehen von Rechten
Datenbankverwaltung:
Anlegen und Löschen von DatenbankenAnlegen von TabellenSHOW und die Datenbank INFORMATION_SCHEMA
Speicherengines und ihre Vorteile:
MyISAMInnoDBMergeMemoryUmwandeln von Tabellenformaten
Datenbanksicherheit:
Überwachung der DatenbankLoggingBackup und RestoreFehlerdiagnose und -behebungReparaturReplikation
Optimierung:
Caches und BufferQuery CacheServereinstellungenProfiling
Installation und Konfiguration unter Windows:
ErstinstallationServerGrafische ClientsMigration der Datenbanken zwischen den Betriebssystemen
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11824
Termine und Orte: 26 Mai 2018 – Nr.: 11824
Berlin
11 Jul - 13 Jul 2018
München
10 Okt - 12 Okt 2018
MYSQL ANWENDUNGSENTWICKLUNGWebanwendungen mit MySQL und PHP
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Anwendungsentwickler, Webentwickler mitProgrammierkenntnissen.
Voraussetzungen: 8230 oder vergleichbare Kenntnisse. HTML- undPHP-Kenntnisse oder gute Programmierkenntnisse in einer anderenProgrammiersprache.
Nr.: 11825Preis: 2.190,00 € (netto) / 2.606,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Übungen, Praktikum am System.
Nach dem Seminar können Sie Datenbanken entwerfen und mit MySQL anlegen. Sie lernen die Besonderheiten der AbfragespracheSQL unter MySQL kennen. Mithilfe des PHP-API können Sie auf MySQL zugreifen. Gezeigt wird der Entwurf von webbasiertenAnwendungen und klassischen Client/Server-Anwendungen.
Voraussetzungstest zu diesem Seminar
Programm
Datenbankentwurf:Das relationale Modell - Entwurfsverfahren - Normalisierung - ER-Diagramme
SQL-Grundlagen:
Datendefinition - Datenmanipulation - Datenbankabfragen - Besonderheiten von MySQL
Webschnittstellen und Formulardaten:
CGI - HTML-Formulare - Formularauswertung mit PHP - Plausibilitäts- und Validitätsprüfung - Sicheres Übernehmen von Daten -Zeichensätze und Sortierfolgen
Das MySQL-PHP-API:
Einrichten und Konfiguration der API-Schnittstelle - Funktionsweise - Funktionen - Verbindungsaufnahme - Befehle absetzen -Ergebnisse auswerten - Fehlermeldungen auswerten - Daten manipulieren - Transaktionen
MySQL Geschwindigkeit:
Optimierung der Abfragen - Indizes - Normalisierung vs. Effizienz - Fehlerbehandlung - Logging
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11825
Termine und Orte: 26 Mai 2018 – Nr.: 11825
Frankfurt
30 Jul - 03 Aug 2018
Hamburg
19 Nov - 23 Nov 2018
MYSQL FüR FORTGESCHRITTENE
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Datenbankadministratoren und Entwickler mitErfahrung in MySQL-Datenbanken.
Voraussetzungen: 11825 oder vergleichbare Kenntnisse. SQL-Kenntnisse.
Nr.: 11826Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Übungen, Praktikum an MySQL/LinuxSystemen.
Sie sind in der Lage, mittels SQL-Abfragen Informationen über Datenbankobjekte und Funktionalität des MySQL-Servers zu erlangenund Servereinstellungen zur Laufzeit zu verändern.Sie kennen die erweiterte Funktionalität der InnoDB Storage Engine und können sieeinsetzen. Sie wissen, wie man Stored Procedures und Trigger in MySQL Datenbanken anlegt und verwaltet.Sie können dieverschiedenen Verfahren zu Replikation und Clustering bezüglich ihrer Anwendung einschätzen und können einfacheReplikationsumgebungen selbst einrichten
Programm
Konfiguration:
Server-KonfigurationsvariablenSicherheit
Transaktionen:
Transaktionen und Fremdschlüsselbeziehungen bei InnoDB-Tabellen
MySQL 5:
Stored ProceduresTriggerViewsCursorInformation_Schema
Replikation:
Die Implementierung von MySQL-ReplikationEinfache Master/Slave-Replikationsumgebung aufsetzenMulti-Master- bzw. Ring-ReplikationBackup
Cluster:
Konzepte von MySQL Clustern
High Availability ClusteringDie Knoten im MySQL ClusterDie Verteilung und Replikation der Daten in MySQL Cluster
Konfiguration:
Server-KonfigurationsvariablenSicherheit
Transaktionen:
Transaktionen und Fremdschlüsselbeziehungen bei InnoDB-Tabellen
MySQL 5:
Stored ProceduresTriggerViewsCursorInformation_Schema
Replikation:
Die Implementierung von MySQL-ReplikationEinfache Master/Slave-Replikationsumgebung aufsetzenMulti-Master- bzw. Ring-ReplikationBackup
Cluster:
Konzepte von MySQL ClusternHigh Availability ClusteringDie Knoten im MySQL ClusterDie Verteilung und Replikation der Daten in MySQL Cluster
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/11826
Termine und Orte: 27 Mai 2018 – Nr.: 11826
Hamburg
13 Aug - 15 Aug 2018
Frankfurt
24 Okt - 26 Okt 2018
KNOWLEDGE WAREHOUSE UND WISSENSMANAGEMENT
Dauer: 4 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Fach- und Führungskräfte, Projektleiter, IT-Experten,Datenanalysten, Data Warehouse Architekten, KnowledgeIngenieure, Wissensmanager, IT-Koordinatoren.
Voraussetzungen: Das Seminar setzt keine speziellen Kenntnissevoraus.
Nr.: 5693Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion DurchgängigesFallbeispiel, Musterentwürfe.
Nach dem Seminar kennen Sie die wichtigsten Konzepte des Wissensmanagements aus Betriebswirtschaft, IT und Soziologie. Siekönnen abschätzen, welche der Konzepte für ihre Unternehmenssituation angemessen und eventuell sogar erforderlich sind. Sie lernenein Wissensmanagement-Projekt aufzusetzen und werden mit der Rolle "Wissensmanager" vertraut. Sie wissen, wie aus einem DataWarehouse ein Knowledge Warehouse wird. Sie können ein ISO15504 konformes Wissensmanagement Audit gestalten
Programm
Grundlagen der Informationsqualität:Motivation, Ziele und Nutzen des Wissensmanagement - Daten, Informationen, Wissen - die Informationsniveaus nach Rehhäuserund Krcmar - Wissen aus betriebswirtschaftlicher Sicht - Soziologische Auffassungen von Wissen - Wissen aus technischer Sicht -Wissensaspekte für die Gestaltungspraxis im Unternehmen
Der Wissensmanagement-Prozess und seine Methoden:
Wissensbausteine nach Romhardt und Probst - Wissensmanagement-Zielsetzung, Wissensbilanz, Balanced Wissensmanagement-Scorecard - Wissensidentifizierung, Wissenstopografie, Indizierungsarten, Semantische Netze, Thesaurus, Taxonomie -Wissensbeschaffung, Wissensquellentypen, Wissenssuche - Wissensgenerierung, Reasoning, Ontologies - Wissensverteilung,Darstellung wissensintensiver Prozesse mit der IUM - Wiki-Lösungen - Wissensnutzung, Wissenserhaltung, Wissensmarktkonzeptnach North, Wissenssozialisierung nach Nonaka und Takeuchi - Das Konzept der lernenden Organisation von Argyris -Wissensstatusmessung, Wissensbewertung
Die IT-Architektur des Wissensmanagement-Systems:
Architektur nach Riempp - Komponenten eines Wissensmanagement-Systems nach ITIL - Produkttypen von Wissensmanagement-Systemen des SW-Marktes
Das Wissensmanagement-Projekt:
Anforderungen an die Wissensmanagement-Lösung und Anforderungs-templates - Projekttypen des Wissensmanagement - Phasenund Aktivitäten eines Wissensmanagement-Projekts - Sozialtechniken für das Wissensmanagement im Projektverlauf - Entwurf derWissensmanagement-Lösung - Spezifikation der Inhalte - Soziale Aspekte des Wissensmanagement-Projekts: Implementierungeiner Wissens-Community - Kalkulationshilfen für ein Wissensmanagement-Projekt
Das Knowledge Management-Assessment:
Reifegradekonzept nach ISO15504, Prozessgebiete und Indikatoren aus KPQM, KMMM, KKMM - Das Wissensmanagement-Audit -Literaturdiskussion
Hinweis
Das Seminar ist eine optimale Fortsetzung des Seminars 05685 "Data Warehouse - Konzepte und Projektierung"
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5693
Termine und Orte: 26 Mai 2018 – Nr.: 5693
Düsseldorf
23 Jul - 26 Jul 2018
Frankfurt
13 Nov - 16 Nov 2018
REPORTING UND KENNZAHLEN-VISUALISIERUNG
Dauer: 2 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Projektleiter, Organisatoren, Data Warehouse-Architekten, Datenqualitätsmanager, Revisionisten,Anforderungsanalytiker, Geschäftsführungsassistenten.
Voraussetzungen: Anwender-Kenntnisse über IT-Systeme.Grundkenntnisse zu Projektmanagement und Projektplanung, DataWarehouse-Kenntnisse.
Nr.: 5689Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion, Durchspielen einesFallbeispiels.
Nach diesem Seminar verstehen Sie das Dashboard als Dach einer Data Warehouse-Lösung und als integrierte Komponente derBusiness Intelligence Architektur. Sie können die Anforderungen Reports und Kennzahlen präzise definieren. Sie verstehenUnternehmenskennzahlenmodelle und ihre Position in der Business Intelligence Systematik. Sie lernen Varianten vonKennzahlensystemen kennen. Sie können ein Dashboard-Projekt aufsetzen.
Programm
Nutzen und Umfang des Company Performance Management:Reporting und Dashboard in der BIS-Architektur - Die Steuerungsebenen des Unternehmens - Umwelt-Informationssysteme undFrühwarnsysteme - Wert-Begriff und Value-Management - Besondere Reports: Sozialbilanz und Umweltbilanz - Ziele, Nutzen undAufwand des Reportings
Komponenten für das Unternehmensreporting:
Integration im Data Warehouse-Architektur-Referenzmodell - Reportarten und die Dialogstruktur von Reports - Strategy Map -Balanced Scorecard - Kennzahlensysteme, erweitertes ROI-Schema von DuPont - IT-Kennzahlen aus COBIT und ITIL
Entwicklung eines Dashboard:
Vorgehensmodell und Projektierung - Anforderungserhebung für Inhalt und Form von Reports und ihre Präsentation im Dashboard -Entwurf des Dashboard, GUI-Elemente, Typen von Geschäftsgrafiken - Visualisierungsregeln nach Hichert und Few - Darstellungvon Kennzahlensystemen - Das Kennzahlensystem von Reichmann - Die Balanced Scorecard Kaskade - Prozess der Aktualisierungdes Dashboard
Produkte und Evaluation:
Dashboard-Produkte ausgewählter Hersteller - Evaluationsmethodik, Evaluationskriterien
Planung und Kalkulation eines Dashboard-Projekts:
Projektphasen und Aktivitäten in der Projektleitlinie - Kalkulationsschema
Hinweis
Das Seminar ist eine gute Ergänzung zu den Seminaren Sem. 05685 05685 und Sem. 05688 05688.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5689
Termine und Orte: 26 Mai 2018 – Nr.: 5689
Frankfurt
11 Okt - 12 Okt 2018
DATA WAREHOUSE - KONZEPTION UND PROJEKTIERUNG
Dauer: 4 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar "Data Warehouse - Konzeption undProjektierung“ richtet sich an Fach- und Führungskräfte,Projektleiter, Organisatoren, Data Warehouse Architekten, DataWarehouse Key-User und Anforderungsanalytiker, die ein DataWarehouse Projekt begleiten und eine Data Warehouse-Lösunggestalten müssen.
Voraussetzungen: Um an dem Kurs erfolgreich teilnehmen zukönnen, sollten sie Anwender-Kenntnisse über IT-Systeme,Grundkenntnisse zu Projektmanagement und Projektplanung undGrundkenntnisse über Anforderungsanalyse mitbringen.
Nr.: 5685Preis: 1.990,00 € (netto) / 2.368,10 € inkl. 19% MwSt.
Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Diskussion und Durchspielen einesFallbeispiels alle Lerninhalte.
Im Seminar "Data Warehouse - Konzeption und Projektierung“ werden alle Aspekte der Gestaltung einer Data Warehouse-Lösungbehandelt. Sie kennen die Architektur und die Komponenten von Data Warehouse-Lösungen. Sie können ein Data Warehouse-Projektplanen und kalkulieren. Sie können Vorzüge und Nachteile verschiedener Lösungswege beurteilen. Sie gewinnen einen Marktüberblicküber die wichtigsten Hersteller und ihre Produkte und kennen die wesentlichen Evaluationskriterien.
Programm
Data Warehouse (DWH) - Fundament zur Business Intelligence:
Das Problem der DatenintegrationEIS, MIS, Business Intelligence und DWHKurze Historie der MIS-KonzepteTypische Eigenschaften eines DWHBegründung für ein DWH-Projekt und dessen Besonderheiten.
Komponenten eines Data Warehouse:
Ein Architektur-ReferenzmodellDie Datenquellen-Schicht und deren unterschiedliche DatenstrukturenDatenextraktion, Transformation und Laden, ETLDWH-Datenbank, Multidimensionale Datenbank, Metadaten, OLAP, ROLAP, MOLAP, Big Data-AnsatzAnalyse-WerkzeugeData Mining-Prinzip, Technologie-KomponentenFront-End-DatenzugangswerkzeugeDas DWH-Architekturkonzept.
Entwicklung eines Data Warehouse:
Vorgehensmodell und ProjektierungAnforderungserhebung, Besonderheiten der DWH-Anforderungen, Lösungskonzeption und LastenheftEntwurfsaufgaben und OLAP-Struktur, Starschema
Grundlegende HardwarefragenRealisierungsaufgabenRollen der DWH-Organisation, Aufbau einer DWH-Richtlinie.
Produkte und Evaluation:
EvaluationsquellenAusgewählte Produktkonzepte, Produkttypen ausgewählter Hersteller im VergleichEvaluationsmethodik, EvaluationskriterienBeispiele integrierter BIS-Architekturen.
Planung und Kalkulation eines DWH-Projekts:
DWH-VorgehensmodellDWH-ProjektleitlinieKalkulationsschema für DWH-Projekte.
Betrieb und Service:
Grundlegende BetriebsaufgabenService Level und Service-AufgabenITIL-Integration und Trouble Ticketing für DWH.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5685
Termine und Orte: 26 Mai 2018 – Nr.: 5685
Berlin
20 Aug - 23 Aug 2018 Garantietermin
Stuttgart
20 Nov - 23 Nov 2018
DATA WAREHOUSE - ENTWURF UND MODELLIERUNG
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar "Data Warehouse - Entwurf undModellierung“ richtet sich an Fach- und Führungskräfte,Projektleiter, Data Warehouse Architekten und Data WarehouseSystemingenieure, die eine Datenstruktur für ein Data Warehouseentwerfen oder prüfen müssen.
Voraussetzungen: Um dem Lernstoff leicht folgen zu können,sollten Sie das Sem. 05685 05685 besucht haben odervergleichbare Kenntnisse haben. Anwender-Kenntnisse über IT-Systeme, Datenbanken und Applikationen und Grundkenntnisse imDatenmodellieren sollten Sie auch mitbringen.
Nr.: 5686Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.
Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Fallbeispiele und Durchspielen vonMusterentwürfen alle Lerninhalte.
Im Seminar "Data Warehouse - Entwurf und Modellierung“ lernen Sie, was Sie beim Entwurf und bei der Erstellung einer DataWarehouse Datenbank berücksichtigen sollten. Sie kennen Entwurfsmuster für DWH-Datenmodelle, können dimensionaleGesamtmodelle entwickeln und kennen die Vor- und Nachteile der Modell-Alternativen. Sie kennen die Schritte des ETL-Prozesses unddie dafür zu erledigenden Entwurfsaufgaben. Sie verstehen das Mapping zwischen Datenstrukturen.
Programm
Prinzipien und Architektur eines Data Warehouse (DWH):
Motivation eines DWH-ProjektsEine DWH-ArchitekturKonkurrierende LösungstypenEntwurfsaufgaben und Grundsatzentscheidungen.
Dimensionale Modellierung:
Eigenschaften und Stärken des dimensionalen ModellsUnterschied zum ERMFakt- und DimensionstabellenStar-Schema, Snowflake-DiagrammDimensionenartenFaktenartenEntwurfsfälle und MusterlösungenEntwurfsprinzipien.
Aggregation und Kennzahlen:
Aggregations-DiagrammeKennzahlen-DiagrammeFact Constellation-Schema.
Dimensionales Gesamtmodell:
Wertkette und FaktenverbundData Mart, Dimensionen und Daten-Fakten-Matrix (Datenbus)Daten-GalaxieData Mart-AuffassungenStufen zum Aufbau des dimensionalen Gesamtmodells.
Physische Datenhaltungsebene:
KonventionenPhysisches ModellMengenkalkulationIndizierung und IndexplanPlanung der Speicherstruktur.
Datenübernahmeentwurf:
Planung der übernahmeschritteInfrastrukturplanVerteilungsmöglichkeiten von Data MartsQuellen-Ziel-MappingLadeschemaLadeschritteKontrolle der Ergebnisse.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5686
Termine und Orte: 26 Mai 2018 – Nr.: 5686
München
02 Jul - 04 Jul 2018
Hamburg
17 Sep - 19 Sep 2018 Garantietermin
Stuttgart
05 Dez - 07 Dez 2018
DATA MININGInformationsgewinnung für die Unternehmenssteuerung
Dauer: 2 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar "Data Mining“ wendet sich an Fach- undFührungskräfte, Projektleiter, IT-Experten und Datenanalysten, diein Data Mining-Projekte involviert sind und vor der Beschaffungeines Data Mining Tools stehen oder einfach die Leistungsfähigkeitdes Data Mining für Big Data-Themen erkennen wollen.
Voraussetzungen: Um an dem Kurs "Data Mining“ erfolgreichteilnehmen zu können, sollten Sie das Sem. 05685 05685 besuchthaben oder gleichwertige Kenntnisse besitzen. Kenntnisse inStatistik sind nicht erforderlich.
Nr.: 5687Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.
Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag, Diskussion, Gruppenarbeit und kleineÜbungen die Inhalte des Seminars.
Im Seminar "Data Mining“ werden die Möglichkeiten von Data Mining zur Veredelung von Informationen zu Wissen erläutert. Siekennen die Prinzipien der wichtigsten Methoden, Visualisierungsarten und Technologien weitgehend "Mathematik-frei". Sie könnenWerkzeuge zum Einsatz von Data Mining anhand der besprochenen Methoden auswählen. Sie lernen, wie ein Data Mining-Projektgestaltet wird. Sie wissen, was die Rolle "Data Mining Ingenieur" umfasst.
Programm
Data Mining - Bedeutung und Motivation:- Ziele, Einsatzgebiete, Problemkreise
- Erhebung zur Beliebtheit und Motivation
- Produktreife im Hypecycle.
Data Mining-Architekturen:
- Ausgewählte Architekturen wichtiger Hersteller
- Einbettung von Data Mining in DWH-Architekturen.
Data Mining-Prozess:
- Der Data Mining-Prozess aus der Sicht einiger Hersteller
- Der Data Mining-Prozess nach Fayyad
- Problemspezifikation
- Datenbeschaffung
- Datenaufbereitung, Transformation, Lifting
- Data Mining
- Interpretation
- Umsetzung.
Data Mining-Methoden und Technologien:
- Statistik visuell aufbereitet, Regression, Histogramm, Korrelation, ABC-Analyse, Portfolio-Analyse
- Memory based Reasoning, Induktion von Regeln, Warenkorbanalyse, Clustering, Entscheidungsbaum
- Neuronale Netze
- Evolutionäre Algorithmen.
Data Mining-Visualisierung:
- Diagrammarten
- 3-D-Darstellungen
- Hyperslice, Prosection view, parallele Koordinaten
- Tree Map.
Data Mining-Werkzeuge:
- Ausgewählte Data Mining-Werkzeuge
- Ausgewählte Eigenschaften einiger Produkte im Vergleich.
Das Data Mining-Projekt:
- Phasengliederung
- Anforderungen und Fachkonzept
- Kriterien zur Tool-Evaluation
- Der Data Mining Prozess
- Literaturdiskussion.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5687
Termine und Orte: 26 Mai 2018 – Nr.: 5687
Hamburg
25 Jun - 26 Jun 2018
Frankfurt
08 Nov - 09 Nov 2018
DATEN- UND INFORMATIONSQUALITäT
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar "Daten- und Informationsqualität“ wendetsich an Fach- und Führungskräfte, Projektleiter, IT-Experten,Datenanalysten, Data Warehouse Architekten,Datenqualitätsbeauftragte und IT-Koordinatoren, die bei derLösung von Datenqualitätsproblemen kompetent mitsprechenwollen.
Voraussetzungen: Um an dem Kurs erfolgreich teilnehmen zukönnen, sollten Sie Grundkenntnisse der Unternehmensinformatikmitbringen. Das Seminar kann auch als Vertiefung des Sem. 0568505685 genutzt werden.
Nr.: 5688Preis: 1.590,00 € (netto) / 1.892,10 € inkl. 19% MwSt.
Schulungsmethode: Unsere praxiserfahrenen Trainer vermittelnIhnen durch Vortrag und Diskussion sowie an einem durchgängigenFallbeispiel und mittels Musterentwürfen denDatenqualitätsmanagement-Prozess.
Im Seminar "Daten- und Informationsqualität“ werden Ihnen alle wichtigen Aufgaben für die Verbesserung der Daten- undInformationsqualität für Ihr Unternehmen vorgestellt. Sie können die aktuellen Maßnahmen zur Informationsqualität beurteilen undDatenqualitätsindikatoren definieren. Sie können helfen, die Datenfehler im Unternehmen zu reduzieren und damit zur Effizienz derGeschäftsprozesse beitragen. Sie wissen, wie das der Informationsqualitätsmanagement als Prozess organisiert wird.
Programm
Grundlagen der Informationsqualität:
Ziele und Nutzen des DatenqualitätsmanagementInformationsniveaus nach Rehhäuser und KrcmarQualitätsbegriff allgemein und bezogen auf Daten, Informationen, WissenModelle der Dimensionen der Datenqualität.
Data Governance:
IT-Governance KomponentenCompliance und DatenqualitätAlignment und InformationsmanagementInformationsarchitektur als View (Dimension) der Enterprise ArchitekturImprovement der IQ-ProzesseEntscheidungsfindung für das IQ-Management.
Methoden zur Analyse der Datenqualität:
Fehlerklassifikation von DatenMetriken zur DatenqualitätMethoden zur FehlererkennungStatistik zur Analyse der Datenqualität, Rang-Listen, Regression, Histogramm, Korrelation, Data Profiling zur Visualisierung vonDatenqualitätsmängelnAutomatische Klassifikation zur Entdeckung von DatenqualitätsmängelnMethoden zur Verbesserung der Datenqualität und zur Fehlerbehebung.
Die Organisation der Datenqualität:
Daten-Qualitätsmanagementprozess der DAMAIQ-PolicyAnforderungen an die DatenqualitätAufgaben und Phasen einer integrierten und kontinuierlichen DatenqualitätssicherungDatenqualitätsauditBeurteilen der Datenqualität und Vorschläge zur VerbesserungData Tracking nach RedmanPriorisierung von DQ-Maßnahmen.
Das Informations-Lebenszyklus-Qualitätsmanagement-Assessment:
ReifegradeProzessgebiete und Indikatoren des IQM-CMMOrganisationsaufgabe IQMDienstleister am MarktLiteraturdiskussion.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/5688
Termine und Orte: 26 Mai 2018 – Nr.: 5688
Frankfurt
30 Jul - 01 Aug 2018 Garantietermin
Berlin
28 Nov - 30 Nov 2018
DATENBANKSYSTEME - TECHNIKEN, SYSTEMVERGLEICH, DESIGNTechniken, Systemvergleich, Design
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Führungskräfte, Systemanalytiker,Organisationsprogrammierer, angehende Datenbankexperten.
Voraussetzungen: Grundkenntnisse über Datenbanksysteme sindvon Vorteil.
Nr.: 4010Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion, Übungen,Demonstrationen.
Sind Sie im Begriff, eine Datenbank aufzubauen, oder wollen Sie die in Ihrem Hause eingesetzte Datenbank-Software optimal nutzen?Kennen Sie die Unterschiede zwischen den heute eingesetzten Datenbanksystemen? Sie erhalten einen umfassenden Überblick überdie am Markt angebotene Datenbank-Software. Sie wissen, welche Kriterien für den Einsatz der verschiedenen Datenbanktechniken zubeachten sind und erhalten Hinweise zur Vorgehensweise für ein optimales Design.
Programm
Klassifizierung von Datenbanksystemen:
Lineare DatenbankenHierarchische DatenbankenRelationale DatenbankenObjektorientierte DatenbankenNoSQL-Datenbanken
Kriterien für das Datenbankdesign:
NormalisierungER-ModellierungUMLRedundanz und ZugriffsgeschwindigkeitFlexibilität und ProgrammunabhängigkeitReorganisationNeue Anforderungen an die DatensicherungTransaktionsproblem
Datenbankobjekte bei RDBMS:
DatabaseTablespaceTableIndexDatenintegritätPerformanceüberlegungen
Interfaces:
Interaktives SQLEmbedded SQL (statisch-dynamisch), ODBC, SQLJ, JDBC
Neue Anforderungen und Entwicklungen im verteilten Umfeld:
Verteilte DatenbankenClient/Server-DatenbankenStored Procedures, Triggers, User Defined FunctionsObjektorientierung: OODBMS, ORDBMSMultidimensionale DBMS, Open SourceSchlüssel/Werte-Speicherung in verteilten NoSQL-Datenbanken
Gegenüberstellung wichtiger Datenbank-Software-Pakete:
DB2 für z/OSIMSADABASINFORMIX, INGRES, ORACLESybase, DB2 für LUW, MS SQL Server, MS Access, MySQL
Vorgehensweise bei der Planung und Realisierung einer Datenbank:
Datenmodellierung und DatenadministrationPlanungsphasenLogisches und physisches Datenbankdiagramm
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4010
Termine und Orte: 26 Mai 2018 – Nr.: 4010
Stuttgart
28 Mai - 30 Mai 2018 Garantietermin
Düsseldorf
26 Sep - 28 Sep 2018
ORACLE DATENBANK SUMMARYÜberblick über das ORACLE Datenbanksystem und seine Werkzeuge
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Training "ORACLE Datenbank Summary“ richtetsich an Führungskräfte, IT-Projektleiter, Softwaredesigner,Fachkonzeptentwickler, Organisatoren, Mitarbeiter derFachabteilung und Systembetreuer, die einen Einstieg in dieORACLE Datenbankwelt gewinnen möchten.
Voraussetzungen: Um an dem Training "ORACLE DatenbankSummary“ erfolgreich teilzunehmen, sind IT-Grundkenntnisse undGrundkenntnisse einer Programmiersprache von Vorteil.
Nr.: 4042Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion und Praktikum am System,in dem Sie das Erlernte zum ORACLE Datenbanksystemausprobieren und festigen können.
Nach dem Seminar "ORACLE Datenbank Summary“ kennen Sie die wichtigsten Begriffe aus der ORACLE Welt sowie die Werkzeuge desORACLE Datenbankmanagementsystems. Auch die Wichtigkeit des sauberen Designs und der Modellierung wird Ihnen ersichtlich. Siesind in der Lage, die Einsatzzwecke der Sprachen SQL und PL/SQL einzuschätzen und zu differenzieren sowie einfache SQL Statementsund PL/SQL Programme selbst zu schreiben und auszuführen. Die Informationen über Speichermöglichkeiten der Daten im XML Formatwerden Sie für dieses Thema sensibilisieren.
Programm
Relationale Datenbanken:
Grundlagen der Datenmodellierung, des ERM und der relationalen ModellierungTabellenPrinzip der referentiellen Integritätüberblick über ORACLE Datenbankeditionenüberblick über die ORACLE Architektur.
Die Benutzerschnittstellen SQL*Plus, SQL Developer, ORACLE Enterprise
Manager Database Control:
SQLEditorSQL*Plus KommandosStarten, Einloggen und Benutzen.
Die Sprache SQL:
SELECTFROMWHEREGROUP BY
HAVINGORDER BYSortierungBedingungenSubqueriesVerknüpfungen von Tabellen (INNER JOIN vs. OUTER JOIN)Mengenoperatoren (UNION, UNION ALL, INTERSECT, MINUS)DML Befehle (INSERT, UPDATE, DELETE)DDL Befehle (CREATE, ALTER, DROP).
Die Sprache PL/SQL:
Blockstruktur und Arten von PL/SQL-RoutinenNotwendige RechteVariablendeklarationsteil und AusführungsteilVerzweigungenSchleifenEinsatz der SQL Befehle innerhalb der PL/SQL Programme.
XML:
XML ModellAbbildungsmöglichkeiten von XML Schemas auf RelationenFallstudie zu XML Verarbeitung in ORACLE.
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4042
Termine und Orte: 26 Mai 2018 – Nr.: 4042
München
29 Okt - 31 Okt 2018
ORACLE DATENMODELLIERUNG UND DATENBANKDESIGN
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Datenbankdesigner, Anwendungsentwickler,Datenbankadministratoren, Consultants.
Voraussetzungen: Grundkenntnisse über relationaleDatenbanksysteme.
Nr.: 4062Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Gruppenarbeit, Erfahrungsaustauschund Training der datenmodellierungsrelevanten Interview-Technik.
Im Seminar wird ein strukturiertes Vorgehen von der Datenanalyse und -modellierung bis zum logischen und physischen Design vonORACLE Datenbanken behandelt, wobei der Schwerpunkt auf die Vermittlung fundierter Datenmodellierungskenntnisse gelegt wird. AlsMethode zur Datenmodellierung wird das Entity-Relationship-Modell benutzt. Nach diesem Seminar können Sie ein Datenmodell unterBeachtung ORACLE-spezifischer Aspekte in eine Datenbank umsetzen
Programm
Einführung in die Datenmodellierung:
Datenmodellierung im SoftwareprojektRelationale DatenbanksystemeDrei-Sichten-ModellVorgehensweise
Datenmodellierung:
EntitätsmengenAttributmengenBeziehungsmengenDomäneNormalisierungsprozessIntegritätsregelnDarstellungsarten im E/R-ModellEinfache und anspruchsvolle Modellierungsmuster
Denormalisierung und Designergänzungen:
Vor-/Nachteile normalisierter/denormalisierter TabellenZugriffspfadmatrix für TabellenDesignergänzungen (Teilmengen, Historisierung, weitere Aspekte zur Performance-Verbesserung)
Datenbank-Objektdesign:
Logische und physische Struktur einer ORACLE Datenbank (Instance, Tablespace, Table (inkl. Partitionierung), Index, View,Materialized View,...)
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4062
Termine und Orte: 26 Mai 2018 – Nr.: 4062
München
24 Sep - 26 Sep 2018
ORACLE DATA WAREHOUSE - DESIGN UND IMPLEMENTIERUNG
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Datenbank- und Data Warehouse-Designer,Anwendungsentwickler, Datenbankadministratoren, Consultants.
Voraussetzungen: Grundkenntnisse über ORACLE undDatenmodellierung entsprechend Sem. 04062.
Nr.: 4073Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Gruppenarbeit, Fallbeispiele,praktische Übungen.
Nach dem Seminar wissen Sie, was beim Entwurf und der Erstellung eines Data Warehouse (DWH) zu berücksichtigen ist. Sie erlernendimensionale Modelle zu entwickeln und erhalten Leitlinien für die Aggregatbildung, um dann das physische Datenbankdesignumzusetzen. Aufbauend dazu lernen Sie Vorzüge, Besonderheiten und Einschränkungen durch die Verwendung der DatenbankobjekteBitmap Index und Materialized View kennen und sind vertraut mit Methoden wie Partitionierung und Parallelisierung
Programm
Überblick:Einführung in das logische Design für ein Data Warehouse - Fakt- und Dimensionstabellen - Vergleich zu Entity-Relationship-Modellierung (ERM)
Dimensionale Modellierung:
Eigenschaften und Stärken des dimensionalen Modells - Herleitung eines dimensionalen Modells aus einem E/R-Modell - Arten vonDimensions- und Faktentabellen - Star-Schema, Snowflake-Schema - Festlegung der Granularität - Familien von Fakt-Tabellen -Gestaltungsfälle - Aggregate - Faktenverbund, Data Marts und Dimensionales Gesamtmodell
Implementierung des physischen Designs in ORACLE:
Planung der Speicherstruktur - Designstruktur vs. Fragmentierung - Tabellen und Partitionen - Extentmanagement im Tablespace -Indizes, Views, Star Transformation
ETL:
Berücksichtigung der Prozesse Transformation und Laden ins DWH - Transformieren mit SQL (CTAS, Merge, Multitable Insert) undPL/SQL - Fehler-Logging und Verarbeitungsmechanismen mit ORACLE 11g - Direct Path Insert
Performance-Betrachtungen:
Bitmap Index - Bitmap Join Index - Materialized Views - Refresh-Methoden - Materialized View Logs - Dimensionen und Hierarchien -Query-Rewrite - Partitions- und Parallelverarbeitung
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4073
Termine und Orte: 27 Mai 2018 – Nr.: 4073
Frankfurt
01 Aug - 03 Aug 2018
München
17 Okt - 19 Okt 2018
ORACLE APPLICATION EXPRESS
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Anwendungsentwickler, Datenanalysten,Systembetreuer, Datenbankadministratoren, Consultants.
Voraussetzungen: Grundkenntnisse in relationalen Datenbankenund SQL.
Nr.: 4044Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion, Praktikum am System.
ORACLE Application Express (APEX) dient zur effizienten Entwicklung von datenbankbezogenen Web-Anwendungen.Nach dem Seminar kennen Sie die Architektur von APEX und sind in der Lage, Web-Anwendungen mit APEX zu entwickeln. Sie habeneinen Überblick über die Möglichkeiten der Administration von APEX Templates, Workspaces, Benutzern und Datenbankobjekten. Auchgrundlegende Dinge zur Absicherung und zum Troubleshooting von APEX-Anwendungen sind Ihnen bekannt
Programm
Konzepte von ORACLE Application Express (APEX)
Anwendungsentwicklung mit Application Builder
Berichts- und Formularerstellung
Platzierung von Regions
Items (Formularelemente wie Checkbox, Radigroup, Select List)
Erklärung der Wizards
Integration von Diagrammen und Flash-Grafiken
SQL Zugriff auf Datenbankobjekte mit SQL Workshop
Import und Export von Daten mit Data Workshop
Benutzer- und Workspaceverwaltung
Installation und Troubleshooting
Dynamic Actios
Security
Oberflächengestaltung mittels Themes / Templates
Neuerungen in V 5
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4044
Termine und Orte: 26 Mai 2018 – Nr.: 4044
Berlin
23 Jul - 27 Jul 2018 Garantietermin
ORACLE XML DB
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Der Kurs "ORACLE XML DB“ wendet sich anDatenbankentwickler.
Voraussetzungen: Um am Seminar "ORACLE XML DB“ erfolgreichteilnehmen zu können, sollten Sie Grundkenntnisse in XML,ORACLE SQL und ORACLE PL/SQL haben.
Nr.: 4086Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Demonstrationen am System sowiepraktische Übungen, in denen Sie das Erlernte ausprobieren undfestigen können.
Nach dem Seminar "ORACLE XML DB“ kennen Sie die verschiedenen Ansätze, XML-Daten in der ORACLE Datenbank zu speichern bzw.zu generieren und können deren Vor- und Nachteile einschätzen. Sie haben einen Überblick über die relevanten Standards und dieUnterstützung durch die ORACLE-spezifischen Erweiterungen.
Programm
Abbildung zwischen XML und relationalem Modell:
Hierarchisches Datenmodell versus RelationenOpake Speicherung als LOB (Large Object)Zerlegung und Verteilung der XML-Daten auf TabellenGenerierung von XML-Dokumenten aus relationalen DatenKonvertierung der verschiedenen DatentypsystemeUnterstützung von XML Schemata und DTDs
Die Erweiterung SQL/XML des SQL-Standards:
XML als DatentypAbbildung der SQL- auf XML-KonzepteOperatoren auf dem Datentyp XMLEinbettung in SQLVerarbeitung mit PL/SQL
Die Abfragesprache XQuery als W3C-Standard:
XPath zur Adressierung von XML-DokumentteilenXPath-Ausdrücke und -FunktionenXQuery-KonzepteDas XQuery-DatenmodellFLWOR-Ausdrücke (For-Let-Where-Order By-Return)Verbundoperationen und GruppierungenErweiterte Ausdrücke und Funktionen
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4086
Termine und Orte: 26 Mai 2018 – Nr.: 4086
Düsseldorf
30 Jul - 01 Aug 2018
München
21 Nov - 23 Nov 2018
ORACLE SQL DEVELOPER
Dauer: 2 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Anwendungsentwickler, Organisatoren, Führungskräfte,Mitarbeiter der Fachabteilung, Softwaredesigner,Fachkonzeptentwickler, IT-Projektleiter, Consultants,Systembetreuer.
Voraussetzungen: SQL und PL/SQL entsprechend Sem. 4042 odervergleichbare Kenntnisse.
Nr.: 4076Preis: 1.190,00 € (netto) / 1.416,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Diskussion, Praktikum am System.
Der ORACLE SQL Developer ist ein kostenloses Tool, das seit Version 11g in jeder ORACLE Installation integriert ist. Nach dem Seminarkönnen Sie den ORACLE SQL Developer für die Erstellung von SQL Statements und PL/SQL Programmen einsetzen und sind in derLage, sich einen Überblick über Struktur und Aufbau der Datenbankobjekte, insbesondere Tabellen, Indizes und Abfragen zuverschaffen
Programm
Agenda:
- Einrichten von Datenbankverbindungen zu ORACLE, Access etc.- SQL- und PL/SQL- Statements im SQL Worksheet- Optionen und Einstellungen des SQL Developers anpassen- Data Modeler, Visualisierung und Erstellung von ERDs (Entitiy Relationship Diagrams)- Snippets nützen und selber erstellen- Vordefinierte und benutzerdefinierte Reports- Autotrace und Ausführungspläne- Import von Daten über external Tables etc.- Export von Code und Tabellen- Tools zum Schema-Vergleich- PL/SQL Code erstellen und Compilerfehler beheben- PL/SQL Debugging- Erstellung von Unit Tests- Versionierung mit CVS oder Subversion
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4076
Termine und Orte: 26 Mai 2018 – Nr.: 4076
Stuttgart
11 Jun - 12 Jun 2018 Garantietermin
Frankfurt
04 Okt - 05 Okt 2018
ORACLE SQL OPTIMIERUNG
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar "ORACLE SQL Optimierung“ richtet sichvor allem an Anwendungsentwickler, Datenbankadministratorenund Consultants sowie an alle, die für die Performancesicherungeines Datenbanksystems oder einer Applikation verantwortlichsind.
Voraussetzungen: Um an dem Training "ORACLE SQL Optimierung“erfolgreich teilnehmen zu können, sollten Sie SQL Kenntnisseentsprechend Sem. 4051 4051 mitbringen. GrundlegendeProgrammierkenntnisse sind auch von Vorteil.
Nr.: 4068Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Die praxiserfahrenen Trainer vermitteln dieGrundlagen zur Optimierung anhand von Vortrag und Diskussionund zeigen wichtige Lösungsansätze durch Praxis am System.
Das Seminar "ORACLE SQL Optimierung" vertieft Ihre SQL-Kenntnisse. Sie können komplexe SELECT-Statementserstellen und vorhandene Statements optimieren. Dazu lernen Sie in Grundzügen die Wirkungsweise des ORACLE-Optimizer kennenund sammeln Erfahrungen im Umgang mit AUTOTRACE und TKPROF.Sie erhalten Tipps für den sinnvollen Einsatz der verschiedenen Indexarten, der Parallelisierung von Operationen und den Einsatz vonPartitionierung. Das erworbene Wissen ermöglicht Ihnen, potenzielle Performancemängel in der Entwicklung zu vermeiden,bestehende Probleme im OLTP- und Data Warehouse-Umfeld zu erkennen und durch SQL Tuning-Maßnahmen zu beheben.
Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.
Programm
ORACLE Interna:
Physische DatenspeicherungIndexartenGrundlagen zur Parallel Query OptionBasiswissen zur PartitionierungWichtige Data Dictionary Views für SQL Monitoring.
Komplexe SELECT-Anweisungen:
Datenanalyse mit ROLLUP, CUBE und Top-N-AbfragenFormulierung von JoinsSubqueries und Inline ViewsTipps und TricksNeuerungen in den Versionen 11g und 12c.
Der Optimizer:
Kostenbasierter Optimizer
Statistiken erzeugen und verwalten mit DBMS_STATSErzeugen und Auswerten von Histogrammen.
SQL Tuning:
Performancesicherung als Prozess begreifenEngpässe erkennenTuningstrategie entwickeln und umsetzenAusführungspläne lesen und interpretierenEXPLAIN PLANAUTOTRACETKPROFIndexarten vergleichen und Zugriffsmethoden bewertenResult CacheHints einsetzen.
SQL & OLTP:
Phasen der SQL VerarbeitungStatisches und dynamisches SQLBindvariablen einsetzenParsen vermeiden(Adaptives) Cursor SharingSQL Plan Management.
SQL & Data Warehouse:
Materialized Views und Query RewriteWarehouse Schemata unter ORACLEStar QueryStar Transformation.
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4068
Termine und Orte: 27 Mai 2018 – Nr.: 4068
Frankfurt
04 Jul - 06 Jul 2018 Garantietermin
München
06 Aug - 08 Aug 2018
Düsseldorf
12 Sep - 14 Sep 2018
Stuttgart
15 Okt - 17 Okt 2018 Garantietermin
Hamburg
12 Dez - 14 Dez 2018
ORACLE UND PL/SQL
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Training "ORACLE und PL/SQL" richtet sich anAnwendungsentwickler, Datenbankadministratoren undConsultants, die mit der prozeduralen Programmiersprache PL/SQLarbeiten möchten.
Voraussetzungen: Um an dem Training "ORACLE und PL/SQL"erfolgreich teilzunehmen, sollten Sie SQL-Kenntnisse entsprechendSem. 4051 4051 mitbringen.
Nr.: 4053Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Demonstrationen am System undDiskussion. Anhand zahlreicher PL/SQL-Übungsaufgaben wendenSie die erworbenen PL/SQL-Theoriekenntnisse direkt im Kurspraktisch an und festigen damit das Erlernte.
Nach dem Seminar "ORACLE und PL/SQL" kennen Sie die wesentlichen Bestandteile der prozeduralenProgrammiersprache PL/SQL und können komplexe Programme mit ihr entwickeln. Sie können auch einschätzen, in welchem Umfeldder Einsatz von PL/SQL sinnvoll ist.
Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.
Programm
PL/SQL-Grundlagen:
Blockstruktur und Arten von PL/SQL-RoutinenNotwendige RechteSkalare Datentypen
Aufbau eines PL/SQL-Programms:
Zuweisungen, OperatorenZulässige und nicht zulässige SQL-BefehleDeklarations-, Ausführungs- und FehlerbehandlungsteilSkalare Variablen, Records, Assoziative Arrays
Cursor:
Cursortypen, Cursor mit Parametern, dynamische Cursor
Programmflusskontrolle:
Verzweigungen (IF THEN ELSE, CASE)Schleifen
Fehlerbehandlung:
Vordefinierte, nicht vordefinierte und user-definierte FehlerMöglichkeiten der Fehlerbehandlung
Gespeicherte Programme:
Erstellung, Verwendung, Löschen von Prozeduren, Funktionen und PackagesRechte zur Ausführung (AUTHID)Konzept des Overloading bei PackagesVorteile von PackagesPackage- und Stand-alone-Funktionen in SQL-Ausdrücken
Trigger:
Erstellung, Verwendung, EinsatzgebieteDML, DDL, Instead Of und Compound Trigger
ORACLE Packages:
übersicht über vordefinierte Packages, Syntax und Beispiele zu UTL_FILE, DBMS_JOB, DBMS_SCHEDULER, DBMS_LOB.
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4053
Termine und Orte: 26 Mai 2018 – Nr.: 4053
Berlin
28 Mai - 01 Jun 2018 Garantietermin
München
11 Jun - 15 Jun 2018 Garantietermin 26 Nov - 30 Nov 2018
Frankfurt
09 Jul - 13 Jul 2018
Hannover
06 Aug - 10 Aug 2018
Stuttgart
27 Aug - 31 Aug 2018
Hamburg
24 Sep - 28 Sep 2018
Köln
05 Nov - 09 Nov 2018
ORACLE PL/SQL FüR FORTGESCHRITTENE
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Anwendungsentwickler, Datenbankadministratoren,Systembetreuer, Consultants.
Voraussetzungen: Sem. 4053 oder vergleichbare Kenntnisse.
Nr.: 4043Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Fallbeispiele, praktische Übungen.
Im Seminar vertiefen Sie Ihre PL/SQL-Kenntnisse. Anhand von Beispielen aus der Praxis lernen Sie den effektiven Umgang mit PL/SQLund können komplexe Anforderungen effizient umsetzen.Darüber hinaus erhalten Sie einen Überblick über interessante ORACLE Packages und Schnittstellen zu anderen Programmen.
Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.
Programm
Wiederholung der PL/SQL-Grundlagen
Typen von Arrays in PL/SQL:
Associative Arrays, Nested Tables und VarraysCollection MethodenBulk BindingBulk DML mit ForallTable Functions und Pipelined Table Functions
Dynamische Programmierung:
DBMS_SQLExecute Immediate, REF CURSOR (starke und schwache REF CURSOR, Funktion mit REF CURSOR als IN-Parameter)
Ausgewählte Packages:
Grundlagen des Advanced QueuingDBMS_JOB, DBMS_SCHEDULER, DBMS_LOB, UTL_SMTP, UTL_MAIL, UTL_FILE, DBMS_LOGMNR, DBMS_METADATA, DBMS_RLS,DBMS_CRYPTO, DBMS_COMPARISON
PL/SQL und objektorientierte Konzepte
PL/SQL Optimierung:
PL/SQL Performancemessung mit DBMS_PROFILERPLSQL_OPTIMIZE_LEVEL (10g/11g)Pragma InlineNative Kompilierung (10g/11g)RESULT CACHE in PL/SQLFine Grained Dependency Tracking
Diverses:
Reguläre Ausdrücke in PL/SQLOptimierte Fehlerbehandlung (Nützliche Tools zur Fehlersuche ab 10g, DBMS_ERRLOG, Beispiel für ein zentrales Fehlerpackage)
Schnittstellen:
Einsatz von externen Routinen (Callouts nach C und Java)Verbindungen zu OLE, OLE DB, Visual Basic, Visual Basic for Applications, Windows Scripting Host, PHP und Perl
Neuerungen:
Nutzung der neuen Features in aktuellen Versionen
Hinweis
Eingesetzt wird die ORACLE Version 12c.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4043
Termine und Orte: 26 Mai 2018 – Nr.: 4043
Berlin
27 Jun - 29 Jun 2018
Stuttgart
24 Sep - 26 Sep 2018
München
17 Dez - 19 Dez 2018
ORACLE UND SQL
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Training "ORACLE und SQL" richtet sich anAnwendungsentwickler, Projektleiter, Organisatoren,Datenadministratoren, Mitarbeiter der Fachabteilung undConsultants, die fundierte Kenntnisse der Datenbanksprache SQL ineiner ORACLE-Umgebung erwerben möchten. Das Training istsowohl als Basisausbildung für zukünftige ORACLE-Experten alsauch für Endbenutzer geeignet.
Voraussetzungen: Um an dem Training "Oracle und SQL"erfolgreich teilzunehmen, sollten Sie IT-Grundkenntnissemitbringen. Grundkenntnisse in relationalen Datenbanken sind vonVorteil.
Nr.: 4051Preis: 2.490,00 € (netto) / 2.963,10 € inkl. 19% MwSt.
Schulungsmethode: Vortrag, Demonstrationen am System undKommunikation untereinander. Sehr nützlich ist für Sie dasPraktikum am System, in dem Sie das Erlernte ausprobieren undfestigen können.
Nach dem Seminar "ORACLE und SQL" können Sie die Sprache SQL in einer ORACLE-Umgebung einsetzen und sind in derLage, Tabellen zu erstellen und deren Daten zu verwalten. Sie lernen den Umgang mit den ORACLE-Benutzerschnittstellen zuminteraktiven Arbeiten mit SQL. Sie erhalten in diesem Kurs das Rüstzeug für den Besuch weiterführender ORACLE-Seminare.
Dieses Seminar ist Teil des Qualifizierungsplans ORACLE DBA.
Programm
Relationale Datenbanken:
Grundlagen der Datenmodellierung, des ERM und der relationalen ModellierungTabellenReferentielle Integritätüberblick über ORACLE-Datenbanksysteme und ORACLE-Werkzeuge
Die Benutzerschnittstellen SQL*Plus, Oracle SQL Developer:
SQL-EditorSQL*Plus Kommandos
Das SELECT-Statement, einfache und komplexe Abfragen:
SELECTFROM WHERE GROUP BY HAVING
ORDER BY Sortierung Bedingungen Subqueries (einfache und synchronisierte) Verknüpfungen von Tabellen (INNER JOIN vs. OUTER OIN) Mengenoperatoren (UNION, UNION ALL, INTERSECT, MINUS) Hierarchische Abfragen
Funktionen:
Gruppenfunktionen Arithmetische Funktionen Zeichenkettenfunktionen Datumsfunktionen DECODE-Funktion NVL-Funktion
DML-Anweisungen:
INSERT UPDATE DELETE MERGE Einfügen, Verändern und Löschen von Datensätzen
Transaktionskontrolle:
SET TRANSACTION SAVEPOINT COMMIT ROLLBACK
DDL-Anweisungen:
CREATE ALTER DROP Erstellen, Verändern und Löschen von Objekten (Tabellen, Views, Indizes, Sequenzen, Synonyme) Integritätsverwaltung mit Constraints (PRIMARY KEY, FOREIGN KEY, UNIQUE KEY, CHECK, NOT NULL) Sperrmechanismen
DCL (Grundlagen der Rechteverwaltung):
Benutzerverwaltung Vergabe von System- und Objektprivilegien Das Rollenkonzept
Neuerungen in aktuellen Versionen
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/4051
Termine und Orte: 27 Mai 2018 – Nr.: 4051
Frankfurt
11 Jun - 15 Jun 2018 Garantietermin 27 Aug - 31 Aug 2018
Köln
02 Jul - 06 Jul 2018 26 Nov - 30 Nov 2018
Hamburg
16 Jul - 20 Jul 2018
München
06 Aug - 10 Aug 2018
Hannover
10 Sep - 14 Sep 2018
Stuttgart
08 Okt - 12 Okt 2018 Garantietermin
Berlin
05 Nov - 09 Nov 2018
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/16814
SAP BUSINESSOBJECTS 4.X - UNIVERSE DESIGNSAP BO Information Design Tool
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Projektleiter, Fachanwender und Datenbank-Administratoren, IT - Fachmitarbeiter
Voraussetzungen: Sie haben Kenntnisse über relationaleDatenbanken (inkl. Design) und können auf eine Datenbankbezogen SQL (Structured Query Language)-Abfragen generieren.Windows-Kenntnisse und Erfahrungen mit den MS Office-Anwendungen sind ebenfalls erforderlich.
Nr.: 16814
Schulungsmethode: Interaktiver Workshop, Theorie und Praxis
Nach diesem Seminar kennen Sie die Leistungsfähigkeit des Universums als semantische Ebene von SAP BO 4.x sowie die Erstellungvon MultiSource-Universen zur Verknüpfung unterschiedlicher Datenquellen in einem Universum. Sie erhalten einen vertieften Einblickin die Erstellung und Modellierung von Universen.
Programm
• Einordnung Universe Design in die SAP BO 4.x Werkzeugpalette• Architektonischer Überblick (Schichtenarchitektur)
• Arten von Universen (SingleSource/ MultiSource
• Elemente von Universen
• Aufbau des SAP Business Objects Information Design Tools
• Verbindung zur Datenquelle (Aufbau und Konfiguration)
• Datengrundlage (Erstellung und Konfiguration)
• Business-Schicht (konzeptioneller Aufbau und Einrichtung)
• Veröffentlichung des Universums
• Universumsfilter
• benutzerdefinierte Wertelisten
• Aufbau von Navigationspfaden für den Drill-Down im Berichtswerkzeug
SAP NETWEAVER SYSTEMARCHITEKTUR
Dauer: 3 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Das Seminar SAP NetWeaver Systemarchitektur richtetsich an Mitglieder des Projektteams, Projektleiter, Organisatoren,Entscheider, die die grundlegende technische Architektur desintegrierten SAP-Systems mit seinen vielfältigen Ausprägungen undMöglichkeiten verstehen möchten.
Voraussetzungen: Sie sollten Grundkenntnisse zu SAP ERPmitbringen, wie sie beispielsweise in unserem Seminar 6905vermittelt werden.
Nr.: 6912Preis: 1.690,00 € (netto) / 2.011,10 € inkl. 19% MwSt.
Schulungsmethode: Freuen Sie sich auf einen lebendigen Vortragmit zahlreichen Demonstrationen am System. Profitieren Sie vonden umfangreichen Erfahrungen unserer SAP-Experten.Das wichtigste aber sind die zahlreichen Übungen, mit denen Siedas erlernte selber ausprobieren und festigen. Sie arbeiten miteinem Mini-SAP System, das Sie Ihnen im Rahmen des "SAPEvaluation License Agreement" auch nach dem Ende des Seminarsweiter zur Verfügung steht.
Nach dem Seminar "SAP NetWeaver Systemarchitektur" haben Sie einen Überblick über die Architektur des NetWeaver und derEnterprise SOA. Sie kennen die Komponenten des SAP ERP-Systems und dessen Integrationsbeziehungen. Alle wichtigen Bestandteiledes Web Application Server sind Ihnen geläufig
Programm
NetWeaver als Integrationsplattform:Definition, Konzept, Strategien
Integrationsebenen und Inhalte
e-Business
Integration von WebSphere und Microsoft.NET
Integrationsebenen und Produkte:
Enterprise Service Architecture
Business Process Management
People Integration
Information Integration
Process Integration
Application Integration
SAP-Produkte ERP, HCM, SCM, PLM, CRM und SRM
NetWeaver-Produkte EP, BW, SEM, PI, WAS, Solution Manager, Landscape Directory
Visual Composer
Web Services
xAPPs
Applikationsplattform Web Application Server:
ABAP und Java-Engine
GUI und Web-Frontend
Architektur
Instanzen
Workprozesse
Internet Communication Manager
JavaEE Engine
Schnittstellentechnologien:
BDC
RFC
BAPI
ALE
IDoc
Internet
HTML
XML
WebServices
JDBC
JMS
J2EE
JavaEE
Business Connector
Process Integration:
Business Process Engine
Integration Server
Repository
Directory
Adapter Engine
Testumgebung
Business Intelligence:
OLAP und OLTP
Administrator Workbench
Infocube
ODS-Objekte
BEx-Analyzer
BEx-WEB
Integrierte Planung
Business Content
Enterprise Portal:
Portal Framework
Navigation
Single-Sign-On
iView
Guided Procedures
Entwicklung mit NetWeaver:
ABAP Workbench
Reports
Dialogprogramme
Objekte und Klassen
Business Serverpages
NetWeaver Studio
Enterprise Java Beans
Applikationspakete
JavaEE Anwendungen
Java Serverpages
Web Dynpro
Transport- und Änderungswesen
Beispielanwendungen
NetWeaver Fallstudie:
Integrierte Nutzung von NetWeaverkomponenten für komplexe Businessprozesse
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/6912
Termine und Orte: 26 Mai 2018 – Nr.: 6912
Stuttgart
27 Jun - 29 Jun 2018
Düsseldorf
08 Okt - 10 Okt 2018 Garantietermin
IBM 0A057G - ADVANCED DATA PREPARATION USING IBM SPSS MODELER (V18)0A057G
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: This advanced course is intended for anyone whowishes to become familiar with the full range of techniquesavailable in IBM SPSS Modeler for data manipulation.
Voraussetzungen: - General computer literacy- Experience using IBM SPSS Modeler including familiarity with theModeler environment, creating streams, reading data files,exploring data, setting the unit of analysis, combining datasets,deriving and reclassifying fields, and basic knowledge of modeling.-Prior completion of Introduction to IBM SPSS Modeler and DataMining (v18) is recommended.
Nr.: 38441Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course covers advanced topics to aid in the preparation of data for a successful data mining project. You will learn how to usefunctions, deal with missing values, use advanced field operations, handle sequence data, apply advanced sampling methods, andimprove efficiency.
Programm
1: Using functions to cleanse and enrich data- Use date functions
- Use conversion functions
- Use string functions
- Use statistical functions
- Use missing value functions
2: Using additional field transformations
- Replace values with the Filler node
- Recode continuous fields with the Binning node
- Change a field’s distribution with the Transform node
3: Working with Sequence Data
- Use cross-record functions
- Count an event across records
- Expand a continuous field into a series of continuous fields with the Restructure node
- Use geospatial and time data with the Space-Time-Boxes node
4: Sampling, partitioning and balancing data
- Draw simple and complex samples with the Sample node
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38441
- Create a training set and testing set with the Partition node
- Reduce or boost the number of records with the Balance node
5: Improving Efficiency
- Use database scalability by SQL pushback
- Process outliers and missing values with the Data Audit node
- Use the Set Globals node
- Use parameters
- Use looping and conditional execution
Hinweis
Kurssprache ist Deutsch, Unterlagen sind Englisch.
IBM 0A0U8G - PREDICTIVE MODELING FOR CATEGORICAL TARGETS USING IBMSPSS MODELER (V18.1)
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Analytics business users who have completed theIntroduction to IBM SPSS Modeler and Data Mining course and whowant to become familiar with analytical models to predict acategorical field (yes/no churn, yes/no fraud, yes/no response to amailing, pass/fail exams, yes/no machine break-down, and soforth).
Voraussetzungen: Experience using IBM SPSS Modeler includingfamiliarity with the Modeler environment, creating streams,reading data files, exploring data, setting the unit of analysis,combining datasets, deriving and reclassifying fields, and a basicknowledge of modelingPrior completion of Introduction to IBM SPSS Modeler and DataScience (v18.1) is recommended
Nr.: 38454Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course focuses on using analytical models to predict a categorical field, such as churn, fraud, response to a mailing, pass/failexams, and machine break-down. Students are introduced to decision trees such as CHAID and C&R Tree, traditional statistical modelssuch as Logistic Regression, and machine learning models such as Neural Networks. Students will learn about important options indialog boxes, how to interpret the results, and explain the major differences between the models.
Programm
Key topics:
1: Introduction to predictive models for categorical Targets
Identify three modeling objectivesExplain the concept of field measurement level and its implications for selecting a modeling techniqueList three types of models to predict categorical targets
2: Building decision trees interactively with CHAID
Explain how CHAID grows decision treesBuild a customized model with CHAIDEvaluate a model by means of accuracy, risk, response and gainUse the model nugget to score records
3: Building decision trees interactively with C&R Tree and Quest
Explain how C&R Tree grows a treeExplain how Quest grows a tree
Build a customized model using C&R Tree and QuestList two differences between CHAID, C&R Tree, and Quest
4: Building decision trees directly
Customize two options in the CHAID nodeCustomize two options in the C&R Tree nodeCustomize two options in the Quest nodeCustomize two options in the C5.0 nodeUse the Analysis node and Evaluation node to evaluate and compare modelsList two differences between CHAID, C&R Tree, Quest, and C5.0
5: Using traditional statistical models
Explain key concepts for DiscriminantCustomize one option in the Discriminant nodeExplain key concepts for LogisticCustomize one option in the Logistic node
6: Using machine learning models
Explain key concepts for Neural NetCustomize one option in the Neural Net node
Objectives:
Please refer to course overview.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38454
Termine und Orte: 26 Mai 2018 – Nr.: 38454
Berlin
22 Okt - 22 Okt 2018
IBM 0A038G - ADVANCED PREDICTIVE MODELING USING IBM SPSS MODELER(V18.1.1)
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Business AnalystsData ScientistsUsers of IBM SPSS Modeler responsible for building predictivemodels
Voraussetzungen: Familiarity with the IBM SPSS Modelerenvironment (creating, editing, opening, and saving streams).Familiarity with basic modeling techniques, either throughcompletion of the courses Predictive Modeling for CategoricalTargets Using IBM SPSS Modeler and/or Predictive Modeling forContinuous Targets Using IBM SPSS Modeler, or by experience withpredictive models in IBM SPSS Modeler.
Nr.: 38459Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course presents advanced models to predict categorical and continuous targets. Before reviewing the models, data preparationissues are addressed such as partitioning, detecting anomalies, and balancing data. The participant is first introduced to a techniquenamed PCA/Factor, to reduce the number of fields to a number of core fields, referred to as components or factors. The next unitsfocus on supervised models, including Decision List, Support Vector Machines, Random Trees, and XGBoost. Methods are reviewed tocombine supervised models and execute them in a single run, both for categorical and continuous targets.
Programm
Key topics:
1. Preparing data for modelingAddress general data quality issuesHandle anomaliesSelect important predictorsPartition the data to better evaluate modelsBalance the data to build better models
2. Reducing data with PCA/FactorExplain the idea behind PCA/FactorDetermine the number of components/factorsExplain the principle of rotating a solution
3. Creating rulesets for flag targets with Decision ListExplain how Decision List builds a rulesetUse Decision List interactivelyCreate rulesets directly with Decision List
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38459
4. Exploring advanced supervised modelsExplain the principles of Support Vector Machine (SVM)Explain the principles of Random TreesExplain the principles of XGBoost
5. Combining modelsUse the Ensemble node to combine model predictions
Improve model performance by meta-level modeling
6. Finding the best supervised modelUse the Auto Classifier node to find the best model for categorical targets
Use the Auto Numeric node to find the best model for continuous targets
Objectives:
Please refer to course overview.
IBM 0A037G - ADVANCED PREDICTIVE MODELING USING IBM SPSS MODELER (V18)
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Users of IBM SPSS Modeler responsible for buildingpredictive models who want to leverage the full potential ofclassification models in IBM SPSS Modeler.
Voraussetzungen: - General computer literacy- Experience using IBM SPSS Modeler including familiarity with theModeler environment, creating streams, reading data files,exploring data, setting the unit of analysis, combining datasets,deriving and reclassifying fields, and basic knowledge of modeling.-Prior completion of Introduction to Predictive Models using IBMSPSS Modeler (v18) is recommended.- Familiarity with basicmodeling techniques, either through completion of the coursesPredictive Modeling for Categorical Targets Using IBM SPSSModeler and/or Predictive Modeling for Continuous Targets UsingIBM SPSS Modeler, or by experience with predictive models in IBMSPSS Modeler.
Nr.: 38439Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course builds on the courses Predictive Modeling for Categorical Targets Using IBM SPSS Modeler (v18) and Predictive Modeling forContinuous Targets Using IBM SPSS Modeler (v18). It presents advanced techniques to predict categorical and continuous targets.Before reviewing the modeling techniques, data preparation issues are addressed such as partitioning and detecting anomalies. Also, amethod to reduce the number of fields to a number of core fields, referred to as components or factors, is presented. Advancedclassification models, such as Decision List, Support Vector Machines and Bayes Net, are reviewed. Methods are presented to combineindividual models into a single model in order to improve predictive power, including running and evaluating many models in a singlerun, both for categorical and continuous targets.
Programm
1. Preparing Data for Modeling- Address general data quality issues
- Handle anomalies
- Select important predictors
- Partition the data to better evaluate models
- Balance the data to build better models
2. Reducing Data with PCA/Factor
- Explain the basic ideas behind PCA/Factor
- Customize two options in the PCA/Factor node
3. Using Decision List to Create Rulesets
- Explain how Decision List builds a ruleset
- Use Decision List interactively
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38439
- Create rulesets directly with Decision List
4. Exploring advanced predictive models
- Explain the basic ideas behind SVM
- Customize two options in the SVM node
- Explain the basic ideas behind Bayes Net
- Customize two options in the SVM node
5. Combining Models
- Use the Ensemble node to combine model predictions
- Improve the model performance by meta-level modeling
6. Finding the Best Predictive Model
- Find the best model for categorical targets with AutoClassifier
- Find the best model for continuous targets with AutoNumeric
Hinweis
Kurssprache ist Deutsch, Unterlagen sind Englisch.
IBM 0A047G - CLUSTERING AND ASSOCIATION MODELING USING IBM SPSSMODELER (V18)0A047G
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Modelers, Analysts.
Voraussetzungen: - Experience using IBM SPSS Modeler- A familiarity with the IBM SPSS Modeler environment: creatingmodels, creating streams, reading in data files, and assessing dataquality- A familiarity with handling missing data (including Typeand Data Audit nodes), and basic data manipulation (includingDerive and Select nodes)
Nr.: 38440Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
Clustering and Association Modeling Using IBM SPSS Modeler (v18) introduces modelers to two specific classes of modeling that areavailable in IBM SPSS Modeler: clustering and associations. Participants will explore various clustering techniques that are oftenemployed in market segmentation studies. Participants will also explore how to create association models to find rules describing therelationships among a set of items, and how to create sequence models to find rules describing the relationships over time among aset of items.
Programm
1: Introduction to clustering and association models- Identify the association and clustering modeling techniques available in IBM SPSS Modeler
- Explore the association and clustering modeling techniques available in IBM SPSS Modeler
- Discuss when to use a particular technique on what type of data
2: Clustering models and K-Means clustering
- Identify basic clustering models in IBM SPSS Modeler
- Identify the basic characteristics of cluster analysis
- Recognize cluster validation techniques
- Understand K-Means clustering principles
- Identify the configuration of the K-means node
3: Clustering using the Kohonen network
- Identify the basic characteristics of the Kohonen network
- Understand how to configure a Kohonen node
- Model a Kohonen network
4: Clustering using TwoStep clustering
- Identify the basic characteristics of TwoStep clustering
- Identify the basic characteristics of Two Step AS clustering
- Model and analyze a TwoStep clustering solution
5: Use Apriori to generate association rules
- Identify three methods of generating association rules
- Use the Apriori node to build a set of association rules
- Interpret association rules
6: Use advanced options in Apriori
- Identify association modeling terms and rules
- Identify evaluation measures used in association modeling
- Identify the capabilities of the Association Rules node
- Model associations and generate rules using Apriori
7: Sequence detection
- Explore sequence detection association models
- Identify sequence detection methods
- Examine the Sequence node
- Interpret the sequence rules and add sequence predictions to steams
8: Advanced Sequence detection
- Identify advanced sequence detection options used with the Sequence node
- Perform in-depth sequence analysis
- Identify the expert options in the Sequence node
- Search for sequences in Web log data
A: Examine learning rate in Kohonen networks (Optional)
- Understand how a Kohonen neural network learns
B: Association using the Carma model (Optional)
- Review association rules
- Identify the Carma model
- Identify the Carma node
- Model associations and generate rules using Carma
Hinweis
Kurssprache ist Deutsch, Unterlagen sind Englisch.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38440
Termine und Orte: 26 Mai 2018 – Nr.: 38440
Stuttgart
27 Jul - 27 Jul 2018
IBM 0A048G - CLUSTERING AND ASSOCIATION MODELING USING IBM SPSSMODELER (V18.1)
Dauer: 1 Tag
Durchführungsart: Präsenztraining
Zielgruppe: Modelers, Analysts.
Voraussetzungen: Experience using IBM SPSS ModelerA familiarity with the IBM SPSS Modeler environment: creatingmodels, creating streams, reading in data files, and assessing dataqualityA familiarity with handling missing data (including Type and DataAudit nodes), and basic data manipulation (including Derive andSelect nodes)
Nr.: 38453Preis: 790,00 € (netto) / 940,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
Clustering and Association Modeling Using IBM SPSS Modeler (v18.1) introduces modelers to two specific classes of modeling that areavailable in IBM SPSS Modeler: clustering and associations. Participants will explore various clustering techniques that are oftenemployed in market segmentation studies. Participants will also explore how to create association models to find rules describing therelationships among a set of items, and how to create sequence models to find rules describing the relationships over time among aset of items.
Programm
Key topics:
1: Introduction to clustering and association modeling
Identify the association and clustering modeling techniques available in IBM SPSS ModelerExplore the association and clustering modeling techniques available in IBM SPSS ModelerDiscuss when to use a particular technique on what type of data
2: Clustering models and K-Means clustering
Identify basic clustering models in IBM SPSS ModelerIdentify the basic characteristics of cluster analysisRecognize cluster validation techniquesUnderstand K-Means clustering principlesIdentify the configuration of the K-means node
3: Clustering using the Kohonen network
Identify the basic characteristics of the Kohonen networkUnderstand how to configure a Kohonen nodeModel a Kohonen network
4: Clustering using TwoStep clustering
Identify the basic characteristics of TwoStep clustering
Identify the basic characteristics of Two Step AS clusteringModel and analyze a TwoStep clustering solution
5: Use Apriori to generate association rules
Identify three methods of generating association rulesUse the Apriori node to build a set of association rulesInterpret association rules
6: Use advanced options in Apriori
Identify association modeling terms and rulesIdentify evaluation measures used in association modeling
Identify the capabilities of the Association Rules nodeModel associations and generate rules using Apriori
7: Sequence detection
Explore sequence detection association modelsIdentify sequence detection methodsExamine the Sequence nodeInterpret the sequence rules and add sequence predictions to steams
8: Advanced Sequence detection
Identify advanced sequence detection options used with the Sequence nodePerform in-depth sequence analysisIdentify the expert options in the Sequence nodeSearch for sequences in Web log data
A: Examine learning rate in Kohonen networks (Optional)
Understand how a Kohonen neural network learns
B: Association using the Carma model (Optional)
Review association rulesIdentify the Carma modelIdentify the Carma nodeModel associations and generate rules using Carma
Objectives:
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/38453
Termine und Orte: 27 Mai 2018 – Nr.: 38453
Düsseldorf
29 Okt - 29 Okt 2018
IBM 0A007G - INTRODUCTION TO IBM SPSS MODELER AND DATA MINING (V18)
Dauer: 2 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Anyone who wants to become familiar with IBM SPSSModeler.
Voraussetzungen: General computer literacy.
Nr.: 37462Preis: 1.390,00 € (netto) / 1.654,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course provides an overview of data mining and the fundamentals of using IBM SPSS Modeler. The principles and practice of datamining are illustrated using the CRISP-DM methodology. The course structure follows the stages of a typical data mining project, fromcollecting data, to data exploration, data transformation, and modeling to effective interpretation of the results. The course providestraining in the basics of how to read, prepare, and explore data with IBM SPSS Modeler, and introduces the student to modeling.
Programm
Key topics:1: Introduction to data mining
• List two applications of data mining
• Explain the stages of the CRISP-DM process model
• Describe successful data-mining projects and the reasons why projects fail
• Describe the skills needed for data mining
2: Working with IBM SPSS Modeler
• Describe the MODELER user-interface
• Work with nodes
• Run a stream or a part of a stream
• Open and save a stream
• Use the online Help
3: Creating a data-mining project
• Explain the basic framework of a data-mining project
• Build a model
• Deploy a model
4: Collecting initial data
• Explain the concepts "data structure", "unit of Analysis", "field storage" and "field measurement Level"
• Import Microsoft Excel files
• Import IBM SPSS Statistics files
• Import text files
• Import from databases
• Export data to various formats
5: Understanding the data
• Audit the data
• Explain how to check for invalid values
• Take action for invalid values
• Explain how to define blanks
6: Setting the unit of analysis
• Set the unit of analysis by removing duplicate records
• Set the unit of analysis by aggregating records
• Set the unit of analysis by expanding a categorical field into a series of flag fields
7: Integrating data
• Integrate data by appending records from multiple datasets
• Integrate data by merging fields from multiple datasets
• Sample records
8: Deriving and reclassifying fields
• Use the Control Language for Expression Manipulation (CLEM)
• Derive new fields
• Reclassify field values
9: Identifying relationships
• Examine the relationship between two categorical fields
• Examine the relationship between a categorical field and a continuous field
• Examine the relationship between two continuous fields
10: Introduction to modeling
• List three modeling objectives
• Use a classification model
• Use a segmentation model
Objectives:
Please refer to course overview.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37462
Termine und Orte: 26 Mai 2018 – Nr.: 37462
Köln
26 Jul - 27 Jul 2018
IBM B6061G - IBM COGNOS ANALYTICS - AUTHOR REPORTS WITHMULTIDIMENSIONAL DATA (V11.0)
Dauer: 2 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Report authors working with dimensional data sources.
Voraussetzungen: - IBM Cognos Analytics: Author ReportsFundamentals (v11.0)- Knowledge of your business requirements- Knowledge ofdimensional data
Nr.: 37467Preis: 1.390,00 € (netto) / 1.654,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This course is designed to guide report authors in building on their expertise with IBM Cognos Analytics by applying dimensionaltechniques to reports. Through interactive demonstrations and exercises, participants will learn how to author reports that navigateand manipulate dimensional data structures using the specific dimensional functions and features available in IBM Cognos Analytics.
Learning Journeys or Training Paths that reference this course:
- Analytics Business Intelligence
- IBM Cognos Analytics 11.0 - Author Role
- IBM Cognos Analytics 11.0 - Author Role
Programm
Key topics:1. Introduction to Dimensional Concepts
• Identify different data sources and models
• Investigate the OLAP dimensional structure
• Identify dimensional data items and expressions
• Differentiate the IBM Cognos Analytics query language from SQL and MDX
• Differentiate relational and dimensional report authoring styles
2. Introduction to Dimensional Data in Reports
• Work with members
• Identify sets and tuples in IBM Cognos Analytics
3. Dimensional Report Context
• Understand the purpose of report context
• Understand how data is affected by default and root members
4. Focus Your Dimensional Data
• Compare dimensional queries to relational queries
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37467
• Explain the importance of filtering dimensional queries
• Evaluate different filtering techniques
• Filter based on dimensions and members
• Filter based on measure values
• Filter using a slicer
5. Calculations and Dimensional Functions
• Use IBM Cognos Analytics dimensional functions to create sets and tuples
• Perform arithmetic operations in OLAP queries
• Identify coercion errors and rules
6. Functions for Navigating Dimensional Hierarchies
• Navigate dimensional data using family functions
7. Relative Functions
• Navigate dimensional data using relative functions
• Navigate dimensional data using relative time functions
8. Advanced Drilling Techniques and Member Sets
• Understand default drill-up and drill-down functionality
• Identify cases when you need to override default drilling behavior
• Configure advanced drilling behavior to support sophisticated use cases
• Define member sets to support advanced drilling
• Define member sets to support functions
9. Set Up Drill-Through Reports
• Navigate from a specific report to a target report
• Drill down to greater detail and then navigate to target report
• Navigate between reports created using different data sources
10. End-to-End Workshop
• Review concepts covered throughout the course
Objectives:
Please refer to course overview
IBM B6070G - ESSENTIALS FOR IBM COGNOS ANALYTICS (V11.0)
Dauer: 5 Tage
Durchführungsart: Präsenztraining
Zielgruppe: Core Project Team members:- Project Managers- Technical Analysts- Developers
Voraussetzungen: - Knowledge of common industry-standard datastructures and design.- Experience with SQL- Experience gathering requirements andanalyzing data.- Knowledge of Web application serverarchitectures- Security systems administration- Knowledge of yourbusiness requirements- Experience using the Windows operatingsystem- Experience using a web browser
Nr.: 37468Preis: 3.590,00 € (netto) / 4.272,10 € inkl. 19% MwSt.
Schulungsmethode: presentation, discussion, hands-on exercises,demonstrations on the system.
This accelerated offering is intended for core project team members wanting to acquire a broad understanding of IBM Cognos Analyticplatform implementation. During the ILT segments, participants will perform hands-on demonstrations and exercises that cover threeessential topic areas: modeling, report authoring, and administration of IBM Cognos Analytics. During the WBT portion of the course,students will be required to complete 16.5 hours of eLearning (6 WBTs and 1 recording).
eLearning:
- B5130G - IBM Cognos for Microsoft Office: Integrate with Microsoft Office (v10.1/10.2)
- B5231G - IBM Cognos BI Event Studio: Create and Manage Agents (v8.4/10.1)
- B5169G - IBM Cognos Transformer: Create PowerCubes (v10.1)
- B6088G - IBM Cognos Analytics for Consumers (v11.0)
- B6089G - IBM Cognos Analytics: Create Dashboards (v11.0)
- B6090G - IBM Cognos Analytics: Create Data Modules (v11.0)
- B6091G - IBM Cognos Analytics: Departmental Administration (v11.0)
Learning Journeys or Training Paths that reference this course:
- Analytics Business Intelligence
- IBM Cognos Analytics 11.0 - Project Manager Role
- IBM Cognos Analytics 11.0 - Developer Role
Programm
Key topics:1: Introduction to IBM Cognos Analytics
• Describe IBM Cognos Analytics and its position within an analytics solution
• Describe IBM Cognos Analytics components
• Describe IBM Cognos Analytics at a high level
• Explain how to extend IBM Cognos Analytics
2: Identifying common data structures
• Define the role of a metadata model in Cognos Analytics
• Distinguish the characteristics of common data structures
• Understand the relative merits of each model type
• Examine relationships and cardinality
• Identify different data traps
• Identify data access strategies
3: Defining requirements
• Examine key modeling recommendations
• Define reporting requirements
• Explore data sources to identify data access strategies
• Identify the advantages of modeling metadata as a star schema
• Model in layers
4: Creating a baseline project
• Follow the IBM Cognos and Framework Manager workflow processes
• Define a project and its structure
• Describe the Framework Manager environment
• Create a baseline project
• Enhance the model with additional metadata
5: Preparing reusable metadata
• Verify relationships and query item properties
• Create efficient filters by configuring prompt properties
6: Modeling for predictable results: Identifying reporting Issues
• Describe multi-fact queries and when full outer joins are appropriate
• Describe how IBM Cognos uses cardinality
• Identify reporting traps
• Use tools to analyze the model
7: Modeling for predictable results: Virtual star schemas
• Understand the benefits of using model query subjects
• Use aliases to avoid ambiguous joins
• Merge query subjects to create as view behavior
• Resolve a recursive relationship
• Create a complex relationship expression
8: Modeling for predictable results: consolidate metadata
• Create virtual dimensions to resolve fact-to-fact joins
• Create a consolidated modeling layer for presentation purposes
• Consolidate snowflake dimensions with model query subjects
• Simplify facts by hiding unnecessary codes
9: Creating calculations and filters
• Use calculations to create commonly-needed query items for authors
• Use static filters to reduce the data returned
• Use macros and parameters in calculations and filters to dynamically control the data returned
10: Implementing a time dimension
• Make time-based queries simple to author by implementing a time dimension
• Resolve confusion caused by multiple relationships between a time dimension and another table
11: Specifying determinants
• Use determinants to specify multiple levels of granularity and prevent double-counting
12: Creating the presentation view
• Identify the dimensions associated with a fact table
• Identify conformed vs. non-conformed dimensions
• Create star schema groupings to provide authors with logical groupings of query subjects
13: Creating Analysis objects
• Apply dimensional information to relational metadata to enable OLAP-style queries
• Sort members for presentation and predictability
• Define members and member unique names
• Identify changes that impact a MUN
14: Introduction to IBM Cognos Analytics - Reporting
• Examine IBM Cognos Analytics - Reporting and its interface
• Explore different report types
• Create reports in preview or design mode
• Create a simple, sorted, and formatted report
• Examine dimensionally modelled and dimensional data sources
• Explore how data items are added queries
• Examine personal data sources and data modules
15: Creating list reports
• Group, format, and sort list reports
• Describe options for aggregating data
• Create a multi-fact query
• Create a report with repeated data
16: Focusing reports using filters
• Create filters to narrow the focus of reports
• Examine detail filters and summary filters
• Determine when to apply filters on aggregate data
17: Creating crosstab reports
• Format and sort crosstab reports
• Create complex crosstabs using drag and drop functionality
• Create crosstabs using unrelated data items
18: Present data graphically
• Create charts containing peer and nested columns
• Present data using different chart type options
• Add context to charts
• Create and reuse custom chart palettes
• Introduce visualization
• Present key data in a single dashboard report
19: Focusing Reports Using Prompts
• Identify various prompt types
• Use parameters and prompts to focus data
• Search for prompt types
• Navigate between pages
20: Extend reports using calculations
• Create calculations based on data in the data source
• Add run-time information to the reports
• Create expressions using functions
21: Customizing reports with conditional formatting
• Create multi-lingual reports
• Highlight exceptional data
• Show and hide data
• Conditionally render objects in reports
• Conditionally format one crosstab measure based on another
22 Drill-through definitions
• Discuss parameter-driven drill through
• Discuss dynamic drill through
• Set up package-based drill-through definitions
• Set scope
• Use the Drill Through Assistant
23 Introduction to IBM Cognos BI Administration
• IBM Cognos Analytics enterprise components
• Role of the Administrator in relation to the IBM Cognos Analytics administration workflow process
• Role of IBM Cognos Administration and IBM Cognos Configuration
24 Identifying IBM Cognos architecture
• The features of the IBM Cognos Analytics architecture
• The three architectural tiers
• IBM Cognos Analytics servlets and services
• The default servlet container and alternatives to its use
• An example of IBM Cognos Analytics request processing
• Installation options
• Load balancing mechanisms
• Configuration options
• The IBM Cognos Application Firewall
25: Securing the IBM Cognos Analytics environment
• Identify the IBM Cognos Analytics security model
• Define authentication in IBM Cognos Analytics
• Define authorization in IBM Cognos Analytics
• Identify security policies
• Secure the IBM Cognos Analytics environment
26: Managing run activities
• Manage current, upcoming and past activities
• Manage schedules
• Enable and disable schedules
• Set queue priority for schedules
• Suspend a schedule until a later time
27: Managing content in IBM Cognos Administration
• Add a data source
• Distribute data and create a distribution list
• Add visualizations to the Library
• Plan and perform a deployment
• Identify how to maintain the IBM Cognos Analytics content store
• Configure saving content outside of the content store
• Customize the appearance of IBM Cognos Analytics using styles
• Use portlets to display custom Web content
Objectives:
Please refer to course overview.
Online Anmeldung:Kundenservice | Tel. 0711 62010 100 | Fax: 0711 62010 267 | [email protected]: https://www.integrata.de/37468
Termine und Orte: 26 Mai 2018 – Nr.: 37468
Berlin
30 Jul - 03 Aug 2018