schema conversion tool de aws · amazon aurora, una instancia de base de datos postgresql de amazon...

261
Schema Conversion Tool de AWS Guía del usuario Version 1.0

Upload: others

Post on 25-Apr-2020

11 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWSGuía del usuario

Version 1.0

Page 2: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Schema Conversion Tool de AWS: Guía del usuarioCopyright © 2020 Amazon Web Services, Inc. and/or its affiliates. All rights reserved.

Amazon's trademarks and trade dress may not be used in connection with any product or service that is not Amazon's,in any manner that is likely to cause confusion among customers, or in any manner that disparages or discreditsAmazon. All other trademarks not owned by Amazon are the property of their respective owners, who may or may notbe affiliated with, connected to, or sponsored by Amazon.

Page 3: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Table of Contents¿Qué es la Herramienta de conversión de esquemas de AWS? ................................................................ 1

Introducción a la conversión de esquemas ..................................................................................... 2Comentarios .............................................................................................................................. 3

Instalación, verificación y actualización ................................................................................................. 4Instalación de la AWS SCT ........................................................................................................ 4

Instalación de versiones anteriores ...................................................................................... 5Verificación de la descarga del archivo de AWS SCT ...................................................................... 6

Verificación de la suma de comprobación del archivo de la AWS SCT ....................................... 6Verificación de los archivos RPM de AWS SCT en Fedora ....................................................... 7Verificación de los archivos DEB de AWS SCT en Ubuntu ....................................................... 7Verificación del archivo MSI de AWS SCT en Microsoft Windows .............................................. 8Verificación de la aplicación AWS SCT en Mac OS ................................................................ 8

Instalación de los controladores de bases de datos necesarios ......................................................... 8Instalación de controladores de JDBC en Linux .................................................................... 10Almacenamiento de rutas a los controladores en la configuración global ................................... 10

Actualización del AWS SCT ...................................................................................................... 11Uso de la interfaz de usuario de la AWS SCT ....................................................................................... 12

La ventana de proyecto de AWS SCT ........................................................................................ 12Almacenamiento de perfiles de AWS ........................................................................................... 13

Almacenamiento de las credenciales de AWS ....................................................................... 14Configuración del perfil predeterminado para un proyecto ....................................................... 16

Almacenamiento de la contraseña de la base de datos ................................................................... 16Uso de la vista UNION ALL en proyectos con tablas con particiones ................................................ 16Filtros de árbol de AWS SCT ..................................................................................................... 17

...................................................................................................................................... 17Importación de una lista de archivos para el filtro de árbol ...................................................... 19

Ocultar esquemas .................................................................................................................... 19Métodos abreviados de teclado ................................................................................................. 20El informe de evaluación de la migración de la base de datos ........................................................ 21Iniciar la SCT .......................................................................................................................... 24Creación de un proyecto ........................................................................................................... 25Conversión de su esquema ....................................................................................................... 26Aplicación del esquema convertido a su instancia de base de datos de destino .................................. 28

Introducción ..................................................................................................................................... 30Bases de datos de origen para AWS SCT ........................................................................................... 31

Uso de Oracle como origen para Herramienta de conversión de esquemas de AWS ........................... 31Permisos necesarios para Oracle como origen ..................................................................... 32Conexión a Oracle como origen ......................................................................................... 32Oracle a PostgreSQL ....................................................................................................... 35De Oracle a MySQL ........................................................................................................ 38De Oracle a Amazon RDS Oracle ...................................................................................... 42

Uso de Microsoft SQL Server como origen para Herramienta de conversión de esquemas de AWS ....... 45Fuente: Microsoft SQL Server ............................................................................................. 45Origen: autenticación de Windows con Microsoft SQL Server ................................................... 46Conexión a SQL Server como origen .................................................................................. 47De SQL Server a MySQL ................................................................................................. 49De SQL Server a PostgreSQL ........................................................................................... 50De SQL Server a Amazon RDS for SQL Server ................................................................... 54

Utilizar MySQL como origen para Herramienta de conversión de esquemas de AWS .......................... 55Fuente: MySQL ............................................................................................................... 55Conexión a MySQL como origen ........................................................................................ 55

Utilizar PostgreSQL como origen para Herramienta de conversión de esquemas de AWS .................... 57Fuente: PostgreSQL ......................................................................................................... 58Conexión a PostgreSQL como origen ................................................................................. 58

Version 1.0iii

Page 4: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Uso de Db2 LUW como origen para Herramienta de conversión de esquemas de AWS ....................... 60Origen: Db2 LUW ............................................................................................................ 60Conexión a Db2 LUW como origen .................................................................................... 62De DB2LUW a PostgreSQL .............................................................................................. 64

Uso de Amazon Redshift como origen de Herramienta de conversión de esquemas de AWS ................ 65Origen: Amazon Redshift .................................................................................................. 65Conexión a Redshift como origen ....................................................................................... 65

Utilizar Oracle DW como origen para Herramienta de conversión de esquemas de AWS ...................... 67Fuente: Oracle Data Warehouse ........................................................................................ 67Conexión a OracleDW como origen .................................................................................... 67

Utilizar Teradata como origen para Herramienta de conversión de esquemas de AWS ........................ 70Fuente: Teradata ............................................................................................................. 70Conexión a Teradata como origen ...................................................................................... 70

Utilizar Netezza como origen para Herramienta de conversión de esquemas de AWS ......................... 73Fuente: Netezza .............................................................................................................. 73Conexión a Netezza como origen ....................................................................................... 74

Utilizar Greenplum como origen para Herramienta de conversión de esquemas de AWS ..................... 75Fuente: Greenplum .......................................................................................................... 75Conexión a Greenplum como origen ................................................................................... 75

Utilizar Vertica como origen para Herramienta de conversión de esquemas de AWS ........................... 77Fuente: Vertica ................................................................................................................ 77Conexión a Vertica como origen ........................................................................................ 78

Uso de Microsoft SQL Server DW como origen para Herramienta de conversión de esquemas deAWS ....................................................................................................................................... 79

Fuente: Microsoft SQL Server Data Warehouse ..................................................................... 80Conexión a SQLServerDW como origen .............................................................................. 80

Creación de informes de conversión .................................................................................................... 83Informes de evaluación de migración ........................................................................................... 83

Creación de un informe de evaluación de la migración de la base de datos ............................... 84Visualización del informe de evaluación .............................................................................. 85Guardar el informe de evaluación ....................................................................................... 87

Informes de migración de WQF .................................................................................................. 88Configuración del WQF de AWS ......................................................................................... 89Preparación para importaciones de lotes .............................................................................. 90Creación de informes ........................................................................................................ 93Descripción de las categorías de la carga de trabajo .............................................................. 96

Conversión de esquemas de bases de datos ....................................................................................... 99Creación de reglas de mapeo .................................................................................................. 101

Creación de reglas de mapeo .......................................................................................... 101Creación de reglas de mapeo para objetos ........................................................................ 102Exportación de reglas de mapeo ....................................................................................... 103

Conversión de su esquema ..................................................................................................... 103Conversión del esquema ................................................................................................. 103Edición del esquema convertido ....................................................................................... 105Eliminación de un esquema convertido .............................................................................. 106

Administración de conversiones manuales ................................................................................. 107Modificar su esquema de origen ....................................................................................... 107Modificar su esquema de destino ..................................................................................... 108

Actualización de un esquema convertido ................................................................................... 108Guardado y aplicación de un esquema ..................................................................................... 109

Guardar el esquema convertido en un archivo ..................................................................... 109Aplicación del esquema convertido ................................................................................... 110Esquema del paquete de extensión .................................................................................. 111

Comparación de esquemas ..................................................................................................... 112Objetos transformados relacionados ......................................................................................... 113

Conversión de esquemas de almacén de datos a Amazon Redshift ....................................................... 114Selección de estrategias y reglas de optimización ....................................................................... 115

Version 1.0iv

Page 5: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Recopilación o carga de estadísticas ........................................................................................ 116Creación de reglas de mapeo .................................................................................................. 117

Creación de reglas de mapeo .......................................................................................... 118Visualización de reglas de mapeo para objetos .................................................................. 119Exportación de reglas de mapeo ...................................................................................... 119

Conversión de su esquema ...................................................................................................... 119Conversión del esquema .................................................................................................. 120Edición del esquema convertido ........................................................................................ 121Eliminación de un esquema convertido ............................................................................... 122

Administración y personalización de claves ................................................................................ 123Administración de conversiones manuales ................................................................................. 124

Modificar su esquema de origen ....................................................................................... 124Modificar su esquema de destino ..................................................................................... 125

Actualización de un esquema convertido ................................................................................... 125Guardado y aplicación de un esquema ..................................................................................... 126

Guardar el esquema convertido en un archivo .................................................................... 126Aplicación del esquema convertido ................................................................................... 127Esquema del paquete de extensión .................................................................................. 128Bibliotecas Python .......................................................................................................... 129

Optimización de Amazon Redshift ............................................................................................ 129Optimización de su base de datos de Amazon Redshift ....................................................... 129

Conversión de procesos ETL a AWS Glue .......................................................................................... 131Requisitos previos ................................................................................................................... 133AWS Glue Data Catalog .......................................................................................................... 133Limitaciones ........................................................................................................................... 133Conversión con AWS Glue en la interfaz de usuario de AWS SCT .................................................. 134

Paso 1: Crear un proyecto nuevo ...................................................................................... 135Paso 2: Crear un trabajo de AWS Glue .............................................................................. 138

Conversión con la API de Python para AWS Glue ........................................................................ 139Paso 1: Crear una base de datos ...................................................................................... 139Paso 2: Crear una conexión ............................................................................................. 139Paso 3: Crear un rastreador de AWS Glue ......................................................................... 140

Uso de la Herramienta de conversión de esquemas de AWS con el AWS Database Migration Service .......... 143Uso de un agente de replicación de AWS SCT con AWS DMS ..................................................... 143Uso de un agente de extracción de datos de AWS SCT con AWS DMS .......................................... 143

Uso de agentes de extracción de datos .............................................................................................. 144Migración de datos desde un almacén de datos local a Amazon Redshift ......................................... 144

Configuración de requisitos previos .................................................................................... 146Instalación de agentes ..................................................................................................... 147Registro de agentes ........................................................................................................ 150Ocultar y recuperar información de un agente de AWS SCT .................................................. 151Creación de filtros de extracción de datos ........................................................................... 153Ordenación de datos ....................................................................................................... 153Creación, ejecución y monitorización de una tarea de AWS SCT ............................................ 154Extracción de datos con un dispositivo AWS Snowball .......................................................... 156Resultado de la tarea de extracción de datos ...................................................................... 162Uso de particiones virtuales .............................................................................................. 164Trabajo con LOB ............................................................................................................. 166Prácticas recomendadas y solución de problemas ................................................................ 167

Migración de datos desde Apache Cassandra a Amazon DynamoDB .............................................. 168Requisitos previos para migración desde Cassandra a DynamoDB ......................................... 170Crear un nuevo proyecto de AWS SCT .............................................................................. 172Crear un centro de datos clon ........................................................................................... 175Instalar, configurar y ejecutar el agente de extracción de datos .............................................. 181Migrar datos desde el centro de datos clon a Amazon DynamoDB .......................................... 185Actividades posteriores a la migración ................................................................................ 189

Conversión de SQL de aplicación ...................................................................................................... 190

Version 1.0v

Page 6: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Información general de la conversión de SQL de aplicación .......................................................... 190Creación de proyectos de conversión de aplicaciones .................................................................. 190Análisis y conversión de su código SQL ..................................................................................... 193Creación y uso del informe de evaluación ................................................................................... 194

Creación de un informe de evaluación de la aplicación ........................................................ 194Edición y guardado de su código SQL convertido ....................................................................... 195

Uso del paquete de extensión ......................................................................................................... 196Uso del esquema de base de datos del paquete de extensión ...................................................... 197La biblioteca de Python personalizada para el paquete de extensión .............................................. 197

Uso de AWS Services para cargar bibliotecas de Python personalizadas ................................ 197Aplicación del paquete de extensión ................................................................................. 198

Las funciones de Lambda del paquete de extensión ..................................................................... 199Uso de AWS Services para simular la funcionalidad de una base de datos .............................. 199Aplicación del paquete de extensión ................................................................................. 199

Prácticas recomendadas ................................................................................................................. 201Administración general de la memoria y opciones de desempeño .................................................. 201Configuración de memoria adicional .......................................................................................... 201

Solución de problemas ................................................................................................................... 202No se puede cargar objetos de una base de datos de origen de Oracle .......................................... 202

Notas de la versión ......................................................................................................................... 203Notas de la versión: 635 .......................................................................................................... 203Notas de la versión: 632 .......................................................................................................... 205Notas de la versión: 631 .......................................................................................................... 207Notas de la versión: 630 .......................................................................................................... 211Notas de la versión: 629 .......................................................................................................... 211Notas de la versión– ................................................................................................................ 213Notas de la versión: 627 – ....................................................................................................... 217Notas de la versión:– 626 ......................................................................................................... 224Notas de la versión:– 625 ......................................................................................................... 226Notas de la versión:– 624 ......................................................................................................... 227Notas de la versión:– 623 ......................................................................................................... 228Notas de la versión:– 622 ......................................................................................................... 230Notas de la versión:– 621 ......................................................................................................... 231Notas de la versión:– 620 ......................................................................................................... 233Notas de la versión:– 619 ......................................................................................................... 234Notas de la versión:– 618 ......................................................................................................... 235Notas de la versión:– 617 ......................................................................................................... 236Notas de la versión:– 616 ......................................................................................................... 237Notas de la versión:– 615 ......................................................................................................... 239Notas de la versión:– 614 ......................................................................................................... 240Notas de la versión:– 613 ......................................................................................................... 242Notas de la versión:– 612 ......................................................................................................... 243Notas de la versión:– 611 ......................................................................................................... 245

Historial de revisión ......................................................................................................................... 247Actualizaciones anteriores ........................................................................................................ 250

Version 1.0vi

Page 7: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

¿Qué es la Herramienta deconversión de esquemas de AWS?

Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir su esquemade base de datos existente de un motor de base de datos a otro. Puede convertir esquemas relacionalesOLTP o esquemas de data warehouse. Su esquema convertido será apto para una instancia de base dedatos MySQL de Amazon Relational Database Service (Amazon RDS), un clúster de base de datos deAmazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de AmazonRedshift. El esquema convertido también puede utilizarse con una base de datos en una instancia AmazonEC2 o almacenarse como datos en un bucket de Amazon S3.

AWS SCT admite varios estándares del sector, incluido el Estándar federal de procesamiento de lainformación (FIPS, Federal Information Processing Standards) para conexiones a un bucket de Amazon S3o cualquier otro recurso de AWS. AWS SCT también cumple con el Programa federal de administración deriesgos y autorizaciones (FedRAMP, Federal Risk and Authorization Management Program). Para obtenermás detalles sobre AWS y los esfuerzos de conformidad, consulte Servicios de AWS en el ámbito delprograma de conformidad.

AWS SCT es compatible con las siguientes conversiones de OLTP.

Base de datos de origen Base de datos de destino en Amazon RDS

Microsoft SQL Server (versión 2008 y posteriores) Compatibilidad de Amazon Aurora conMySQL, Compatibilidad de Amazon Aurora conPostgreSQL, MariaDB 10.2 y 10.3, Microsoft SQLServer, MySQL, PostgreSQL

MySQL (versión 5.5 o posteriores) Aurora PostgreSQL, MySQL, PostgreSQL

Puede migrar esquemas y datos de MySQL a unclúster de base de datos de Aurora MySQL sinutilizar AWS SCT. Para obtener más información,consulte Migración de datos a un clúster de basede datos de Amazon Aurora.

Oracle (versión 10.2 y posteriores) Aurora MySQL, Aurora PostgreSQL, MariaDB 10.2y 10.3, MySQL, Oracle, PostgreSQL

PostgreSQL (versión 9.1 y posteriores) Aurora MySQL, MySQL, PostgreSQL

IBM Db2 LUW (versiones 9.1, 9.5, 9.7, 10.5 y 11.1) Aurora MySQL, MariaDB 10.2 y 10.3, MySQL,PostgreSQL, Aurora PostgreSQL

Apache Cassandra (versiones 2.0, 3.0, 3.1.1 y3.11.2)

Amazon DynamoDB

Sybase (16.0 y 15.7) Aurora MySQL, Aurora PostgreSQL, MySQL,PostgreSQL

AWS SCT es compatible con las siguientes conversiones de data warehouse.

Version 1.01

Page 8: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioIntroducción a la conversión de esquemas

Base de datos de origen Base de datos de destino en Amazon Redshift

Greenplum Database (versión 4.3 y posteriores) Amazon Redshift

Microsoft SQL Server (versión 2008 y posteriores) Amazon Redshift

Netezza (versión 7.0.3 y posteriores) Amazon Redshift

Oracle (versión 10 y posteriores) Amazon Redshift

Teradata (versión 13 y posteriores) Amazon Redshift

Vertica (versión 7.2.2 y posteriores) Amazon Redshift

Introducción a la conversión de esquemasLa AWS SCT proporciona una interfaz de usuario basada en el proyecto para convertir automáticamenteel esquema de la base de datos de origen en un formato compatible con su instancia de Amazon RDS dedestino. Si el esquema de la base de datos de origen no se puede convertir automáticamente, la AWS SCTfacilita orientación sobre cómo puede crear un esquema equivalente en su base de datos de Amazon RDSde destino.

Para obtener información acerca de cómo instalar AWS SCT, consulte Instalación, verificación yactualización de Herramienta de conversión de esquemas de AWS (p. 4).

Para obtener una introducción a la interfaz de usuario de AWS SCT, consulte Uso de la interfaz de usuariode la Herramienta de conversión de esquemas de AWS (p. 12).

Para obtener información acerca del proceso de conversión, consulte Convertir los esquemas de base dedatos utilizando el Herramienta de conversión de esquemas de AWS (p. 99).

Además de convertir su esquema de base de datos existente de un motor de base de datos a otro, AWSSCT tiene algunas características adicionales que le ayudarán a trasladar sus datos y aplicaciones a lanube de AWS:

• Puede utilizar agentes de extracción de datos para extraer datos de su almacén de datos paraprepararlos y migrarlos a Amazon Redshift. Para administrar los agentes de extracción de datos,puede utilizar la AWS SCT. Para obtener más información, consulte Uso de agentes de extracción dedatos (p. 144).

• Puede utilizar la AWS SCT para crear puntos de conexión y tareas de AWS DMS. Puede ejecutary monitorizar estas tareas desde la AWS SCT. Para obtener más información, consulte Uso de laHerramienta de conversión de esquemas de AWS con el AWS Database Migration Service (p. 143).

• En algunos casos, las características de la base de datos de origen no se pueden convertir acaracterísticas de Amazon RDS o Amazon Redshift equivalentes. El asistente de paquete de extensiónde la AWS SCT puede ayudarle a instalar funciones de AWS Lambda y bibliotecas Python para emularlas características que no se puede convertir. Para obtener más información, consulte Uso del paquetede extensión de la Herramienta de conversión de esquemas de AWS (p. 196).

• Puede utilizar AWS SCT para optimizar su base de datos de Amazon Redshift existente. AWS SCTrecomienda claves de ordenación y distribución para optimizar su base de datos. Para obtener másinformación, consulte Optimización de Amazon Redshift mediante la Herramienta de conversión deesquemas de AWS (p. 129).

Version 1.02

Page 9: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioComentarios

• Puede utilizar la AWS SCT para copiar su esquema de base de datos local existente a una instanciade base de datos de Amazon RDS que ejecute el mismo motor. Puede utilizar esta característica paraanalizar posibles ahorros de costos en la migración a la nube y en el cambio del tipo de licencia.

• Puede utilizar la AWS SCT para convertir SQL en su código C++, C #, Java u otro tipo de códigode aplicación. Puede ver, analizar, editar y guardar el código SQL convertido. Para obtener másinformación, consulte Conversión de SQL de aplicación con la Herramienta de conversión de esquemasde AWS (p. 190).

Proporcionar opiniones del clientePuede expresar sus comentarios sobre la Herramienta de conversión de esquemas de AWS. Puedearchivar un informe de errores, enviar una solicitud de función o proporcionar información general.

Para hacer llegar sus comentarios sobre la AWS SCT.

1. Inicie Herramienta de conversión de esquemas de AWS.2. Abra el menú Help y seleccione Leave Feedback. Aparecerá el cuadro de diálogo Leave Feedback.3. En Area, seleccione Information, Bug report o Feature request.4. En Source database, seleccione su base de datos de origen. Seleccione Any si sus comentarios no se

refieren a una base de datos en particular.5. En Target database, seleccione su base de datos de destino. Seleccione Any si sus comentarios no se

refieren a una base de datos en particular.6. En Title, escriba un título para sus comentarios.7. En Message, escriba sus comentarios.8. Seleccione Send para enviar sus comentarios.

Version 1.03

Page 10: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de la AWS SCT

Instalación, verificación yactualización de Herramienta deconversión de esquemas de AWS

La Herramienta de conversión de esquemas de AWS (AWS SCT) es una aplicación autónoma queproporciona una interfaz de usuario basada en proyectos. La AWS SCT está disponible para Fedora Linux,macOS, Microsoft Windows y Ubuntu Linux versión 15.04. AWS SCT solo es compatible con sistemasoperativos de 64 bits. La AWS SCT instala también Java Runtime Environment (JRE) versión 8u45.

Para asegurar que obtenga la versión correcta del archivo de distribución de la AWS SCT, proporcionamoslos pasos de verificación después de descargar el archivo comprimido. Puede verificar el archivo por mediode los pasos proporcionados.

Temas• Instalación de la AWS SCT (p. 4)• Verificación de la descarga del archivo de AWS SCT (p. 6)• Instalación de los controladores de bases de datos necesarios (p. 8)• Actualización del AWS SCT (p. 11)

Instalación de la AWS SCTPara instalar la AWS SCT

1. Utilice el enlace correspondiente a su sistema operativo para descargar el archivo comprimido quecontiene el instalador de la AWS SCT. Todos los archivos comprimidos tienen la extensión .zip.Cuando extraiga el archivo del instalador de AWS SCT, tendrá el formato adecuado para su sistemaoperativo.

• Microsoft Windows• Apple macOS• Ubuntu Linux (.deb)• Fedora Linux (.rpm)

2. Extraiga el archivo instalador de la AWS SCT para su sistema operativo, según se muestra acontinuación.

Sistema operativo Nombre de archivo

Fedora Linux aws-schema-conversion-tool-1.0.build-number.x86_64.rpm

macOS AWS Schema Conversion Tool-1.0.build-number.dmg

Microsoft Windows AWS Schema Conversion Tool-1.0.build-number.msi

Version 1.04

Page 11: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de versiones anteriores

Sistema operativo Nombre de archivo

Ubuntu Linux aws-schema-conversion-tool-1.0.build-number.deb

3. Ejecute el archivo instalador de la AWS SCT extraído en el paso anterior. Utilice las instrucciones parasu sistema operativo, que se muestran a continuación.

Sistema operativo Instrucciones de instalación

Fedora Linux Ejecute el siguiente comando en la carpeta en la que haya descargado elarchivo:

sudo yum install aws-schema-conversion-tool-1.0.build-number.x86_64.rpm

macOS En Finder, localice y extraiga el archivo zip. En la carpeta extraída, abraAWS Schema Conversion Tool-1.0.build-number.dmg.

Para completar la instalación, arrastre el icono AWS SchemaConversion Tool.app a la carpeta Applications (Aplicaciones).

Cierre la ventana de instalación, si está abierta. En el Finder, expulse launidad de instalación, si está montada.

Microsoft Windows Haga doble clic en el archivo para ejecutar el instalador.

Ubuntu Linux Ejecute el siguiente comando en la carpeta en la que haya descargado elarchivo:

sudo dpkg -i aws-schema-conversion-tool-1.0.build-number.deb

4. Instale los controladores de Java Database Connectivity (JDBC) para sus motores de base de datosde origen y destino. Para obtener instrucciones y enlaces de descarga, consulte Instalación de loscontroladores de bases de datos necesarios (p. 8).

Instalación de las versiones anteriores de la AWS SCTPuede descargar e instalar versiones anteriores de la AWS SCT. Utilice el formato siguiente paradescargar una versión anterior. Debe proporcionar la información de versión y sistema operativo con esteformato.

https://d211wdu1froga6.cloudfront.net/builds/1.0/<version>/<OS>/aws-schema-conversion-tool-1.0.zip

Por ejemplo, para descargar AWS SCT versión 607, haga lo siguiente:

• MacOS: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/MacOS/aws-schema-conversion-tool-1.0.zip

• Windows: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Windows/aws-schema-conversion-tool-1.0.zip

• Ubuntu: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Ubuntu/aws-schema-conversion-tool-1.0.zip

Version 1.05

Page 12: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVerificación de la descarga del archivo de AWS SCT

• Fedora: https://d211wdu1froga6.cloudfront.net/builds/1.0/607/Fedora/aws-schema-conversion-tool-1.0.zip

Verificación de la descarga del archivo de AWSSCT

Existen varias formas de verificar el archivo de distribución de la AWS SCT. La más sencilla es compararla suma de comprobación del archivo con la suma de comprobación publicada de AWS. Como nivel deseguridad adicional, puede utilizar los procedimientos que aparecen a continuación para verificar el archivode distribución, en función del sistema operativo en el que instala el archivo.

Esta sección incluye los siguientes temas.

Temas• Verificación de la suma de comprobación del archivo de la AWS SCT (p. 6)• Verificación de los archivos RPM de AWS SCT en Fedora (p. 7)• Verificación de los archivos DEB de AWS SCT en Ubuntu (p. 7)• Verificación del archivo MSI de AWS SCT en Microsoft Windows (p. 8)• Verificación de la aplicación AWS SCT en Mac OS (p. 8)

Verificación de la suma de comprobación del archivode la AWS SCTA fin de detectar los errores que podrían haberse presentado al descargar o almacenar el archivocomprimido de AWS SCT, puede comparar la suma de comprobación del archivo con un valorproporcionado por AWS. AWS utiliza el algoritmo SHA256 para la suma de comprobación.

Para verificar el archivo de distribución de AWS SCT mediante una suma de comprobación

1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.2. Descargue el archivo de suma de comprobación, llamado sha256Check.txt. Por ejemplo, el archivo

puede tener un aspecto similar al siguiente:

Fedora b4f5f66f91bfcc1b312e2827e960691c269a9002cd1371cf1841593f88cbb5e6Ubuntu 4315eb666449d4fcd95932351f00399adb6c6cf64b9f30adda2eec903c54eca4Windows 6e29679a3c53c5396a06d8d50f308981e4ec34bd0acd608874470700a0ae9a23MacOs ed56d3ab49309e92ac4d2ef439d35449ac1326f470c23dc5866e1bf0a60b0e67

3. Ejecute el comando de validación SHA256 para su sistema operativo en el directorio que contiene elarchivo de distribución. Por ejemplo, el comando para realizar la ejecución en un sistema operativoMac es el siguiente:

shasum -a 256 aws-schema-conversion-tool-1.0.latest.zip

4. Compare los resultados del comando con el valor se muestra en el archivo sha256Check.txt. Los dosvalores deben coincidir.

Version 1.06

Page 13: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVerificación de los archivos RPM de AWS SCT en Fedora

Verificación de los archivos RPM de AWS SCT enFedoraAWS ofrece otro nivel de validación, además de la suma de comprobación del archivo de distribución.Todos los archivos RPM en el archivo de distribución están firmados por una clave privada de AWS. Laclave pública de GPG se puede consultar en amazon.com.public.gpg-key.

Para verificar los archivos RPM de AWS SCT en Fedora

1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.3. Extraiga el contenido del archivo de distribución. Localice el archivo RPM que desea verificar.4. Descargue la clave pública de GPG desde amazon.com.public.gpg-key5. Importe la clave pública a su base de datos RPM (asegúrese de obtener los permisos pertinentes) con

el siguiente comando:

sudo rpm --import [email protected]

6. Para comprobar que la importación se ha realizado correctamente, ejecute el siguiente comando:

rpm -q --qf "%{NAME}-%{VERSION}-%{RELEASE} \n %{SUMMARY} \n" gpg-pubkey-ea22abf4-5a21d30c

7. Para comprobar la firma de RPM, ejecute el siguiente comando:

rpm --checksig -v aws-schema-conversion-tool-1.0.build number-1.x86_64.rpm

Verificación de los archivos DEB de AWS SCT enUbuntuAWS ofrece otro nivel de validación, además de la suma de comprobación del archivo de distribución.Todos los archivos DEB en el archivo de distribución están firmados por una firma separada de GPG.

Para verificar los archivos DEB de AWS SCT en Ubuntu

1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.3. Extraiga el contenido del archivo de distribución. Localice el archivo DEB que desea verificar.4. Descargue la firma separada de aws-schema-conversion-tool-1.0.latest.deb.asc.5. Descargue la clave pública de GPG desde amazon.com.public.gpg-key.6. Para importar la clave GPG pública, ejecute el siguiente comando:

gpg --import [email protected]

7. Para comprobar la firma, ejecute el siguiente comando:

gpg --verify aws-schema-conversion-tool-1.0.latest.deb.asc aws-schema-conversion-tool-1.0.build number.deb

Version 1.07

Page 14: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVerificación del archivo MSI de

AWS SCT en Microsoft Windows

Verificación del archivo MSI de AWS SCT en MicrosoftWindowsAWS ofrece otro nivel de validación, además de la suma de comprobación del archivo de distribución. Elarchivo MSI tiene una firma digital que es posible comprobar a fin de garantizar que fue firmado por AWS.

Para verificar el archivo MSI de AWS SCT en Windows

1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.3. Extraiga el contenido del archivo de distribución. Localice el archivo MSI que desea verificar.4. En Windows Explorer, haga clic con el botón derecho del ratón en el archivo MSI y seleccione

Properties.5. Elija la pestaña Digital Signatures.6. Verifique que la firma digital es de Amazon Services LLC.

Verificación de la aplicación AWS SCT en Mac OSAWS ofrece otro nivel de validación, además de la suma de comprobación del archivo de distribución.Una vez que ha instalado AWS SCT en Mac OS, puede verificar la aplicación mediante el siguienteprocedimiento.

Para verificar la aplicación AWS SCT en Mac OS

1. Descargue el archivo de distribución de AWS SCT mediante los enlaces de la sección de instalación.2. Verificación de la suma de comprobación del archivo de distribución de AWS SCT.3. Extraiga el contenido del archivo de distribución.4. Haga doble clic en el archivo DMG.5. Instalar la AWS SCT.6. Para verificar la aplicación, ejecute el siguiente comando:

codesign -dvvv /Applications/AWS\ Schema\ Conversion\ Tool.app/

Instalación de los controladores de bases de datosnecesarios

Para que AWS SCT funcione correctamente, debe instalar los controladores de JDBC para los motores debase de datos de origen y de destino.

Después de descargar los controladores, aportará la ubicación de los archivos de los controladores. Paraobtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

Puede descargar los controladores de la base de datos de las siguientes ubicaciones.

Important

Instale la última versión del controlador disponible. Las versiones de la tabla siguiente sonnúmeros de versión de ejemplo.

Version 1.08

Page 15: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de los controladoresde bases de datos necesarios

Motor de basede datos

Controladores Ubicación de descarga

Amazon Aurora(compatiblecon MySQL)

mysql-connector-java-5.1.6.jar https://www.mysql.com/products/connector/

Amazon Aurora(compatibleconPostgreSQL)

postgresql-9.4-1204-jdbc42.jar https://jdbc.postgresql.org/download.html

AmazonRedshift

RedshiftJDBC41-1.1.10.1010.jar https://docs.aws.amazon.com/redshift/latest/mgmt/configure-jdbc-connection.html

Base de datosGreenplum

postgresql-9.4-1204-jdbc42.jar https://jdbc.postgresql.org/

Maria DB mariadb-java-client-2.4.0.jar https://mariadb.com/downloads/#connectors

Microsoft SQLServer

sqljdbc4.jar https://www.microsoft.com/en-us/download/details.aspx?displaylang=en&id=11774

MySQL mysql-connector-java-5.1.6.jar https://www.mysql.com/products/connector/

Netezza nzjdbc.jar

Utilice el software de lasherramientas del cliente. Instalela versión del controlador 7.2.1,que es compatible con la versiónde data warehouse 7.2.0.

http://www.ibm.com/support/knowledgecenter/SSULQD_7.2.1/com.ibm.nz.datacon.doc/c_datacon_plg_overview.html

Oracle ojdbc7.jar

Las versiones del controlador 7 yposteriores son compatibles.

http://www.oracle.com/technetwork/database/features/jdbc/jdbc-drivers-12c-download-1958347.html

PostgreSQL postgresql-9.4-1204-jdbc42.jar https://jdbc.postgresql.org/download.html

SAP ASE(Sybase ASE)

jconn4.jar Disponible como parte del SDK para SAP AdaptiveServer Enterprise 16 con el producto SAP ASE.La versión de prueba del SDK se puede descargardesde https://www.sap.com/developer/trials-downloads/additional-downloads/sdk-for-sap-adaptive-server-enterprise-16-13351.html

Teradata terajdbc4.jar

tdgssconfig.jar

https://downloads.teradata.com/download/connectivity/jdbc-driver

Vertica vertica-jdbc-7.2.3-0_all

Las versiones del controlador7.2.0 y posteriores soncompatibles.

https://my.vertica.com/download/vertica/client-drivers/

Version 1.09

Page 16: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de controladores de JDBC en Linux

Instalación de controladores de JDBC en LinuxPuede seguir estos pasos para instalar los controladores de JDBC en su sistema Linux para usarlos con laAWS SCT.

Para instalar los controladores de JDBC en su sistema Linux

1. Cree un directorio para almacenar los controladores de JDBC.

PROMPT>sudo mkdir –p /usr/local/jdbc-drivers

2. Instale el controlador de JDBC para el motor de su base de datos con los comandos que se muestrana continuación.

Motor de base dedatos

Comandos de instalación

Amazon Aurora(compatible conMySQL)

PROMPT> cd /usr/local/jdbc-driversPROMPT> sudo tar xzvf /tmp/mysql-connector-java-X.X.X.tar.gz

Amazon Aurora(compatible conPostgreSQL)

PROMPT> cd /usr/local/jdbc-driversPROMPT> sudo cp -a /tmp/postgresql-X.X.X.jre7.tar .

Microsoft SQL ServerPROMPT> cd /usr/local/jdbc-driversPROMPT> sudo tar xzvf /tmp/sqljdbc_X.X.X_enu.tar.gz

MySQLPROMPT> cd /usr/local/jdbc-driversPROMPT> sudo tar xzvf /tmp/mysql-connector-java-X.X.X.tar.gz

OraclePROMPT> cd /usr/local/jdbc-driversPROMPT> sudo mkdir oracle-jdbcPROMPT> cd oracle-jdbcPROMPT> sudo cp -a /tmp/ojdbc7.jar .

PostgreSQLPROMPT> cd /usr/local/jdbc-driversPROMPT> sudo cp -a /tmp/postgresql-X.X.X.jre7.tar .

Almacenamiento de rutas a los controladores en laconfiguración globalDespués de descargar e instalar los controladores de JDBC, puede configurar la ubicación de loscontroladores globalmente en la configuración de la AWS SCT. Si no configura la ubicación de loscontroladores globalmente, la aplicación le pedirá la ubicación de los controladores al conectarse a unabase de datos.

Para actualizar las ubicaciones de los archivos de los controladores

1. En la AWS SCT, elija Settings (Configuración) y, a continuación, elija Global Settings (Configuraciónglobal).

Version 1.010

Page 17: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualización del AWS SCT

2. En Global settings, seleccione Drivers. Agregue la ruta al archivo del controlador de JDBC para sumotor de base de datos de origen y su motor de base de datos de la instancia de base de datos deAmazon RDS de destino.

Note

Para Teradata, debe especificar dos controladores separados por un punto y coma.

3. Cuando haya terminado de agregar las rutas de los controladores, seleccione OK.

Actualización del AWS SCTAWS actualiza periódicamente la AWS SCT con nuevas características y funciones. Si está actualizandodesde una versión anterior, cree un proyecto nuevo de AWS SCT y vuelva a convertir los objetos de labase de datos que está utilizando.

Puede comprobar si existen actualizaciones para la AWS SCT.

Para buscar actualizaciones de AWS SCT

1. Cuando esté en la AWS SCT, elija Help (Ayuda) y, a continuación, elija Check for Updates(Comprobar actualizaciones).

2. En el cuadro de diálogo Check for Updates, elija What's New. Si el enlace no aparece, tiene la versiónmás reciente.

Version 1.011

Page 18: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioLa ventana de proyecto de AWS SCT

Uso de la interfaz de usuario dela Herramienta de conversión deesquemas de AWS

En las siguientes secciones le ayudaremos a trabajar con la interfaz de usuario de AWS SCT. Paraobtener información sobre la instalación de AWS SCT, consulte Instalación, verificación y actualización deHerramienta de conversión de esquemas de AWS (p. 4).

Temas• La ventana de proyecto de AWS SCT (p. 12)• Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas de

AWS (p. 13)• Almacenamiento de la contraseña de la base de datos (p. 16)• Uso de la vista UNION ALL en proyectos con tablas con particiones (p. 16)• Uso de los filtros de árbol de AWS SCT (p. 17)• Ocultar esquemas en la vista de árbol de la AWS SCT (p. 19)• Métodos abreviados de teclado de AWS SCT (p. 20)• Crear y revisar el informe de evaluación de la migración de la base de datos (p. 21)• Iniciar la Herramienta de conversión de esquemas de AWS (p. 24)• Creación de un proyecto de Herramienta de conversión de esquemas de AWS (p. 25)• Conversión de su esquema (p. 26)• Aplicación del esquema convertido a su instancia de base de datos de destino (p. 28)

La ventana de proyecto de AWS SCTA continuación se ilustra lo que se puede ver en la AWS SCT al crear un proyecto de migración deesquema y convertir un esquema posteriormente.

1. En el panel izquierdo, el esquema de la base de datos de origen se presenta en una vista en árbol. Suesquema de base de datos se "carga en diferido". Dicho de otra manera, al seleccionar un elemento dela vista en árbol, la AWS SCT obtiene y muestra el esquema actual de su base de datos de origen.

2. En el panel superior central, aparecerán los elementos de acción para los elementos del esquema delmotor de la base de datos de origen que no se hayan podido convertir automáticamente al motor de labase de datos de destino.

3. En el panel derecho, el esquema de su instancia de base de datos de destino se presenta en unavista en árbol. Su esquema de base de datos se "carga en diferido". Es decir, en el momento en queselecciona un elemento de la vista en árbol, la AWS SCT obtiene y muestra el esquema actual de subase de datos de destino.

Version 1.012

Page 19: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAlmacenamiento de perfiles de AWS

4. En el panel inferior izquierdo, cuando se elige un elemento de esquema, se muestran las propiedadesque describen el elemento de esquema de origen y el comando SQL para crear ese elemento en labase de datos de origen.

5. En el panel inferior derecho, cuando se elige un elemento de esquema, se muestran las propiedadesque describen el elemento de esquema de destino y el comando SQL para crear ese elemento en labase de datos de destino. Puede editar este comando SQL y guardar el comando actualizado con suproyecto.

Uso de los perfiles del servicio de AWS en laHerramienta de conversión de esquemas de AWS

Puede almacenar sus credenciales de AWS en la Herramienta de conversión de esquemas de AWS. AWSSCT utiliza sus credenciales al recurrir a características que se integran con los servicios de AWS. Porejemplo, AWS SCT se integra con Amazon S3, AWS Lambda, Amazon Relational Database Service yAWS Database Migration Service.

Version 1.013

Page 20: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAlmacenamiento de las credenciales de AWS

AWS SCT le solicita sus credenciales de AWS al obtener acceso a una característica que las necesite.Puede almacenar sus credenciales en los ajustes globales de la aplicación. Cuando AWS SCT le pida suscredenciales, puede seleccionar las credenciales almacenadas.

Puede almacenar distintos conjuntos de credenciales de AWS en los ajustes globales de la aplicación. Porejemplo, puede almacenar un conjunto de credenciales que utilice en situaciones de prueba y un conjuntode credenciales diferente que utilice en situaciones de producción. También puede almacenar diferentecredenciales para diferentes regiones de AWS.

Almacenamiento de las credenciales de AWSUtilice el siguiente procedimiento para almacenar las credenciales de AWS de manera global.

Para almacenar credenciales de AWS

1. Inicie Herramienta de conversión de esquemas de AWS.2. Abra el menú Settings y seleccione Global Settings. Aparecerá el cuadro de diálogo Global Settings.

Seleccione AWS Service Profiles como se muestra a continuación.

3. Seleccione Add new AWS Service Profile.4. Introduzca su información de AWS como sigue.

Opción de AWS SCT Acción

Schema/DatabaseName

Elija el nombre del esquema y la base de datos que desea utilizar comofiltro. En el nombre del esquema, puede introducir “%” para seleccionartodos los esquemas.

Version 1.014

Page 21: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAlmacenamiento de las credenciales de AWS

a. En Profile name, escriba un nombre para su perfil.b. En AWS Access Key, escriba su clave de acceso de AWS.c. En AWS Secret Key, escriba su clave secreta de AWS.d. En Region, seleccione la región para su perfil.e. En S3 Bucket (Bucket de S3), seleccione el bucket de Amazon S3 para su perfil. Solo tiene que

especificar un bucket si está utilizando una característica que se conecte a S3.f. Seleccione Use FIPS endpoint for S3 si tiene que cumplir con los requisitos de seguridad del

Estándar federal de procesamiento de la información (FIPS, Federal Information ProcessingStandard). Hay puntos de enlace de FIPS en las siguientes regiones de AWS:

• Región EE.UU. Este (Norte de Virginia)• Región EE.UU Este (Ohio)• EE.UU. Oeste (Norte de California)• Región EE.UU. Oeste (Oregón)

5. Seleccione Test Connection para comprobar que sus credenciales sean correctas y estén activas.

Aparecerá el cuadro de diálogo Test Connection. Podrá ver el estado de cada uno de los serviciosconectados a su perfil. Pass indica que el perfil puede obtener acceso al servicio correctamente.

Version 1.015

Page 22: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConfiguración del perfil predeterminado para un proyecto

6. Tras haber configurado su perfil, seleccione Save para guardar su perfil o Cancel para cancelar loscambios.

7. Seleccione OK para cerrar el cuadro de diálogo Global Settings.

Configuración del perfil predeterminado para unproyectoPuede configurar el perfil predeterminado para un proyecto de AWS SCT. Al hacerlo, asociará lascredenciales de AWS almacenadas en el perfil con el proyecto. Con el proyecto abierto, utilice el siguienteprocedimiento para configurar el perfil predeterminado.

Para configurar el perfil predeterminado para un proyecto

1. Inicie Herramienta de conversión de esquemas de AWS.2. Abra el menú Settings y seleccione Project Settings. Aparecerá el cuadro de diálogo Current project

settings.3. Seleccione la pestaña Project Environment.4. En AWS Service Profile, seleccione el perfil que quiera asociar con el proyecto.5. Seleccione OK para cerrar el cuadro de diálogo Current project settings. También puede seleccionar

Cancel para cancelar los cambios.

Almacenamiento de la contraseña de la base dedatos

Puede almacenar un certificado SSL o una contraseña de la base de datos en la caché de la AWS SCT.Para almacenar una contraseña, seleccione Store Password al crear una conexión.

La contraseña se cifra mediante un token generado de forma aleatoria en el archivo seed.dat. Acontinuación, la contraseña se almacena con el nombre del usuario en el archivo en la memoria caché. Sipierde el archivo seed.dat o resulta dañado, puede que la contraseña de la base de datos se descifre deforma incorrecta. En este caso, la conexión produce un error.

Uso de la vista UNION ALL en proyectos con tablascon particiones

Si una tabla de origen tiene particiones, AWS SCT crea n tablas de destino, donde n es el número departiciones de la tabla de origen. AWS SCT crea una vista UNION ALL sobre las tablas de destino pararepresentar la tabla de origen. Si utiliza un extractor de datos de AWS SCT para migrar los datos, lasparticiones de la tabla de origen se extraerán y cargarán en paralelo mediante subtareas independientes.

Para usar la vista UNION ALL en un proyecto

1. Start AWS SCT. Elija un proyecto de almacén de datos (OLAP).2. Seleccione Settings (Configuración) y después Project settings (Configuración del proyecto).

Aparecerá el cuadro de diálogo Current project settings.

Version 1.016

Page 23: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioFiltros de árbol de AWS SCT

3. Seleccione Use Union all view (Usar vista UNION ALL).4. Seleccione OK (Aceptar) para guardar la configuración y cerrar el cuadro de diálogo Current project

settings (Configuración del proyecto actual).

Uso de los filtros de árbol de AWS SCTPara migrar datos de un origen a un destino, AWS SCT carga todos los metadatos de las bases de datosde origen y de destino en una estructura de árbol. Esta estructura aparece en la AWS SCT como la vistade árbol en la ventana del proyecto principal.

Algunas bases de datos puede tener un gran número de objetos en la estructura de árbol. Puede utilizarfiltros de árbol en la AWS SCT para buscar objetos en las estructuras de árbol de origen y de destino.Cuando utiliza un filtro de árbol, no cambia los objetos que se convierten al convertir la base de datos. Elfiltro cambia únicamente lo que se ve en el árbol.

Los filtros de árbol funcionan con objetos que la AWS SCT ha precargado. En otras palabras, la AWS SCTno carga objetos de la base de datos durante las búsquedas. Este enfoque significa que la estructura deárbol, por lo general, contiene menos objetos que los que están presentes en la base de datos.

Cuando utilice filtros de árbol, tenga en cuenta lo siguiente:

• El valor predeterminado del filtro es ANY, lo que significa que el filtro utiliza una búsqueda de nombrepara encontrar objetos.

• Al seleccionar uno o varios tipos de objeto, verá solo esos tipos de objetos en el árbol.• Puede utilizar el filtro enmascarar para mostrar diferentes tipos de símbolos, incluidos Unicode, espacios

y caracteres especiales. El carácter “%” sirve de comodín para cualquier símbolo.• Después de aplicar un filtro, el recuento solo muestra el número de objetos filtrados.

Para crear un filtro de árbol

1. Abrir un proyecto de AWS SCT existente.2. Conéctese a la base de datos a la que desea aplicar el filtro de árbol.3. Elija el icono de filtro.

Note

El icono de deshacer filtro está difuminado porque no hay ningún filtro aplicado en laactualidad.

4. Introduzca la siguiente información en el cuadro de diálogo Tree Filter. Las opciones en el cuadro dediálogo son diferentes para cada motor de base de datos.

Version 1.017

Page 24: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioFiltros de árbol de AWS SCT

Opción de AWS SCT Acción

Schema/DatabaseName

Elija el nombre del esquema y la base de datos que desea utilizar comofiltro. En el nombre del esquema, puede introducir “%” para seleccionartodos los esquemas.

Nombre del objeto Elija el nombre de objeto si desea buscar por nombre de objeto.

Tree States Seleccione el estado de la tabla. Las opciones incluyen:

• Any (Cualquiera): – Muestra todas las tablas.• Converted (Convertidas): – Muestra solo las tablas convertidas.• Not Converted (No convertidas): – Muestra solo las tablas que no se han

convertido.• Has Actions (Tiene acciones): – Muestra las tablas con acciones

pendientes.

Lista de tipos de objeto Seleccione objetos de la lista de tipos de objeto que puede utilizar comofiltro. Amplíe los nodos del árbol para cargar más objetos a la lista de tiposde objeto.

5. Seleccione Apply. Después de seleccionar Apply, se activa el icono de deshacer filtro (al lado delicono de filtro). Utilice este icono si desea eliminar los filtros que aplicó.

6. Seleccione Close para cerrar el cuadro de diálogo.

Version 1.018

Page 25: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioImportación de una lista de archivos para el filtro de árbol

Al filtrar el esquema que aparece en el árbol, no cambia los objetos que se convierten al convertir suesquema. El filtro cambia únicamente lo que se ve en el árbol.

Importación de una lista de archivos para el filtro deárbolPuede importar un archivo que contenga los nombres o valores que quiere que utilice el filtro de árbol. Eneste archivo, se utilizan las siguientes convenciones:

• Object es el tipo de objeto que desea encontrar.• Database es el nombre de la base de datos donde existe este objeto.• Schema es el nombre del esquema donde existe este objeto.• Name es el nombre del objeto.

El archivo que se va a importar debe tener el siguiente formato:

• Object;Database;Schema;Name: – Este formato es obligatorio para los dialectos Microsoft SQLServer, SQL Data Warehouse y Netezza de SQL.

• Object;Schema;Name: – Utilice este formato para otros dialectos de SQL.

Para importar una lista de archivos para el filtro de árbol

1. Abra un proyecto de la AWS SCT existente, conéctese a la base de datos a la que desea aplicar elfiltro de árbol y, a continuación, elija el icono de filtro.

2. Seleccione la pestaña Import File List.3. Seleccione Import File.4. Seleccione un archivo para importar y, luego, seleccione Open.5. Seleccione Apply y, a continuación, seleccione Close.

Ocultar esquemas en la vista de árbol de la AWSSCT

Al utilizar la configuración de vista de árbol, especifica qué esquemas y bases de datos desea ver en lavista de árbol de la AWS SCT. Puede ocultar esquemas vacíos, bases de datos vacías, bases de datos delsistema y bases de datos y esquemas definidos por el usuario.

Para ocultar bases de datos y esquemas en la vista de árbol

1. Abra un proyecto de AWS SCT.2. Conéctese al almacén de datos que desea mostrar en la vista de árbol.3. Seleccione Settings, Global Settings, Tree View.

Version 1.019

Page 26: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMétodos abreviados de teclado

4. En la sección Tree View Settings, siga estos pasos:

• Para Hide System Databases/Schemas, seleccione los esquemas y las bases de datos del sistemapor nombre para ocultarlos.

• Para Hide User Defined Databases/Schemas, escriba los nombres de las bases de datos yesquemas definidos por el usuario que desee ocultar y, a continuación, seleccione Add. Losnombres no distinguen entre mayúsculas y minúsculas.

• Seleccione Reset to Default para restablecer la vista de árbol a la configuración predeterminada.5. Seleccione OK.

Métodos abreviados de teclado de AWS SCTA continuación presentamos los métodos abreviados de teclado que puede utilizar con AWS SCT.

Método abreviado del teclado Descripción

Ctrl+N Crear un nuevo proyecto.

Ctrl+O Abrir un proyecto existente.

Ctrl+S Guardar un proyecto abierto.

Ctrl+W Crear un nuevo proyecto con el asistente.

Ctrl+L Conectarse a la base de datos de origen.

Ctrl+R Conectarse a la base de datos de destino.

Version 1.020

Page 27: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEl informe de evaluación de la migración de la base de datos

Crear y revisar el informe de evaluación de lamigración de la base de datos

El informe de evaluación de la migración de la base de datos resume todos los elementos de acción delesquema que no se pueden convertir automáticamente en el motor de su instancia de base de datos deAmazon RDS de destino. El informe incluye también estimaciones de la cantidad de esfuerzo necesariopara escribir el código equivalente de la instancia de base de datos de destino.

Puede crear (o actualizar) un informe de evaluación de la migración de la base de datos en su proyecto encualquier momento utilizando el siguiente procedimiento.

Para crear y ver el informe de evaluación de la migración de la base de datos

1. En el panel de la izquierda que muestra el esquema de la base de datos de origen, elija el objeto delesquema para el que desea crear un informe de evaluación. Abra el menú contextual (clic secundario)para el objeto y seleccione Create Report.

Se abrirá la vista del informe de evaluación.2. Haga clic en la pestaña Action Items.

La pestaña Action Items muestra una lista de elementos que describen el esquema que no puedeconvertirse automáticamente. Seleccione uno de los elementos de acción de la lista. AWS SCT resaltael elemento en el esquema al que se aplica el elemento de acción, como se muestra a continuación.

Version 1.021

Page 28: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEl informe de evaluación de la migración de la base de datos

3. Haga clic en la pestaña Summary.

En la pestaña Summary se muestra la información resumida del informe de evaluación de la migraciónde la base de datos. Muestra el número de elementos convertidos automáticamente y el número deelementos que no se han convertido automáticamente. El resumen también incluye un cálculo deltiempo que se tardará en crear esquemas en su instancia de base de datos de destino que seanequivalentes a los de la base de datos de origen.

La sección License Evaluation and Cloud Support contiene información sobre el traslado de susesquemas de bases de datos locales existentes a una instancia de base de datos de Amazon RDSque ejecute el mismo motor. Por ejemplo, si desea cambiar tipos de licencia, esta sección del informele indica qué características de su base de datos actual deberían eliminarse.

A continuación se muestra un ejemplo de un resumen de informe de evaluación.

Version 1.022

Page 29: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEl informe de evaluación de la migración de la base de datos

4. Seleccione la pestaña Summary y, después, seleccione Save to PDF. El informe de evaluación de lamigración de la base de datos se guarda como archivo PDF. El archivo PDF contiene tanto el resumencomo información de elementos de acción.

También puede hacer clic en Save to CSV para guardar el informe como un archivo con valoresseparados por comas (CSV). El archivo CSV contiene solamente información de elementos de acción.

Version 1.023

Page 30: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioIniciar la SCT

Iniciar la Herramienta de conversión de esquemasde AWS

Para iniciar la Herramienta de conversión de esquemas de AWS, utilice las instrucciones para su sistemaoperativo, que se muestran a continuación.

Sistema operativo Instrucciones

Fedora Linux Ejecute el comando siguiente:

/opt/AWSSchemaConversionTool/AWSSchemaConversionTool

Microsoft Windows Haga doble clic en el icono de la aplicación.

Version 1.024

Page 31: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de un proyecto

Sistema operativo Instrucciones

Ubuntu Linux Ejecute el comando siguiente:

/opt/AWSSchemaConversionTool/AWSSchemaConversionTool

Creación de un proyecto de Herramienta deconversión de esquemas de AWS

El siguiente procedimiento muestra cómo crear un proyecto Herramienta de conversión de esquemas deAWS.

Para crear su proyecto

1. Inicie Herramienta de conversión de esquemas de AWS.2. Seleccione New Project en el menú File. Aparece el cuadro de diálogo New Project.

3. Agregue la siguiente información preliminar del proyecto.

Para este parámetro Haga lo siguiente

Project Name Escriba un nombre para su proyecto, que se almacenarálocalmente en su equipo.

Ubicación Escriba la ubicación del archivo local de su proyecto.

Seleccione Transactional Database (OLTP) o Data Warehouse(OLAP).

Source DB Engine (OLTP) Seleccione Microsoft SQL Server, MySQL, Oracle oPostgreSQL.

(OLAP) Seleccione Amazon Redshift, Greenplum, Microsoft SQLServer DW, Netezza, Oracle DW, Teradata o Vertica.

Target DB Engine (OLTP) Seleccione Amazon Aurora (MySQL compatible), AmazonAurora (PostgreSQL compatible), Amazon RDS for Microsoft

Version 1.025

Page 32: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión de su esquema

Para este parámetro Haga lo siguienteSQL Server, Amazon RDS for MySQL, Amazon RDS for Oracle oAmazon RDS for PostgreSQL.

(OLAP) Seleccione Amazon Redshift.

4. Elija OK (Aceptar) para crear su proyecto de AWS SCT.

Conversión de su esquemaUtilice el siguiente procedimiento para convertir un esquema.

Para convertir un esquema

1. Haga clic en View y, a continuación, seleccione Main View.

2. En el panel de la izquierda que muestra el esquema de la base de datos de origen, seleccione unobjeto del esquema para convertirlo. Abra el menú contextual (clic secundario) para el objeto yseleccione Convert schema.

Version 1.026

Page 33: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión de su esquema

3. Cuando la AWS SCT termina de convertir el esquema, puede ver el esquema propuesto en el panel ala derecha del proyecto.

En este momento, no se aplica ningún esquema a su instancia de base de datos de Amazon RDSde destino. El esquema planificado es parte de su proyecto. Si selecciona un elemento del esquemaconvertido, podrá ver el comando de esquema previsto en el panel de la parte inferior en el centro dela instancia de base de datos de Amazon RDS de destino.

Puede editar el esquema en esta ventana. El esquema editado se almacena como parte de suproyecto y estará escrito en la instancia de base de datos de destino cuando decida aplicar suesquema convertido.

Version 1.027

Page 34: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del esquema convertido a suinstancia de base de datos de destino

Aplicación del esquema convertido a su instanciade base de datos de destino

Puede aplicar el esquema de base de datos convertido a su instancia de base de datos de Amazon RDSde destino. Después de haber aplicado el esquema a su instancia de base de datos de destino, podráactualizar el esquema en función de los elementos de acción del informe de evaluación de la migración dela base de datos.

Warning

Este procedimiento sobrescribe el esquema de destino existente. Tenga cuidado de nosobrescribir involuntariamente el esquema. Tenga cuidado de no sobrescribir el esquema de suinstancia de base de datos de destino que ya haya modificado, o reemplazará dichos cambios.

Para aplicar el esquema de base de datos convertido a su instancia de base de datos de AmazonRDS de destino

1. Seleccione el elemento del esquema del panel derecho del proyecto que indique el esquema previstopara su instancia de base de datos de destino.

2. Abra el menú contextual (clic con el botón secundario) del elemento del esquema y seleccione Applyto database.

Version 1.028

Page 35: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del esquema convertido a suinstancia de base de datos de destino

El esquema convertido se aplica a la instancia de base de datos de destino.

Version 1.029

Page 36: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Introducción a Herramienta deconversión de esquemas de AWS

Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir el esquemade la base de datos de origen a un esquema para bases de datos hospedadas en Amazon Web Services(AWS). La aplicación AWS SCT ofrece una interfaz de usuario basada en proyectos. Casi todo el trabajoque realice con AWS SCT comenzará por los siguientes pasos:

1. Instale AWS SCT. Para obtener más información, consulte Instalación, verificación y actualización deHerramienta de conversión de esquemas de AWS (p. 4).

2. Instale un agente de AWS SCT, si es necesario. Los agentes de AWS SCT solo son necesarios paradeterminadas situaciones de migración como, por ejemplo, entre orígenes y destinos heterogéneos.Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).

3. Familiarizarse con la interfaz de usuario de AWS SCT. Para obtener más información, consulte Uso dela interfaz de usuario de la Herramienta de conversión de esquemas de AWS (p. 12).

4. Cree un proyecto de AWS SCT. Conéctese a las bases de datos de origen y destino. Para obtener másinformación acerca de la conexión a la base de datos de origen, consulte Bases de datos de origen paraHerramienta de conversión de esquemas de AWS (p. 31).

5. Ejecutar y consultar el informe de evaluación de la migración de la base de datos. Para obtener másinformación sobre el informe de evaluación, consulte Crear y revisar el informe de evaluación de lamigración de la base de datos (p. 21).

6. Convertir los esquemas de base de datos de origen. Existen varios aspectos de la conversión quedebe tener en cuenta, por ejemplo, qué se debe hacer con los elementos que no se convierten y cómomapear los elementos que se deben convertir de una forma concreta. Para obtener más informaciónacerca de la conversión de un esquema de origen, consulte Convertir los esquemas de base de datosutilizando el Herramienta de conversión de esquemas de AWS (p. 99).

Si va a convertir un esquema de almacenamiento de datos, también hay aspectos que debe teneren cuenta antes de realizar la conversión. Para obtener más información, consulte Conversión deesquemas de almacén de datos a Amazon Redshift utilizando la Herramienta de conversión deesquemas de AWS (p. 114).

7. Aplicar la conversión de esquema al destino. Para obtener más información acerca de la aplicaciónde la conversión de esquemas de origen, consulte Uso de la interfaz de usuario de la Herramienta deconversión de esquemas de AWS (p. 12).

8. AWS SCT también se puede utilizar para convertir procedimientos almacenados de SQL y otro códigode aplicación. Para obtener más información, consulte Conversión de SQL de aplicación con laHerramienta de conversión de esquemas de AWS (p. 190)

También puede utilizar AWS SCT para migrar los datos de una base de datos de origen a una base dedatos administrada por Amazon.

Version 1.030

Page 37: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de Oracle como origen para Herramienta

de conversión de esquemas de AWS

Bases de datos de origen paraHerramienta de conversión deesquemas de AWS

Herramienta de conversión de esquemas de AWS (AWS SCT) puede convertir los siguientes esquemasde base de datos de origen a una base de datos de destino. Seleccione el enlace siguiente para obtenerinformación sobre permisos necesarios, información de conexión e información sobre lo que puedeconvertir AWS SCT para su uso con la base de datos de destino.

Temas• Uso de Oracle como origen para Herramienta de conversión de esquemas de AWS (p. 31)• Uso de Microsoft SQL Server como origen para Herramienta de conversión de esquemas de

AWS (p. 45)• Utilizar MySQL como origen para Herramienta de conversión de esquemas de AWS (p. 55)• Utilizar PostgreSQL como origen para Herramienta de conversión de esquemas de AWS (p. 57)• Uso de Db2 LUW como origen para Herramienta de conversión de esquemas de AWS (p. 60)• Uso de Amazon Redshift como origen de Herramienta de conversión de esquemas de AWS (p. 65)• Utilizar Oracle DW como origen para Herramienta de conversión de esquemas de AWS (p. 67)• Utilizar Teradata como origen para Herramienta de conversión de esquemas de AWS (p. 70)• Utilizar Netezza como origen para Herramienta de conversión de esquemas de AWS (p. 73)• Utilizar Greenplum como origen para Herramienta de conversión de esquemas de AWS (p. 75)• Utilizar Vertica como origen para Herramienta de conversión de esquemas de AWS (p. 77)• Uso de Microsoft SQL Server DW como origen para Herramienta de conversión de esquemas de

AWS (p. 79)

Uso de Oracle como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Oracle a los siguientes destinos:

• Amazon RDS for MySQL• Amazon Aurora (MySQL)• Amazon RDS for PostgreSQL• Amazon Aurora (PostgreSQL)• Amazon RDS for Oracle

Cuando el origen es una base de datos de Oracle, los comentarios pueden convertirse al formatoadecuado, por ejemplo, una base de datos PostgreSQL. AWS SCT puede convertir los comentarios en

Version 1.031

Page 38: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPermisos necesarios para Oracle como origen

tablas, vistas y columnas. Los comentarios pueden incluir apóstrofos; AWS SCT duplica los apóstrofos alconvertir instrucciones SQL, del mismo que con los literales de cadena.

Para obtener más información, consulte las siguientes secciones:

Temas• Permisos necesarios al usar Oracle como base de datos de origen (p. 32)• Conexión a Oracle como base de datos de origen (p. 32)• Conversión de Oracle a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL) (p. 35)• Conversión de Oracle a Amazon RDS for MySQL o Amazon Aurora (MySQL) (p. 38)• Conversión de Oracle a Amazon RDS for Oracle (p. 42)

Permisos necesarios al usar Oracle como base dedatos de origenLos privilegios necesarios para Oracle como origen se enumeran a continuación:

• CONNECT• SELECT_CATALOG_ROLE• SELECT ANY DICTIONARY• SELECT on SYS.USER$ TO <sct_user>

Conexión a Oracle como base de datos de origenUtilice el siguiente procedimiento para conectarse a su base de datos de Oracle de origen con laHerramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de Oracle de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Oracle (Conectar aOracle).

Aparecerá el cuadro de diálogo Connect to Oracle.

Version 1.032

Page 39: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Oracle como origen

2. Proporcione la información de conexión de la base de datos de Oracle de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Type Seleccione el tipo de conexión a la base de datos. En función desu tipo, proporcione la siguiente información adicional:

• SID• Server name: el nombre DNS o la dirección IP de su servidor

de base de datos de origen.• Server port: el puerto que utilice para conectarse al servidor

de su base de datos de origen.• Oracle SID: el ID del sistema (SID) de Oracle. Para encontrar

el SID de Oracle, envíe la siguiente consulta a su base dedatos de Oracle:

SELECT sys_context('userenv','instance_name')AS SID FROM dual;

• Nombre del servicio• Server name: el nombre DNS o la dirección IP de su servidor

de base de datos de origen.• Server port: el puerto que utilice para conectarse al servidor

de su base de datos de origen.• Service Name: el nombre del servicio de Oracle al que

conectarse.• TNS Alias

• TNS file path: la ruta al archivo que contiene la informaciónde conexión del nombre Transparent Network Substrate(TNS).

• TNS file path: el alias TNS de este archivo que utilizar paraconectarse a la base de datos de origen.

Version 1.033

Page 40: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Oracle como origen

Para este parámetro Haga lo siguiente• TNS Connect Identifier

• TNS identifier: identificador de la información de conexión delTNS registrado.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

La primera vez que se conecte a la base de datos deOracle, tiene que escribir la ruta al archivo del controladorde Oracle (ojdbc7.jar). Puede descargar el archivo enhttp://www.oracle.com/technetwork/database/features/jdbc/index-091264.html. Debe registrarse el sitio web gratuito OracleTechnical Network para completar la descarga. AWS SCT utilizael controlador seleccionado para las futuras conexiones de basede datos de Oracle. La ruta del controlador se puede modificarmediante la pestaña Drivers (Controladores) en la configuraciónglobal.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• SSL Authentication (Autenticación SSL): seleccione esta opciónpara utilizar la autenticación SSL mediante certificado para laconexión en lugar de nombre de usuario y contraseña.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados.

• Trust Store Password: contraseña del almacén de confianza.• Key Store: la ubicación de un almacén de claves que contenga

una clave privada y certificados. Este valor es obligatorio si estáseleccionado SSL Authentication. De lo contrario, es opcional.

• Trust Store Password: contraseña del almacén de claves. Estevalor es obligatorio si está seleccionado SSL Authentication. Delo contrario, es opcional.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Version 1.034

Page 41: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOracle a PostgreSQL

Para este parámetro Haga lo siguiente

Oracle Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Conversión de Oracle a Amazon RDS for PostgreSQLo Amazon Aurora (PostgreSQL)AWS SCT puede convertir archivos SQL*Plus a PSQL. El informe de evaluación muestra cómo haconvertido AWS SCT los archivos SQL*Plus a PSQL. Para convertir archivos SQL*Plus en PSQL, consulteConversión de SQL de aplicación con la Herramienta de conversión de esquemas de AWS (p. 190).

Esta sección abarca los siguientes temas:

Temas• Conversión de pseudocolumnas ROWID de Oracle a PostgreSQL (p. 36)• Conversión de SQL dinámico para migraciones de Oracle a PostgreSQL. (p. 36)• Conversión de particiones de Oracle a particiones de PostgreSQL versión 10 (p. 37)

Al convertir objetos del sistema de Oracle a PostgreSQL, AWS SCT convierte lo siguiente:

Objeto del sistema deOracle

Descripción Objeto de PostgreSQLconvertido

V$VERSION Muestra los números de versión de los componentesde biblioteca principal en la base de datos de Oracle

aws_oracle_ext.v$version

V$INSTANCE Una vista que muestra el estado de la instancia actual. aws_oracle_ext.v$instance

Una vez que AWS SCT migra los objetos del esquema y los datos almacenados, el flujo de trabajo de labase de datos de origen se puede redireccionar al destino. En la mayoría de los casos, los flujos de trabajoson números únicos generados por secuencias de bases de datos para mantener las restricciones deintegridad, como las claves principales y las claves únicas de los datos escritos en la base de datos dedestino. Esto significa que los valores nuevos de una secuencia migrada y los valores generados antes dela migración no deben superponerse.

En los proyectos de migración de Oracle a PostgreSQL, puede asegurarse de que no se superponen. Paraello, seleccione la opción Populate converted sequences with the last values generated on the source side(Rellenar las secuencias convertidas con los últimos valores generados en el origen) en la pestaña deajustes de conversión de Project Settings (Configuración del proyecto).

Version 1.035

Page 42: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOracle a PostgreSQL

Conversión de pseudocolumnas ROWID de Oracle a PostgreSQLEn una base de datos de Oracle, la pseudocolumna ROWID contiene la dirección de la fila de la tabla. Lapseudocolumna ROWID es exclusiva de Oracle. Por ello, AWS SCT puede convertir la pseudocolumnaROWID en una columna de datos al convertir a PostgreSQL. Esta conversión permite conservar lainformación de ROWID.

Cuando AWS SCT convierte la pseudocolumna ROWID, crea una columna de datos con el tipo de datosBIGINT. Si no hay una clave primaria, AWS SCT establece la columna ROWID como la clave principal. Sihay una clave primaria, AWS SCT establece la columna ROWID con una restricción única.

Para crear una columna de datos para la pseudocolumna ROWID de Oracle en un proyecto

1. Inicie AWS SCT. Elija un proyecto cuyo origen sea Oracle.2. Seleccione Settings (Configuración) y después Project settings (Configuración del proyecto).

Aparecerá el cuadro de diálogo Current project settings.3. Elija true (verdadero) en Generate row ID (Generar ID de fila).4. Seleccione OK (Aceptar) para guardar la configuración y cerrar el cuadro de diálogo Current project

settings (Configuración del proyecto actual).

Conversión de SQL dinámico para migraciones de Oracle aPostgreSQL.SQL dinámico es una técnica de programación que puede utilizar para ejecutar instrucciones del lenguajede definición de datos (DDL) dentro de código PL/SQL. También puede utilizar SQL dinámico para generary ejecutar instrucciones SQL en tiempo de ejecución cuando no conoce el texto exacto o los identificadoresde objeto durante el desarrollo. AWS SCT puede convertir instrucciones de SQL dinámico usadas conbases de datos de Oracle en sus instrucciones equivalentes en PostgreSQL.

Para convertir instrucciones de SQL dinámico en PostgreSQL SQL

1. Cree un proyecto de migración de Oracle a PostgreSQL.2. Conéctese a bases de datos de origen y destino.3. Elija un procedimiento almacenado en la vista de árbol de origen de Oracle. El procedimiento debe

incluir referencias al paquete de DBMS_SQL Oracle o tener una instrucción EXECUTE IMMEDIATE.4. En Actions, elija Convert Schema y confirme que desea reemplazar los objetos, si existen. En la

siguiente captura de pantalla se muestra el procedimiento convertido bajo el procedimiento de Oracle.

Version 1.036

Page 43: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOracle a PostgreSQL

Conversión de particiones de Oracle a particiones dePostgreSQL versión 10En PostgreSQL versión 10 y versiones posteriores, se puede especificar cómo se va a dividir una tabla enpartes llamadas particiones. La tabla que se divide se denomina tabla particionada. La especificación dela tabla contiene el método de particionamiento y una lista de las columnas o expresiones que se utilizancomo clave de partición.

Todas las filas insertadas en una tabla particionada se direccionan a una de las particiones en funcióndel valor de la clave de partición. Cada partición tiene un subconjunto de datos definido por sus límites departición. En la actualidad, los métodos de particionamiento admitidos son los métodos de rango y lista. Enel particionamiento por rango, cada partición se asigna a un rango de claves. En el particionamiento porlista, cada partición se asigna a una lista de claves.

Cuando AWS SCT convierte un esquema de una base de datos de Oracle en una base de datos dePostgreSQL, puede emular particiones y subparticiones. Una subpartición de Oracle se convierte en unapartición PostgreSQL que tiene una tabla como expresión de rango principal. La tabla se particiona conarreglo a la expresión de rango a partir de la subpartición de Oracle.

En la actualidad, AWS SCT admite las particiones en los siguientes casos:

• Rango• List

Version 1.037

Page 44: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a MySQL

• Rango-rango• Lista-lista• Rango-lista• Lista-rango• TIMESTAMP sin zona horaria

Por el contrario, no se admiten los casos siguientes:

• Hash• Rango-hash• Lista-hash• Intervalo• Referencia• Fallo en

A continuación, se detallan algunos problemas conocidos que se producen al convertir a PostgreSQLversión 10:

• Solo las columnas que no son null se pueden particionar por columnas.• DEFAULT no es un valor de partición posible.• No se admiten las particiones basadas en TIMESTAMP con zona horaria.• No se admiten las particiones basadas en una función hash.• Las columnas de las tablas particionadas no se pueden actualizar porque, al actualizar un valor,

ese valor podría ir a otra partición. AWS SCT solo permite eliminar e insertar columnas en las tablasparticionadas.

• No se permite que las claves tengan como origen o destino tablas particionadas.

Conversión de Oracle a Amazon RDS for MySQL oAmazon Aurora (MySQL)A continuación se indican algunos aspectos que se deben tener en cuenta en relación con lasinstrucciones GOTO:

• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTOy una etiqueta. Todas las instrucciones PL/SQL que van detrás de una instrucción GOTO se omiten yel procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar encualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también sepueden anidar.

MySQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene unainstrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END oLOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte lasinstrucciones GOTO.

Instrucciones GOTO de Oracle e instrucciones de MySQL convertidas

Instrucción de Oracle Instrucción de MySQL

BEGIN .... statement1;

BEGIN label1: BEGIN

Version 1.038

Page 45: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a MySQL

Instrucción de Oracle Instrucción de MySQL .... GOTO label1; statement2; .... label1: Statement3; ....END

.... statement1; .... LEAVE label1; statement2; .... END; Statement3; ....END

BEGIN .... statement1; .... label1: statement2; .... GOTO label1; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: LOOP statement2; .... ITERATE label1; LEAVE label1; END LOOP; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: statement2; .... statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: BEGIN statement2; .... statement3; .... statement4; .... END; END

Conversión de la instrucción WITH en Oracle a Amazon RDS forMySQL o Amazon Aurora (MySQL)Puede utilizar la cláusula WITH (subquery_factoring) en Oracle para asignar un nombre (query_name) aun bloque subquery. A continuación, puede hacer referencia al bloque subquery en varios lugares de laconsulta especificando el valor de query_name. Si un bloque subquery no contiene enlaces o parámetros(local, procedimiento, función, paquete), entonces AWS SCT convierte la cláusula en una vista o una tablatemporal.

La ventaja de convertir la cláusula en una tabla temporal es que las referencias reiteradas a la subquerypueden ser más eficientes, pues los datos se recuperan fácilmente en la tabla temporal en lugar de quecada referencia los solicite. Para emular este comportamiento, puede usar más vistas o una tabla temporal.El nombre de la vista tiene el formato siguiente: <procedure_name>$<subselect_alias>.

Version 1.039

Page 46: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a MySQL

Instrucciones WITH de Oracle e instrucciones de MySQL convertidas

Instrucción de Oracle Instrucción de MySQL

CREATE PROCEDURE TEST_ORA_PG.P_WITH_SELECT_VARIABLE_01 (p_state IN NUMBER)AS l_dept_id NUMBER := 1; BEGINFOR cur IN (WITH dept_empl(id, name, surname, lastname, state, dept_id) AS ( SELECT id, name, surname, lastname, state, dept_id FROM test_ora_pg.dept_employees WHERE state = p_state AND dept_id = l_dept_id) SELECT id,state FROM dept_empl ORDER BY id) LOOP NULL;END LOOP;

CREATE PROCEDURE test_ora_pg.P_WITH_SELECT_VARIABLE_01(IN par_P_STATE DOUBLE)BEGIN DECLARE var_l_dept_id DOUBLE DEFAULT 1; DECLARE var$id VARCHAR (8000); DECLARE var$state VARCHAR (8000); DECLARE done INT DEFAULT FALSE; DECLARE cur CURSOR FOR SELECT ID, STATE FROM (SELECT ID, NAME, SURNAME, LASTNAME, STATE, DEPT_ID FROM TEST_ORA_PG.DEPT_EMPLOYEES WHERE STATE = par_p_state AND DEPT_ID = var_l_dept_id) AS dept_empl ORDER BY ID; DECLARE CONTINUE HANDLER FOR NOT FOUND SET done := TRUE; OPEN cur;

read_label: LOOP FETCH cur INTO var$id, var$state;

IF done THEN LEAVE read_label; END IF;

BEGIN END; END LOOP; CLOSE cur;END;

CREATE PROCEDURE TEST_ORA_PG.P_WITH_SELECT_REGULAR_MULT_01AS BEGIN

FOR cur IN ( WITH dept_empl AS ( SELECT id, name, surname, lastname, state, dept_id FROM test_ora_pg.dept_employees WHERE state = 1), dept AS (SELECT id deptid, parent_id, name deptname FROM test_ora_pg.department ) SELECT dept_empl.*,dept.*

CREATE VIEW TEST_ORA_PG.`P_WITH_SELECT_REGULAR_MULT_01$dept_empl `(id, name, surname, lastname, state, dept_id)AS(SELECT id, name, surname, lastname, state, dept_id FROM test_ora_pg.dept_employees WHERE state = 1); CREATE VIEW TEST_ORA_PG.`P_WITH_SELECT_REGULAR_MULT_01$dept `(deptid, parent_id,deptname)AS(SELECT id deptid, parent_id, name deptname FROM test_ora_pg.department);

CREATE PROCEDURE test_ora_pg.P_WITH_SELECT_REGULAR_MULT_01()BEGIN DECLARE var$ID DOUBLE; DECLARE var$NAME VARCHAR (30); DECLARE var$SURNAME VARCHAR (30);

Version 1.040

Page 47: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a MySQL

Instrucción de Oracle Instrucción de MySQL FROM dept_empl, dept WHERE dept_empl.dept_id = dept.deptid ) LOOP NULL; END LOOP;

DECLARE var$LASTNAME VARCHAR (30); DECLARE var$STATE DOUBLE; DECLARE var$DEPT_ID DOUBLE; DECLARE var$deptid DOUBLE; DECLARE var$PARENT_ID DOUBLE; DECLARE var$deptname VARCHAR (200); DECLARE done INT DEFAULT FALSE; DECLARE cur CURSOR FOR SELECT dept_empl.*, dept.* FROM TEST_ORA_PG.`P_WITH_SELECT_REGULAR_MULT_01$dept_empl ` AS dept_empl, TEST_ORA_PG.`P_WITH_SELECT_REGULAR_MULT_01$dept ` AS dept WHERE dept_empl.DEPT_ID = dept.DEPTID; DECLARE CONTINUE HANDLER FOR NOT FOUND SET done := TRUE; OPEN cur;

read_label: LOOP FETCH cur INTO var$ID, var$NAME, var$SURNAME, var$LASTNAME, var$STATE, var$DEPT_ID, var$deptid, var$PARENT_ID, var$deptname;

IF done THEN LEAVE read_label; END IF;

BEGIN END; END LOOP; CLOSE cur;END;

call test_ora_pg.P_WITH_SELECT_REGULAR_MULT_01()

Version 1.041

Page 48: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a Amazon RDS Oracle

Instrucción de Oracle Instrucción de MySQL

CREATE PROCEDURE TEST_ORA_PG.P_WITH_SELECT_VAR_CROSS_02(p_state IN NUMBER)AS l_dept_id NUMBER := 10;BEGIN FOR cur IN ( WITH emp AS (SELECT id, name, surname, lastname, state, dept_id FROM test_ora_pg.dept_employees WHERE dept_id > 10 ), active_emp AS ( SELECT id FROM emp WHERE emp.state = p_state ) SELECT * FROM active_emp ) LOOP NULL; END LOOP; END;

CREATE VIEW TEST_ORA_PG.`P_WITH_SELECT_VAR_CROSS_01$emp `(id, name, surname, lastname, state, dept_id)AS(SELECT id, name, surname, lastname, state, dept_id FROM TEST_ORA_PG.DEPT_EMPLOYEES WHERE DEPT_ID > 10);

CREATE PROCEDURE test_ora_pg.P_WITH_SELECT_VAR_CROSS_02(IN par_P_STATE DOUBLE)BEGIN DECLARE var_l_dept_id DOUBLE DEFAULT 10; DECLARE var$ID DOUBLE; DECLARE done INT DEFAULT FALSE; DECLARE cur CURSOR FOR SELECT * FROM (SELECT ID FROM TEST_ORA_PG. `P_WITH_SELECT_VAR_CROSS_01$emp` AS emp WHERE emp.STATE = par_p_state) AS active_emp; DECLARE CONTINUE HANDLER FOR NOT FOUND SET done := TRUE; OPEN cur;

read_label: LOOP FETCH cur INTO var$ID;

IF done THEN LEAVE read_label; END IF;

BEGIN END; END LOOP; CLOSE cur;END;

Conversión de Oracle a Amazon RDS for OracleHay algunos aspectos que deben tenerse en cuenta al migrar un esquema y un código de Oracle aAmazon RDS for Oracle:

• AWS SCT puede añadir objetos de directorio en el árbol de objetos. Los objetos de directorio sonestructuras lógicas, cada una de las cuales representa un directorio físico del sistema de archivos

Version 1.042

Page 49: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a Amazon RDS Oracle

del servidor. Puede utilizar objetos de directorio con paquetes como DBMS_LOB, UTL_FILE,DBMS_FILE_TRANSFER, la utilidad DATAPUMP, etc.

• AWS SCT permite convertir espacios de tabla de Oracle en una instancia de base de datos de AmazonRDS for Oracle. Oracle almacena los datos de forma lógica en espacios de tabla y físicamente enarchivos de datos asociados con el espacio de tabla correspondiente. En Oracle, se puede crear unespacio de tabla con los nombres de los archivos de datos. Amazon RDS solamente permite usararchivos administrados por Oracle (OMF) con archivos de datos, archivos log y archivos de control. AWSSCT crea los archivos de datos necesarios durante la conversión.

• AWS SCT puede convertir funciones y privilegios del nivel del servidor. El motor de base de datosOracle utiliza la seguridad basada en roles. Una función es un conjunto de privilegios que se puedenconceder a un usuario o que se pueden revocar. Una función predefinida de Amazon RDS llamada DBAnormalmente admite todos los privilegios administrativos de un motor de base de datos de Oracle. Losprivilegios que se indican a continuación no están disponibles en la función DBA de las instancias debase de datos de Amazon RDS que utilizan el motor de Oracle:• Alter database• Alter system• Create any directory• Grant any privilege• Grant any role• Create external job

Puede conceder todos los demás privilegios a una función de usuario de Amazon RDS for Oracle,incluidos los de filtrado avanzado y de columnas.

• AWS SCT admite la conversión de trabajos de Oracle en trabajos que pueden ejecutarse en AmazonRDS for Oracle. Existen algunas limitaciones en la conversión, entre las que se incluyen las siguientes:• No se admiten los trabajos ejecutables.• No se admiten los trabajos de programación que usan el tipo de datos ANYDATA como un argumento.

• Oracle Real Application Clusters (RAC) One Node es una opción de Oracle Database Enterprise Editionque se introdujo con Oracle Database 11g versión 2. Amazon RDS for Oracle no admite la característicaRAC. Para obtener una alta disponibilidad, utilice Multi-AZ de Amazon RDS.

En una implementación Multi-AZ, Amazon RDS aprovisiona y mantiene automáticamente una réplica enespera sincrónica dentro de una zona de disponibilidad diferente. La instancia de base de datos principalse replica sincrónicamente en las zonas de disponibilidad en una réplica en espera. Esta funcionalidadproporciona redundancia de datos, elimina los bloqueos de E/S y minimiza los picos de latencia durantelos backups del sistema.

• Oracle Spatial proporciona un esquema y funciones SQL que facilitan el almacenamiento, larecuperación, la actualización y la consulta de colecciones de datos espaciales en una base de datosde Oracle. Oracle Locator proporciona capacidades que suelen ser necesarias para admitir aplicacionesbasadas en servicio de Internet e inalámbricas y soluciones de Sistemas de información geográfica (SIG)basadas en el partner. Oracle Locator es una subred limitada de Oracle Spatial.

Para utilizar las características de Oracle Spatial u Oracle Locator, debe agregar la opción SPATIAL o laopción LOCATOR (mutuamente excluyentes) al grupo de opciones de la instancia de base de datos.

Existen algunas requisitos previos que debe cumplir para poder usar Oracle Spatial u Oracle Locator enuna instancia de base de datos de Amazon RDS for Oracle:• La instancia debe usar Oracle Enterprise Edition versión 12.1.0.2.v6 o posterior o la versión

11.2.0.4.v10 o posterior.• La instancia debe estar dentro de una nube virtual privada (VPC).• La instancia debe usar la clase de instancia de base de datos que es compatible con la característica

de Oracle. Por ejemplo, Oracle Spatial no se admite para las clases de instancia de base dedatos db.m1.small, db.t1.micro, db.t2.micro o db.t2.small. Para obtener más información, consulteCompatibilidad de Oracle con las clases de instancias de bases de datos.

Version 1.043

Page 50: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe Oracle a Amazon RDS Oracle

• La instancia debe tener habilitada la opción Auto Minor Version Upgrade (Actualización automáticade versiones menores). Amazon RDS actualiza automáticamente su instancia de base de datos ala versión más reciente de Oracle PSU si hay vulnerabilidades de seguridad con una puntuación deCVSS superior a 9 u otras vulnerabilidades de seguridad anunciadas. Para obtener más información,consulte

Configuración de las instancias de base de datos de Oracle .• Si la versión de su instancia de base de datos es la 11.2.0.4.v10 o posterior, debe instalar la opción

XMLDB. Para obtener más información, consulte

Oracle XML DB .• Debe tener una licencia de Oracle Spatial de Oracle. Para obtener más información, consulte Oracle

Spatial and Graph en la documentación de Oracle.• Data Guard se incluye con Oracle Database Enterprise Edition. Para obtener una alta disponibilidad,

utilice la característica Multi-AZ de Amazon RDS.

En una implementación Multi-AZ, Amazon RDS aprovisiona y mantiene automáticamente una réplica enespera sincrónica dentro de una zona de disponibilidad diferente. La instancia de base de datos principalse replica sincrónicamente en las zonas de disponibilidad en una réplica en espera. Esta funcionalidadproporciona redundancia de datos, elimina los bloqueos de E/S y minimiza los picos de latencia durantelos backups del sistema.

• AWS SCT permite convertir objetos de Oracle DBMS_SCHEDULER al migrar a Amazon RDS for Oracle.El informe de evaluación de AWS SCT indica si un objeto de programación se puede convertir. Paraobtener más información acerca del uso de objetos de programación con Amazon RDS, consulte ladocumentación de Amazon RDS.

• En el caso de conversiones de Oracle a Amazon RDS for Oracle, se admiten los enlaces de base dedatos. Un enlace de base de datos es un objeto de esquema en una base de datos que le permiteobtener acceso a los objetos de otra base de datos. No es necesario que la otra base de datos sea deOracle. Sin embargo, para obtener acceso a las bases de datos que no son de Oracle, debe utilizarOracle Heterogeneous Services.

Una vez creado un enlace de base de datos, puede utilizar el enlace en instrucciones SQL para hacerreferencia a tablas, vistas y objetos PL/SQL en la otra base de datos. Para utilizar un enlace de base dedatos, añada @dblink al nombre de tabla, vista u objeto PL/SQL. Puede consultar una tabla o una vistade la otra base de datos con la instrucción SELECT. Para obtener más información acerca del uso deenlaces de base de datos de Oracle, consulte la documentación de Oracle.

Para obtener más información acerca del uso de enlaces de base de datos con Amazon RDS, consultela documentación de Amazon RDS.

• El informe de evaluación de AWS SCT proporciona métricas de servidor para la conversión. Estasmétricas acerca de la instancia de Oracle incluyen:• Capacidad de memoria y computación de la instancia de base de datos de destino.• Características de Oracle, como Unified Auditing y Real Application Clusters no compatibles que

Amazon RDS no admite.• Carga de lectura-escritura en disco.• Rendimiento de disco medio total• Información del servidor, como nombre de servidor, sistema operativo, alojamiento, nombre y conjunto

de caracteres.

Limitaciones al convertir de Oracle a Amazon RDS for OracleHay que tener en cuenta algunas limitaciones al migrar un esquema y un código de Oracle a Amazon RDSfor Oracle:

Version 1.044

Page 51: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de Microsoft SQL Server como origen para

Herramienta de conversión de esquemas de AWS

• Una función predefinida de Amazon RDS llamada DBA normalmente admite todos los privilegiosadministrativos de un motor de base de datos de Oracle. Los privilegios que se indican a continuación noestán disponibles en la función DBA de las instancias de base de datos de Amazon RDS que utilizan elmotor de Oracle:• Alter database• Alter system• Create any directory• Grant any privilege• Grant any role• Create external job

Todos los demás privilegios se pueden conceder a una función de usuario de Oracle RDS.• Amazon RDS para Oracle no admite Oracle Unified Auditing. Amazon RDS for Oracle admite las

auditorías tradicionales y detalladas mediante el paquete DBMS_FGA.• Amazon RDS for Oracle no admite la captura de datos de cambios (CDC). Para realizar la captura

de datos de cambios durante y después de la migración de una base de datos, use AWS DatabaseMigration Service.

Uso de Microsoft SQL Server como origen paraHerramienta de conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir esquemas y código de aplicación de SQL Server a los siguientesdestinos:

• Amazon RDS for MySQL• Amazon Aurora (MySQL)• Amazon RDS for PostgreSQL• Amazon Aurora (PostgreSQL)• Amazon RDS for SQL Server

Para obtener más información, consulte las siguientes secciones:

Temas• Permisos necesarios al usar Microsoft SQL Server como origen (p. 45)• Uso de la autenticación de Windows al utilizar Microsoft SQL Server como origen (p. 46)• Conexión a SQL Server como origen (p. 47)• Conversión de SQL Server a MySQL (p. 49)• Conversión de SQL Server PostgreSQL (p. 50)• Conversión de SQL Server a Amazon RDS for SQL Server (p. 54)

Permisos necesarios al usar Microsoft SQL Servercomo origenLos privilegios necesarios para Microsoft SQL Server como origen se enumeran a continuación:

• VIEW DEFINITION• VIEW DATABASE STATE

Version 1.045

Page 52: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOrigen: autenticación de Windows con Microsoft SQL Server

Repita la concesión para cada base de datos cuyo esquema vaya a convertir.

Uso de la autenticación de Windows al utilizarMicrosoft SQL Server como origenSi la aplicación se ejecuta en una intranet basada en Windows, es posible que pueda utilizar laautenticación de Windows para el acceso a las bases de datos. La autenticación de Windows utiliza laidentidad de Windows actual establecida en el subproceso de sistema operativo para obtener acceso ala base de datos de SQL Server. A continuación, puede mapear la identidad de Windows a una base dedatos de SQL Server y sus permisos. Para conectarse a SQL Server con la autenticación de Windows,debe especificar la identidad de Windows que utiliza la aplicación. También debe conceder a la identidadde Windows acceso a la base de datos de SQL Server.

SQL Server tiene dos modos de acceso: autenticación de Windows y mixto. El modo de autenticaciónde Windows habilita dicha autenticación y deshabilita la de SQL Server. El modo mixto habilita tanto laautenticación de Windows como la de SQL Server. La autenticación de Windows siempre está disponible yno se puede deshabilitar. Para obtener más información acerca de la autenticación de Windows, consultela documentación de Microsoft Windows.

A continuación se muestra el ejemplo posible para crear un usuario en TEST_DB

USE [TEST_DB]CREATE USER [TestUser] FOR LOGIN [TestDomain\TestUser]GRANT VIEW DEFINITION TO [TestUser]GRANT VIEW DATABASE STATE TO [TestUser]

Uso de la autenticación de Windows con una conexión JDBCEl controlador JDBC no admite la autenticación de Windows si dicho controlador se utiliza en sistemasoperativos que no son de Windows. Las credenciales de autenticación de Windows, como el nombre deusuario y la contraseña, al conectarse a SQL Server desde sistemas operativos que no son de Windows.En estos casos, las aplicaciones deben utilizar la autenticación de SQL Server.

En la cadena de conexión de JDBC, debe especificarse el parámetro integratedSecurity paraconectarse mediante la autenticación de Windows. El controlador JDBC admite la autenticación deWindows integrada para los sistemas operativos de Windows a través del parámetro de cadena deconexión integratedSecurity.

Para usar la autenticación integrada

1. Instale el controlador JDBC.2. Copie el archivo sqljdbc_auth.dll en un directorio de la ruta de sistema de Windows en el equipo

donde está instalado el controlador JDBC.

Los archivos sqljdbc_auth.dll se instalan en la ubicación siguiente:

<directorio de instalación>\sqljdbc_<versión>\<idioma>\auth\

Cuando intenta establecer una conexión a una base de datos de SQL Server con la autenticación deWindows, podría aparecer un error que indica que el controlador no está configurado para la autenticaciónintegrada. Este problema se puede resolver con las siguientes acciones:

• Debe declarar dos variables que apunten a la ruta instalada de JDBC:

-nombre de variable: SQLJDBC_HOME; valor de variable: D:\lib\JDBC4.1\enu (donde está sqljdbc4.jar);

Version 1.046

Page 53: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a SQL Server como origen

-nombre de variable: SQLJDBC_AUTH_HOME; valor de variable: D\lib\JDBC4.1\enu\auth\x86 (si ejecutaun sistema operativo de 32 bits) o D\lib\JDBC4.1\enu\auth\x64 (si ejecuta un sistema operativo de 64bits). Aquí es donde se encuentra sqljdbc_auth.dll.

• Copie sqljdbc_auth.dll en la carpeta donde se ejecuta JDK/JRE. Puede copiar la carpeta lib, la carpetabin, etc. Hemos copiado las siguientes carpetas:

[JDK_INSTALLED_PATH]\bin; [JDK_INSTALLED_PATH]\jre\bin; [JDK_INSTALLED_PATH]\jre\lib; [JDK_INSTALLED_PATH]\lib;

• Asegúrese de que en la carpeta de bibliotecas jdbc solo tiene SQLJDBC4.jar. Quite los demás archivossqljdbc*.jar de esa carpeta (o cópielos en otra). Si va a agregar el controlador como parte de suprograma, asegúrese de que agregar solo SQLJDBC4.jar como el controlador que se utilizará.

• Copie el archivo sqljdbc_auth.dll en la carpeta con su aplicación.

Note

Si ejecuta una máquina virtual de Java (JVM) de 32 bits, utilice el archivo sqljdbc_auth.dll de lacarpeta x86, incluso si la versión del sistema operativo es x64. Si ejecuta una JVM de 64 bits enun procesador x64, utilice el archivo sqljdbc_auth.dll de la carpeta x64.

Al conectarse a una base de datos de SQL Server, puede elegir Windows Authentication (Autenticaciónde Windows) o SQL Server Authentication (Autenticación de SQL Server) en la opción Authentication(Autenticación).

Conexión a SQL Server como origenUtilice el siguiente procedimiento para conectarse a su base de datos Microsoft SQL Server de origen conla Herramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de Microsoft SQL Server de origen

1. En la Herramienta de conversión de esquemas de AWS, elija Connect to Microsoft SQL Server(Conectar a Microsoft SQL Server).

Aparecerá el cuadro de diálogo Connect to Microsoft SQL Server.

Version 1.047

Page 54: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a SQL Server como origen

2. Proporcione la información de conexión a la base de datos de Microsoft SQL Server de origen. Utilicelas instrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Instance name Escriba el nombre de la instancia de la base de datos de SQLServer. Para encontrar el nombre de la instancia, ejecute laconsulta SELECT @@servername; en su base de datos de SQLServer.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar capa de conexiónsegura (SSL) para conectarse a la base de datos. Proporcionela siguiente información adicional, según proceda, en la pestañaSSL:

Version 1.048

Page 55: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a MySQL

Para este parámetro Haga lo siguiente• Trust Server Certificate: seleccione esta opción para confiar en

el certificado del servidor.• Trust Store: la ubicación de un almacén de confianza que

contenga certificados.• Trust Store Password: contraseña del almacén de confianza.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Sql Server Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Conversión de SQL Server a MySQLHay algunos aspectos que deben tenerse en cuenta al migrar un esquema de SQL Server a MySQL:

• MySQL no admite la instrucción MERGE. Sin embargo, AWS SCT puede emular la instrucción MERGEdurante la conversión a través de la cláusula INSERT ON DUPLICATE KEY y las instrucciones UPDATEFROM y DELETE FROM.

Para conseguir una emulación correcta con INSERT ON DUPLICATE KEY, asegúrese de que existe unarestricción o una clave principal únicas en la base de datos MySQL de destino.

• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTO yuna etiqueta. Todas las instrucciones Transact-SQL que van detrás de una instrucción GOTO se omiteny el procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar encualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también sepueden anidar.

MySQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene unainstrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END oLOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte lasinstrucciones GOTO.

Instrucción de SQL Server Instrucción de MySQL

BEGIN .... statement1;

BEGIN label1: BEGIN

Version 1.049

Page 56: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a PostgreSQL

Instrucción de SQL Server Instrucción de MySQL .... GOTO label1; statement2; .... label1: Statement3; ....END

.... statement1; .... LEAVE label1; statement2; .... END; Statement3; ....END

BEGIN .... statement1; .... label1: statement2; .... GOTO label1; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: LOOP statement2; .... ITERATE label1; LEAVE label1; END LOOP; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: statement2; .... statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: BEGIN statement2; .... statement3; .... statement4; .... END; END

• MySQL no admite funciones con valores de tabla compuestas de varias instrucciones. AWS SCT simulalas funciones con valores de tabla durante una conversión creando tablas temporales y reescribiendoinstrucciones para utilizar estas tablas temporales.

Conversión de SQL Server PostgreSQLHay algunos aspectos que deben tenerse en cuenta al migrar un esquema de SQL Server a PostgreSQL:

• En PostgreSQL, todos los nombres de objeto de un esquema deben ser único, incluidos los índices. Losnombres de los índices deben ser únicos en el esquema de la tabla base. En SQL Server, un nombre deíndice puede ser igual en diferentes tablas.

Para garantizar la exclusividad de los índices, AWS SCT brinda la opción de generar nombres de índiceúnicos si dichos nombres de índice no lo son. Para ello, seleccione la opción Generate unique index

Version 1.050

Page 57: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a PostgreSQL

names (Generar nombres de índice únicos) en las propiedades del proyecto. Esta opción está habilitadade forma predeterminada. Si esta opción está habilitada, se crean nombres de índice único con elformato IX_nombre_tabla_nombre_índice. Si esta opción está deshabilitada, los nombres de índice no semodifican.

• Para cambiar el orden en el que se ejecutan las instrucciones, se puede utilizar una instrucción GOTO yuna etiqueta. Todas las instrucciones Transact-SQL que van detrás de una instrucción GOTO se omiteny el procesamiento continúa en la etiqueta. Las instrucciones GOTO y las etiquetas se pueden utilizar encualquier lugar de un procedimiento, lote o bloque de instrucciones. Las instrucciones GOTO también sepueden anidar.

PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT convierte un código que contiene unainstrucción GOTO, convierte esta instrucción para que utilizar en su lugar una instrucción BEGIN...END oLOOP...END LOOP. En la tabla siguiente, puede ver algunos ejemplos de cómo AWS SCT convierte lasinstrucciones GOTO.

Instrucciones GOTO de SQL Server e instrucciones PostgreSQL convertidas

Instrucción de SQL Server Instrucción de PostgreSQL

BEGIN .... statement1; .... GOTO label1; statement2; .... label1: Statement3; ....END

BEGIN label1: BEGIN .... statement1; .... EXIT label1; statement2; .... END; Statement3; ....END

BEGIN .... statement1; .... label1: statement2; .... GOTO label1; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: LOOP statement2; .... CONTINUE label1; EXIT label1; END LOOP; statement3; .... statement4; ....END

BEGIN .... statement1; .... label1: statement2; .... statement3; .... statement4;

BEGIN .... statement1; .... label1: BEGIN statement2; .... statement3; ....

Version 1.051

Page 58: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a PostgreSQL

Instrucción de SQL Server Instrucción de PostgreSQL ....END

statement4; .... END; END

• PostgreSQL no admite la instrucción MERGE. AWS SCT emula el comportamiento de una instrucciónMERGE de las siguientes formas:• Mediante la construcción INSERT ON CONFLICT.• Mediante la instrucción UPDATE FROM DML, como MERGE sin la cláusula WHEN NOT MATCHED.• Mediante el uso de CURSOR, como con una cláusula MERGE con DELETE o mediante el uso de una

instrucción de condición compleja MERGE ON.• AWS SCT puede añadir disparadores de bases de datos al árbol de objetos cuando el destino es

Amazon RDS.• AWS SCT puede añadir disparadores de nivel de servidor al árbol de objetos cuando el destino es

Amazon RDS.• AWS SCT puede añadir servidores enlazados al árbol de objetos cuando el destino es Amazon RDS.• Al migrar desde Microsoft SQL Server a PostgreSQL, la función SUSER_SNAME integrada se convierte

tal y como se indica a continuación:• SUSER_SNAME: devuelve el nombre de inicio de sesión asociado a un número de identificación de

seguridad (SID).• SUSER_SNAME(<sid_usuario_servidor>): no admitido.• SUSER_SNAME() CURRENT_USER: devuelve el nombre de usuario del contexto de ejecución actual.• SUSER_SNAME (NULL): devuelve NULL.

• Se permite la conversión de funciones con valores de tabla. Las funciones con valores de tabladevuelven una tabla y pueden tomar el lugar de una tabla en una consulta.

• PATINDEX devuelve la posición inicial de la primera coincidencia de un patrón en una expresiónespecificada, o ceros si no se encuentra el patrón, en todos los tipos de datos de texto y caracteresválidos. Al convertir de SQL Server a Amazon RDS for PostgreSQL, AWS SCT reemplaza el códigode aplicación que usa PATINDEX por aws_sqlserver_ext.patindex<carácter de patrón>, <carácter deexpresión variable>).

• En SQL Server, un tipo de tabla definido por el usuario es un tipo que representa la definición dela estructura de una tabla. Puede utilizar un tipo de tabla definido por el usuario para declarar losparámetros de tabla-valor en funciones o procedimientos almacenados o bien para declarar las variablesde tabla que se desea utilizar en un lote o en el cuerpo de una función o procedimiento almacenado.AWS SCT emula este tipo en PostgreSQL creando una tabla temporal.

Al convertir de SQL Server a PostgreSQL, AWS SCT convierte los objetos de sistema de SQL Server enobjetos reconocibles en PostgreSQL. En la siguiente tabla se muestra cómo se convierten los objetos delsistema.

>Casos de uso de MS SQLServer

Sustitución de PostgreSQL

SYS.SCHEMAS AWS_SQLSERVER_EXT.SYS_SCHEMAS

SYS.TABLES AWS_SQLSERVER_EXT.SYS_TABLES

SYS.VIEWS AWS_SQLSERVER_EXT.SYS_VIEWS

SYS.ALL_VIEWS AWS_SQLSERVER_EXT.SYS_ALL_VIEWS

SYS.TYPES AWS_SQLSERVER_EXT.SYS_TYPES

Version 1.052

Page 59: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a PostgreSQL

>Casos de uso de MS SQLServer

Sustitución de PostgreSQL

SYS.COLUMNS AWS_SQLSERVER_EXT.SYS_COLUMNS

SYS.ALL_COLUMNS AWS_SQLSERVER_EXT.SYS_ALL_COLUMNS

SYS.FOREIGN_KEYS AWS_SQLSERVER_EXT.SYS_FOREIGN_KEYS

SYS.SYSFOREIGNKEYS AWS_SQLSERVER_EXT.SYS_SYSFOREIGNKEYS

SYS.FOREIGN_KEY_COLUMNSAWS_SQLSERVER_EXT.SYS_FOREIGN_KEY_COLUMNS

SYS.KEY_CONSTRAINTS AWS_SQLSERVER_EXT.SYS_KEY_CONSTRAINTS

SYS.IDENTITY_COLUMNS AWS_SQLSERVER_EXT.SYS_IDENTITY_COLUMNS

SYS.PROCEDURES AWS_SQLSERVER_EXT.SYS_PROCEDURES

SYS.INDEXES AWS_SQLSERVER_EXT.SYS_INDEXES

SYS.SYSINDEXES AWS_SQLSERVER_EXT.SYS_SYSINDEXES

SYS.OBJECTS AWS_SQLSERVER_EXT.SYS_OBJECTS

SYS.ALL_OBJECTS AWS_SQLSERVER_EXT.SYS_ALL_OBJECTS

SYS.SYSOBJECTS AWS_SQLSERVER_EXT.SYS_SYSOBJECTS

SYS.SQL_MODULES AWS_SQLSERVER_EXT.SYS_SQL_MODULES

SYS.DATABASES AWS_SQLSERVER_EXT.SYS_DATABASES

INFORMATION_SCHEMA.SCHEMATAAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_SCHEMATA

INFORMATION_SCHEMA.VIEWSAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_VIEWS

INFORMATION_SCHEMA.TABLESAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_TABLES

INFORMATION_SCHEMA.COLUMNSAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_COLUMNS

INFORMATION_SCHEMA.CHECK_CONSTRAINTSAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CHECK_CONSTRAINTS

INFORMATION_SCHEMA.REFERENTIAL_CONSTRAINTSAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_REFERENTIAL_CONSTRAINTS

INFORMATION_SCHEMA.TABLE_CONSTRAINTSAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_TABLE_CONSTRAINTS

INFORMATION_SCHEMA.KEY_COLUMN_USAGEAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_KEY_COLUMN_USAGE

INFORMATION_SCHEMA.CONSTRAINT_TABLE_USAGEAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CONSTRAINT_TABLE_USAGE

INFORMATION_SCHEMA.CONSTRAINT_COLUMN_USAGEAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_CONSTRAINT_COLUMN_USAGE

INFORMATION_SCHEMA.ROUTINESAWS_SQLSERVER_EXT.INFORMATION_SCHEMA_ROUTINES

SYS.SYSPROCESSES AWS_SQLSERVER_EXT.SYS_SYSPROCESSES

sys.system_objects AWS_SQLSERVER_EXT.SYS_SYSTEM_OBJECTS

Version 1.053

Page 60: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe SQL Server a Amazon RDS for SQL Server

Conversión de particiones de SQL Server a particiones dePostgreSQL versión 10En SQL Server, debe crear particiones con funciones de partición. Cuando una tabla particionada de SQLServer se convierte en una tabla particionada de PostgreSQL versión 10, debe tenerse en cuenta quepueden producirse algunos problemas:

• SQL Server le permite particionar una tabla utilizando una columna sin la restricción NOT NULL. Enese caso, todos los valores NULL van a la partición situada más a la izquierda. PostgreSQL no admitevalores NULL con particiones RANGE.

• SQL Server le permite crear claves principales y claves únicas para tablas particionadas. En el casode PostgreSQL, las claves primarias y las claves únicas se crean directamente para cada partición.Por tanto, la restricción PRIMARY o UNIQUE KEY debe eliminarse de la tabla principal al migrar aPostgreSQL. Los nombres de clave resultantes tienen el formato

<original_key_name>_<partition_number>.• SQL Server permite crear restricciones de clave externa que tienen como origen o destino tablas

particionadas. PostgreSQL no admite las claves externas que hacen referencia a tablas particionadas.Además, PostgreSQL tampoco admite las referencias de clave externa entre una tabla particionada yotra tabla.

• SQL Server permite crear índices para las tablas particionadas. En PostgreSQL, los índicesdeben crearse directamente con cada partición. Por lo tanto, los índices deben eliminarse de sustablas principales al migrar a PostgreSQL. Los nombres de índice resultantes tienen el formato<original_index_name>_<partition_number>.

• PostgreSQL no admite índices particionados.

Conversión de SQL Server a Amazon RDS for SQLServerHay algunos aspectos que deben tenerse en cuenta al migrar un esquema y un código de SQL Server aAmazon RDS for SQL Server:

• AWS SCT puede convertir el agente de SQL Server para que proporcione programaciones, alertasy trabajos en una instancia de base de datos de Amazon RDS for SQL Server. Una vez realizada laconversión, la instancia de base de datos de Amazon RDS for SQL Server puede utilizarse como origende datos de SQL Server Reporting Services (SSRS), SQL Server Analysis Services (SSAS) y SQLServer Integration Services (SSIS). Estos servicios no se pueden ejecutar en la instancia de base dedatos.

• Actualmente, Amazon RDS no admite SQL Server Service Broker ni puntos de enlace de T-SQLadicionales que requieran ejecutar el comando CREATE ENDPOINT.

• Amazon RDS tiene una compatibilidad limitada con los servidores enlazados. Al convertir el código deaplicación de SQL Server que utiliza servidores enlazados, AWS SCT convierte el código de aplicación,pero debe revisar el comportamiento de los objetos que utilizan servidores de enlace antes de ejecutar elcódigo convertido.

• El informe de evaluación de AWS SCT proporciona métricas de servidor para la conversión. Estasmétricas acerca de la instancia de SQL Server incluyen:• Uso de la replicación de datos.• Configuración de Trasvase de registros de SQL Server.• Uso de AlwaysON. Amazon RDS no admite AlwaysOn.• Uso de un clúster de conmutación por error.

Version 1.054

Page 61: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar MySQL como origen para Herramienta

de conversión de esquemas de AWS

• Configuración de Correo electrónico de base de datos. Amazon RDS no admite Correo electrónico debase de datos.

• Uso de Servicio SQL Server Reporting Services (SSRS). Amazon RDS no admite SSRS. Porconsiguiente, recomendamos instalar SQL Server en una instancia Amazon EC2.

• Uso de SQL Server Analysis Services (SSAS). Amazon RDS no admite SSAS. Por consiguiente,recomendamos instalar SQL Server en una instancia Amazon EC2.

• Uso de SQL Server Integration Services (SSIS). Amazon RDS no admite SSIS. Por consiguiente,recomendamos instalar SQL Server en una instancia Amazon EC2.

• Uso de Servicio de búsqueda de texto completo. La búsqueda de texto completo en Amazon RDSpara SQL Server es limitada y no admite la búsqueda semántica.

• Instalación de Data Quality Services (DQS). Amazon RDS no admite DQS. Por consiguiente,recomendamos instalar SQL Server en una instancia Amazon EC2.

Utilizar MySQL como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir esquemas y código de aplicación de MySQL a los siguientesdestinos:

• Amazon RDS for PostgreSQL• Amazon Aurora (PostgreSQL)• Amazon RDS for MySQL• Amazon Aurora (MySQL)

Para obtener más información, consulte las siguientes secciones:

Temas• Privilegios para MySQL como base de datos de origen (p. 55)• Conexión a MySQL como base de datos de origen (p. 55)

Privilegios para MySQL como base de datos de origenLos privilegios necesarios para MySQL como origen se enumeran a continuación:

• SELECT ON *.*• SELECT ON mysql.proc• SHOW VIEW ON *.*

Conexión a MySQL como base de datos de origenUtilice el siguiente procedimiento para conectarse a su base de datos MySQL de origen con la Herramientade conversión de esquemas de AWS.

Para conectarse a una base de datos de MySQL

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to MySQL (Conectar aMySQL).

Version 1.055

Page 62: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a MySQL como origen

Aparecerá el cuadro de diálogo Connect to MySQL.

2. Proporcione la información de conexión de la base de datos de MySQL de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

Version 1.056

Page 63: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar PostgreSQL como origen para

Herramienta de conversión de esquemas de AWS

Para este parámetro Haga lo siguiente• Require SSL: seleccione esta opción si desea conectar con el

servidor únicamente a través de SSL.

Note

Si selecciona Require SSL, significa que si el servidorno admite SSL, no puede conectar con el servidor.Si no selecciona Require SSL y el servidor no admiteSSL, sigue pudiendo conectar con el servidor sinutilizar SSL. Para obtener más información, consulteUso de conexiones seguras.

• Verify Server Certificate: seleccione esta opción para verificar elcertificado del servidor mediante un almacén de confianza.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados.

• Trust Store Password: contraseña del almacén de confianza.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

MySql Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Utilizar PostgreSQL como origen para Herramientade conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de PostgreSQL a los siguientes destinos:

• Amazon RDS for MySQL• Amazon Aurora (MySQL)• Amazon RDS for PostgreSQL• Amazon Aurora (PostgreSQL)

Para obtener más información, consulte las siguientes secciones:

Temas

Version 1.057

Page 64: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioFuente: PostgreSQL

• Privilegios para PostgreSQL como base de datos de origen (p. 58)• Conexión a PostgreSQL como origen (p. 58)

Privilegios para PostgreSQL como base de datos deorigenLos privilegios necesarios para PostgreSQL como origen se enumeran a continuación:

• CONNECT ON DATABASE <database_name>• USAGE ON SCHEMA <database_name>• SELECT ON ALL TABLES IN SCHEMA <database_name>• SELECT ON ALL SEQUENCES IN SCHEMA <database_name>

Conexión a PostgreSQL como origenUtilice el siguiente procedimiento para conectarse a su base de datos PostgreSQL de origen con laHerramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de PostgreSQL de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to PostgreSQL (Conectara PostgreSQL).

Aparecerá el cuadro de diálogo Connect to PostgreSQL.

2. Proporcione la información de conexión de la base de datos PostgreSQL de origen. Utilice lasinstrucciones de la siguiente tabla.

Version 1.058

Page 65: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a PostgreSQL como origen

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos PostgreSQL.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• Verify Server Certificate: seleccione esta opción para verificar elcertificado del servidor mediante un almacén de confianza.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados.

• Trust Store Password: contraseña del almacén de confianza.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

PostgreSQL Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Version 1.059

Page 66: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de Db2 LUW como origen para Herramienta

de conversión de esquemas de AWS

Uso de Db2 LUW como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Db2 LUW a los siguientes destinos. AWS SCT admitecomo origen las versiones 9.1, 9.5, 9.7, 10.1, 10.5 y 11.1 de Db2 LUW.

• Amazon RDS for MySQL• Amazon Aurora (MySQL)• Amazon RDS for PostgreSQL• Amazon Aurora (PostgreSQL)

Permisos necesarios al usar Db2 LUW como origenLos privilegios necesarios para conectarse a una base de datos DB2LUW, comprobar los privilegiosdisponibles y leer los metadatos de esquema de un origen se enumeran a continuación:

• Privilegio necesario para establecer una conexión:

GRANT CONNECT ON DATABASE TO USER min_privs;• Privilegio necesario para ejecutar instrucciones SQL:

GRANT EXECUTE ON PACKAGE NULLID.SYSSH200 TO USER MIN_PRIVS;• Privilegios necesarios para obtener información de nivel de instancia:

• GRANT EXECUTE ON FUNCTION SYSPROC.ENV_GET_INST_INFO TO USER MIN_PRIVS;• GRANT SELECT ON SYSIBMADM.ENV_INST_INFO TO USER MIN_PRIVS;• GRANT SELECT ON SYSIBMADM.ENV_SYS_INFO TO USER MIN_PRIVS;

• Privilegios necesarios para comprobar los privilegios concedidos a través de roles, grupos y autoridades:• GRANT EXECUTE ON FUNCTION SYSPROC.AUTH_LIST_AUTHORITIES_FOR_AUTHID TO USER

MIN_PRIVS;• GRANT EXECUTE ON FUNCTION SYSPROC.AUTH_LIST_GROUPS_FOR_AUTHID TO USER

MIN_PRIVS;• GRANT EXECUTE ON FUNCTION SYSPROC.AUTH_LIST_ROLES_FOR_AUTHID TO USER

MIN_PRIVS;• GRANT SELECT ON SYSIBMADM.PRIVILEGES TO USER MIN_PRIVS;

• Privilegios necesarios en los catálogos y las tablas del sistema:• GRANT SELECT ON SYSCAT.ATTRIBUTES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.CHECKS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.COLIDENTATTRIBUTES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.COLUMNS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.DATAPARTITIONEXPRESSION TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.DATAPARTITIONS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.DATATYPEDEP TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.DATATYPES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.HIERARCHIES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.INDEXCOLUSE TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.INDEXES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.INDEXPARTITIONS TO USER MIN_PRIVS;

Version 1.060

Page 67: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOrigen: Db2 LUW

• GRANT SELECT ON SYSCAT.KEYCOLUSE TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.MODULEOBJECTS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.MODULES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.NICKNAMES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.PERIODS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.REFERENCES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.ROUTINEPARMS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.ROUTINES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.ROWFIELDS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.SCHEMATA TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.SEQUENCES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.TABCONST TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.TABLES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.TRIGGERS TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.VARIABLEDEP TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.VARIABLES TO USER MIN_PRIVS;• GRANT SELECT ON SYSCAT.VIEWS TO USER MIN_PRIVS;• GRANT SELECT ON SYSIBM.SYSDUMMY1 TO USER MIN_PRIVS;

• Para ejecutar instrucciones SQL, la cuenta de usuario necesita un privilegio para utilizar al menos una delas cargas de trabajo habilitadas en la base de datos. Si ninguna de las cargas de trabajo está asignadaal usuario, asegúrese de este puede obtener acceso a la carga de trabajo de usuario predeterminada:

GRANT USAGE ON WORKLOAD SYSDEFAULTUSERWORKLOAD TO USER MIN_PRIVS;

Para ejecutar consultas, debe crear un espacio de tabla temporal del sistema con un tamaño de página 8K, 16 K y 32 K, si no existen. Para crear los espacios de tabla temporales, ejecute los siguientes scripts:

CREATE BUFFERPOOL BP8K IMMEDIATE ALL DBPARTITIONNUMS SIZE AUTOMATIC NUMBLOCKPAGES 0 PAGESIZE 8K; CREATE SYSTEM TEMPORARY TABLESPACE TS_SYS_TEMP_8K PAGESIZE 8192 BUFFERPOOL BP8K; CREATE BUFFERPOOL BP16K IMMEDIATE ALL DBPARTITIONNUMS SIZE AUTOMATIC NUMBLOCKPAGES 0 PAGESIZE 16K; CREATE SYSTEM TEMPORARY TABLESPACE TS_SYS_TEMP_BP16K PAGESIZE 16384 BUFFERPOOL BP16K; CREATE BUFFERPOOL BP32K IMMEDIATE ALL DBPARTITIONNUMS SIZE AUTOMATIC NUMBLOCKPAGES 0 PAGESIZE 32K; Version 1.0

61

Page 68: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Db2 LUW como origen

CREATE SYSTEM TEMPORARY TABLESPACE TS_SYS_TEMP_BP32K PAGESIZE 32768 BUFFERPOOL BP32K;

Conexión a un origen Db2 LUWUtilice el siguiente procedimiento para conectarse a su base de datos Db2 LUW de origen con laHerramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de origen de Db2 LUW

1. En Herramienta de conversión de esquemas de AWS, seleccione Connect to Source DB2 LUW(Conectarse a DB2 LUW de origen).

Aparecerá el cuadro de diálogo Connect to DB2 LUW (Conectarse a DB2 LUW).

2. Proporcione la información de conexión de la base de datos de Db2 LUW de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos de Db2 LUW.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Version 1.062

Page 69: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Db2 LUW como origen

Para este parámetro Haga lo siguiente

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• Verify Server Certificate: seleccione esta opción para verificar elcertificado del servidor mediante un almacén de confianza.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados. Debe añadir esta ubicación en GlobalSettings antes de que aparezca aquí.

• Trust Store Password: contraseña del almacén de confianza.

Para obtener más información sobre la compatibilidad con SSL deDb2 LUW, consulte Configuración de las opciones de seguridadpara las conexiones.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

DB2 LUW Driver Path (Ruta decontroladores de DB2 LUW)

Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Version 1.063

Page 70: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDe DB2LUW a PostgreSQL

Conversión de DB2 LUW a Amazon RDS forPostgreSQL o Amazon Aurora (PostgreSQL)Hay algunos aspectos que deben tenerse en cuenta al migrar de IBM Db2 LUW a ToPostgreSQL:

• AWS SCT puede convertir varias instrucciones de activación que se utilizan con Db2 LUW. Entre estasinstrucciones de activación se incluyen las siguientes:• Eventos de activación: los eventos de activación INSERT, DELETE y UPDATE especifican que

la acción activada debe ejecutarse siempre que el evento se aplica a la tabla o vista de asuntos.Se puede especificar cualquier combinación de los eventos INSERT, DELETE y UPDATE, perocada evento solamente puede especificarse una vez. AWS SCT permite utilizar tanto uno comovarios eventos de activación. En el caso de los eventos, PostgreSQL tiene prácticamente la mismafuncionalidad.

• Evento OF COLUMN: se puede especificar un nombre de columna desde una tabla base. Eldisparador se activa únicamente cuando se actualiza una columna que aparece en la lista de nombresde columnas. PostgreSQL tiene la misma funcionalidad.

• Disparadores de instrucciones: estos disparadores indican que la acción se aplica una sola vez entoda la instrucción. Este tipo de granularidad no se puede especificar con los disparadores BEFOREo INSTEAD OF. Si se especifica, se activará un disparador UPDATE o DELETE aunque no hayaninguna fila afectada. PostgreSQL también cuenta con esta funcionalidad y la declaración de losdisparadores de instrucciones es idéntica en PostgreSQL y Db2 LUW.

• Cláusulas de referencia: estas cláusulas especifican los nombres de correlación de las variables detransición y los nombres de las tablas de transición. Los nombres de correlación identifican una filaconcreta del conjunto de filas afectadas por la operación SQL de activación. Los nombres de las tablasidentifican el conjunto completo de filas afectadas. Cada una de las filas afectadas por una operaciónSQL de activación está disponible para la acción activada al asignar a las columnas los nombresde correlación especificados. PostgreSQL no admite esta funcionalidad y solo utiliza el nombre decorrelación NEW u OLD.

• AWS SCT admite los disparadores INSTEAD OF.

Conversión de tablas particionadas de DB2 LUW a tablasparticionadas de PostgreSQL versión 10AWS SCT puede convertir tablas de Db2 LUW en tablas particionadas de PostgreSQL 10. Existen variasrestricciones al convertir una tabla particionada de Db2 LUW en PostgreSQL:

• Puede crear una tabla particionada con una columna que admita valores null en Db2 LUW y puedeespecificar una partición para almacenar los valores NULL. Sin embargo, PostgreSQL no admite valoresNULL con particiones RANGE.

• Db2 LUW puede utilizar una cláusula INCLUSIVE o EXCLUSIVE para establecer los valores límite delintervalo. PostgreSQL solo admite INCLUSIVE para el límite inicial y EXCLUSIVE para el límite final. Elnombre de la partición convertida tiene el formato <nombre_tabla_original>_<nombre_partición_original>.

• Puede crear claves principales o únicas para tablas particionadas de Db2 LUW. PostgreSQL requiereque se creen claves primarias o únicas para cada partición directamente. Las restricciones de clavesprincipales o únicas deben eliminarse de la tabla principal. El nombre de la clave convertida tiene elformato <nombre_clave_original>_<nombre_partición_original>.

• Puede crear una restricción de clave externa que tenga como origen o destino una tabla particionada deDb2 LUW. Sin embargo, PostgreSQL no admite referencias de clave externa en tablas particionadas.PostgreSQL tampoco admite las referencias de clave externa entre una tabla particionada y otra tabla.

• Puede crear un índice en una tabla particionada en Db2 LUW. Sin embargo, PostgreSQL requiere quese cree un índice para cada partición directamente. Los índices deben eliminarse de la tabla principal. Elnombre del índice convertido tiene el formato <nombre_índice_original>_<nombre_partición_original>.

Version 1.064

Page 71: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de Amazon Redshift como origen de

Herramienta de conversión de esquemas de AWS

• Debe definir los disparadores de fila en las particiones individuales, no en la tabla particionada. Losdisparadores deben eliminarse de la tabla principal. El nombre del disparador convertido tiene el formato<nombre_disparador_original>_<nombre_partición_original>.

Uso de Amazon Redshift como origen deHerramienta de conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Amazon Redshift a los siguientes destinos:

• Amazon Redshift

Privilegios para Amazon Redshift como base de datosde origenLos privilegios necesarios para usar Amazon Redshift como origen se enumeran a continuación:

• USAGE ON SCHEMA <schema_name>• SELECT ON ALL TABLES IN SCHEMA <schema_name>• SELECT ON PG_CATALOG.PG_STATISTIC• SELECT ON SVV_TABLE_INFO• SELECT ON TABLE STV_BLOCKLIST• SELECT ON TABLE STV_TBL_PERM

Conexión a Redshift como origenUtilice el siguiente procedimiento para conectarse a su base de datos de origen Amazon Redshift con laHerramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de Amazon Redshift de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Source AmazonRedshift (Conectarse a de origen).

Aparecerá el cuadro de diálogo Connect to Amazon Redshift (Conectarse a).

Version 1.065

Page 72: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Redshift como origen

2. Proporcione la información de conexión de la base de datos de Amazon Redshift de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos de Amazon Redshift.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• Verify Server Certificate: seleccione esta opción para verificar elcertificado del servidor mediante un almacén de confianza.

Version 1.066

Page 73: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar Oracle DW como origen para Herramienta

de conversión de esquemas de AWS

Para este parámetro Haga lo siguiente• Trust Store: la ubicación de un almacén de confianza que

contenga certificados. Debe añadir esta ubicación en GlobalSettings antes de que aparezca aquí.

• Trust Store Password: contraseña del almacén de confianza.

Para obtener más información sobre la compatibilidad con SSLde Amazon Redshift, consulte Configuración de las opciones deseguridad para las conexiones.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Redshift Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Utilizar Oracle DW como origen para Herramientade conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Oracle DW a Amazon Redshift.

conexión a origen, conexión a destino, información de referencia, permisos

Privilegios para Oracle Data Warehouse como origenLos privilegios necesarios para Oracle Data Warehouse como origen se enumeran a continuación:

• connect• select_catalog_role• select any dictionary

Conexión a OracleDW como origenUtilice el siguiente procedimiento para conectarse a su base de datos de almacén de datos de Oracle deorigen con la Herramienta de conversión de esquemas de AWS.

Version 1.067

Page 74: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a OracleDW como origen

Para conectarse a una base de datos de Oracle Data Warehouse de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Oracle DW (Conectara Oracle DW).

Aparecerá el cuadro de diálogo Connect to Oracle.

2. Proporcione la información de conexión de la base de datos de Oracle Data Warehouse de origen.Utilice las instrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Type Seleccione el tipo de conexión a la base de datos. En función desu tipo, proporcione la siguiente información adicional:

• SID• Server name: el nombre DNS o la dirección IP de su servidor

de base de datos de origen.• Server port: el puerto que utilice para conectarse al servidor

de su base de datos de origen.• Oracle SID: el ID del sistema (SID) de Oracle. Para encontrar

el SID de Oracle, envíe la siguiente consulta a su base dedatos de Oracle:

SELECT sys_context('userenv','instance_name')AS SID FROM dual;

• Nombre del servicio• Server name: el nombre DNS o la dirección IP de su servidor

de base de datos de origen.

Version 1.068

Page 75: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a OracleDW como origen

Para este parámetro Haga lo siguiente• Server port: el puerto que utilice para conectarse al servidor

de su base de datos de origen.• Service Name: el nombre del servicio de Oracle al que

conectarse.• TNS Alias

• TNS file path: la ruta al archivo que contiene la informaciónde conexión del nombre Transparent Network Substrate(TNS).

• TNS file path: el alias TNS de este archivo que utilizar paraconectarse a la base de datos de origen.

• TNS Connect Identifier• TNS identifier: identificador de la información de conexión del

TNS registrado.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• SSL Authentication: seleccione esta opción para utilizarautenticación SSL para la conexión.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados.

• Trust Store Password: contraseña del almacén de confianza.• Key Store: la ubicación de un almacén de claves que contenga

una clave privada y certificados. Este valor es obligatorio si estáseleccionado SSL Authentication. De lo contrario, es opcional.

• Trust Store Password: contraseña del almacén de claves. Estevalor es obligatorio si está seleccionado SSL Authentication. Delo contrario, es opcional.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Version 1.069

Page 76: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar Teradata como origen para Herramienta

de conversión de esquemas de AWS

Para este parámetro Haga lo siguiente

Oracle Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Utilizar Teradata como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Teradata a Amazon Redshift.

Privilegios para Teradata como origenLos privilegios necesarios para Teradata como origen se enumeran a continuación:

• SELECT ON DBC

Conexión a Teradata como origenUtilice el siguiente procedimiento para conectarse a su base de datos de origen de Teradata con laHerramienta de conversión de esquemas de AWS.

Para conectarse a su base de datos Teradata de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Teradata (Conectar aTeradata).

Aparecerá el cuadro de diálogo Connect to Teradata.

Version 1.070

Page 77: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Teradata como origen

2. Proporcione la información de conexión de la base de datos Teradata de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos Teradata.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Version 1.071

Page 78: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Teradata como origen

Para este parámetro Haga lo siguiente

Encrypt Data Seleccione esta opción si desea cifrar los datos que intercambiecon la base de datos.

Teradata Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Uso de la autenticación LDAP con un origen TeradataPara configurar la autenticación LDAP (Lightweight Directory Access Protocol) para los usuarios deTeradata que ejecutan Microsoft Active Directory en Windows, use el siguiente procedimiento.

En los ejemplos del procedimiento, el dominio de Active Directory es test.local.com. El servidor deWindows es DC y está configurado con la configuración predeterminada. La cuenta de usuario creada enActive Directory es test_ldapy la cuenta utiliza la contraseña test_ldap.

1. En el directorio /opt/teradata/tdat/tdgss/site, edite el archivoTdgssUserConfigFile.xml. Cambie la sección LDAP a lo siguiente.

AuthorizationSupported="no"

LdapServerName="DC.test.local.com"LdapServerPort="389"LdapServerRealm="test.local.com"LdapSystemFQDN="dc= test, dc= local, dc=com"LdapBaseFQDN="dc=test, dc=local, dc=com"

Aplique los cambios ejecutando la configuración como se indica a continuación.

#cd /opt/teradata/tdgss/bin#./run_tdgssconfig

2. Pruebe la configuración mediante el siguiente comando.

# /opt/teradata/tdat/tdgss/14.10.03.01/bin/tdsbind -u test_ldap -w test_ldap

El resultado debería ser similar al siguiente.

Version 1.072

Page 79: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar Netezza como origen para Herramienta

de conversión de esquemas de AWS

LdapGroupBaseFQDN: dc=Test, dc=local, dc=comLdapUserBaseFQDN: dc=Test, dc=local, dc=comLdapSystemFQDN: dc= test, dc= local, dc=comLdapServerName: DC.test.local.comLdapServerPort: 389LdapServerRealm: test.local.comLdapClientUseTls: noLdapClientTlsReqCert: neverLdapClientMechanism: SASL/DIGEST-MD5LdapServiceBindRequired: noLdapClientTlsCRLCheck: noneLdapAllowUnsafeServerConnect: yesUseLdapConfig: noAuthorizationSupported: noFQDN: CN=test, CN=Users, DC=Anthem, DC=local, DC=comAuthUser: ldap://DC.test.local.com:389/CN=test1,CN=Users,DC=test,DC=local,DC=comDatabaseName: testService: tdsbind

3. Reinicie TPA utilizando el siguiente comando.

#tpareset -f "use updated TDGSSCONFIG GDO"

4. Cree el mismo usuario en la base de datos de Teradata que en Active Directory, tal y como se muestraa continuación.

CREATE USER test_ldap AS PERM=1000, PASSWORD=test_ldap;GRANT LOGON ON ALL TO test WITH NULL PASSWORD;

Si cambia la contraseña de usuario en Active Directory para su usuario LDAP, debe especificar esta nuevacontraseña durante la conexión a Teradata en modo LDAP. En el modo DEFAULT, sigue siendo necesarioconectarse a Teradata con el nombre de usuario y una contraseña de LDAP.

Utilizar Netezza como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Netezza a Amazon Redshift.

Privilegios para Netezza como origenLos privilegios necesarios para Netezza como origen se enumeran a continuación:

• SELECT ON SYSTEM.DEFINITION_SCHEMA.SYSTEM VIEW• SELECT ON SYSTEM.DEFINITION_SCHEMA.SYSTEM TABLE• SELECT ON SYSTEM.DEFINITION_SCHEMA.MANAGEMENT TABLE• LIST ON <database_name>• LIST ON <database_name>.ALL.TABLE

Version 1.073

Page 80: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Netezza como origen

• LIST ON <database_name>.ALL.EXTERNAL TABLE• LIST ON <database_name>.ALL.VIEW• LIST ON <database_name>.ALL.MATERIALIZED VIEW• LIST ON <database_name>.ALL.PROCEDURE• LIST ON <database_name>.ALL.SEQUENCE• LIST ON <database_name>.ALL.FUNCTION• LIST ON <database_name>.ALL.AGGREGATE

Conexión a Netezza como origenUtilice el siguiente procedimiento para conectarse a su base de datos de origen de Netezza con laHerramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos Netezza de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Netezza (Conectar aNetezza).

Aparecerá el cuadro de diálogo Connect to Netezza.

2. Proporcione la información de conexión de la base de datos Netezza de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Version 1.074

Page 81: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar Greenplum como origen para Herramienta

de conversión de esquemas de AWS

Para este parámetro Haga lo siguiente

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Netezza Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Utilizar Greenplum como origen para Herramientade conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Greenplum a Amazon Redshift.

Privilegios para Greenplum como origenLos privilegios necesarios para Greenplum como origen se enumeran a continuación:

• CONNECT ON DATABASE <database_name>• USAGE ON SCHEMA <schema_name>

Conexión a Greenplum como origenUtilice el siguiente procedimiento para conectarse a su base de datos de origen de Greenplum con laHerramienta de conversión de esquemas de AWS.

Version 1.075

Page 82: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Greenplum como origen

Para conectarse a una base de datos Greenplum de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Greenplum (Conectara Greenplum).

Aparecerá el cuadro de diálogo Connect to Greenplum.

2. Proporcione la información de conexión de la base de datos Greenplum de origen. Utilice lasinstrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos Greenplum.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWS

Version 1.076

Page 83: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUtilizar Vertica como origen para Herramienta

de conversión de esquemas de AWS

Para este parámetro Haga lo siguienteSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• Verify Server Certificate: seleccione esta opción para verificar elcertificado del servidor mediante un almacén de confianza.

• Trust Store: la ubicación de un almacén de confianza quecontenga certificados.

• Trust Store Password: contraseña del almacén de confianza.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Greenplum Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Utilizar Vertica como origen para Herramienta deconversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Vertica a Amazon Redshift.

Privilegios para Vertica como origenLos privilegios necesarios para Vertica como origen se enumeran a continuación:

• USAGE ON SCHEMA <schema_name>• USAGE ON SCHEMA PUBLIC• GRANT SELECT ON ALL TABLES IN SCHEMA <schema_name>• SELECT ON ALL SEQUENCES IN SCHEMA <schema_name>• EXECUTE ON ALL FUNCTIONS IN SCHEMA <schema_name>• EXECUTE ON PROCEDURE <schema_name.procedure_name(procedure_signature)>

Version 1.077

Page 84: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a Vertica como origen

Conexión a Vertica como origenUtilice el siguiente procedimiento para conectarse a su base de datos de origen de Vertica con laHerramienta de conversión de esquemas de AWS.

Para conectarse a su base de datos Vertica de origen

1. En la Herramienta de conversión de esquemas de AWS, seleccione Connect to Vertica (Conectar aVertica).

Aparecerá el cuadro de diálogo Connect to Vertica.

2. Proporcione la información de conexión de la base de datos Vertica de origen. Utilice las instruccionesde la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Base de datos Escriba el nombre de la base de datos Vertica.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Version 1.078

Page 85: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de Microsoft SQL Server DW como origen paraHerramienta de conversión de esquemas de AWS

Para este parámetro Haga lo siguiente

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar SSL para conectarse ala base de datos. Proporcione la siguiente información adicional,según proceda, en la pestaña SSL:

• Trust Store: un almacén de confianza que haya configurado enla configuración global.

• Key Store: un almacén de claves que haya configurado en laconfiguración global.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Vertica Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Uso de Microsoft SQL Server DW como origen paraHerramienta de conversión de esquemas de AWS

Puede utilizar AWS SCT para convertir datos de Microsoft SQL Server DW a Amazon Redshift.

Version 1.079

Page 86: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioFuente: Microsoft SQL Server Data Warehouse

Privilegios para Microsoft SQL Server DataWarehouse como origenLos privilegios necesarios para Microsoft SQL Server Data Warehouse como origen se enumeran acontinuación:

• VIEW DEFINITION• VIEW DATABASE STATE• SELECT ON SCHEMA :: <schema_name>

Repita la concesión para cada base de datos cuyo esquema vaya a convertir.

Además, conceda el siguiente privilegio, y ejecute la concesión en la base de datos maestra:

• VIEW SERVER STATE

Conexión a SQLServerDW como origenUtilice el siguiente procedimiento para conectarse a su base de datos de almacén de datos Microsoft SQLServer de origen con la Herramienta de conversión de esquemas de AWS.

Para conectarse a una base de datos de Microsoft SQL Server Data Warehouse de origen

1. En la Herramienta de conversión de esquemas de AWS, elija Connect to Microsoft SQL Server DW(Conectar a Microsoft SQL Server DW).

Aparecerá el cuadro de diálogo Connect to Microsoft SQL Server DW.

Version 1.080

Page 87: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a SQLServerDW como origen

2. Proporcione la información de conexión a la base de datos de Microsoft SQL Server Data Warehousede origen. Utilice las instrucciones de la siguiente tabla.

Para este parámetro Haga lo siguiente

Server name Escriba el nombre DNS o la dirección IP de su servidor de basede datos de origen.

Server port Escriba el puerto que utilice para conectarse al servidor de subase de datos de origen.

Instance name Escriba el nombre de la instancia de la base de datos de SQLServer. Para encontrar el nombre de la instancia, ejecute laconsulta SELECT @@servername; en su base de datos de SQLServer.

User name y Password Escriba el nombre de usuario y la contraseña para conectarse asu servidor de base de datos de origen.

Note

AWS SCT utiliza la contraseña para conectarse a subase de datos de origen solamente cuando crea suproyecto o selecciona la opción Connect to source(Conectar a origen) en un proyecto, donde origen es labase de datos de origen. Para evitar que la contraseñade su base de datos de origen quede expuesta, la AWSSCT no la almacena. Si cierra su proyecto de la AWSSCT y vuelve a abrirlo, se le solicitará la contraseña paraconectarse a su base de datos de origen, según seanecesario.

Use SSL Seleccione esta opción si desea utilizar capa de conexiónsegura (SSL) para conectarse a la base de datos. Proporcionela siguiente información adicional, según proceda, en la pestañaSSL:

• Trust Server Certificate: seleccione esta opción para confiar enel certificado del servidor.

• Trust Store: un almacén de confianza que haya configurado enla configuración global.

Store Password La AWS SCT crea un almacén seguro para almacenarcertificados SSL y contraseñas de la base de datos. Puedehabilitar esta opción para almacenar la contraseña de la base dedatos y conectarse rápidamente a la base de datos sin necesidadde introducir la contraseña.

Sql Server Driver Path Escriba la ruta al controlador que quiere usar para conectarsea la base de datos de origen. Para obtener más información,consulte Instalación de los controladores de bases de datosnecesarios (p. 8).

Si almacena la ruta al controlador en la configuración global delproyecto, la ruta del controlador no aparecerá en el cuadro dediálogo de conexión. Para obtener más información, consulte Almacenamiento de rutas a los controladores en la configuraciónglobal (p. 10).

Version 1.081

Page 88: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConexión a SQLServerDW como origen

3. Seleccione Test Connection para comprobar que pueda conectarse correctamente a su base de datosde origen.

4. Seleccione OK para conectarse a su base de datos de origen.

Version 1.082

Page 89: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInformes de evaluación de migración

Creación de informes de conversiónCuando se programa una conversión de base de datos, resulta útil crear algunos informes que ayuden aentender todo lo que implica. Puede crear informes usando Herramienta de conversión de esquemas deAWS o AWS Workload Qualification Framework (AWS WQF).

Puede utilizar AWS SCT para crear un informe de evaluación de la migración de la base de datos. Coneste informe, obtendrá un resumen de sus tareas de conversión del esquema y detalles de elementos queno se pueden convertir automáticamente a la base de datos de destino. Puede utilizar este informe paraevaluar qué parte del proyecto se puede realizar con Herramienta de conversión de esquemas de AWS, yqué más tiene que hacer para completar la conversión. Para crear un informe de evaluación, utilice CreateReport (Crear informe) en el menú contextual (clic con el botón derecho) de la base de datos en AWS SCT.

Puede utilizar AWS WQF durante la fase de planificación de la migración para obtener informaciónacerca de qué nivel de esfuerzo se necesita para migrar los datos y las aplicaciones. WQF es unaaplicación independiente que está integrada con AWS SCT y AWS DMS. Puede utilizarla para crearinformes de inventario e informes de calculadora de costos. Para configurar WQF, vaya a Global Settings(Configuración global) en la aplicación SCT y configure los controladores de JDBC necesarios para susbases de datos de origen. A continuación, inicie WQF y siga las instrucciones en la pantalla que se abre enAWS Cloud9.

Temas• Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83)• Creación de informes de migración con Workload Qualification Framework (p. 88)

Creación de informes de evaluación conHerramienta de conversión de esquemas de AWS

Una parte importante de Herramienta de conversión de esquemas de AWS es el informe de evaluación dela migración de la base de datos que se genera para ayudarle a convertir su esquema. El informe resumetodas las tareas de conversión del esquema y detalla los elementos de acción del esquema que no sehayan podido convertir al motor de la base de datos de su instancia de destino. Puede ver el informe en laaplicación. Para ello, expórtelo como un archivo de valores separados por comas (CSV) o PDF.

El informe de evaluación de la migración incluye lo siguiente:

• Resumen ejecutivo• Evaluación de licencias• Compatibilidad con la nube, que indica las características de la base de datos de origen no disponibles

en el destino• Configuración de hardware de origen actual• Recomendaciones, incluida la conversión de objetos de servidor, sugerencias de backup y cambios en el

servidor enlazado

El informe incluye la siguiente información acerca de una instancia de base de datos de Amazon RDS si haseleccionado Amazon RDS en el destino:

Version 1.083

Page 90: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de un informe de evaluaciónde la migración de la base de datos

• El tamaño de almacenamiento utilizado actualmente y el tamaño máximo de almacenamiento para lainstancia de base de datos.

• El número actual de bases de datos de la instancia de base de datos y el número máximo de bases dedatos permitidas en la instancia de base de datos.

• Una lista de los servicios de base de datos y objetos de servidor que no están disponibles en la instanciade base de datos.

• Una lista de las bases de datos que participan actualmente en la replicación. Amazon RDS no admite lareplicación.

El informe incluye también estimaciones de la cantidad de esfuerzo necesario para escribir el códigoequivalente para su instancia de base de datos de destino que no se pudo convertir automáticamente.Este campo de complejidad estimada se exporta en la versión PDF del informe de evaluación, pero no seincluye en la versión CSV.

Si utiliza AWS SCT para migrar su esquema existente a una instancia de base de datos de Amazon RDS,el informe puede ayudarle a analizar los requisitos para migrar a la nube de AWS y para cambiar el tipo delicencia.

Puede encontrar más información en los temas siguientes:

Temas• Creación de un informe de evaluación de la migración de la base de datos (p. 84)• Visualización del informe de evaluación (p. 85)• Guardar el informe de evaluación (p. 87)

Creación de un informe de evaluación de la migraciónde la base de datosUtilice el siguiente procedimiento para crear un informe de evaluación de la migración de la base de datos.

Para crear un informe de evaluación de la migración de la base de datos

1. En el panel de la izquierda que muestra el esquema de la base de datos de origen, elija el objeto delesquema para el que desea crear un informe de evaluación.

2. Abra el menú contextual (clic secundario) para el objeto y seleccione Create Report.

Version 1.084

Page 91: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVisualización del informe de evaluación

Visualización del informe de evaluaciónTras crear un informe de evaluación, se abrirá la vista del informe de evaluación, mostrando las siguientespestañas.

• Resumen• Elementos de acción

En la pestaña Summary (Resumen) se muestran los elementos convertidos automáticamente o noconvertidos.

La pestaña Action Items (Elementos de acción) muestra los elementos que no se han podido convertirautomáticamente y recomendaciones sobre qué hacer con ellos.

Temas• Resumen de un informe de evaluación (p. 85)• Elementos de acción del informe de evaluación (p. 86)

Resumen de un informe de evaluaciónEn la pestaña Summary se muestra la información resumida del informe de evaluación de la migración dela base de datos. Muestra los elementos que se hayan convertido automáticamente y los elementos que nose hayan convertido automáticamente.

Version 1.085

Page 92: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVisualización del informe de evaluación

Para los elementos del esquema que no se puedan convertir automáticamente al motor de base de datosde destino, el resumen incluye una estimación del esfuerzo necesario para crear elementos del esquemaen su instancia de base de datos de destino que sean equivalentes a los de su base de datos de origen.

En el informe, el tiempo estimado para convertir estos elementos del esquema se clasifica en lossiguientes grupos:

• Simple: – acciones que se pueden realizar en menos de una hora.• Medium: – acciones que son más complejas y se pueden realizar en el plazo de una a cuatro horas.• Significant: – acciones que son muy complejas y requieren más de cuatro horas.

La sección License Evaluation and Cloud Support contiene información sobre el traslado de sus esquemasde bases de datos locales existentes a una instancia de base de datos de Amazon RDS que ejecuteel mismo motor. Por ejemplo, si desea cambiar tipos de licencia, esta sección del informe le indica quécaracterísticas de su base de datos actual deberían eliminarse.

Elementos de acción del informe de evaluaciónLa vista del informe de evaluación incluye también una pestaña Action Items. Esta pestaña contiene unalista de los elementos que no se pueden convertir automáticamente en el motor de base de datos de suinstancia de base de datos de Amazon RDS de destino. Si selecciona un elemento de acción de la lista,AWS SCT resalta el elemento en el esquema al que se aplica el elemento de acción.

El informe también contiene recomendaciones sobre cómo convertir el elemento del esquema de formamanual. Para obtener más información sobre decidir cómo administrar las conversiones manuales,consulte Administración de conversiones manuales en la Herramienta de conversión de esquemas deAWS (p. 107).

Version 1.086

Page 93: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioGuardar el informe de evaluación

Guardar el informe de evaluaciónPuede guardar una copia local del informe de evaluación de la migración de la base de datos en formatoPDF o como un archivo de valores separados por comas (CSV). El archivo CSV contiene solamenteinformación de elementos de acción. El archivo PDF contiene el resumen de acciones e información de loselementos de acción, tal y como se muestra en el siguiente ejemplo.

Version 1.087

Page 94: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInformes de migración de WQF

Creación de informes de migración con WorkloadQualification Framework

Workload Qualification Framework de AWS (WQF de AWS) es una aplicación independiente que seincluye en AWS SCT. Puede utilizar WQF para analizar la migración a la nube de AWS. Evalúa ycalifica la carga de trabajo para toda la migración, incluida la base de datos y las modificaciones de laaplicación. WQF le recomienda estrategias y herramientas que puede utilizar para la migración y le ofrececomentarios que puede utilizar para realizar cambios. También puede identificar acciones que debeadoptar en una base de datos para completar una migración a Amazon RDS o Amazon Aurora.

Puede utilizar WQF en los siguientes casos de migración:

• Conversión a Amazon RDS para PostgreSQL o Compatibilidad de Aurora con PostgreSQL

Version 1.088

Page 95: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConfiguración del WQF de AWS

• Oracle a Amazon RDS para MySQL o Compatibilidad de Aurora con MySQL• Microsoft SQL Server a Amazon RDS PostgreSQL o Aurora PostgreSQL

Puede utilizar WQF durante la fase de planificación de su proceso de migración para determinar lo quetiene que hacer para migrar sus datos y aplicaciones. SCT accede a su conversión de esquemas; encambio, WQF notifica lo siguiente:

• Evaluación de la carga de trabajo según la complejidad, el tamaño y la tecnología utilizada• Recomendaciones sobre las estrategias de migración• Recomendaciones sobre las herramientas de migración• Comentarios sobre qué hacer exactamente• Evaluación del esfuerzo necesario basándose en el número de personas implicadas en el proyecto de

migración

Temas• Configuración del WQF de AWS (p. 89)• Preparación para importaciones de lotes de componentes lógicos y físicos (p. 90)• Creación de informes de WQF (p. 93)• Descripción de las categorías de la carga de trabajo (p. 96)

Configuración del WQF de AWSWQF de AWS viene en una Imagen de Amazon Machine (AMI) preconfigurada con Microsoft WindowsServer, AWS SCT y WQF preinstalados. Puede conectarse a ella utilizando una aplicación de escritorioremoto.

Utilice el siguiente procedimiento para lanzar la AMI compartida. Antes de comenzar, asegúrese de quedispone de un par de claves activas almacenadas en un archivo .pem en el disco duro local.

Lanzar la AMI compartida y configurar el WQF

1. Elija una de las siguientes opciones:

• Visite la página Workload Qualification Framework de AWS Marketplace y lance la AMI en sucuenta.

• Busque Workload Qualification Framework en el Asistente para el lanzamiento de EC2 para buscarla AMI. A continuación, iníciela en su cuenta.

2. Elija una instancia de tipo m5a.4xlarge o mayor y añada al menos 100 GiB a su almacenamiento.Necesita su archivo .pem para este paso.

Si no está familiarizado con el lanzamiento de AMI o la creación de instancias de EC2, vea este brevevídeo de soporte de AWS: How do I launch an EC2 instance from a custom Amazon Machine Image(AMI) (¿Cómo puedo lanzar una instancia de EC2 desde una Imagen de Amazon Machine (AMI)personalizada)

3. En la consola de EC2, elija Instances (Instancias). Cuando la instancia esté disponible, abra sumenú contextual (clic con el botón derecho) y elija Get Windows Password (Obtener contraseña deWindows). Recupere la contraseña utilizando el mismo archivo .pem utilizado en el paso anterior paraconfigurar la instancia.

4. Conéctese a la instancia usando una aplicación de escritorio remoto. Para obtener más información,consulte Conexión con su instancia de Windows.

Version 1.089

Page 96: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPreparación para importaciones de lotes

Después de configurar SCT y WQF, debe configurar los controladores de la base de datos en SCT antesde usar WQF. Use el siguiente procedimiento para configurar los controladores.

1. Localice y descargue los controladores de Java Database Connectivity (JDBC) para sus orígenes dedatos. Coloque los archivos .jar en la máquina que tiene SCT y WQF instalados. Para obtener másinformación, consulte Instalación de los controladores de bases de datos necesarios (p. 8).

2. Abra SCT y elija Settings (Configuración) y, a continuación, elija Global Settings (Configuraciónglobal).

3. Elija la pestaña Drivers (Controladores).4. Para cada origen de datos, utilice Browse (Examinar) para desplazarse a la ubicación del archivo .jar.5. Elija Aceptar para confirmar.

Preparación para importaciones de lotes decomponentes lógicos y físicosSi analiza varios servidores, puede simplificar el proceso al realizar una importación de lote de loscomponentes lógicos y físicos. Para ello, puede reunir información antes de utilizar WQF. De esta manerano tiene que introducir la información de forma manual para cada servidor en la IU. Esto funciona ensituaciones donde WQF no tiene acceso a los servidores. También puede utilizar este método en el modoonline, donde WQF puede acceder a los servidores.

Para ejecutar el modo del lote, tiene que generar dos archivos:

• Un archivo JSON que contenga componentes lógicos• Un archivo de valores separados por comas (CSV) que contenga componentes físicos.

Puede utilizar el método que prefiera para crear estos archivos. Para ambos archivos, si ejecuta WQFtotalmente offline, no tiene que proporcionar el nombre de usuario o la contraseña. Esto se debe a que enel modo offline no se conecta a ningún servidor. En las siguientes secciones, proporcionamos plantillaspara estos archivos.

Note

Existen dos flujos de trabajo independientes para la creación de componentes. Cargue unarchivo .zip de un proyecto de AWS SCT o cargue un análisis de toda la flota con archivos JSONy CSV. No tiene que hacer ambas opciones.

Plantilla de ejemplo para los componentes lógicos para laimportación de lotes (JSON)Los siguientes ejemplos muestran el JSON que puede utilizar para los componentes lógicos para laimportación de lotes de WQF en el modo online y offline.

El siguiente ejemplo muestra el JSON que puede utilizar cuando ejecute el WQF en el modo offline.En el modo offline, puede eliminar username, password y connection-type de su JSON.También puede añadir un campo adicional a su JSON. El campo adicional se denomina sct-file y los valores que incluye son la ruta de directorio completa y el nombre del archivo .zip de lasestadísticas generado por la SCT. A continuación se muestra un ejemplo: D:\Temp\WQF\Oracle-WqfStats-2019-03-09-01-56.zip. Para el modo offline, el ejemplo de JSON es como el siguiente.

{ "name": "component_name", "description": "My description",

Version 1.090

Page 97: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPreparación para importaciones de lotes

"type": "database", "properties": { "number-of-advance-config-features": "123", "has-proprietary-logic-in-OLAP": "true", "number-of-hardware-features": "100" }, "selected-schemas": [ { "schema": "schema_name" } ], "source-dialect": "ORACLE", "source-connection-config": { "server": "host", "server-port": "port", "sid": "ORCL" }, "sct-file": "D:\\Temp\\WQF\\Oracle-WqfStats-2019-03-09-01-56.zip"}

El siguiente ejemplo muestra el JSON que puede utilizar para componentes lógicos cuando ejecute elWQF en el modo online.

[ { "name": "component_name", "description": "My description", "type": "database", "properties": { "number-of-advance-config-features": "123", "has-proprietary-logic-in-OLAP": "true", "number-of-hardware-features": "100" }, "selected-schemas": [ { "schema": "schema_name" } ], "source-dialect": "ORACLE", "source-connection-config": { "server": "host", "server-port": "port", "sid": "sid", "username": "user", "password": "pass", "connection-type": "SID" } }, { "name": "component_name1", "description": "My new Description", "type": "database", "properties": { "number-of-advance-config-features": "321", "has-proprietary-logic-in-OLAP": "true", "number-of-hardware-features": "50" }, "selected-schemas": [ { "database": "db_name", "schema": "schema_name" } ], "source-dialect": "MSSQL",

Version 1.091

Page 98: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPreparación para importaciones de lotes

"source-connection-config": { "server": "host", "server-port": "port", "sid": "", "username": "user", "password": "pass" } }, { "name": "component_name2", "description": "description", "type": "application", "properties": { "source-unavailable": "false", "number-of-native-code-extensions": 1, "number-af-advance-config-features": 2, "number-of-hardware-features": 3 }, "language": "JAVA", "selected-schemas": [ { "database": "db_name", "schema": "schema_name" } ], "source-code-path": "path_to_application_files", "source-dialect": "MSSQL", "source-connection-config": { "server": "host", "server-port": "port", "sid": "", "username": "user", "password": "pass" } }]

Plantilla de ejemplo para los componentes físicos para laimportación de lotes (CSV)Los siguientes ejemplos muestran un archivo .csv que puede utilizar para los componentes físicos.

Si abre este archivo .csv en Microsoft Excel, puede ver los campos indicados. De este modo, podríafacilitar la edición si no exporta sus componentes físicos de forma programada. Como hoja de cálculo, elarchivo tiene un aspecto similar al siguiente.

Note

Si ejecuta en modo offline, tiene que añadir un campo adicional al siguiente CSV. El campoadicional debería denominarse SCTFILE y los valores que incluye deberían ser la ruta dedirectorio completa y el nombre del archivo .zip de las estadísticas generado por la SCT. Unejemplo es: D:\Temp\WQF\Oracle-WqfStats-2019-03-09-01-56.zip.

El archivo .csv es el siguiente.

NAME,serverName,port,instanceName/SID,userName,password,databaseType,description,hasHADRRequirements,hasHeavyGeospatialPayloadcomponent_name,host,port,sid,user,password,Oracle,mycomponent,true,false

El mismo archivo, mostrado en formato de hoja de cálculo, es el siguiente.

Version 1.092

Page 99: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de informes

NAME serverNameport instanceName/SID

userNamepassworddatabaseTypedescriptionhasHADRRequirementshasHeavyGeospatialPayload

component_namehost port sid user passwordOracle mycomponentTRUE FALSE

Creación de informes de WQFPara crear informes de migración con WQF, siga los siguientes pasos:

1. Crear un proyecto de WQF.2. Añadir una aplicación o aplicaciones al proyecto.3. Añadir un componente o componentes físicos para cada aplicación del proyecto. De este modo, WQF

recopila información detallada acerca del servidor de su base de datos de origen.

Puede utilizar una instalación local de SCT o un archivo .zip de otra máquina.4. Añadir un componente lógico o más para cada aplicación del proyecto. De este modo, WQF recopila

información detallada acerca de objetos de base de datos y aplicaciones.

Puede utilizar una instalación local de SCT o un archivo .zip de otra máquina.5. Generar el inventario y los informes de análisis WQF para planificar el proyecto.6. Copiar los archivos de informes descargados en una máquina con Microsoft Excel instalado y abrirlos

para obtener información detallada sobre el proyecto de migración.

Puede elegir los siguientes tipos de informes:

• Informes de inventario

Estos informes enumeran la información basada en características y de hardware sobre el servidor debase de datos desde el que está intentando migrar. Los datos necesarios para este informe se recopilanutilizando los componentes físicos en el que los usuarios pueden introducir los detalles de un servidorde base de datos desde el que recopilar información. Puede utilizar la información de este informe paraayudarle a planificar la migración de un servidor de bases de datos.

• Informes de calculadora de costos

Estos informes categorizan la carga de trabajo que está intentando migrar. Detallan elementos de todoslos componentes lógicos y físicos que se han seleccionado como parte de la aplicación. El informeincluye un modelo de costos de migración que se puede modificar basándose en los resultados de SCTy recomendaciones sobre cómo realizar las migraciones por aplicación junto con pasos que hay queseguir para migrar. El informe de calculadora de costos también incluye un informe de inventario.

Puede ver estos informes en Microsoft Excel o cualquier aplicación que admita el formato Office OpenXML.

Temas• Inicio de WQF (p. 93)• Creación y edición de un proyecto de WQF (p. 94)

Inicio de WQFDespués de configurar SCT y WQF, inicie el servicio WQF haciendo doble clic en el icono WQF Start(Inicio de WQF) en el escritorio. Se abre una serie de ventanas de terminal cuando se inicia WQF.

Version 1.093

Page 100: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de informes

Después de iniciarse correctamente WQF, utilice Google Chrome (preinstalado en la AMI) y vaya a http://localhost:4040/ide.html. De este modo, se abre el módulo de WQF en la consola de AWS Cloud9.

Creación y edición de un proyecto de WQFEl proyecto de WQF proporciona una función de contenedor para componentes de aplicaciones, comobases de datos, máquinas físicas y el código de la aplicación. Puede guardar y regresar al proyecto deWQF más adelante. Puede mantener varios proyectos de migración a la vez.

Crear o ver un proyecto de migración e informes

1. Para crear un nuevo proyecto, abra WQF e introduzca un nombre descriptivo para su proyecto enCreate new project (Crear nuevo proyecto). A continuación, elija Create.

También puede elegir un proyecto existente a la izquierda.2. Se muestra una nueva pantalla. Elija una de las siguientes opciones:

• Para iniciar el asistente, elija Create report (Crear informe). Este asistente le guía a través de todoslos pasos necesarios para utilizar la aplicación WQF.

• Para obtener acceso a un informe existente, selecciónelo en la lista. Puede ver, editar o eliminar uninforme o cambiar su tipo de informe.

3. En la pantalla Report (Informe), elija un tipo de informe para Type (Tipo). Introduzca un nombre y unadescripción opcional para su informe.

Elija Next para continuar.4. En la pestaña Physical Components (Componentes físicos), proporcione datos sobre los componentes

físicos de su sistema de base de datos o flota.

El análisis de componentes físicos ayuda a recopilar información detallada sobre el servidor de la basede datos de origen para el informe de inventario. Basándose en el uso de características avanzadas,WQF incluye algunos detalles para calcular categorización general del proyecto de migración. Puedeelegir crear un componente físico único usando SCT (o cargando un archivo .zip de un proyecto deSCT). También puede cargar detalles de varios componentes físicos como un archivo JSON pararealizar análisis de componentes físicos de toda la flota.

Elija una de las siguientes opciones:

• Para conectarse a nuevos componentes físicos, elija New (Nuevo). Escriba un nombre descriptivo yuna descripción opcional y, a continuación, elija una base de datos de origen. Si desea proporcionarmás información, siga las instrucciones en pantalla. Seleccione Next (Siguiente).

• Para importar un archivo CSV, seleccione Import (Importar). Para obtener más información acercadel formato del archivo de registro, consulte Plantilla de ejemplo para los componentes físicos parala importación de lotes (CSV) (p. 92).

En la pantalla Import physical components from CSV file (Importar componentes físicos de archivoCSV), seleccione Choose (Elegir) para ir a su archivo CSV y, a continuación, elija Save (Guardar).Seleccione Cancel (Cancelar) para volver a la pantalla Physical Components (Componentes físicos)sin realizar cambios.

Elija Next (Siguiente) para continuar.5. En el panel Data Collection (Recopilación de datos) de la pestaña Physical Components

(Componentes físicos), puede seleccionar si cargar sus estructuras de datos desde un archivo dealmacenamiento o desde la base de datos.

Elija una de las siguientes opciones:Version 1.0

94

Page 101: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de informes

• Para importar un archivo ZIP, elija Load from Archive (Cargar desde archivo). Elija Choose (Elegir)para ir a su archivo CSV, a continuación, seleccione Open (Abrir). Para obtener más informaciónsobre del formato del archivo de registro, consulte Plantilla de ejemplo para los componentes físicospara la importación de lotes (CSV) (p. 92).

• Para conectarse a su base de datos (valor predeterminado), elija Load from DB (Cargar desde BD)e introduzca los detalles de conexión:• Nombre de servidor o dirección IP• Puerto de servidor• Nombre de instancia (opcional)• Nombre de usuario• Contraseña• Habilitar o no la Capa de conexión segura (SSL)

Para realizar la recopilación de datos ahora, elija Get schemas (Obtener esquemas) y elija losesquemas que incluir y haga clic en Save (Guardar).

Repita este paso hasta que haya cargado todos sus componentes físicos. A continuación elija Next(Siguiente) para continuar.

6. (Solo para informes de calculadora de costos) En la pestaña Logical Components (Componenteslógicos), puede cargar los componentes lógicos de su sistema. El análisis de componentes lógicosayuda a WQF a recopilar información sobre lo siguiente:

• Objetos de bases de datos: analizar y categorizar complejidad de convertir objetos de la base dedatos para el objetivo de elección

• Código de la aplicación: analizar y categorizar el SQL incrustado en el código de la aplicación parael objetivo de elección

Puede elegir crear un componente lógico único usando SCT (o cargando un archivo zip de unproyecto de SCT). Como alternativa, puede cargar detalles de varios componentes lógicos como unarchivo JSON para realizar análisis de componentes lógicos de toda la flota.

Elija una de las siguientes opciones:

• Para conectarse a nuevos componentes físicos, elija New (Nuevo). Escriba un nombre descriptivoy una descripción opcional y, a continuación, elija un tipo y una base de datos de origen. Si deseaproporcionar más información, siga las instrucciones en pantalla. Seleccione Next (Siguiente).

• Para importar un archivo CSV, seleccione Import (Importar). Para obtener más información sobredel formato del archivo de registro, consulte Plantilla de ejemplo para los componentes lógicos parala importación de lotes (JSON) (p. 90).

En la pantalla Import physical components from CSV file (Importar componentes físicos de archivoCSV), seleccione Choose (Elegir) para ir a su archivo CSV y, a continuación, elija Save (Guardar).Si desea cerrar esta pantalla sin realizar los cambios, seleccione Cancel (Cancelar) para volver a lapantalla Physical Components (Componentes físicos).

7. (Solo para informes de calculadora de costos) En el panel Data Collection (Recopilación de datos) dela pestaña Logical Components (Componentes lógicos), puede seleccionar si cargar sus estructurasde datos desde un archivo de almacenamiento o desde la base de datos.

Elija una de las siguientes opciones:

• Para importar un archivo ZIP, elija Load from Archive (Cargar desde archivo). Elija Choose (Elegir)para ir a su archivo CSV, a continuación, seleccione Open (Abrir).

Version 1.095

Page 102: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDescripción de las categorías de la carga de trabajo

• Para conectarse a su base de datos (valor predeterminado), elija Load from DB (Cargar desde BD)e introduzca los detalles de conexión:• Nombre o IP de servidor• Puerto de servidor• Nombre de instancia (opcional)• Nombre de usuario• Contraseña• SSL (habilitar o no habilitar)

Elija Run (Ejecutar) para realizar ahora la recopilación de datos o seleccione Save (Guardar) paraguardar los cambios sin ejecutar el proceso. Si ejecuta en el modo offline, no tiene que ejecutar elproceso de recopilación de datos ya que todo se encuentra en el archivo de estadísticas generado porSCT.

Repita este paso hasta que haya cargado todos sus componentes lógicos. A continuación elija Next(Siguiente) para continuar.

8. (Solo para informes de calculadora de costos) En la pestaña Applications (Aplicaciones), seleccionelos componentes de su aplicación. Escriba un nombre para la aplicación. En el lado izquierdo,seleccione los componentes que desee incluir. Para eliminar componentes, elíjalos en el lado derechoa sacarlos de la lista Selected Components (Componentes seleccionados).

Las aplicaciones constan de una combinación de componentes físicos y lógicos. Al analizar estosde forma conjunta, WQF determina la complejidad de la migración en función de los diferentesparámetros y detalles recopilados como parte de cada análisis de componente físicos y lógicos.

Elija Save para continuar.9. En la pestaña Report Configuration (Configuración de informes), elija los componentes que desea

incluir en su informe.

Elija Next (Siguiente) para continuar.10. En la pestaña Report Configuration (Configuración de informes), guarde el informe eligiendo Save

(Guardar). Si desea cambiar algo antes de guardar, seleccione Previous (Anterior).11. En la pestaña All Reports (Todos los informes), puede ver todo el informe. Para descargar un informe,

elija Download (Descargar) o Save (Guardar).

El informe descarga en formato Open XML y puede abrirlo en un editor de Open XML como MicrosoftExcel. En el informe, puede ver la categorización con formato, el análisis y las estrategias demigración. Los informes se generan para cada aplicación y contienen el conjunto de componenteslógicos y físicos elegido.

12. (Opcional) Para eliminar un informe o un proyecto, elija el informe y, a continuación, elija Delete(Eliminar).

Descripción de las categorías de la carga de trabajoAWS WQF evalúa su carga de trabajo de migración y clasifica en una categoría de carga de trabajoque se caracteriza por la forma en que se diseña la base de datos y la aplicación. En función de estacategorización, WQF analiza los componentes que el sistema utiliza y extrapola el tipo de trabajo necesariopara hacer la migración. En función de este análisis, AWS WQF calcula la facilidad o la dificultad quepuede esperar de la migración. También calcula el tipo de trabajo que supone y el nivel de esfuerzorequerido.

Temas• Categoría 1: cargas de trabajo que utilizan ODBC y JDBC (p. 97)

Version 1.096

Page 103: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDescripción de las categorías de la carga de trabajo

• Categoría 2: cargas de trabajo con escaso uso de características propietarias (p. 97)• Categoría 3: cargas de trabajo con uso intensivo de características propietarias (p. 97)• Categoría 4: cargas de trabajo específicas de motor (p. 98)• Categoría 5: no portable, riesgo inaceptable o cargas de trabajo de"migración directa" (p. 98)

Categoría 1: cargas de trabajo que utilizan ODBC y JDBCEsta categoría normalmente tiene menos de 50 códigos de procedimientos almacenados personalizados otiene procedimientos almacenados simples que se utilizan para los controles de acceso. Las aplicacionescon estos datos se conectan a la base de datos con Open Database Connectivity (ODBC) o Java DatabaseConnectivity (JDBC) en lugar de utilizar los controladores de propietarios que tienen extensiones noestándares. La lógica de aplicación reside en el código fuera de la base de datos (Java, Python, Ruby etc.).Para estas bases de datos, no existe requisito para apoyar una réplica de lectura o una implementaciónMulti-AZ, o estas características se ofrecen a través de tecnologías basadas en replicación.

En esta categoría, los almacenes de datos utilizan un esquema de estrella o copos de nieve con unacapa de informes que utiliza SQL específico del motor, como SQL ANSI, como Amazon QuickSight oTableau. La portabilidad a Amazon Redshift es relativamente fácil, ya que el modelo de datos se conservay se definen las claves de ordenación mejoradas, las claves de distribución, la compresión y se configuracorrectamente la administración de cargas de trabajo (WLM).

La portabilidad de estas cargas de trabajo a Amazon Aurora y Amazon RDS es sencilla. Una migración enesta categoría normalmente requiere pocas horas por persona.

Categoría 2: cargas de trabajo con escaso uso de característicaspropietariasLas cargas de trabajo en esta categoría utilizan una combinación de código de aplicación (Java, Python,Ruby, etc.) y código de procedimiento almacenado. Los procedimientos almacenados se utilizan cuandola implantación de la lógica en el código de la aplicación resulta engorrosa. Por lo general, este tipo decarga de trabajo tiene menos de 200 procedimientos almacenados y no usa características avanzadas delenguaje SQL. La migración de esquemas es sencilla, ya que se utilizan estructuras de datos como tablas yvistas.

En esta categoría, las cargas de trabajo del almacén de datos puede organizarse en tablas ytransformarlos utilizando SQL integrado en procedimientos almacenados simples. Las escrituras en elalmacén de datos pueden tener algunos microlotes o un gran número de actualizaciones, eliminaciones ytransacciones. El almacén de datos también puede utilizar extensiones de procesamiento analítico onlinede propietario (OLAP) como CUBE, ROLLUP o PIVOT.

La migración implica cambiar a la lógica de procedimiento almacenada fuera de la base de datos yrediseñar informes de SQL para abordar la falta de funciones nativas. Estas son relativamente fáciles demigrar. Es posible que la migración de este tipo de carga de trabajo consuma un número moderado dehoras por persona.

Categoría 3: cargas de trabajo con uso intensivo decaracterísticas propietariasLas cargas de trabajo en esta categoría ser controlan totalmente mediante la lógica avanzada deprocedimiento almacenada o características de propietarios. En el campo, muchas de las cargas de trabajode esta categoría tienen hasta 100 000 líneas de código residente de base de datos y características.Estas cargas de trabajo también usan características avanzadas, como bases de datos privadas virtuales,ofuscación de columnas, opciones de ajuste y tipos definidos por el usuario. Su conversión en entornosde ejecución alternativos consumen una gran cantidad de tiempo. Algunas de estas cargas de trabajo

Version 1.097

Page 104: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioDescripción de las categorías de la carga de trabajo

dependen de las características de hardware nativas, como Exadata, Supercluster y PDW. Las cargas detrabajo de alto rendimiento a menudo se incluyen en esta categoría. Las opciones de ajuste presentes encódigo local tienen que convertirse y comprobarse con las opciones disponibles en la base de datos dedestino.

Los almacenes de datos en esta categoría contienen un gran número de procedimientos almacenados yfunciones definidas por el usuario que organizan la extracción, la transformación y operaciones de carga(ETL) o crean vistas de las operaciones empresariales. Sus procesos de ETL no se pueden expresarfácilmente en Amazon Redshift, aunque gran parte de la lógica empresarial podría representarse comovistas. Estos almacenes de datos también pueden tener muchos miles de tablas con un gran númerode transacciones para administrar el flujo de trabajo de ETL. Cuando la migración con Amazon Redshiftcomo destino, tales cargas de trabajo requieren rediseñar la aplicación para separar la carga de trabajotransaccional de los informes. Rediseñar también requiere la extracción de la lógica del almacén de datos yen otra capa de cómputo.

Estas cargas de trabajo son difíciles de migrar y pueden constituir un riesgo importante para el cliente. Esposible que la migración de esta carga de trabajo consuma un número importante de horas por persona.

Categoría 4: cargas de trabajo específicas de motorLas cargas de trabajo de esta categoría utilizan marcos de trabajo que solo pueden funcionar con unmotor de base de datos comercial específico. Por ejemplo, los marcos de aplicaciones específicas de basede datos incluyen Oracle Forms, Oracle Reports, Oracle ADF and Oracle APEX (Application Express) oaplicaciones que utilizan .NET ActiveRecord de forma generalizada. Migrar estas cargas de trabajo a unabase de datos NoSQL o de código abierto puede requerir una reimplementación completa de la aplicaciónpara separar la lógica de presentación de la base de datos.

Un almacén de datos en esta categoría podría confiar en gran medida en características de propietariocomo Geospatial a escala de petabytes. Estas características pueden contener lógica de propietario enestructuras de datos OLAP. Las cargas de trabajo podrían tener requisitos de disponibilidad, replicación oconcurrencia de usuarios que no se pueden cumplir con una arquitectura de zona de disponibilidad única.Podrían tener requisitos de latencia que hacen imposible el uso de Amazon Athena.

Estas cargas de trabajo son muy difícil de migrar. Es posible que la migración de esta carga de trabajonecesite un número importante de horas por persona. La realización de esta migración también constituyeun riesgo significativo. La migración de esta carga de trabajo puede que no se admita desde la perspectivade certificación o soporte de terceros.

Categoría 5: no portable, riesgo inaceptable o cargas de trabajode"migración directa"Las cargas de trabajo en esta categoría podrían implementarse en motores de base de datos que notienen equivalente en la nube. Su sistema operativo subyacente podría no ser compatible con AWS.Por ejemplo, podría utilizar arquitecturas mainframe, Power o RISC. En algunos casos, la base de datospodría utilizar extensiones de código nativo como Oracle Call Interface para ejecutar la lógica de negocio.Esta lógica de negocio suele considerarse "heredada" por el cliente, incluso si aún es importante para laempresa. En algunos casos, los clientes no tienen el código fuente para estos programas. Las cargas detrabajo de almacén de datos y OLTP comparten los mismos atributos para esta categoría.

Puede migrar estas aplicaciones a Amazon EC2. Podría tener requisitos de emulación o requerir otrassoluciones de terceros. En algunos casos, el riesgo de mover estas cargas de trabajo desde el entornoexistente podría ser demasiado alto para justificarlo. En ese caso, es conveniente mantener la conectividadde alto rendimiento a la implementación local con una topología de red que admita los requisitos de laaplicación.

Version 1.098

Page 105: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Convertir los esquemas de base dedatos utilizando el Herramienta deconversión de esquemas de AWS

Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir susesquemas de base de datos existente de un motor de base de datos a otro. La conversión de una base dedatos con la interfaz de usuario de AWS SCT puede ser bastante sencillo, pero hay varios aspectos quedebe tener en cuenta antes de realizar la conversión.

Por ejemplo, puede utilizar AWS SCT para hacer lo siguiente:

• También puede utilizar la AWS SCT para copiar un esquema de base de datos local existente auna instancia de base de datos de Amazon RDS que ejecute el mismo motor. Puede utilizar estacaracterística para analizar posibles ahorros de costos en la migración a la nube y en el cambio del tipode licencia.

• En algunos casos, las características de la base de datos de origen no se pueden convertir acaracterísticas de Amazon RDS equivalentes. Si aloja y gestiona una base de datos en la plataformade Amazon Elastic Compute Cloud (Amazon EC2), puede simular estas características sustituyendo losservicios de AWS por ellas.

• AWS SCT automatiza gran parte del proceso de conversión de su esquema de base de datos deprocesamiento de transacciones online (OLTP) a una instancia de base de datos MySQL de AmazonRelational Database Service (Amazon RDS), un clúster de base de datos de Amazon Aurora o unainstancia de base de datos PostgreSQL. Los motores de base de datos de origen y de destino contienendiferentes características y capacidades, por lo que la AWS SCT intenta crear un esquema equivalenteen su instancia de base de datos de Amazon RDS siempre que sea posible. Si no es posible laconversión directa, la AWS SCT proporciona una lista de posibles acciones que puede realizar.

Esta sección se incluyen los siguientes temas:

Temas• Creación de reglas de mapeo en la Herramienta de conversión de esquemas de AWS (AWS

SCT) (p. 101)• Conversión de su esquema con la Herramienta de conversión de esquemas de AWS (p. 103)• Administración de conversiones manuales en la Herramienta de conversión de esquemas de

AWS (p. 107)• Actualización de un esquema convertido en la Herramienta de conversión de esquemas de

AWS (p. 108)• Guardado y aplicación de un esquema convertido en la Herramienta de conversión de esquemas de

AWS (p. 109)• Comparación de esquemas de bases de datos (p. 112)• Búsqueda de objetos transformados relacionados (p. 113)

AWS SCT es compatible con las siguientes conversiones de OLTP.

Version 1.099

Page 106: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Base de datos de origen Base de datos de destino en Amazon RDS

Microsoft SQL Server (versión 2008 y posteriores) Amazon Aurora (MySQL o PostgreSQL), MicrosoftSQL Server, MySQL, PostgreSQL

MySQL (versión 5.5 o posteriores) Amazon Aurora (PostgreSQL), MySQL,PostgreSQL

Puede migrar esquemas y datos de MySQL aun clúster de base de datos de Amazon Aurora(MySQL) sin usar la AWS SCT. Para obtener másinformación, consulte Migración de datos a unclúster de base de datos de Amazon Aurora.

Oracle (versión 10.2 y posteriores) Amazon Aurora (MySQL o PostgreSQL), MySQL,Oracle, PostgreSQL

PostgreSQL (versión 9.1 y posteriores) Amazon Aurora (MySQL), MySQL, PostgreSQL

DB2 LUW (versiones 9.5, 9.7, 10.5 y 11.1) Amazon Aurora (MySQL o PostgreSQL), MySQL,PostgreSQL

Si desea convertir un esquema de data warehouse, consulte Conversión de esquemas de almacén dedatos a Amazon Redshift utilizando la Herramienta de conversión de esquemas de AWS (p. 114).

Para convertir su esquema de base de datos a Amazon RDS, siga estos pasos de alto nivel. Cada paso esun enlace a una sección que proporciona más información.

• Creación de reglas de mapeo en la Herramienta de conversión de esquemas de AWS (p. 117) – Antesde convertir su esquema con AWS SCT, puede configurar reglas que cambien el tipo de datos de lascolumnas, mover objetos de un esquema a otro y cambiar los nombres de los objetos.

• Conversión de su esquema con la Herramienta de conversión de esquemas de AWS (p. 103) – AWSSCT crea una versión local del esquema convertido para que lo revise, pero no se aplica a su instanciade base de datos de destino hasta que esté listo.

• Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83) –AWS SCT crea un informe de evaluación de la migración de la base de datos en el que se detallen loselementos del esquema que no se pueden convertir automáticamente. Puede utilizar este informe paraidentificar dónde necesita crear un esquema en su instancia de base de datos de Amazon RDS que seacompatible con su base de datos de origen.

• Administración de conversiones manuales en la Herramienta de conversión de esquemas deAWS (p. 107): – si tiene elementos del esquema que no se pueden convertir automáticamente, disponede dos opciones: actualizar el esquema de origen y, a continuación, volver a convertirlo, o bien crearelementos de esquema equivalentes en su instancia de base de datos de Amazon RDS de destino.

• Actualización de un esquema convertido en la Herramienta de conversión de esquemas deAWS (p. 108): – puede actualizar el proyecto de AWS SCT con el esquema más reciente de su basede datos de origen.

• Guardado y aplicación de un esquema convertido en la Herramienta de conversión de esquemas deAWS (p. 109): – cuando esté listo, haga que AWS SCT aplique el esquema convertido en su proyectolocal a su instancia de base de datos de Amazon RDS de destino.

Version 1.0100

Page 107: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de reglas de mapeo

Creación de reglas de mapeo en la Herramienta deconversión de esquemas de AWS (AWS SCT)

Antes de convertir su esquema con AWS SCT, puede configurar reglas que cambien el tipo de datos de lascolumnas, mover objetos de un esquema a otro y cambiar los nombres de los objetos. Por ejemplo, si tieneun conjunto de tablas en su esquema de origen denominado test_TABLE_NAME, puede configurar unaregla que cambie el prefijo test_ por el prefijo demo_ en el esquema de destino.

Note

Solo puede crear reglas de mapeo si el motor de la base de datos de origen y el de la de destinoson diferentes.

Puede crear reglas de mapeo que realicen las siguientes tareas:

• Cambiar el tipo de datos• Mover objetos• Cambiar el nombre de los objetos• Prefijos: agregar prefijo, eliminar prefijo, sustituir prefijo• Sufijo: agregar prefijo, eliminar sufijo, sustituir sufijo

Puede crear reglas de mapeo para los siguientes objetos:

• Base de datos• Esquema• Tabla• Columna

Creación de reglas de mapeoPuede crear reglas de mapeo y guardarlas como parte de su proyecto. Con el proyecto abierto, utilice elsiguiente procedimiento para crear reglas de mapeo.

Para crear reglas de mapeo

1. Seleccione Mapping Rules en el menú Settings. Aparecerá el cuadro de diálogo Mapping Rules.

Version 1.0101

Page 108: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de reglas de mapeo para objetos

2. Seleccione Add new rule. Se agregará una nueva fila a la lista de reglas.3. Seleccione el icono de edición para configurar su regla.

a. En Name, escriba un nombre para su regla.b. En For, seleccione el tipo de objeto al que se aplicará la regla.c. En where, escriba un filtro que se aplicará a los objetos antes de aplicar la norma de mapeo. La

cláusula where se evalúa mediante una cláusula like. Puede especificar un nombre exacto paraseleccionar un objeto o introducir un patrón para seleccionar varios objetos.

Los campos disponibles para la cláusula where son diferentes en función del tipo de objeto. Porejemplo, si el tipo de objeto es esquema, solo habrá un campo disponible, para el nombre delesquema.

d. En Actions, seleccione el tipo de regla de mapeo que quiera crear.e. En función del tipo de regla, escriba uno o dos valores adicionales. Por ejemplo, para cambiar

el nombre de un objeto, escriba el nuevo nombre del objeto. Para sustituir un prefijo, escriba elprefijo anterior y el nuevo prefijo.

4. Tras haber configurado su regla de mapeo, seleccione Save para guardar su regla. También puedeseleccionar Cancel para cancelar los cambios.

5. Cuando haya acabado de agregar, editar y eliminar reglas, seleccione Save All para guardar todos loscambios.

6. Seleccione Close para cerrar el cuadro de diálogo Mapping Rules.

Puede utilizar el icono de alternar para desactivar una regla de mapeo sin eliminarla. También puedeutilizar el icono de copia para duplicar una regla de mapeo existente. Puede utilizar el icono de eliminarpara borrar una regla de mapeo existente. Para guardar los cambios que realice en sus reglas de mapeo,seleccione Save All.

Visualización de reglas de mapeo para objetosTras configurar las reglas de mapeo, puede ver el efecto de las reglas sobre objetos específicos en suesquema antes de convertir el esquema. En un árbol de esquema de origen, seleccione el objeto que leinterese. En la vista principal, seleccione la pestaña Mapping. La pestaña Mapping se abrirá y mostraráuna lista de todas las reglas de mapeo que están aplicadas al objeto. Puede ver el nombre del objeto en

Version 1.0102

Page 109: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExportación de reglas de mapeo

el esquema de origen y el nuevo nombre del objeto en el esquema de destino. Si tiene reglas de tipos dedatos, también verá el tipo de dato de la columna en el esquema de origen y el nuevo tipo de dato de lacolumna en el esquema de destino.

Exportación de reglas de mapeoSi utiliza AWS Database Migration Service (AWS DMS) para migrar sus datos de la base de datos deorigen a la de destino, puede proporcionar información sobre sus reglas de mapeo a AWS DMS. Paraobtener más información acerca de las tareas, consulte Trabajar con tareas de replicación de AWSDatabase Migration Service.

Para exportar reglas de mapeo

1. En la Herramienta de conversión de esquemas de AWS, en el árbol del esquema de origen, abra elmenú contextual (clic secundario) y seleccione Export script for DMS (Exportar script para DMS). Seabrirá el cuadro de diálogo de guardado.

2. Seleccione la ubicación en la que desee guardar el script y después seleccione Save. Su reglas demapeo se guardan como un script JSON que AWS DMS puede consumir.

Conversión de su esquema con la Herramienta deconversión de esquemas de AWS

Tras haber conectado su proyecto tanto a la base de datos de origen como a la instancia de base de datosAmazon RDS de destino, su proyecto de Herramienta de conversión de esquemas de AWS mostrará elesquema de su base de datos de origen en el panel izquierdo. El esquema se presentan en un formato devista de árbol y cada nodo del árbol se carga progresivamente. Al seleccionar un nodo en la vista de árbol,AWS SCT solicita la información del esquema de la base de datos de origen en ese momento.

Puede seleccionar elementos del esquema en su base de datos de origen y, después, convertir elesquema en un esquema equivalente para el motor de la base de datos de su instancia de base de datosde destino. Puede seleccionar cualquier elemento del esquema en su base de datos de origen paraconvertirlo. Si el elemento del esquema que seleccione depende de un elemento principal, AWS SCTgenerará también el esquema para el elemento principal. Por ejemplo, si selecciona una columna de unatabla para convertirla, AWS SCT generará el esquema para la columna, la tabla en la que está la columnay la base de datos en la que está la tabla.

Conversión del esquemaPara convertir el esquema de la base de datos de origen, elija el objeto del esquema que desea convertiren el panel izquierdo del proyecto. Abra el menú contextual (clic secundario) para el objeto y seleccioneConvert schema, como se muestra a continuación.

Version 1.0103

Page 110: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión del esquema

Una vez que haya convertido el esquema de su base de datos de origen, puede elegir los elementos delesquema en el panel izquierdo de su proyecto y ver el esquema convertido en los paneles centrales desu proyecto. El panel inferior central muestra las propiedades y el comando SQL para crear el esquemaconvertido, como se muestra a continuación.

Version 1.0104

Page 111: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEdición del esquema convertido

Tras haber convertido el esquema, podrá guardar el proyecto. La información del esquema de su base dedatos de origen se guarda con su proyecto. Esta funcionalidad supone que puede trabajar sin conexiónsin estar conectado a su base de datos de origen. AWS SCT se conecta a su base de datos de origenpara actualizar el esquema en su proyecto si selecciona Refresh from Database (Actualizar desde basede datos) para su base de datos de origen. Para obtener más información, consulte Actualización de unesquema convertido en la Herramienta de conversión de esquemas de AWS (p. 108).

Puede crear un informe de evaluación de la migración de la base de datos para los elementos que nose puedan convertir automáticamente. El informe de evaluación es útil para identificar y solucionar loselementos del esquema que no se puedan convertir automáticamente. Para obtener más información,consulte Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83).

Cuando la AWS SCT genera un esquema convertido, no se aplica inmediatamente a la instancia de basede datos de destino. El esquema convertido se almacena en el entorno local hasta que esté listo paraaplicarlo en la instancia de base de datos de destino. Para obtener más información, consulte Aplicacióndel esquema convertido (p. 110).

Edición del esquema convertidoPuede editar el esquema convertido y guardar los cambios como parte de su proyecto.

Version 1.0105

Page 112: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEliminación de un esquema convertido

Para editar el esquema convertido

1. En el panel izquierdo que indica el esquema de la base de datos de origen, seleccione el elemento delesquema para el que quiera editar el esquema convertido.

2. En el panel inferior central donde se muestra el esquema convertido para el elemento seleccionado,haga clic en la pestaña SQL.

3. En el texto mostrado para la pestaña SQL, cambie el esquema según sea necesario. El esquema seguardará automáticamente con su proyecto cuando lo actualice.

Los cambios que realice al esquema convertido se almacenan con su proyecto a medida que realiza lasactualizaciones. Si convierte un nuevo elemento de un esquema desde su base de datos de origen y harealizado actualizaciones al esquema previamente convertido para ese elemento, dichas actualizacionesexistentes se verán sustituidas por el elemento del esquema recientemente convertido, en función de subase de datos de origen.

Eliminación de un esquema convertidoHasta aplicar el esquema a su instancia de base de datos de destino, la AWS SCT solo almacena elesquema convertido localmente en su proyecto. Puede eliminar el esquema planificado de su proyecto siselecciona el nodo de vista en árbol para su instancia de base de datos de destino y, a continuación, haceclic en Refresh from Database. Dado que no se ha escrito ningún esquema en su instancia de base dedatos de destino, la actualización desde la base de datos eliminará los elementos del esquema planificadoen su proyecto de la AWS SCT para adaptarse a lo que exista en su instancia de base de datos de destino.

Version 1.0106

Page 113: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAdministración de conversiones manuales

Administración de conversiones manuales en laHerramienta de conversión de esquemas de AWS

El informe de evaluación incluye una lista de los elementos que no se pueden convertir automáticamenteen el motor de base de datos de su instancia de base de datos de Amazon RDS de destino. Para cadaelemento que no se puede convertir, hay un elemento de acción en la pestaña Action Items.

Puede responder a los elementos de acción del informe de evaluación de las siguientes formas:

• Modificar su esquema de base de datos de origen.• Modificar su esquema de base de datos de destino.

Modificar su esquema de origenPara algunos elementos, es posible que resulte más fácil modificar el esquema de base de datos en suesquema de base de datos de origen que lograr que se convierta automáticamente. En primer lugar,

Version 1.0107

Page 114: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioModificar su esquema de destino

verifique que los nuevos cambios son compatibles con la arquitectura de su aplicación y, a continuación,actualice el esquema en la base de datos de origen. Por último, actualice su proyecto con la informaciónde esquema actualizada. Después, puede convertir el esquema actualizado y generar de nuevo el informede evaluación de la migración de la base de datos. Los elementos de acción ya no aparecen para loselementos que hayan cambiado en el esquema de origen.

La ventaja de este proceso es que el esquema actualizado está siempre disponible al actualizar desde labase de datos de origen.

Modificar su esquema de destinoPara algunos elementos, puede que sea más sencillo aplicar el esquema convertido a la base de datosde destino y, a continuación, agregar manualmente los elementos de esquema equivalentes a la base dedatos de destino para los elementos que no se hayan podido convertir automáticamente. Puede escribirtodo el esquema que se pueda convertir automáticamente en su instancia de base de datos de destinoaplicando el esquema. Para obtener más información, consulte Guardado y aplicación de un esquemaconvertido en la Herramienta de conversión de esquemas de AWS (p. 109).

El esquema que escrito en la instancia de base de datos de destino no contendrá los elementos que no sehayan podido convertir automáticamente. Después de aplicar esquemas a la instancia de base de datos dedestino, puede crear manualmente esquemas en dicha instancia que sean equivalentes a los de la base dedatos de origen. Los elementos de acción en el informe de evaluación de la migración de la base de datoscontienen sugerencias sobre cómo crear un esquema equivalente.

Warning

Si crea manualmente esquemas en su instancia de base de datos de destino, guarde una copiade cualquier operación manual que haya realizado. Si aplica el esquema convertido desde suproyecto a su instancia de base de datos de destino de nuevo, se sobrescribirá el trabajo manualque haya realizado.

En algunos casos, no podrá crear un esquema equivalente en la instancia de base de datos de destino.Tal vez tenga que rediseñar una parte de la aplicación y de la base de datos para usar la funcionalidaddisponible en el motor de base de datos para la instancia de base de datos de destino. En otros casos,puede omitir simplemente el esquema que no se pueda convertir automáticamente.

Actualización de un esquema convertido en laHerramienta de conversión de esquemas de AWS

Puede actualizar el esquema de origen y el esquema de destino en su proyecto de Herramienta deconversión de esquemas de AWS.

• Source (Origen): – si actualiza el esquema para su base de datos de origen, AWS SCT sustituye elesquema de su proyecto con el último esquema de su base de datos de origen. Con esta funcionalidad,puede actualizar su proyecto si se ha modificado el esquema de la base de datos de origen.

• Target (Destino): – si actualiza el esquema para su instancia de base de datos Amazon RDS de destino,AWS SCT sustituye el esquema de su proyecto por el último esquema de su instancia de base de datosde destino. Si no ha aplicado ningún esquema a su instancia de base de datos de destino, AWS SCTelimina el esquema convertido de su proyecto. A continuación, puede convertir el esquema de la base dedatos de origen a una instancia de base de datos de destino limpia.

El esquema en su proyecto de la AWS SCT se actualiza seleccionando Refresh from Database (Actualizardesde base de datos), como se muestra a continuación.

Version 1.0108

Page 115: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioGuardado y aplicación de un esquema

Guardado y aplicación de un esquema convertidoen la Herramienta de conversión de esquemas deAWS

Cuando la Herramienta de conversión de esquemas de AWS genera un esquema convertido (tal ycomo se muestra en Conversión de su esquema con la Herramienta de conversión de esquemas deAWS (p. 103)), no aplica inmediatamente el esquema convertido a la instancia de base de datos dedestino. Los esquemas convertidos se almacenan en el entorno local de su proyecto hasta que esté listopara aplicarlos en la instancia de base de datos de destino. Con esta funcionalidad, puede trabajar conlos elementos de esquema que no se puedan convertir automáticamente en su motor de base de datosde destino. Para obtener más información sobre elementos que no se pueden convertir automáticamente,consulte Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83).

Si lo desea, puede hacer que la herramienta guarde su esquema convertido en un archivo como scriptSQL antes de aplicar el esquema a su instancia de base de datos de destino. También puede hacer que laherramienta aplique el esquema convertido directamente a su instancia de base de datos de destino.

Guardar el esquema convertido en un archivoPuede guardar los esquemas convertidos como scripts SQL en un archivo de texto. Al utilizar esteenfoque, puede modificar los scripts SQL generados en la AWS SCT para abordar los elementos que

Version 1.0109

Page 116: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del esquema convertido

no puedan convertirse automáticamente. A continuación, puede ejecutar sus scripts actualizados en suinstancia de base de datos de destino para aplicar el esquema convertido a la base de datos de destino.

Para guardar el esquema convertido como scripts SQL, abra el menú contextual (clic secundario) para elelemento del esquema y seleccione Save as SQL, como se muestra a continuación.

Aplicación del esquema convertidoCuando esté listo para aplicar el esquema convertido a la instancia de base de datos de Amazon RDSde destino, elija el elemento del esquema en el panel derecho del proyecto. Abra el menú contextual (cliccon el botón secundario) del elemento del esquema y seleccione Apply to database, como se muestra acontinuación.

Version 1.0110

Page 117: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEsquema del paquete de extensión

Esquema del paquete de extensiónLa primera vez que aplique el esquema convertido a su instancia de base de datos de destino, la AWSSCT agrega un esquema adicional a su instancia de base de datos de destino. Este esquema implementalas funciones del esquema de la base de datos que son necesarias a la hora de escribir el esquemaconvertido en la instancia de base de datos de destino. El esquema se denomina esquema de paquete deextensión.

No modifique el esquema del paquete de extensión, ya que podría encontrarse resultados imprevistosen el esquema convertido creado en la instancia de base de datos de destino. Cuando el esquema hayamigrado totalmente a su instancia de base de datos de destino y ya no necesite la AWS SCT, puedeeliminar el esquema del paquete de extensión.

El esquema de paquete de extensión se denomina en función de su base de datos de origen, de lasiguiente manera:

• Microsoft SQL Server: AWS_SQLSERVER_EXT• MySQL: AWS_MYSQL_EXT• Oracle: AWS_ORACLE_EXT• PostgreSQL: AWS_POSTGRESQL_EXT

Para obtener más información, consulte Uso de las funciones de AWS Lambda del paquete de extensiónAWS SCT (p. 199).

Version 1.0111

Page 118: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioComparación de esquemas

Comparación de esquemas de bases de datosSi ha realizado cambios en su esquema de origen o de destino después de la migración, puede compararlos dos esquemas de base de datos mediante AWS SCT. Puede comparar esquemas de versiones igualeso anteriores al esquema de origen.

Se admiten las siguientes comparaciones de esquemas:

• De Oracle a Oracle, versiones 12.1.0.2.0, 11.1.0.7.0, 11.2.0.1.0, 10• De SQL Server a SQL Server, versiones 2016, 2014, 2012, 2008 RD2, 2008• De PostgreSQL a PostgreSQL y Compatibilidad de Aurora con PostgreSQL, versiones 9.6, 9.5.9, 9.5.4• De MySQL a MySQL, versiones 5.6.36, 5.7.17, 5.5

La configuración de la comparación de esquemas se especifica en la pestaña Compare Schema de lapágina Project Settings.

Para comparar esquemas, el usuario selecciona los esquemas y AWS SCT indica los objetos que difierenentre los dos esquemas y los que no.

Para comparar dos esquemas

1. Abra un proyecto de AWS SCT existente o cree un proyecto y conéctese a los puntos de enlace deorigen y destino.

2. Elija el esquema que desea comparar.3. Abra el menú contextual (haga clic con el botón secundario) y elija Compare Schema.

AWS SCT indica los objetos que son diferentes entre los dos esquemas añadiendo un círculo negro alicono del objeto.

Version 1.0112

Page 119: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioObjetos transformados relacionados

Puede aplicar los resultados de la comparación de esquemas a un único objeto, a una única categoría deobjetos o a todo el esquema. Seleccione la casilla situada junto a la categoría, objeto o esquema al quedesee aplicar los resultados.

Búsqueda de objetos transformados relacionadosDespués de la conversión de un esquema, en algunos casos AWS SCT podría haber creado varios objetospara un objeto de esquema en la base de datos de origen. Por ejemplo, cuando se realiza una conversiónde Oracle a PostgreSQL, AWS SCT toma cada disparador de Oracle y lo transforma en un disparador yuna función disparadora en el destino de PostgreSQL. Además, cuando AWS SCT convierte una funcióno procedimiento de un paquete de Oracle en PostgreSQL, crea una función equivalente y una función INITque debe ejecutarse como un bloque init para que el procedimiento o la función puedan ejecutarse.

El siguiente procedimiento le permite ver todos los objetos relacionados que se han creado después deuna conversión del esquema.

Para ver los objetos relacionados que se crearon durante una conversión de esquema

1. Tras la conversión del esquema, elija el objeto convertido en la vista de árbol de destino.2. Elija la pestaña Related Converted Objects.3. Consulte la lista de objetos de destino relacionados.

Version 1.0113

Page 120: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Conversión de esquemas dealmacén de datos a AmazonRedshift utilizando la Herramienta deconversión de esquemas de AWS

La Herramienta de conversión de esquemas de AWS automatiza gran parte del proceso de conversión desu esquema de data warehouse a un esquema de base de datos de Amazon Redshift. Debido a que losmotores de base de datos de origen y de destino pueden tener diferentes características y capacidades,AWS SCT intenta crear un esquema equivalente en su base de datos de destino siempre que sea posible.Si no es posible la conversión directa, AWS SCT proporciona un informe de evaluación con una lista deposibles acciones que puede realizar. Con AWS SCT, puede administrar claves, mapear tipos de datos yobjetos, y crear conversiones manuales.

AWS SCT puede convertir los siguientes esquemas de almacén de datos a Amazon Redshift.

• Greenplum Database (versión 4.3 y posteriores)• Microsoft SQL Server (versión 2008 y posteriores)• Netezza (versión 7.0.3 y posteriores)• Oracle (versión 10 y posteriores)• Teradata (versión 13 y posteriores)• Vertica (versión 7.2.2 y posteriores)

Si desea convertir un esquema de base de datos de procesamiento de transacciones online (OLTP),consulte Convertir los esquemas de base de datos utilizando el Herramienta de conversión de esquemasde AWS (p. 99).

Para convertir un esquema de almacenamiento de datos, siga estos pasos.

1. Especifique la estrategia de optimización y las reglas, y especifique el mapeo que desea que utiliceAWS SCT. Puede configurar reglas que cambien el tipo de datos de las columnas, mover objetos de unesquema a otro y cambiar los nombres de los objetos.

Puede especificar la optimización y el mapeo en Settings (Configuración). Para obtener más informaciónacerca de estrategias de optimización, consulte Selección de estrategias de optimización y reglas deuso para la Herramienta de conversión de esquemas de AWS (p. 115). Para obtener más informaciónsobre el mapeo, consulte Creación de reglas de mapeo en la Herramienta de conversión de esquemasde AWS (p. 117)

2. Proporcione estadísticas del almacén de datos de origen para que AWS SCT pueda optimizar cómose convierte su almacén de datos. Puede recopilar estadísticas directamente desde la base de datos ocargar un archivo de estadísticas existente. Para obtener más información acerca de cómo proporcionarestadísticas de almacenamiento de datos, consulte Recopilación o carga de estadísticas para laHerramienta de conversión de esquemas de AWS (p. 116).

Version 1.0114

Page 121: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioSelección de estrategias y reglas de optimización

3. Cree un informe de evaluación de la migración de la base de datos en el que se detallen los elementosdel esquema que no se pueden convertir automáticamente. Puede utilizar este informe para identificardónde necesita crear manualmente un esquema en su base de datos de destino que sea compatiblecon su base de datos de origen. Para obtener más información sobre el informe de evaluación, consulteCreación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83).

4. Convertir el esquema: la AWS SCT crea una versión local del esquema convertido para que lo revise,pero no se aplica a su base de datos de destino hasta que esté listo. Para obtener más informaciónacerca de la conversión, consulte Conversión de su esquema con la Herramienta de conversión deesquemas de AWS (p. 119).

5. Tras convertir el esquema, puede administrar y editar sus claves. La administración de claves esla esencia de la conversión de un data warehouse. Para obtener más información acerca de laadministración de claves derivadas, consulte Administración y personalización de claves en laHerramienta de conversión de esquemas de AWS (p. 123).

6. Si tiene elementos del esquema que no se pueden convertir automáticamente, dispone de dosopciones: actualizar el esquema de origen y, a continuación, volver a convertirlo, o bien crear elementosde esquema equivalentes en su base de datos de destino. Para obtener más información acercade cómo convertir manualmente elementos de esquema, consulte Administración de conversionesmanuales en la Herramienta de conversión de esquemas de AWS (p. 124). Para obtener másinformación acerca de cómo actualizar su esquema de origen, consulte Actualización de un esquemaconvertido en la Herramienta de conversión de esquemas de AWS (p. 125).

7. Cuando esté listo, puede aplicar el esquema convertido a la base de datos de destino. Para obtenermás información acerca de cómo guardar y aplicar el esquema convertido, consulte Guardado yaplicación de un esquema convertido en la Herramienta de conversión de esquemas de AWS (p. 126).

Selección de estrategias de optimización y reglasde uso para la Herramienta de conversión deesquemas de AWS

Para optimizar cómo convierte la Herramienta de conversión de esquemas de AWS su esquema dealmacén de datos, puede elegir las estrategias y reglas que desea que utilice la herramienta. Tras convertirsu esquema y revisar las claves propuestas, puede ajustar sus reglas o cambiar su estrategia para obtenerlos resultados que quiera.

Para seleccionar sus estrategias y reglas de optimización

1. Seleccione Settings y después Project Settings. Aparecerá el cuadro de diálogo Current projectsettings.

2. En el panel izquierdo, seleccione Optimization Strategies. Las estrategias de optimización apareceránen el panel derecho, con los valores predeterminados seleccionados.

3. En Strategy Sector, seleccione la estrategia de optimización que quiera emplear. Puede elegir entrelas siguientes opciones:

• Usar metadatos y omitir información estadística: – con esta estrategia, solo se usa la informaciónde los metadatos para decisiones sobre optimización. Por ejemplo, si hay más de un índice en unatabla de origen, se utiliza el orden de clasificación de la base de datos de origen y el primer índicese convierte en una clave de distribución.

 • Omitir metadatos y usar información estadística: – con esta estrategia, las decisiones de

optimización se derivan solo de la información estadística. Esta estrategia se aplica únicamente alas tablas y columnas para las que se proporcionan estadísticas. Para obtener más información,

Version 1.0115

Page 122: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioRecopilación o carga de estadísticas

consulte Recopilación o carga de estadísticas para la Herramienta de conversión de esquemas deAWS (p. 116).

 • Usar metadatos y usar información estadística: – con esta estrategia, tanto los metadatos como las

estadísticas se usan para las decisiones de optimización.

 4. Tras seleccionar su estrategia de optimización, podrá determinar qué reglas quiere usar. Puede elegir

entre las siguientes opciones:

• Seleccionar clave de distribución y claves de ordenación con metadatos• Seleccionar tabla de hechos y una dimensión apropiada para la intercalación• Analizar la cardinalidad de las columnas de índices• Determinar las tablas y columnas más utilizadas desde la tabla QueryLog

Para cada regla, puede introducir un peso para la clave de ordenación y un peso para la clave dedistribución. AWS SCT utiliza los pesos que elija cuando convierte su esquema. Después, cuandoanalice las claves sugeridas, si no está satisfecho con los resultados, puede volver aquí y cambiar laconfiguración. Para obtener más información, consulte Administración y personalización de claves enla Herramienta de conversión de esquemas de AWS (p. 123).

Recopilación o carga de estadísticas para laHerramienta de conversión de esquemas de AWS

Para optimizar cómo convierte la Herramienta de conversión de esquemas de AWS su esquema dealmacén de datos puede proporcionar estadísticas desde su base de datos de origen que la herramientapodrá utilizar. Puede recopilar estadísticas directamente desde la base de datos o cargar un archivo deestadísticas existente.

Para facilitar y revisar las estadísticas

1. Abra su proyecto y conéctese a la base de datos de origen.2. Seleccione un objeto de esquema desde el panel izquierdo de su proyecto y abra el menú contextual

(clic secundario) para el objeto. Seleccione Collect Statistics o Upload Statistics como se muestra acontinuación.

3. Seleccione un objeto de esquema del panel izquierdo de su proyecto y, a continuación, haga clic en lapestaña Statistics. Puede revisar las estadísticas para el objeto.

Version 1.0116

Page 123: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de reglas de mapeo

Después, cuando analice las claves sugeridas, si no está satisfecho con los resultados, puederecopilar estadísticas adicionales y repetir el procedimiento. Para obtener más información, consulte Administración y personalización de claves en la Herramienta de conversión de esquemas deAWS (p. 123).

Creación de reglas de mapeo en la Herramienta deconversión de esquemas de AWS

Antes de convertir su esquema con la Herramienta de conversión de esquemas de AWS, puede configurarreglas que cambien el tipo de datos de las columnas, mover objetos de un esquema a otro y cambiar losnombres de los objetos. Por ejemplo, si tiene un conjunto de tablas en su esquema de origen denominadotest_TABLE_NAME, puede configurar una regla que cambie el prefijo test_ por el prefijo demo_ en elesquema de destino.

Note

Solo puede crear reglas de mapeo si el motor de la base de datos de origen y el de la de destinoson diferentes.

Version 1.0117

Page 124: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de reglas de mapeo

Puede crear reglas de mapeo que realicen las siguientes tareas:

• Cambiar el tipo de datos• Mover objetos• Cambiar el nombre de los objetos• Prefijos: agregar prefijo, eliminar prefijo, sustituir prefijo• Sufijo: agregar prefijo, eliminar sufijo, sustituir sufijo

Puede crear reglas de mapeo para los siguientes objetos:

• Base de datos• Esquema• Tabla• Columna

Creación de reglas de mapeoPuede crear reglas de mapeo y guardarlas como parte de su proyecto. Con el proyecto abierto, utilice elsiguiente procedimiento para crear reglas de mapeo.

Para crear reglas de mapeo

1. Seleccione Mapping Rules en el menú Settings. Aparecerá el cuadro de diálogo Mapping Rules. Elpanel superior contiene reglas de mapeo (transformación).

2. En el panel Transformation Rules, seleccione Add new rule.3. Configurar la regla de transformación.

a. En Name, escriba un nombre para su regla.b. En For, seleccione el tipo de objeto al que se aplicará la regla.c. En where, escriba un filtro que se aplicará a los objetos antes de aplicar la norma de mapeo. La

cláusula where se evalúa mediante una cláusula like. Puede especificar un nombre exacto paraseleccionar un objeto o introducir un patrón para seleccionar varios objetos.

Version 1.0118

Page 125: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioVisualización de reglas de mapeo para objetos

Los campos disponibles para la cláusula where son diferentes en función del tipo de objeto. Porejemplo, si el tipo de objeto es esquema, solo habrá un campo disponible, para el nombre delesquema.

d. En Actions, seleccione el tipo de regla de mapeo que quiera crear.e. En función del tipo de regla, escriba uno o dos valores adicionales. Por ejemplo, para cambiar

el nombre de un objeto, escriba el nuevo nombre del objeto. Para sustituir un prefijo, escriba elprefijo anterior y el nuevo prefijo.

4. Tras haber configurado su regla de mapeo, seleccione Save para guardar su regla. También puedeseleccionar Cancel para cancelar los cambios.

5. Cuando haya acabado de agregar, editar y eliminar reglas, seleccione Save All para guardar todos loscambios.

6. Seleccione Close para cerrar el cuadro de diálogo Mapping Rules.

Puede utilizar el icono de alternar para desactivar una regla de mapeo sin eliminarla. También puedeutilizar el icono de copia para duplicar una regla de mapeo existente. Puede utilizar el icono de eliminarpara borrar una regla de mapeo existente. Para guardar los cambios que realice en sus reglas de mapeo,seleccione Save All.

Visualización de reglas de mapeo para objetosTras configurar las reglas de mapeo, puede ver el efecto de las reglas sobre objetos específicos en suesquema antes de convertir el esquema. En un árbol de esquema de origen, seleccione el objeto que leinterese. En la vista principal, seleccione la pestaña Mapping. La pestaña Mapping se abrirá y mostraráuna lista de todas las reglas de mapeo que están aplicadas al objeto. Puede ver el nombre del objeto enel esquema de origen y el nuevo nombre del objeto en el esquema de destino. Si tiene reglas de tipos dedatos, también verá el tipo de dato de la columna en el esquema de origen y el nuevo tipo de dato de lacolumna en el esquema de destino.

Exportación de reglas de mapeoSi utiliza AWS Database Migration Service (AWS DMS) para migrar sus datos de la base de datos deorigen a la de destino, puede proporcionar información sobre sus reglas de mapeo a AWS DMS. Paraobtener más información acerca de las tareas, consulte Trabajar con tareas de replicación de AWSDatabase Migration Service.

Para exportar reglas de mapeo

1. En la Herramienta de conversión de esquemas de AWS, en el árbol del esquema de origen, abra elmenú contextual (clic secundario) y seleccione Export script for DMS (Exportar script para DMS). Seabrirá el cuadro de diálogo de guardado.

2. Seleccione la ubicación en la que desee guardar el script y después seleccione Save. Su reglas demapeo se guardan como un script JSON que AWS DMS puede consumir.

Conversión de su esquema con la Herramienta deconversión de esquemas de AWS

Tras haber conectado su proyecto tanto a la base de datos de origen como a la base de datos de destino,su proyecto de Herramienta de conversión de esquemas de AWS mostrará el esquema de su base de

Version 1.0119

Page 126: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión del esquema

datos de origen en el panel izquierdo. El esquema se presentan en un formato de vista de árbol y cadanodo del árbol se carga progresivamente. Al seleccionar un nodo en la vista de árbol, AWS SCT solicita lainformación del esquema de la base de datos de origen en ese momento.

Puede seleccionar elementos del esquema en su base de datos de origen y, después, convertir elesquema en un esquema equivalente para el motor de la base de datos de su base de datos de destino.Puede seleccionar cualquier elemento del esquema en su base de datos de origen para convertirlo. Si elelemento del esquema que seleccione depende de un elemento principal, AWS SCT generará también elesquema para el elemento principal. Por ejemplo, si selecciona una columna de una tabla para convertirla,AWS SCT generará el esquema para la columna, la tabla en la que está la columna y la base de datos enla que está la tabla.

Conversión del esquemaPara convertir el esquema de la base de datos de origen, elija el objeto del esquema que desea convertiren el panel izquierdo del proyecto. Abra el menú contextual (clic secundario) para el objeto y seleccioneConvert schema, como se muestra a continuación.

Una vez que haya convertido el esquema de su base de datos de origen, puede elegir los elementos delesquema en el panel izquierdo de su proyecto y ver el esquema convertido en los paneles centrales desu proyecto. El panel inferior central muestra las propiedades y el comando SQL para crear el esquemaconvertido, como se muestra a continuación.

Version 1.0120

Page 127: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEdición del esquema convertido

Tras haber convertido el esquema, podrá guardar el proyecto. La información del esquema de su base dedatos de origen se guarda con su proyecto. Esta funcionalidad supone que puede trabajar sin conexiónsin estar conectado a su base de datos de origen. AWS SCT se conecta a su base de datos de origenpara actualizar el esquema en su proyecto si selecciona Refresh from Database (Actualizar desde basede datos) para su base de datos de origen. Para obtener más información, consulte Actualización de unesquema convertido en la Herramienta de conversión de esquemas de AWS (p. 125).

Puede crear un informe de evaluación de la migración de la base de datos para los elementos que nose puedan convertir automáticamente. El informe de evaluación es útil para identificar y solucionar loselementos del esquema que no se puedan convertir automáticamente. Para obtener más información,consulte Creación de informes de evaluación con Herramienta de conversión de esquemas de AWS (p. 83).

Cuando la AWS SCT genera un esquema convertido, no se aplica inmediatamente a la base de datosde destino. El esquema convertido se almacena en el entorno local hasta que esté listo para aplicarloen la base de datos de destino. Para obtener más información, consulte Aplicación del esquemaconvertido (p. 127).

Edición del esquema convertidoPuede editar el esquema convertido y guardar los cambios como parte de su proyecto.

Version 1.0121

Page 128: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEliminación de un esquema convertido

Para editar el esquema convertido

1. En el panel izquierdo que indica el esquema de la base de datos de origen, seleccione el elemento delesquema para el que quiera editar el esquema convertido.

2. En el panel inferior central donde se muestra el esquema convertido para el elemento seleccionado,haga clic en la pestaña SQL.

3. En el texto mostrado para la pestaña SQL, cambie el esquema según sea necesario. El esquema seguardará automáticamente con su proyecto cuando lo actualice.

Los cambios que realice al esquema convertido se almacenan con su proyecto a medida que realiza lasactualizaciones. Si convierte un nuevo elemento de un esquema desde su base de datos de origen y harealizado actualizaciones al esquema previamente convertido para ese elemento, dichas actualizacionesexistentes se verán sustituidas por el elemento del esquema recientemente convertido, en función de subase de datos de origen.

Eliminación de un esquema convertidoHasta aplicar el esquema a su base de datos de destino, la AWS SCT solo almacena el esquemaconvertido localmente en su proyecto. Puede eliminar el esquema planificado de su proyecto si seleccionael nodo de vista en árbol para su base de datos de destino y, a continuación, hace clic en Refresh fromDatabase. Dado que no se ha escrito ningún esquema en su base de datos de destino, la actualizacióndesde la base de datos eliminará los elementos del esquema planificado en su proyecto de la AWS SCTpara adaptarse a lo que exista en su base de datos de destino.

Version 1.0122

Page 129: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAdministración y personalización de claves

Administración y personalización de claves en laHerramienta de conversión de esquemas de AWS

Tras convertir el esquema con la Herramienta de conversión de esquemas de AWS, puede administrar yeditar sus claves. La administración de claves es la esencia de la conversión de un data warehouse.

Para administrar claves, seleccione una tabla en su base de datos de destino y a continuación seleccionela pestaña Key Management, como se muestra a continuación.

Version 1.0123

Page 130: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAdministración de conversiones manuales

El panel izquierdo contiene sugerencias claves, e incluye la puntuación de fiabilidad para cada sugerencia.Puede seleccionar una de las sugerencias, o personalizar la clave editándola en el panel derecho.

Si las opciones de la clave no tienen el aspecto esperado, puede editar sus estrategias de optimizacióny volver a intentar la conversión. Para obtener más información, consulte Selección de estrategias deoptimización y reglas de uso para la Herramienta de conversión de esquemas de AWS (p. 115).

Administración de conversiones manuales en laHerramienta de conversión de esquemas de AWS

El informe de evaluación incluye una lista de los elementos que no se pueden convertir automáticamenteen el motor de base de datos de su base de datos de destino. Para cada elemento que no se puedeconvertir, hay un elemento de acción en la pestaña Action Items.

Puede responder a los elementos de acción del informe de evaluación de las siguientes formas:

• Modificar su esquema de base de datos de origen.• Modificar su esquema de base de datos de destino.

Modificar su esquema de origenPara algunos elementos, es posible que resulte más fácil modificar el esquema de base de datos en suesquema de base de datos de origen que lograr que se convierta automáticamente. En primer lugar,verifique que los nuevos cambios son compatibles con la arquitectura de su aplicación y, a continuación,actualice el esquema en la base de datos de origen. Por último, actualice su proyecto con la información

Version 1.0124

Page 131: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioModificar su esquema de destino

de esquema actualizada. Después, puede convertir el esquema actualizado y generar de nuevo el informede evaluación de la migración de la base de datos. Los elementos de acción ya no aparecen para loselementos que hayan cambiado en el esquema de origen.

La ventaja de este proceso es que el esquema actualizado está siempre disponible al actualizar desde labase de datos de origen.

Modificar su esquema de destinoPara algunos elementos, puede que sea más sencillo aplicar el esquema convertido a la base de datosde destino y, a continuación, agregar manualmente los elementos de esquema equivalentes a la base dedatos de destino para los elementos que no se hayan podido convertir automáticamente. Puede escribirtodo el esquema que se pueda convertir automáticamente en su base de datos de destino aplicando elesquema. Para obtener más información, consulte Guardado y aplicación de un esquema convertido en laHerramienta de conversión de esquemas de AWS (p. 126).

El esquema que escrito en la base de datos de destino no contendrá los elementos que no se hayanpodido convertir automáticamente. Después de aplicar el esquema a la base de datos de destino, puedecrear manualmente esquemas en dicha base de datos que sean equivalentes a los de la base de datos deorigen. Los elementos de acción en el informe de evaluación de la migración de la base de datos contienensugerencias sobre cómo crear un esquema equivalente.

Warning

Si crea manualmente esquemas en su base de datos de destino, guarde una copia de cualquieroperación manual que haya realizado. Si aplica el esquema convertido desde su proyecto a subase de datos de destino de nuevo, se sobrescribirá el trabajo manual que haya realizado.

En algunos casos, no podrá crear un esquema equivalente en la base de datos de destino. Tal vez tengaque rediseñar una parte de la aplicación y de la base de datos para usar la funcionalidad disponible en elmotor de base de datos para la base de datos de destino. En otros casos, puede omitir simplemente elesquema que no se pueda convertir automáticamente.

Actualización de un esquema convertido en laHerramienta de conversión de esquemas de AWS

Puede actualizar el esquema de origen y el esquema de destino en su proyecto de Herramienta deconversión de esquemas de AWS.

• Source (Origen): – si actualiza el esquema para su base de datos de origen, AWS SCT sustituye elesquema de su proyecto con el último esquema de su base de datos de origen. Con esta funcionalidad,puede actualizar su proyecto si se ha modificado el esquema de la base de datos de origen.

 • Target (Destino): – si actualiza el esquema para su base de datos de destino, AWS SCT sustituye el

esquema de su proyecto con el último esquema de su base de datos de destino. Si no ha aplicadoningún esquema a su base de datos de destino, AWS SCT elimina el esquema convertido de suproyecto. A continuación, puede convertir el esquema de la base de datos de origen a una base dedatos de destino limpia.

 

El esquema en su proyecto de la AWS SCT se actualiza seleccionando Refresh from Database (Actualizardesde base de datos), como se muestra a continuación.

Version 1.0125

Page 132: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioGuardado y aplicación de un esquema

Guardado y aplicación de un esquema convertidoen la Herramienta de conversión de esquemas deAWS

Cuando la Herramienta de conversión de esquemas de AWS genera un esquema convertido (tal ycomo se muestra en Conversión de su esquema con la Herramienta de conversión de esquemas deAWS (p. 119)), no aplica inmediatamente el esquema convertido a la base de datos de destino. Losesquemas convertidos se almacenan en el entorno local de su proyecto hasta que esté listo para aplicarlosen la base de datos de destino. Con esta funcionalidad, puede trabajar con los elementos de esquemaque no se puedan convertir automáticamente en su motor de base de datos de destino. Para obtener másinformación sobre elementos que no se pueden convertir automáticamente, consulte Creación de informesde evaluación con Herramienta de conversión de esquemas de AWS (p. 83).

Si lo desea, puede hacer que la herramienta guarde su esquema convertido en un archivo como scriptSQL antes de aplicar el esquema a su base de datos de destino. También puede hacer que la herramientaaplique el esquema convertido directamente a su base de datos de destino.

Guardar el esquema convertido en un archivoPuede guardar los esquemas convertidos como scripts SQL en un archivo de texto. Al utilizar esteenfoque, puede modificar los scripts SQL generados en la AWS SCT para abordar los elementos que nopuedan convertirse automáticamente. A continuación, puede ejecutar sus scripts actualizados en su basede datos de destino para aplicar el esquema convertido a la base de datos de destino.

Version 1.0126

Page 133: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del esquema convertido

Para guardar el esquema convertido como scripts SQL, abra el menú contextual (clic secundario) para elelemento del esquema y seleccione Save as SQL, como se muestra a continuación.

Aplicación del esquema convertidoCuando esté listo para aplicar el esquema convertido a la base de datos de destino, elija el elemento delesquema en el panel derecho del proyecto. Abra el menú contextual (clic con el botón secundario) delelemento del esquema y seleccione Apply to database, como se muestra a continuación.

Version 1.0127

Page 134: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEsquema del paquete de extensión

Esquema del paquete de extensiónLa primera vez que aplique el esquema convertido a su instancia de base de datos de destino, la AWSSCT agrega un esquema adicional a su instancia de base de datos de destino. Este esquema implementalas funciones del esquema de la base de datos que son necesarias a la hora de escribir el esquemaconvertido en la instancia de base de datos de destino. El esquema se denomina esquema de paquete deextensión.

No modifique el esquema del paquete de extensión, ya que podría encontrarse resultados imprevistosen el esquema convertido creado en la instancia de base de datos de destino. Cuando el esquema hayamigrado totalmente a su instancia de base de datos de destino y ya no necesite la AWS SCT, puedeeliminar el esquema del paquete de extensión.

El esquema de paquete de extensión se denomina en función de su base de datos de origen, de lasiguiente manera:

• Greenplum: AWS_GREENPLUM_EXT• Microsoft SQL Server: AWS_SQLSERVER_EXT• Netezza: AWS_NETEZZA_EXT• Oracle: AWS_ORACLE_EXT• Teradata: AWS_TERADATA_EXT• Vertica: AWS_VERTICA_EXT

Version 1.0128

Page 135: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioBibliotecas Python

Para obtener más información, consulte Uso del paquete de extensión de la Herramienta de conversión deesquemas de AWS (p. 196).

Bibliotecas PythonPara crear funciones personalizadas en Amazon Redshift, utilice el lenguaje Python. Utilice el paquetede extensión de la AWS SCT para instalar bibliotecas python para su base de datos de Amazon Redshift.Para obtener más información, consulte Uso del paquete de extensión de la Herramienta de conversión deesquemas de AWS (p. 196).

Optimización de Amazon Redshift mediante laHerramienta de conversión de esquemas de AWS

Puede utilizar la Herramienta de conversión de esquemas de AWS para optimizar su base de datos deAmazon Redshift. La Amazon Redshift recomienda claves de ordenación y distribución para optimizar subase de datos, utilizando su base de datos de Amazon Redshift como origen y una base de datos de AWSSCT de prueba como destino.

Optimización de su base de datos de Amazon RedshiftUtilice el siguiente procedimiento para optimizar su base de datos de Amazon Redshift.

Para optimizar su base de datos de Amazon Redshift

1. Tome una instantánea manual de su clúster de Amazon Redshift como copia de seguridad. Puedeeliminar la instantánea después de que haya terminado la optimización de su clúster de AmazonRedshift y probar los cambios efectuados. Para obtener más información, consulte Amazon RedshiftSnapshots.

2. Seleccione un objeto de esquema para convertir en el panel izquierdo del proyecto. Abra el menúcontextual (clic secundario) para el objeto y seleccione Collect Statistics.

AWS SCT utiliza las estadísticas para realizar sugerencias para las claves de ordenación ydistribución.

3. Seleccione un objeto de esquema para optimizar en el panel izquierdo del proyecto. Abra el menúcontextual (clic secundario) para el objeto y seleccione Run Optimization.

AWS SCT realiza sugerencias para las claves de ordenación y distribución.4. Para revisar las sugerencias, expanda el nodo de tablas de su esquema en el panel izquierdo de su

proyecto y, a continuación, elija una tabla. Seleccione la pestaña Key Management como se muestra acontinuación.

Version 1.0129

Page 136: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOptimización de su base de datos de Amazon Redshift

El panel izquierdo contiene sugerencias claves, e incluye la puntuación de fiabilidad para cadasugerencia. Puede seleccionar una de las sugerencias, o personalizar la clave editándola en el panelderecho.

5. Puede crear un informe que contenga las sugerencias de optimización. Para crear el informe, haga losiguiente:

a. Seleccione un objeto de esquema que haya optimizado en el panel izquierdo del proyecto. Abra elmenú contextual (clic secundario) para el objeto y seleccione Create Report.

El informe se abrirá en la ventana principal y aparecerá la pestaña Summary. El número deobjetos con sugerencias de optimización aparecerá en el informe.

b. Seleccione la pestaña Action Items para ver las principales sugerencias en un formato de informe.c. Puede guardar una copia local del informe de optimización en formato PDF o como un archivo

de valores separados por comas (CSV). El archivo CSV contiene solamente información deelementos de acción. El archivo PDF contiene tanto el resumen como información de elementosde acción.

6. Para aplicar las optimizaciones sugeridas en la base de datos, seleccione un objeto en el panelderecho de su proyecto. Abra el menú contextual (clic con el botón secundario) del objeto y seleccioneApply to database.

Version 1.0130

Page 137: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Conversión de procesos ETL a AWSGlue

Además de migrar su esquema y sus datos con AWS SCT, también puede migrar procesos de extracción,transformación y carga (ETL). Esto incluye la conversión de la lógica de negocio relacionada con ETL quese encuentra en los almacenes de datos de origen o en scripts externos que se ejecutan por separado.Después de la migración, los procesos de ETL se ejecutan en AWS Glue. Debe ejecutar la migración deETL en AWS Glue como un proyecto independiente de la conversión de las declaraciones de su lenguajede definición de datos (DDL) y de sus datos.

Version 1.0131

Page 138: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

En la actualidad, solo se admiten las conversiones de Oracle ETL y Teradata BTEQ a AWS Glue.

Temas• Requisitos previos (p. 133)• Descripción de AWS Glue Data Catalog (p. 133)• Limitaciones para la conversión con AWS Glue (p. 133)• Conversión con AWS Glue en la interfaz de usuario de AWS SCT (p. 134)• Conversión con la API de Python para AWS Glue (p. 139)

Version 1.0132

Page 139: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioRequisitos previos

Requisitos previosAntes de comenzar, haga lo siguiente:

• Migre las bases de datos de origen que desee migrar a AWS.• Migre los almacenes de datos de destino a AWS.• Recopile una lista de todo el código involucrado en su proceso de ETL.• Recopile una lista de toda la información de conexión necesaria para cada base de datos.

Descripción de AWS Glue Data CatalogComo parte del proceso de conversión, AWS Glue carga la información sobre las bases de datos de origeny destino. Además, organiza esta información en categorías, en una estructura que se denomina árbol. Laestructura incluye lo siguiente:

• Conexiones: parámetros de conexión• Rastreadores: una lista de rastreadores; un rastreador para cada esquema• Bases de datos: contenedores que incluyen tablas• Tablas: definiciones de metadatos que representan los datos en las tablas• Trabajos de ETL: lógica de negocio que realiza el trabajo de ETL• Disparadores: lógica que controla cuándo se ejecuta un trabajo de ETL en AWS Glue (ya sea bajo

demanda, según el programa o activadas por eventos de trabajo)

El AWS Glue Data Catalog es un índice para las métricas de tiempo de ejecución, esquema y ubicaciónde sus datos. Al trabajar con AWS Glue y AWS SCT, AWS Glue Data Catalog incluye referencias a datosque se utilizan como orígenes y destinos de sus trabajos de ETL en AWS Glue. Para crear su almacén dedatos, debe catalogar estos datos.

Puede usar la información del Data Catalog para crear y monitorizar sus trabajos de ETL. Normalmente,deberá ejecutar un rastreador para realizar un inventario de los datos incluidos en sus almacenes de datos,pero existen otras formas de añadir tablas de metadatos en su Data Catalog.

Al definir una tabla en su Data Catalog, puede añadirla a una base de datos. Las bases de datos en AWSGlue se usan para organizar las tablas.

Limitaciones para la conversión con AWS GlueAl convertir mediante AWS SCT con AWS Glue se aplican las siguientes limitaciones:

Recurso Límite predeterminado

Número de bases de datos para cada cuenta 10 000

Número de tablas para cada base de datos 100 000

Número de particiones para cada tabla 1 000 000

Número de versiones de tabla para cada tabla 100 000

Version 1.0133

Page 140: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión con AWS Glue en lainterfaz de usuario de AWS SCT

Número de tablas para cada cuenta 1 000 000

Número de particiones para cada cuenta 10 000 000

Número de versiones de tabla para cada cuenta 1 000 000

Número de conexiones para cada cuenta 1000

Número de rastreadores para cada cuenta 25

Número de trabajos para cada cuenta 25

Número de disparadores para cada cuenta 25

Número de ejecuciones de trabajo simultáneaspara cada cuenta

30

Número de ejecuciones de trabajo simultáneaspara cada trabajo

3

Número de trabajos para cada disparador 10

Número de puntos de enlace de desarrollo paracada cuenta

5

DPU máximos utilizados por un punto de enlace dedesarrollo a la vez

5

Máximo de unidades de procesamiento de datos(DPU) utilizados por un rol a la vez

100

Longitud del nombre de la base de datos Sin límite

Para que sea compatible con otros almacenesde metadatos, como Apache Hive, el nombre seincorpora en minúsculas.

Note

Si tiene previsto acceder a la base dedatos desde Athena, proporcione unnombre con solo caracteres alfanuméricosy guiones bajos.

Longitud del nombre de la conexión Sin límite

Longitud del nombre del rastreador Sin límite

Conversión con AWS Glue en la interfaz de usuariode AWS SCT

En las siguientes secciones encontrará una descripción del proceso a seguir para convertir ETL utilizandoAWS Glue con AWS SCT. En este ejemplo vamos a convertir una base de datos Oracle a AmazonRedshift, junto con los procesos ETL utilizados con las bases de datos de origen y los almacenes de datos.

Temas• Paso 1: Crear un proyecto nuevo (p. 135)

Version 1.0134

Page 141: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 1: Crear un proyecto nuevo

• Paso 2: Crear un trabajo de AWS Glue (p. 138)

Paso 1: Crear un proyecto nuevoEn primer lugar, inicie un nuevo proyecto. Para ello, inicie AWS SCT y elija File (Archivo), New Project(Nuevo proyecto). Indique un nombre y una ubicación para guardar su nuevo proyecto.

Elija Data warehouse (OLAP) (Almacén de datos, OLAP) y, a continuación, los motores de base de datosde origen y de destino.

Compruebe que ha activado Use AWS Glue (Usar AWS Glue) en la configuración del proyecto. Para ver laconfiguración del proyecto, elija Settings (Configuración) y, a continuación, Project Settings (Configuraciónde proyecto).

Version 1.0135

Page 142: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 1: Crear un proyecto nuevo

Para finalizar la preparación de la importación de su ETL, establezca conexiones con sus motores de basede datos de origen y de destino. Elija los elementos del menú que comienzan con las palabras Connect to(Conectar con). Estas etiquetas se personalizan en función de los motores de base de datos que eligió alcrear el proyecto. Por ejemplo, si eligió Oracle y Amazon Redshift, el menú mostrará las opciones Connectto Oracle (Conectar con Oracle) y Connect to Amazon Redshift (Conectar con Amazon Redshift).

Después de elegir la opción de conectarse a su base de datos de origen, escriba la información deconexión. Sabrá que la conexión ha finalizado cuando SCT muestre una lista con sus objetos de base dedatos.

Después de elegir la opción de conectarse a su base de datos de destino, escriba la información deconexión. A continuación, elija la pestaña AWS Glue que aparece. Para Copy from AWS profile (Copiardesde el perfil de AWS), elija el perfil que desea utilizar. El perfil debería rellenar automáticamente la clavede acceso de AWS, la clave secreta y la carpeta de bucket de Amazon S3. Si no lo hace, indique dichainformación. Después de seleccionar OK (Aceptar), AWS Glue analiza los objetos y carga los metadatosen el AWS Glue Data Catalog. En la siguiente captura de pantalla se muestra un ejemplo de dicha pantalla.En el ejemplo, se utiliza Amazon Redshift como nuestra base de datos de destino.

Version 1.0136

Page 143: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 1: Crear un proyecto nuevo

Note

Según la configuración de seguridad, es posible que aparezca un mensaje de advertencia queindique que su cuenta no tiene privilegios suficientes para algunos de los esquemas del servidor.Si tiene acceso a los esquemas que está utilizando, puede ignorar este mensaje.

AWS Glue crea una base de datos en el servidor de base de datos de origen y también en el servidor debase de datos de destino para ayudar en la conversión de ETL. La base de datos en el servidor de destinocontiene el AWS Glue Data Catalog. Para localizar objetos específicos, utilice el botón de búsqueda en lospaneles de origen o destino.

Para ver cómo se convierte un objeto específico, busque un elemento que desee convertir y seleccioneConvert schema (Convertir esquema) desde el menú contextual ( botón derecho del ratón). AWS SCT lotransformará en un script.

Version 1.0137

Page 144: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 2: Crear un trabajo de AWS Glue

Cuando se completa la transformación, el script se almacena en el servidor de destino en la carpeta Scriptsdel AWS Glue Data Catalog. Puede verlo en el panel de base de datos de origen en la parte derecha de lapantalla. Para cargar el script a S3, selecciónelo y, a continuación, elija Save to S3 (Guardar en S3) en elmenú contextual (haga clic con el botón derecho del ratón).

Paso 2: Crear un trabajo de AWS GlueDespués de guardar el script en S3, puede seleccionarlo y elegir Configure AWS Glue Job (Configurartrabajo de AWS Glue) para abrir el asistente para configurar el trabajo de AWS Glue. El asistente facilitaesta configuración.

La primera pestaña, Design Data Flow (Diseñar flujo de datos), le permite elegir una estrategia deejecución y la lista de scripts que desea incluir en este trabajo. Puede elegir los parámetros de cada script.También puede reorganizar los scripts de manera que se ejecuten en el orden correcto.

En el segundo paso, o pestaña, del asistente, puede asignar un nombre al trabajo y configurardirectamente las opciones para AWS Glue. En esta pantalla puede configurar las siguientes opciones:

• Rol de IAM• Nombres de archivos de script y rutas de archivo• Cifrar el script mediante el cifrado en el servidor con claves administradas por Amazon S3 (SSE-S3)• Directorio temporal• Ruta de la biblioteca Python generada• Ruta de la biblioteca Python del usuario• Ruta de los archivos .jar dependientes (ruta para los archivos .jar dependientes)• Ruta de los archivos a los que se hace referencia• DPU simultáneas para cada trabajo ejecutado• Simultaneidad máxima• Tiempo de espera del trabajo (en minutos)• Umbral de notificación de retraso (en minutos)• Número de reintentos• Configuración de seguridad• Cifrado en el servidor

En el tercer paso, o pestaña, elija la conexión configurada con el punto de enlace de destino.

Version 1.0138

Page 145: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConversión con la API de Python para AWS Glue

Tras finalizar la configuración del trabajo, este se muestra en los trabajos de ETL en el AWS Glue DataCatalog. Si elige el trabajo, se mostrará la configuración para que pueda revisarla o editarla. Para crearun nuevo trabajo en AWS Glue, elija Create AWS Glue Job (Crear trabajo de AWS Glue) en el menúcontextual (botón derecho del ratón) del trabajo. Al hacerlo se aplica la definición de esquema. Paraactualizar la visualización, elija Refresh from database (Actualizar desde la base de datos) en el menúcontextual (botón derecho del ratón).

En este momento, podrá ver su trabajo en la consola de AWS Glue. Para ello, inicie sesión en la Consolade administración de AWS y abra la consola de AWS Glue en https://console.aws.amazon.com/glue/.

Puede probar el nuevo trabajo para asegurarse de que funciona correctamente. Compruebe los datos de latabla de origen y, a continuación, verifique que la tabla de destino esté vacía. Ejecute el trabajo y vuelva arealizar la comprobación. Puede ver los registros de errores desde la consola de AWS Glue.

Conversión con la API de Python para AWS GlueEn las secciones siguientes se describe una conversión que llama a las operaciones de la API de AWSGlue en Python. Para obtener más información, consulte Program AWS Glue ETL Scripts in Python(Programar scripts de ETL de en Python) en la Guía para desarrolladores de AWS Glue.

Paso 1: Crear una base de datosEl primer paso consiste en crear una base de datos nueva en un AWS Glue Data Catalog utilizando laAPI del SDK de AWS. Al definir una tabla en el Data Catalog, la añade a una base de datos. Las bases dedatos se usan para organizar tablas en AWS Glue.

En el ejemplo siguiente se muestra el método create_database de la API de Python para AWS Glue.

response = client.create_database( DatabaseInput={ 'Name': 'database_name’, 'Description': 'description', 'LocationUri': 'string', 'Parameters': { 'parameter-name': 'parameter value' } })

Si utiliza Amazon Redshift, el nombre de la base de datos se forma tal y como se indica a continuación.

{redshift_cluster_name}_{redshift_database_name}_{redshift_schema_name}

El nombre completo del clúster de Amazon Redshift de este ejemplo es el siguiente:

rsdbb03.apq1mpqso.us-west-2.redshift.amazonaws.com

A continuación, se muestra un ejemplo de un nombre correcto de la base de datos. En este caso rsdbb03es el nombre, que es la primera parte del nombre completo del punto de enlace del clúster. La base dedatos se denomina dev y el esquema es ora_glue.

rsdbb03_dev_ora_glue

Paso 2: Crear una conexiónCree una nueva conexión en un Data Catalog utilizando la API del SDK de AWS.

Version 1.0139

Page 146: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 3: Crear un rastreador de AWS Glue

En el ejemplo siguiente se muestra el uso del método create_connection de la API de Python paraAWS Glue.

response = client.create_connection( ConnectionInput={ 'Name': 'Redshift_abcde03.aabbcc112233.us-west-2.redshift.amazonaws.com_dev', 'Description': 'Created from SCT', 'ConnectionType': 'JDBC', 'ConnectionProperties': { 'JDBC_CONNECTION_URL': 'jdbc:redshift://aabbcc03.aabbcc112233.us-west-2.redshift.amazonaws.com:5439/dev', 'USERNAME': 'user_name', 'PASSWORD': 'password' }, 'PhysicalConnectionRequirements': { 'AvailabilityZone': 'us-west-2c', 'SubnetId': 'subnet-a1b23c45', 'SecurityGroupIdList': [ 'sg-000a2b3c', 'sg-1a230b4c', 'sg-aba12c3d', 'sg-1abb2345' ] } })

Los parámetros que se usan en create_connection son los siguientes:

• Name (cadena UTF-8) obligatorio. En Amazon Redshift, el nombre de la conexión se forma tal y como seindica a continuación: Redshift_{Endpoint-name}_{redshift-database-name}, por ejemplo:Redshift_abcde03_dev

• Description (cadena UTF-8): su descripción de la conexión.• ConnectionType (UTF-8) obligatorio: el tipo de conexión. En la actualidad, solo se admite JDBC; SFTP

es incompatible.• ConnectionProperties (dict) obligatorias: una lista de pares clave-valor utilizados como parámetros

para esta conexión, incluida la URL de conexión de JDBC, el nombre de usuario y la contraseña.• PhysicalConnectionRequirements (dict): requisitos de conexión física, que incluyen lo siguiente:

• SubnetId (cadena UTF-8): el ID de la subred que utiliza la conexión.• SecurityGroupIdList (lista): lista de ID de grupo de seguridad que usa la conexión.• AvailabilityZone (cadena UTF-8) obligatoria: la zona de disponibilidad que contiene el punto de

enlace. Este parámetro ha quedado obsoleto.

Paso 3: Crear un rastreador de AWS GlueA continuación, cree un rastreador de AWS Glue para rellenar el catálogo de AWS Glue. Para obtener másinformación, consulte la sección de catalogación de tablas con un rastreador en la Guía del desarrolladorde AWS Glue. El primer paso para añadir un rastreador consiste en crear una nueva base de datos enun Data Catalog utilizando la API del SDK de AWS. Antes de comenzar, primero debe eliminar cualquierversión anterior de la misma versión con la operación delete_crawler.

Al crear el rastreador, hay que tener algunas consideraciones en cuenta:

• Para el nombre del rastreador, utilice el formato<redshift_node_name>_<redshift_database_name>_<redshift_shema_name>, por ejemplo:abcde03_dev_ora_glue.

• Utilice un rol de IAM que ya existe. Para obtener más información acerca de cómo crear roles de IAM,consulte Creación de roles de IAM en la Guía del usuario de IAM.

• Utilice el nombre de la base de datos que creó en los pasos anteriores.

Version 1.0140

Page 147: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 3: Crear un rastreador de AWS Glue

• Utilice el parámetro ConnectionName, que es obligatorio.• Para el parámetro path, utilice la ruta al destino de JDBC, por ejemplo: dev/ora_glue/%.

En el siguiente ejemplo se elimina un rastreador existente y, a continuación, se crea uno nuevo con la APIde Python para AWS Glue.

response = client.delete_crawler( Name='crawler_name')

response = client.create_crawler( Name='crawler_name', Role= ‘IAM_role’, DatabaseName='database_name’, Description='string', Targets={ 'S3Targets': [ { 'Path': 'string', 'Exclusions': [ 'string', ] }, ], 'JdbcTargets': [ { 'ConnectionName': ‘ConnectionName’, 'Path': ‘Include_path’, 'Exclusions': [ 'string', ] }, ] }, Schedule='string', Classifiers=[ 'string', ], TablePrefix='string', SchemaChangePolicy={ 'UpdateBehavior': 'LOG'|'UPDATE_IN_DATABASE', 'DeleteBehavior': 'LOG'|'DELETE_FROM_DATABASE'|'DEPRECATE_IN_DATABASE' }, Configuration='string')

Después de crear el rastreador, ejecute un rastreador que se conecte a uno o varios almacenes de datos,determine las estructuras de datos y escriba tablas en el Data Catalog. Puede ejecutar su rastreador demanera programada, tal y como se muestra a continuación.

response = client.start_crawler( Name='string')

Debido a que estamos utilizando Amazon Redshift, nuestro objetivo en este ejemplo, los tipos de datos deAmazon Redshift se asignan al tipo de datos Glue de la siguiente forma después de ejecutar el rastreador.

Tipo de datos de Amazon Redshift Tipo de datos de AWS Glue

smalint smallint

Version 1.0141

Page 148: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPaso 3: Crear un rastreador de AWS Glue

integer int

bigint bigint

decimal decimal(18,0)

decimal(p,s) decimal(p,s)

real double

double precision double

booleano booleano

char string

varchar string

varchar(n) string

fecha fecha

timestamp timestamp

timestamptz timestamp

Version 1.0142

Page 149: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de un agente de replicación

de AWS SCT con AWS DMS

Uso de la Herramienta de conversiónde esquemas de AWS con el AWSDatabase Migration ServiceUso de un agente de replicación de AWS SCT conAWS DMS

Para migraciones de bases de datos de gran tamaño, puede utilizar un agente de replicación de AWSSCT para copiar los datos de la base de datos local en Amazon S3 o en un dispositivo Amazon Snowball.El agente de replicación funciona con AWS DMS y el agente de replicación puede funcionar en segundoplano mientras AWS SCT está cerrado.

Cuando se trabaja con Amazon Snowball, el agente de AWS SCT extrae los datos en el dispositivoAmazon Snowball. El dispositivo se envía a AWS y los datos se cargan en un bucket de Amazon S3.Durante este tiempo, el agente de AWS SCT sigue en ejecución. A continuación, el agente obtiene losdatos de Amazon S3 y los copia en el punto de enlace de destino.

Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).

Uso de un agente de extracción de datos de AWSSCT con AWS DMS

AWS SCT proporciona un agente de extracción de datos para facilitar las migraciones de ApacheCassandra a Amazon DynamoDB. Cassandra y DynamoDB son bases de datos NoSQL, pero difieren enla arquitectura del sistema y en la representación de los datos. AWS SCT proporciona flujos de trabajobasados en asistente para la automatización del proceso de migración de Cassandra a DynamoDB eintegra con AWS Database Migration Service (AWS DMS) para realizar la migración real.

Para obtener más información, consulte Uso de agentes de extracción de datos (p. 144).

Version 1.0143

Page 150: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigración de datos desde un almacén

de datos local a Amazon Redshift

Uso de agentes de extracción dedatos

En algunas situaciones de migración, las bases de datos de origen y de destino son muy diferentes entresí y requieren una transformación de datos adicional. AWS SCT es ampliable, de modo que puede tratarestas situaciones con un agente—, un programa externo que está integrado con la AWS SCT, pero quelleva a cabo la transformación de datos en otro lugar (como, por ejemplo, una instancia Amazon EC2).Además, un agente de AWS SCT puede interactuar con otros servicios de AWS en su nombre—, talescomo la creación y la administración de tareas de AWS Database Migration Service.

En los siguientes temas se describen estas situaciones de forma más detallada y se explica cómo utilizarlos agentes de la AWS SCT durante el proceso de migración.

Temas• Migración de datos desde un almacén de datos local a Amazon Redshift (p. 144)• Migración de datos desde Apache Cassandra a Amazon DynamoDB (p. 168)

Migración de datos desde un almacén de datoslocal a Amazon Redshift

Puede utilizar un agente de AWS SCT para extraer datos desde su almacén de datos local y migrarlos aAmazon Redshift. El agente extrae los datos y los carga en Amazon S3 o en un dispositivo AWS Snowball.A continuación, puede utilizar AWS SCT para copiar los datos en Amazon Redshift.

Amazon S3 es un servicio de almacenamiento y de recuperación. Para almacenar un objeto en AmazonS3, debe cargar en un bucket de Amazon S3 el archivo que quiera almacenar. Al cargar un archivo, puedeconfigurar permisos en el objeto y también en cualquier metadato.

Las migraciones de datos a gran escala pueden incluir muchos terabytes de información y pueden verseralentizadas por el desempeño de la red y la gran cantidad de datos que hay que mover. AWS Snowballes un servicio de AWS que puede utilizar para transferir datos a la nube a velocidades superiores a lasde la red mediante un dispositivo propiedad de AWS. Un dispositivo AWS Snowball puede contener hasta80 TB de datos y un dispositivo AWS Snowball Edge puede contener hasta 100 TB. Usa el cifrado de 256bits y un Módulo de plataforma segura (TPM) estándar del sector diseñado para garantizar la seguridad yla cadena de custodia completa de los datos. AWS SCT funciona con dispositivos AWS Snowball y AWSSnowball Edge, que se denominarán dispositivos AWS Snowball en el resto de esta guía.

Cuando se utiliza AWS SCT y un dispositivo AWS Snowball, los datos se migran en dos etapas. En primerlugar, se utiliza AWS SCT para procesar los datos a nivel local y, a continuación, se mueven al dispositivoAWS Snowball. A continuación, se envía el dispositivo a AWS mediante el proceso de AWS Snowball yAWS carga automáticamente los datos en un bucket de Amazon S3. Después, cuando los datos estándisponibles en Amazon S3, se usa AWS SCT para migrar los datos a Amazon Redshift. Los agentes deextracción de datos pueden trabajar en segundo plano mientras la AWS SCT está cerrada.

En el siguiente diagrama se muestran los escenarios admitidos.

Version 1.0144

Page 151: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigración de datos desde un almacén

de datos local a Amazon Redshift

En la actualidad, los agentes de extracción de datos se admiten para los siguientes data warehouses deorigen:

• Greenplum Database (versión 4.3 y posteriores)• Microsoft SQL Server (versión 2008 y posteriores)• Netezza (versión 7.0.3 y posteriores)• Oracle (versión 10 y posteriores)• Teradata (versión 13 y posteriores)• Vertica (versión 7.2.2 y posteriores)

Puede conectarse a puntos de enlace de FIPS para Amazon Redshift si tiene que cumplir con losrequisitos de seguridad del Estándar federal de procesamiento de la información. Hay puntos de enlace deFIPS en las siguientes regiones de AWS:

• Región EE.UU. Este (Norte de Virginia) (redshift-fips.us-east-1.amazonaws.com)• Región EE.UU Este (Ohio) (redshift-fips.us-east-2.amazonaws.com)• EE.UU. Oeste (Norte de California) (redshift-fips.us-west-1.amazonaws.com)• Región EE.UU. Oeste (Oregón) (redshift-fips.us-west-2.amazonaws.com)

Utilice la información en los temas siguientes para aprender a trabajar con los agentes de extracción dedatos.

Temas• Configuración de requisitos previos para Amazon S3 y seguridad para los agentes de extracción de

datos (p. 146)• Instalación de agentes de extracción (p. 147)• Registro de agentes de extracción con la Herramienta de conversión de esquemas de AWS (p. 150)

Version 1.0145

Page 152: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioConfiguración de requisitos previos

• Ocultar y recuperar información de un agente de AWS SCT (p. 151)• Creación de filtros de extracción de datos en la Herramienta de conversión de esquemas de

AWS (p. 153)• Ordenación de datos antes de la migración con la AWS SCT (p. 153)• Creación, ejecución y monitorización de una tarea de extracción de datos de AWS SCT (p. 154)• Extracción de datos con un dispositivo AWS Snowball (p. 156)• Resultado de la tarea de extracción de datos (p. 162)• Uso de particiones virtuales con Herramienta de conversión de esquemas de AWS (p. 164)• Migración de LOBs a Amazon Redshift (p. 166)• Prácticas recomendadas y solución de problemas de agentes de extracción de datos (p. 167)

Configuración de requisitos previos para Amazon S3 yseguridad para los agentes de extracción de datosAntes de trabajar con los agentes de extracción de datos, almacene la información de su bucket deAmazon S3 y configure los almacenes de confianza y de claves de la capa de conexión segura (SSL).

Configuración de Amazon S3Después de que sus agentes extraigan los datos, los cargarán en el bucket de Amazon S3. Antesde continuar, debe proporcionar las credenciales para conectarse a su cuenta de AWS y a su bucketde Amazon S3. Puede almacenar la información de sus credenciales y su bucket en un perfil en laconfiguración de la aplicación global y, a continuación, asociar el perfil con su proyecto de AWS SCT. Sifuera necesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas deAWS (p. 13).

Configuración de seguridadLa Herramienta de conversión de esquemas de AWS y los agentes de extracción pueden comunicarse através de la capa de conexión segura (SSL). Para habilitar la SSL, configure un almacén de confianza y unalmacén de claves.

Para configurar una comunicación segura con el agente de extracción

1. Inicie Herramienta de conversión de esquemas de AWS.2. Abra el menú Settings y seleccione Global Settings. Aparecerá el cuadro de diálogo Global settings.

Seleccione la pestaña Security como se muestra a continuación.

Version 1.0146

Page 153: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de agentes

3. Seleccione Generate Trust and Key Store o haga clic en Select existing Trust and Key Store.

Si selecciona Generate Trust and Key Store, a continuación tendrá que especificar el nombre yla contraseña de los almacenes de confianza y de claves y la ruta a la ubicación de los archivosgenerados. Utilizará estos archivos en pasos posteriores.

Si selecciona Select existing Trust and Key Store, después especificará la contraseña y el nombre delarchivo para los almacenes de confianza y de claves. Utilizará estos archivos en pasos posteriores.

4. Tras haber especificado el almacén de confianza y el almacén de claves, seleccione OK para cerrar elcuadro de diálogo Global Settings.

Instalación de agentes de extracciónLe recomendamos que instale varios agentes de extracción en equipos individuales, independientes delequipo en el que se esté ejecutando la Herramienta de conversión de esquemas de AWS.

En la actualidad, los agentes de extracción son compatibles con los siguientes sistemas operativos:

• macOS• Microsoft Windows• Red Hat Enterprise Linux (RHEL) 6.0• Ubuntu Linux (versión 14.04 y posteriores)

Version 1.0147

Page 154: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de agentes

Utilice el siguiente procedimiento para instalar agentes de extracción. Repita este procedimiento para cadaequipo en el que desee instalar un agente de extracción.

Para instalar un agente de extracción

1. Si aún no ha descargado el archivo del instalador de la AWS SCT, siga las instrucciones deInstalación, verificación y actualización de Herramienta de conversión de esquemas de AWS (p. 4)para descargarlo. El archivo .zip que contiene el archivo del instalador de la AWS SCT tambiéncontiene el archivo del instalador del agente de extracción.

2. Localice el archivo del instalador para su agente de extracción en una subcarpeta llamada agentes. Elarchivo correcto para el sistema operativo del equipo en el que quiera instalar el agente de extracciónse muestra a continuación.

Sistema operativo Nombre de archivo

macOS aws-schema-conversion-tool-extractor-1.0.build-number.dmg

Microsoft Windows aws-schema-conversion-tool-extractor-1.0.build-number.msi

RHEL aws-schema-conversion-tool-extractor-1.0.build-number.x86_64.rpm

Ubuntu Linux aws-schema-conversion-tool-extractor-1.0.build-number.deb

3. Para instalar el agente de extracción en un equipo independiente, copie el archivo del instalador en elnuevo equipo.

4. Ejecute el archivo del instalador. Utilice las instrucciones para su sistema operativo, que se muestran acontinuación.

Sistema operativo Instrucciones de instalación

macOS En Finder, abra aws-schema-conversion-tool-extractor-1.0.build-number.dmg.

Arrastre aws-schema-conversion-tool-extractor-1.0.build-number.dmg a la carpeta Applications.

Microsoft Windows Haga doble clic en el archivo para ejecutar el instalador.

RHEL Ejecute el siguiente comando en la carpeta en la que haya descargado omovido el archivo:

sudo rpm -ivh aws-schema-conversion-tool-extractor-1.0.build-number.x86_64.rpm

Ubuntu Linux Ejecute el siguiente comando en la carpeta en la que haya descargado omovido el archivo:

sudo dpkg -i aws-schema-conversion-tool-extractor-1.0.build-number.deb

5. Instale los controladores de Java Database Connectivity (JDBC) para el motor de base de datos deorigen. Para obtener instrucciones y enlaces de descarga, consulte Instalación de los controladoresde bases de datos necesarios (p. 8). Siga las instrucciones para el motor de base de datos de origen,no solo para el motor de base de datos de destino.

Version 1.0148

Page 155: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalación de agentes

6. Copie los almacenes SSL de confianza y de claves (.zip o archivos individuales) que generó en elprocedimiento anterior. Si copia el archivo .zip a un nuevo equipo, extraiga los archivos individualesdel archivo .zip en el nuevo equipo.

Puede colocar los archivos en cualquier lugar que desee. No obstante, tenga en cuenta lasubicaciones, ya que en un futuro procedimiento le dirá al agente dónde encontrar los archivos.

Siga con la instalación de su agente de extracción completando el procedimiento de la sección siguiente.

Configuración de agentes de extracciónUtilice el siguiente procedimiento para configurar agentes de extracción. Repita este procedimiento paracada equipo en que tenga instalado un agente de extracción.

Para configurar su agente de extracción

• Desde la ubicación en la que haya instalado el agente, ejecute el programa de instalación. Para RHELy Ubuntu, el archivo se llamará sct-extractor-setup.sh. Para macOS y Microsoft Windows,el archivo se llamará AWS SCT Data Extractor Agent y podrá hacer doble clic sobre él paraejecutarlo.

El programa de instalación le pedirá información. Para cada solicitud, aparecerá un valorpredeterminado. Puede aceptar el valor predeterminado o introducir un valor nuevo. Debe especificarla siguiente información:

• El motor del data warehouse.• El número de puerto en el que escucha el agente.• La ubicación en la que haya instalado los controladores de JDBC.• La carpeta de trabajo. Sus datos extraídos se guardarán en una subcarpeta de esta ubicación. La

carpeta de trabajo puede estar en un equipo distinto al del agente, y una única carpeta de trabajo sepuede compartir entre varios agentes en diferentes equipos.

• La ubicación del archivo de almacén de claves.• La contraseña del almacén de claves.• La ubicación del archivo del almacén de confianza.• La contraseña del almacén de confianza.

El programa de instalación actualiza el archivo de configuración para el agente de extracción. El archivode configuración se denomina Settings.properties y se encuentra en la ubicación en la que hayainstalado el agente de extracción. A continuación se muestra un archivo de configuración de ejemplo.

port=8888vendor=ORACLEdriver.jars=<driver path>/Install/Drivers/ojdbc7.jarlocation=<output path>/dmt/8888/outextractor.log.folder=<log path>/dmt/8888/logextractor.storage.folder=<storage path>/dmt/8888/storageextractor.start.fetch.size=20000extractor.out.file.size=10485760ssl.option=OFF#ssl.option=ON#ssl.keystore.path=<key store path>/dmt/8888/vault/keystore#ssl.truststore.path=<trust store path>/dmt/8888/vault/truststore

Version 1.0149

Page 156: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioRegistro de agentes

Iniciar agentes de extracciónUtilice el siguiente procedimiento para iniciar agentes de extracción. Repita este procedimiento para cadaequipo en que tenga instalado un agente de extracción.

Los agentes de extracción actúan en escucha. Cuando inicia un agente con este procedimiento, el agentecomienza a escuchar para obtener instrucciones. Enviará a los agentes instrucciones para extraer losdatos de su data warehouse en una sección posterior.

Para iniciar su agente de extracción

• En el equipo en el que haya instalado el agente de extracción, ejecute el comando que aparezca acontinuación para su sistema operativo.

Sistema operativo Comando de inicio

macOS Ejecute el archivo StartAgent.command.

Microsoft Windows Haga doble clic en el archivo de lotes StartAgent.bat.

RHEL Ejecute el siguiente comando en la ruta de la carpeta en la que hayainstalado el agente:

sudo initctl start sct-extractor

Ubuntu Linux Ejecute el siguiente comando en la ruta de la carpeta en la que hayainstalado el agente. Utilice el comando adecuado para su versión deUbuntu.

Ubuntu 14.04: sudo initctl start sct-extractor

Ubuntu 15.04 y posteriores: sudo systemctl start sct-extractor

Para comprobar el estado del agente, ejecute el mismo comando, pero sustituya start por status.

Para detener un agente, ejecute el mismo comando, pero sustituya start por stop.

Registro de agentes de extracción con la Herramientade conversión de esquemas de AWSPuede administrar los agentes de extracción mediante la AWS SCT. Los agentes de extracción actúan enescucha. Cuando reciben instrucciones de la AWS SCT, extraen los datos de su almacén de datos.

Utilice el siguiente procedimiento para registrar los agentes de extracción con su proyecto de la AWS SCT.

Para registrar un agente de extracción

1. Inicie la Herramienta de conversión de esquemas de AWS y abra un proyecto.2. Abra el menú View y seleccione Data Migration View. Aparecerá la pestaña Agents. Si ha registrado

agentes anteriormente, aparecerán en una cuadrícula en la parte superior de la pestaña, como semuestra a continuación.

Version 1.0150

Page 157: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOcultar y recuperar información de un agente de AWS SCT

3. Elija Register. Aparecerá el cuadro de diálogo New Agent Registration.

Note

Después de registrar un agente con un proyecto de la AWS SCT, no puede registrar el mismoagente con otro proyecto diferente. Si ya no utiliza un agente en un proyecto de la AWS SCT,puede anularlo. A continuación, puede registrarlo con otro proyecto diferente.

4. Introduzca la información en el cuadro de diálogo New Agent Registration:

a. En Description, escriba la descripción del agente.b. En Host Name, escriba el nombre de host o la dirección IP del equipo del agente.c. En Port, escriba el número de puerto en el que esté escuchando el agente.d. Elija Register (Registrar) para registrar el agente con su proyecto de AWS SCT.

5. Repita los pasos anteriores para registrar múltiples agentes con su proyecto de la AWS SCT.

Ocultar y recuperar información de un agente de AWSSCTUn agente de AWS SCT cifra una importante cantidad de información, por ejemplo, las contraseñas de losalmacenes de claves y de confianza del usuario, las cuentas de base de datos, la información de la cuentade AWS y elementos similares. Hace esto utilizando un archivo especial llamado seed.dat. De formapredeterminada, el agente crea este archivo en la carpeta de trabajo del usuario que configura el agentepor primera vez.

Como diferentes usuarios pueden configurar y ejecutar el agente, la ruta de seed.dat se almacena en elparámetro {extractor.private.folder} del archivo settings.properties. Cuando se inicia elagente, puede utilizar esta ruta para encontrar el archivo seed.dat y obtener acceso a la información delalmacén de claves y confianza de la base de datos correspondiente.

Version 1.0151

Page 158: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioOcultar y recuperar información de un agente de AWS SCT

Es posible que necesite recuperar las contraseñas que un agente ha almacenado en estos casos:

• Si el usuario pierde el archivo seed.dat y la ubicación y el puerto del agente de la AWS SCT no hancambiado.

• Si el usuario pierde el archivo seed.dat y la ubicación y el puerto del agente de la AWS SCT hancambiado. En este caso, el cambio suele ocurrir porque el agente se ha migrado a otro host o puerto y lainformación del archivo seed.dat ya no es válida.

En estos casos, si se inicia un agente sin SSL, este se inicia y después obtiene acceso al almacenamientodel agente creado con anterioridad. A continuación adopta el estado Waiting for recovery.

No obstante, en estos casos, si se inicia un agente con SSL, no puede reiniciarlo. Esto se debe aque el agente no puede descifrar las contraseñas para los certificados almacenados en el archivosettings.properties. En este tipo de inicio, el agente no se puede iniciar. Se escribe un error similaral siguiente en el archivo log: "El agente no se pudo iniciar con el modo SSL habilitado. Vuelva configurarel agente. Motivo: La contraseña de keystore es incorrecta".

Para solucionar este problema, cree un nuevo agente y configúrelo de forma que use las contraseñasexistentes para obtener acceso a los certificados SSL. Para ello, siga el procedimiento que se indica acontinuación.

Después de realizar este procedimiento, el agente debe ejecutarse y adoptar el estado Waiting for recovery(Esperando recuperación). AWS SCT envía automáticamente las contraseñas necesarias a un agente enel estado Waiting for recovery (Esperando recuperación). Cuando el agente tiene las contraseñas, reiniciatodas las tareas. No se requiere ninguna acción adicional por parte de SCT.

Para volver a configurar el agente y restaurar las contraseñas para obtener acceso a loscertificados SSL

1. Instale un nuevo agente de AWS SCT y ejecute la configuración.2. Cambie la propiedad agent.name del archivo instance.properties al nombre del agente para el

que se creó el almacenamiento, para que el nuevo agente trabaje con el almacenamiento del agenteexistente.

El archivo instance.properties se almacena en la carpeta privada del agente, que recibe sunombre siguiendo esta convención: {output.folder}\dmt\{hostName}_{portNumber}\.

3. Cambie el nombre de {output.folder} a la carpeta de salida del agente anterior.

En este momento, AWS SCT todavía intenta obtener acceso al antiguo extractor en el host y puertosantiguos. Por consiguiente, el extractor inaccesible obtiene el estado FAILED. A continuación, puedecambiar el host y el puerto.

4. Modifique el host, el puerto o ambas cosas del agente anterior mediante el comando Modify pararedirigir el flujo de solicitudes al nuevo agente.

Cuando AWS SCT puede hacer ping en el nuevo agente, AWS SCT recibe el estado Waiting forrecovery (Esperando recuperación) del agente. A continuación, AWS SCT recupera automáticamente lascontraseñas del agente.

Cada agente que trabaja con el almacenamiento del agente actualiza un archivo especial llamadostorage.lck ubicado en {output.folder}\{agentName}\storage\. Este archivo contieneel ID de red del agente y el tiempo hasta que el almacenamiento está bloqueado. Cuando el agentetrabaja con el almacenamiento del agente, actualiza el archivo storage.lck y amplía el arrendamientodel almacenamiento en 10 minutos cada 5 minutos. Ninguna otra instancia puede trabajar con elalmacenamiento de este agente hasta que finalice el arrendamiento.

Version 1.0152

Page 159: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de filtros de extracción de datos

Creación de filtros de extracción de datos en laHerramienta de conversión de esquemas de AWSAntes de extraer los datos con la Herramienta de conversión de esquemas de AWS, puede configurarfiltros que reduzcan la cantidad de datos que va a extraer. Puede crear filtros de extracción de datosmediante el uso de cláusulas WHERE para reducir los datos que puede extraer. Por ejemplo, puede escribiruna cláusula WHERE que seleccione los datos de una única tabla.

Puede crear filtros de extracción de datos y guardar los filtros como parte de su proyecto. Con el proyectoabierto, utilice el siguiente procedimiento para crear filtros de extracción de datos.

Para crear filtros de extracción de datos

1. En el menú Settings, seleccione Mapping Rules. Aparecerá el cuadro de diálogo Mapping Rules. Elpanel superior contiene reglas de transformación y el panel inferior contiene reglas de filtrado.

2. En el panel Filtering Rules, seleccione Add new rule.3. Configure su filtro:

a. En Name, escriba un nombre para su filtro.b. En Where schema name like, escriba un filtro para aplicárselo a los esquemas. En este filtro, una

cláusula WHERE se evalúa mediante una cláusula LIKE. Puede especificar un nombre exacto paraseleccionar un esquema o introducir un patrón para seleccionar varios esquemas.

c. En table name like, escriba un filtro para aplicárselo a las tablas. En este filtro, una cláusulaWHERE se evalúa mediante una cláusula LIKE. Puede especificar un nombre exacto paraseleccionar una tabla o introducir un patrón para seleccionar varias tablas.

d. En Where clause, escriba una cláusula WHERE para filtrar los datos.4. Una vez que haya configurado su filtro, seleccione Save para guardar el filtro o Cancel para cancelar

los cambios.5. Cuando haya acabado de agregar, editar y eliminar filtros, seleccione Save All para guardar todos los

cambios y, a continuación, seleccione Close.

Puede utilizar el icono de alternar para desactivar un filtro sin eliminarlo. También puede utilizar el iconode copia para duplicar un filtro existente. Para borrar un filtro existente, utilice el icono de eliminar. Paraguardar los cambios que realice en sus filtros, seleccione Save All.

Ordenación de datos antes de la migración con laAWS SCTOrdenar los datos antes de la migración con la AWS SCT proporciona algunas ventajas. Si ordena losdatos en primer lugar, la AWS SCT puede reiniciar el agente de extracción en el último punto guardadodespués de un error. Además, si va a migrar datos a Amazon Redshift y ordena los datos en primer lugar,la AWS SCT puede insertar datos en Amazon Redshift con mayor rapidez.

Estas ventajas tienen que ver con cómo la AWS SCT crea las consultas de extracción de datos. Enalgunos casos, la AWS SCT utiliza la función analítica DENSE_RANK en estas consultas. Sin embargo,DENSE_RANK puede consumir mucho tiempo y recursos del servidor para ordenar el conjunto de datosque resultan de la extracción, de modo que si la AWS SCT puede trabajar sin ella, así lo hace.

Par ordenar datos antes de la migración con la AWS SCT

1. Abra un proyecto de AWS SCT.2. Abra el menú contextual (clic secundario) para el objeto y seleccione Create Local Task.3. Seleccione la pestaña Advanced y elija una opción para Sorting Strategy:

Version 1.0153

Page 160: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación, ejecución y monitorización

de una tarea de AWS SCT

• Never use sorting (No utilizar nunca la ordenación) –: El agente de extracción no utiliza la funciónanalítica DENSE_RANK y se reinicia desde el principio si se produce un error.

• Use sorting if possible (Utilizar la ordenación si es posible) –: El agente de extracción utilizaDENSE_RANK si la tabla tiene una clave primaria o una restricción única.

• Use sorting after first fail (recommended) [Utilizar la ordenación después del primer error(recomendado)] – El agente de extracción intenta primero obtener los datos sin usar DENSE_RANK.Si el primer intento falla, el agente de extracción reconstruye la consulta mediante DENSE_RANK yconserva su ubicación en caso de error.

4. Establezca parámetros adicionales, como se describe a continuación, y seleccione Create para crearla tarea de extracción de datos.

Creación, ejecución y monitorización de una tarea deextracción de datos de AWS SCTUtilice los siguientes procedimientos para crear, ejecutar y monitorizar las tareas de extracción de datos.

Para asignar tareas a agentes y migrar datos

1. En la Herramienta de conversión de esquemas de AWS, después de haber convertido el esquema,seleccione una o varias tablas en el panel izquierdo del proyecto.

Version 1.0154

Page 161: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación, ejecución y monitorización

de una tarea de AWS SCT

Puede seleccionar todas las tablas, pero no se lo recomendamos por motivos de desempeño. Lerecomendamos que cree varias tareas para varias tablas basadas en el tamaño de las tablas en eldata warehouse.

2. Abra el menú contextual (clic secundario) para cada tabla y seleccione Create Task. Se abre el cuadrode diálogo Create Local Task como se muestra a continuación.

3. En Task Name, escriba un nombre para la tarea.4. En Migration Mode, seleccione una de las siguientes opciones:

• Extract Only (Solo extraer) –: extrae los datos y los guarda en sus carpetas de trabajo locales.• Extract and Upload (Extraer y cargar) –: extrae los datos y los carga en Amazon S3.• Extract, Upload and Copy (Extraer, cargar y copiar) –: extrae los datos, los carga a Amazon S3 y los

copia en el almacén de datos de Amazon Redshift.5. Seleccione Extract LOBs para extraer grandes objetos. Si no es necesario extraer objetos grandes,

puede quitar la marca de selección de la casilla. Esto reduce la cantidad de datos que extrae.6. Si desea ver información detallada sobre una tarea, seleccione Enable Task Logging. Puede utilizar el

registro de tareas para depurar problemas.

Si habilita el registro de tareas, seleccione el nivel de detalle que desea ver. Los niveles son lossiguientes y cada nivel incluye todos los mensajes del nivel anterior:

• ERROR: – La cantidad mínima de detalles.• WARNING

• INFO

• DEBUG

• TRACE: – La cantidad máxima de detalles.7. Seleccione Test Task (Probar tarea) para comprobar que se puede conectar a su carpeta de trabajo,

bucket de Amazon S3 y almacén de datos de Amazon Redshift. La verificación depende del modo demigración que elija.

8. Seleccione Create para crear la tarea.9. Repita los pasos anteriores para crear tareas para todos los datos que quiera migrar.

Version 1.0155

Page 162: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

Para ejecutar y monitorizar tareas

1. En View, elija Data Migration View. Aparecerá la pestaña Agents.2. Elija la pestaña Tasks. Sus tareas aparecen en la cuadrícula en la parte superior tal y como se

muestra a continuación. Podrá ver el estado de una tarea en la cuadrícula superior y el estado de lassubtareas en la cuadrícula inferior.

3. Seleccione una tarea en la cuadrícula superior y amplíela. En función del modo de migración que elija,verá la tarea dividida en Extraer, Upload y Copy.

4. Para comenzar una tarea, seleccione Start para esa tarea. Puede monitorizar el estado de sus tareasmientras están en ejecución. Las subtareas se ejecutan en paralelo. Las funciones de extracción,carga y copia también se ejecutan en paralelo.

5. Si ha habilitado el registro al configurar la tarea, podrá ver el registro:

a. Seleccione Download Log. Aparecerá un mensaje con el nombre de la carpeta que contiene elarchivo de registro. Omita el mensaje.

b. Aparecerá un enlace en la pestaña Task details. Seleccione el enlace para abrir la carpeta quecontiene el archivo de registro.

Puede cerrar la AWS SCT y sus agentes y tareas seguirán ejecutándose. Puede volver a abrir la AWSSCT en otro momento para comprobar el estado de sus tareas y consultar los registros de tareas.

Extracción de datos con un dispositivo AWS SnowballEl proceso de utilizar AWS SCT y AWS Snowball consta de varios pasos. La migración implica una tarealocal, donde AWS SCT usa un agente de extracción de datos para trasladar los datos al dispositivo AWSSnowball, y una acción intermedia en la que AWS copia los datos desde el dispositivo AWS Snowball a unbucket de Amazon S3. El proceso termina cuando AWS SCT carga los datos desde el bucket de AmazonS3 en Amazon Redshift.

Version 1.0156

Page 163: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

Las secciones que siguen a esta información general proporcionan una guía paso a paso para cada unade estas tareas. El procedimiento se supone que ha instalado AWS SCT y que ha configurado y registradoun agente de extracción de datos en una máquina dedicada.

Los siguientes pasos deben producirse para migrar datos desde un almacén de datos local a un almacénde datos de AWS con AWS Snowball.

1. Cree un trabajo de AWS Snowball utilizando la consola de AWS Snowball. Para obtener másinformación, consulte Create an Import Job en la documentación de AWS Snowball.

2. Desbloquee el dispositivo AWS Snowball Edge mediante la máquina Linux dedicada local.3. Cree un nuevo proyecto en AWS SCT mediante el agente de extracción de datos registrado.4. Instale el controlador de base de datos para la base de datos de origen en la máquina dedicada en la

que instaló el extractor de datos.5. Cree y establezca permisos para que el bucket de Amazon S3 los utilice.6. Cree Local & DMS Task en SCT.7. Ejecute y monitoree la Local & DMS Task en SCT.8. Ejecute la tarea de AWS SCT y monitoree el progreso en SCT.

Procedimientos paso a paso para la migración de datos con AWSSCT y AWS SnowballEn las secciones siguientes se incluye información detallada sobre los pasos para la migración.

Paso 1: Crear un trabajo de AWS Snowball

Cree un trabajo de AWS Snowball siguiendo los pasos descritos en la sección Getting Started with AWSSnowball Edge: Your First Job en la documentación de AWS Snowball.

Paso 2: Desbloquear el dispositivo AWS Snowball Edge

Debe ejecutar los comandos que desbloquean y proporcionan credenciales para el dispositivo SnowballEdge de la máquina donde instaló el agente de DMS. De esta forma, puede asegurarse de que la llamadadel agente de DMS conecta con el dispositivo AWS Snowball Edge. Para obtener más información sobre eldesbloqueo del dispositivo AWS Snowball Edge, consulte Desbloqueo del dispositivo Snowball Edge.

Por ejemplo, el siguiente comando muestra el bucket de Amazon S3 utilizado por el dispositivo.

aws s3 ls s3://<bucket-name> --profile <Snowball Edge profile> --endpoint http://<Snowball IP>:8080 --recursive

Paso 3: Crear un nuevo proyecto de AWS SCT

A continuación, cree un nuevo proyecto de AWS SCT.

Para crear un proyecto nuevo en AWS SCT

1. Inicie AWS SCT y elija New Project para File. Aparece el cuadro de diálogo New Project.2. Agregue la siguiente información del proyecto.

Version 1.0157

Page 164: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

Para este parámetro Haga lo siguiente

Project Name Escriba un nombre para su proyecto, que se almacenarálocalmente en su equipo.

Ubicación Escriba la ubicación del archivo local de su proyecto.

OLTP Elija Transactional Database (OLTP).

Source DB Engine Elija el almacén de datos de origen.

Target DB Engine Elija el almacén de datos de destino.

3. Elija OK para crear su proyecto de AWS SCT.4. (Opcional) Pruebe la conexión.

Paso 4: Instalar el controlador de base de datos de origen para el agente de DMSen el equipo Linux

Para que la migración tenga éxito, el agente de DMS tiene que poder conectarse a la base de datos deorigen. Para que esto sea posible, debe instalar el controlador de base de datos para la base de datos deorigen. El controlador necesario varía en función de la base de datos.

Para reiniciar el agente de DMS después de la instalación del controlador de base de datos, cambie eldirectorio de trabajo a <product_dir>/bin y utilice los pasos que se enumeran a continuación paracada base de datos de origen.

cd <product_dir>/bin./arep.ctl stop./arep.ctl start

Para instalar en Oracle

Instale Oracle Instant Client para Linux (x86-64) versión 11.2.0.3.0 o posterior.

Además, si no se ha incluido todavía en el sistema, debe crear un enlace simbólico en el directorio$ORACLE_HOME\lib. Este enlace debe denominarse libclntsh.so y debería apuntar a una versiónespecífica de este archivo. Por ejemplo, en un cliente de Oracle 12c:

lrwxrwxrwx 1 oracle oracle 63 Oct 2 14:16 libclntsh.so -> /u01/app/oracle/home/lib/libclntsh.so.12.1

Además, la variable de entorno LD_LIBRARY_PATH debe anexarse con el directorio lib de Oracle yañadirse al script site_arep_login.sh bajo la carpeta lib de la instalación. Añada este script si no existe.

vi cat <product dir>/bin/site_arep_login.sh

export ORACLE_HOME=/usr/lib/oracle/12.2/client64; export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$ORACLE_HOME/lib

Para instalar en Microsoft SQL Server

Instalar el controlador ODBC para Microsoft

Version 1.0158

Page 165: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

Actualizar el site_arep_login.sh con el siguiente código.

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/microsoft/msodbcsql/lib64/

Controlador ODBC de Simba

Instalar el controlador ODBC para Microsoft

Editar el archivo simba.sqlserverodbc.ini de la siguiente manera

DriverManagerEncoding=UTF-16ODBCInstLib=libodbcinst.so

Para instalar en SAP Sybase

Debe instalarse el controlador ODBC para SAP Sybase ASE de 64 bits

Si el directorio de instalación es /opt/sap, actualizar site_arep_login.sh con

export SYBASE_HOME=/opt/sapexport LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$SYBASE_HOME/ DataAccess64/ODBC/lib:$SYBASE_HOME/DataAccess/ODBC/ lib:$SYBASE_HOME/OCS-16_0/lib:$SYBASE_HOME/OCS-16_0/ lib3p64:$SYBASE_HOME/OCS-16_0/lib3p

El /etc/odbcinst.ini debe incluir estas entradas

[Sybase]Driver=/opt/sap/DataAccess64/ODBC/lib/libsybdrvodb.soDescription=Sybase ODBC driver

Para instalar en MySQL

Instalar MySQL Connector/ODBC para Linux, versión 5.2.6 o posterior

Asegúrese de que el archivo /etc/odbcinst.ini contiene una entrada para MySQL, como en el siguienteejemplo

[MySQL ODBC 5.2.6 Unicode Driver]Driver = /usr/lib64/libmyodbc5w.so UsageCount = 1

Para instalar en PostgreSQL

Instale postgresql94-9.4.4-1PGDG.<Versión de SO>.x86_64.rpm. Este es el paquete que contiene elejecutable de psql.

Version 1.0159

Page 166: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

Por ejemplo, postgresql94-9.4.4-1PGDG.rhel7.x86_64.rpm es el paquete necesario para Red Hat 7.

Instale el controlador ODBC postgresql94-odbc-09.03.0400-1PGDG.<versión de SO>.x86_64 osuperior para Linux, donde <versión de SO> es el SO de la máquina del agente.

Por ejemplo, postgresql94-odbc-09.03.0400-1PGDG.rhel7.x86_64 es el cliente necesario para RedHat 7.

Asegúrese de que el archivo /etc/odbcinst.ini contiene una entrada para PostgreSQL, como en elsiguiente ejemplo

[PostgreSQL]Description = PostgreSQL ODBC driverDriver = /usr/pgsql-9.4/lib/psqlodbc.soSetup = /usr/pgsql-9.4/lib/psqlodbcw.soDebug = 0CommLog = 1UsageCount = 2

Paso 5: Configurar AWS SCT para acceder al bucket de Amazon S3

Para obtener más información sobre cómo configurar un bucket de Amazon S3, consulte Uso de bucketsde Amazon S3 en la documentación de Amazon S3.

Paso 6: Creación de una tarea local y de DMS

A continuación, debe crear la tarea de migración integral. La tarea incluye dos tareas secundarias. Unatarea secundaria migra datos de la base de datos de origen al dispositivo AWS Snowball. La otra tareasecundaria toma los datos que el dispositivo cara a un bucket de Amazon S3 y los migra a la base dedatos de destino.

Para crear la tarea de migración integral

1. Inicie AWS SCT, elija View y, a continuación, elija Database Migration View (Local & DMS).

2. En el panel de la izquierda que muestra el esquema de la base de datos de origen, seleccione unobjeto del esquema para su migración. Abra el menú contextual (haga clic con el botón derecho) parael objeto y seleccione Create Local & DMS Task.

Version 1.0160

Page 167: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioExtracción de datos con un dispositivo AWS Snowball

3. Añada la información de su tarea.

Para este parámetro Haga lo siguiente

Task Name Escriba un nombre para la tarea.

Agente Elija DMS Agent.

Replication Instance Elija la instancia de replicación de AWS DMS que deseausar.

Tipo de migración Elija el tipo de migración que desea.

Elija Migrate existing data para migrar el contenido delesquema elegido. Este proceso se denomina cargacompleta en AWS DMS.

Elija Migrate existing data and replicate ongoing changespara migrar el contenido del esquema elegido y capturartodos los cambios continuos a la base de datos. Esteproceso se denomina carga completa y CDC en AWSDMS.

Target table preparation mode Elija el modo de preparación que desea utilizar.

Truncate: las tablas se truncan sin que los metadatos de latabla se vean afectados.

Drop tables on target: las tablas existentes se eliminan yse crean otras para sustituirlas.

Do nothing: los datos y los metadatos de las tablas dedestino no cambiarán.

Rol de IAM Elija el rol de IAM predefinido que tiene permisos paraacceder al bucket de Amazon S3 y a la base de datosde destino. Para obtener más información acerca de lospermisos necesarios para acceder a un bucket de AmazonS3, consulte Configuración de Amazon S3 (p. 146).

Registro Elija Enable para que AWS CloudWatch cree registrospara la migración. Se le cobrarán cargos por esteservicio. Para obtener más información acerca de

Version 1.0161

Page 168: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioResultado de la tarea de extracción de datos

Para este parámetro Haga lo siguienteAWS CloudWatch, consulte Cómo funciona AmazonCloudWatch

Descripción Escriba una descripción de la tarea.

Use Snowball Elija esta casilla de verificación para utilizar Snowball.

Job Name Elija el nombre del trabajo de AWS Snowball que hacreado.

Snowball IP Escriba la dirección IP del dispositivo AWS Snowball.

Puerto Escriba el valor de puerto para el dispositivo AWSSnowball.

Local AWS S3 Access key Escriba la clave de acceso de AWS de la cuenta que utilizapara la migración.

Local AWS S3 Secret key Escriba la clave secreta de AWS de la cuenta que utilizapara la migración.

4. Seleccione Create para crear la tarea.

Paso 7: Ejecución y monitorización de la tarea de SCTPuede iniciar la tarea local y de DMS cuando todas las conexiones a los puntos de enlace se hayanrealizado con éxito. Esto significa todas las conexiones para la tarea local, que incluyen conexiones delagente de DMS a la base de datos de origen, el almacenamiento provisional del bucket de Amazon S3 y eldispositivo AWS Snowball, así como las conexiones para la tarea de DMS, que incluye conexiones para elalmacenamiento provisional del bucket de Amazon S3 a la base de datos de destino en AWS.

Puede monitorear los registros del agente de DMS eligiendo Show log. Los detalles del registro incluyenlos registros del servidor del agente (Agent Log) y de la tarea de ejecución local (Task Log). Dado que elservidor realiza la conectividad del punto de enlace (ya que la tarea local no se está ejecutando y no hayregistros de tareas), los problemas de conexión se enumeran bajo la pestaña Agent Log.

Resultado de la tarea de extracción de datosTras completarse sus tareas de migración, sus datos estarán listos. Utilice la siguiente información paradeterminar cómo proceder en función del modo de migración que haya elegido y la ubicación de los datos.

Modo demigración

Ubicación de los datos

Extract, Uploadand Copy

Los datos ya están en su almacén de datos de Amazon Redshift. Puede verificar quelos datos están ahí y empezar a utilizarlos. Para obtener más información, consulte lasección Conexión a clústeres desde herramientas cliente y códigos.

Version 1.0162

Page 169: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioResultado de la tarea de extracción de datos

Modo demigración

Ubicación de los datos

Extract andUpload

Los agentes de extracción habrán guardado sus datos como archivos en el bucket deAmazon S3. Puede utilizar el comando COPY de Amazon Redshift para cargar susdatos en Amazon Redshift. Para obtener más información, consulte la sección Cargade datos desde Amazon S3 en la documentación de Amazon Redshift.

Existen varias carpetas en el bucket de Amazon S3 que se corresponden con lastareas de extracción que haya configurado. Al cargar sus datos en Amazon Redshift,especifique el nombre del archivo de manifiesto creado por cada tarea. El archivo demanifiesto aparecerá en la carpeta de tareas del bucket de S3, tal y como se muestra acontinuación.

Extract Only Los agentes de extracción habrán guardado sus datos en su carpeta de trabajo. Copiea mano sus datos en el bucket de Amazon S3 y, a continuación, proceda con lasinstrucciones para Extract and Upload (Extraer y cargar).

Version 1.0163

Page 170: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de particiones virtuales

Uso de particiones virtuales con Herramienta deconversión de esquemas de AWSA menudo, podrá administrar mejor grandes tablas sin particiones mediante la creación de subtareasque crean particiones virtuales de los datos de la tabla utilizando reglas de filtrado. En la AWS SCT, esposible crear particiones virtuales de los datos migrados. Existen tres tipos de partición, que funcionan condeterminados tipos de datos:

• El tipo de partición RANGE funciona con tipos de datos de fecha y hora y numéricos.• El tipo de partición LIST funciona con tipos de datos de fecha y hora, numéricos y caracteres.• El tipo de partición DATE AUTO SPLIT funciona con tipos de datos de fecha y hora.

La AWS SCT valida los valores que proporcione para crear una partición. Por ejemplo, si intenta realizar lapartición de una columna con tipos de datos NUMERIC pero proporciona valores de otro tipo de datos, laAWS SCT produce un error.

Límites en la creación de particiones virtualesEstas son las limitaciones al crear una partición virtual:

• Solo puede utilizar la partición virtual únicamente para tablas no particionadas.• Puede utilizar la partición virtual únicamente en la vista de migración de datos.• No puede utilizar la opción UNION ALL VIEW con particiones virtuales.

Tipo de partición RANGEEl tipo de partición RANGE realiza particiones de datos basadas en un intervalo de valores de la columnapara tipos de datos de fecha y hora y numéricos. Este tipo de partición crea una cláusula WHERE y ustedproporciona el intervalo de valores de cada partición. Especifique una lista de valores para la columnaparticionada en el cuadro Values. Puede cargar información del valor mediante un archivo .csv.

Por ejemplo, puede crear varias particiones basadas en un intervalo de valores que proporcione. En elsiguiente ejemplo, se especifican los valores de partición para LO_TAX para crear varias particiones.

Partition1: WHERE LO_TAX <= 10000.9Partition2: WHERE LO_TAX > 10000.9 AND LO_TAX <= 15005.5Partition3: WHERE LO_TAX > 15005.5 AND LO_TAX <= 25005.95

Para crear una partición virtual RANGE

1. Abra la aplicación AWS SCT.2. Seleccione el modo Data Migration View.3. Elija la tabla en la que desea configurar la partición virtual. Abra el menú contextual (clic secundario)

de la tabla y seleccione Add Virtual Partitioning.4. En el cuadro de diálogo Add Virtual Partitioning, introduzca la información, como sigue.

Opción Acción

Partition Type Seleccione RANGE. La interfaz de usuario del cuadro de diálogo cambiaen función del tipo que elija.

Nombre de la columna Seleccione la columna en la que desea realizar la partición.

Version 1.0164

Page 171: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso de particiones virtuales

Opción Acción

Column Type Elija el tipo de datos para los valores en la columna.

Valores Para añadir nuevos valores, escriba cada valor en el cuadro New Value y,a continuación, elija el signo más para añadir el valor.

Load From File (Opcional) Escriba el nombre de un archivo .csv que contenga valores departición.

5. Seleccione OK.

Tipo de partición LISTEl tipo de partición LIST realiza particiones de datos basadas en los valores de la columna para tipos dedatos de fecha y hora, numéricos y caracteres. Este tipo de partición crea una cláusula WHERE y ustedproporciona los valores de cada partición. Especifique una lista de valores para la columna particionada enel campo Values. Puede cargar información del valor mediante un archivo .csv.

Por ejemplo, puede crear varias particiones basadas en un valor que proporcione. En el siguiente ejemplo,se especifican los valores de partición para LO_ORDERKEY para crear varias particiones.

Partition1: WHERE LO_ORDERKEY = 1Partition2: WHERE LO_ORDERKEY = 2Partition3: WHERE LO_ORDERKEY = 3…PartitionN: WHERE LO_ORDERKEY = USER_VALUE_N

También puede crear una partición predeterminada para valores no incluidos en los especificados.

Para crear una partición virtual LIST

1. Abra la aplicación AWS SCT.2. Seleccione el modo Data Migration View.3. Elija la tabla en la que desea configurar la partición virtual. Abra el menú contextual (clic secundario)

de la tabla y seleccione Add Virtual Partitioning.4. En el cuadro de diálogo Add Virtual Partitioning, introduzca la información, como sigue.

Opción Acción

Partition Type Elija LIST. La interfaz de usuario del cuadro de diálogo cambia en funcióndel tipo que elija.

Nombre de la columna Seleccione la columna en la que desea realizar la partición.

New Value Aquí puede escribir un valor que se añadirá al conjunto de valores de lapartición.

Include Other Values Seleccione esta opción para crear una partición predeterminada en laque se almacenan todos los valores que no cumplen los criterios de lapartición.

Load From File (Opcional) Escriba el nombre de un archivo .csv que contenga valores departición.

5. Seleccione OK.

Version 1.0165

Page 172: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioTrabajo con LOB

Tipo de partición DATE AUTO SPLITEl tipo de partición DATE AUTO SPLIT, realiza particiones de datos de tipos de datos de fecha y horabasadas en un intervalo especificado entre una fecha de inicio y una fecha de finalización. Especifique elrango e intervalo de los datos (día, semana, mes o año). Si no especifica una fecha de inicio o una fechade finalización, estos valores adoptan de manera predeterminada a la fecha actual.

Por ejemplo, puede crear varias particiones basadas en un intervalo de fechas que proporcione. En elsiguiente ejemplo, se especifica el intervalo de valores de partición para LO_ORDERDATE para crearvarias particiones.

Partition1: WHERE LO_ORDERDATE >= ‘1954-10-10’ AND LO_ORDERDATE < ‘1954-10-24’Partition2: WHERE LO_ORDERDATE >= ‘1954-10-24’ AND LO_ORDERDATE < ‘1954-11-06’Partition3: WHERE LO_ORDERDATE >= ‘1954-11-06’ AND LO_ORDERDATE < ‘1954-11-20’…PartitionN: WHERE LO_ORDERDATE >= USER_VALUE_N AND LO_ORDERDATE <= ‘2017-08-13’

Para crear una partición virtual DATE AUTO SPLIT

1. Abra la aplicación AWS SCT.2. Seleccione el modo Data Migration View.3. Elija la tabla en la que desea configurar la partición virtual. Abra el menú contextual (clic secundario)

de la tabla y seleccione Add Virtual Partitioning.4. En el cuadro de diálogo Add Virtual Partitioning, introduzca la información, como sigue.

Opción Acción

Partition Type Seleccione DATE AUTO SPLIT. La interfaz de usuario del cuadro dediálogo cambia en función del tipo que elija.

Nombre de la columna Seleccione la columna en la que desea realizar la partición.

Fecha de inicio Escriba una fecha de inicio.

Fecha de finalización Escriba una fecha de finalización.

Intervalo Escriba la unidad del intervalo y elija el valor de dicha unidad.

5. Seleccione OK.

Migración de LOBs a Amazon RedshiftAmazon Redshift no admite el almacenamiento de objetos binarios grandes (LOB). Sin embargo, sinecesita migrar uno o varios LOB a Amazon Redshift, la AWS SCT puede realizar la migración. Para ello,la AWS SCT utiliza un bucket de Amazon S3 para almacenar los LOB y escribe la dirección URL para elbucket de S3 en los datos migrados almacenados en Amazon Redshift.

Para migrar LOB a Amazon Redshift

1. Abra un proyecto de AWS SCT.2. En Actions, elija Create Local Task.3. Seleccione la pestaña Advanced.4. En S3 bucket LOBs folder, escriba el nombre de la carpeta de un bucket de S3 donde desee

almacenar los LOB.

Version 1.0166

Page 173: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioPrácticas recomendadas y solución de problemas

5. Seleccione Create para crear la tarea.

Prácticas recomendadas y solución de problemas deagentes de extracción de datosA continuación se indican algunas prácticas recomendadas y sugerencias de resolución de problemas parael uso de los agentes de extracción.

Problema Sugerencias para la solución de problemas

El desempeño es lento Para mejorar el desempeño, le recomendamos lo siguiente:

• Instale varios agentes.• Instale agentes en equipos cercanos a su data warehouse.• No ejecute todas las tablas en una única tarea de agente.

Evite los retrasos Evite tener demasiados agentes que obtengan acceso a su datawarehouse al mismo tiempo.

Un agente deja de funcionar deforma temporal

Si un agente deja de funcionar, el estado de cada una de sus tareasaparecerá como erróneo en la AWS SCT. En algunos casos, el

Version 1.0167

Page 174: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigración de datos desde ApacheCassandra a Amazon DynamoDB

Problema Sugerencias para la solución de problemasagente puede recuperarse con solo esperar. En este caso, el estadode sus tareas se actualiza en la AWS SCT.

Un agente deja de funcionar deforma permanente

Si el equipo que ejecuta un agente deja de funcionar de formapermanente, y ese agente está ejecutando una tarea, puedesustituirlo por un nuevo agente que continúe con la tarea. Solo puedesustituir un nuevo agente si la carpeta de trabajo del agente originalno se encuentra en el mismo equipo que el agente original. Parasustituir un nuevo agente, haga lo siguiente:

• Instale un agente en un nuevo equipo.• Configure el nuevo agente con los mismos ajustes, incluido el

número de puerto y la carpeta de trabajo, que el agente original.• Comience el agente. Tras iniciar el agente, la tarea descubrirá

al nuevo agente disponible y seguirá ejecutándose en el nuevoagente.

Migración de datos desde Apache Cassandra aAmazon DynamoDB

Puede utilizar un agente de extracción de datos de la AWS SCT para extraer datos desde ApacheCassandra y migrarlos a Amazon DynamoDB. El agente se ejecuta en una instancia Amazon EC2, dondeextrae datos de Cassandra, los escribe en el sistema de archivos local y los carga a un bucket de AmazonS3. A continuación, puede utilizar la AWS SCT para copiar los datos en DynamoDB.

Amazon DynamoDB es un servicio de base de datos NoSQL. Para almacenar datos en DynamoDB, creetablas de base de datos y, a continuación, cargue los datos en dichas tablas. El agente de extracción dela AWS SCT para Cassandra automatiza el proceso de creación de tablas de DynamoDB que coincidencon sus homólogas de Cassandra y, a continuación, rellena esas tablas de DynamoDB con datos deCassandra.

El proceso de extracción de datos puede añadir una sobrecarga considerable a un clúster de Cassandra.Por este motivo, no ejecute el agente de extracción directamente con los datos de producción enCassandra. Para evitar interferir con las aplicaciones de producción, la AWS SCT le ayuda a crearun centro de datos clon—, una copia independiente de los datos de Cassandra que desea migrar aDynamoDB. El agente puede leer los datos del clon y ponerlos a disposición de la AWS SCT, sin que elloafecte a las aplicaciones de producción.

Cuando se ejecuta el agente de extracción de datos, lee los datos del centro clon y los escribe en unbucket de Amazon S3. A continuación, AWS SCT lee los datos desde Amazon S3 y los escribe en AmazonDynamoDB.

En el siguiente diagrama se muestra la situación admitida:

Version 1.0168

Page 175: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigración de datos desde ApacheCassandra a Amazon DynamoDB

Si no está familiarizado con Cassandra, tenga en cuenta la siguiente terminología importante:

• Un nodo es un equipo único (físico o virtual) que ejecuta el software de Cassandra.• Un servidor es una entidad lógica que consta de hasta 256 nodos.• Un bastidor representa uno o varios servidores.• Un centro de datos es un conjunto de bastidores.• Un clúster es un conjunto de centros de datos.

Para obtener más información, consulte la página de Wikipedia de Apache Cassandra.

Version 1.0169

Page 176: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioRequisitos previos para migracióndesde Cassandra a DynamoDB

Utilice la información de los temas siguientes para aprender a migrar datos desde Apache Cassandra aAmazon DynamoDB:

Temas• Requisitos previos para migración desde Cassandra a DynamoDB (p. 170)• Crear un nuevo proyecto de AWS SCT (p. 172)• Crear un centro de datos clon (p. 175)• Instalar, configurar y ejecutar el agente de extracción de datos (p. 181)• Migrar datos desde el centro de datos clon a Amazon DynamoDB (p. 185)• Actividades posteriores a la migración (p. 189)

Requisitos previos para migración desde Cassandra aDynamoDBAntes de comenzar, tendrá que llevar a cabo varias tareas previas a la migración, tal y como se describeen esta sección.

Compatibilidad con versiones de CassandraAWS SCT admite las siguientes versiones de Apache Cassandra:

• 3.11.2• 3.1.1• 3.0• 2.2• 2.1.20 o posterior

No admite otras versiones de Cassandra.

Configuración de Amazon S3Cuando se ejecuta el agente de extracción de datos de AWS SCT, este lee datos desde su centro de datosclon y los escribe en un bucket de Amazon S3. Antes de continuar, debe proporcionar las credencialespara conectarse a su cuenta de AWS y a su bucket de Amazon S3. Puede almacenar la información desus credenciales y su bucket en un perfil en la configuración de la aplicación global y, a continuación,asociar el perfil con su proyecto de AWS SCT. Si fuera necesario, seleccione Global Settings para crearun nuevo perfil. Para obtener más información, consulte Uso de los perfiles del servicio de AWS en laHerramienta de conversión de esquemas de AWS (p. 13).

Instancia Amazon EC2 para centro de datos clonComo parte del proceso de migración, tendrá que crear un clon de un centro de datos de Cassandraexistente. Este clon se ejecutará en una instancia Amazon EC2 que aprovisionará de antemano. Lainstancia ejecutará una instalación de Cassandra independiente, para alojar su centro de centro clon demanera independiente al centro de datos de Cassandra existente.

La nueva instancia Amazon EC2 debe cumplir los siguientes requisitos:

• Sistema operativo: Ubuntu o CentOS.• Debe tener Java JDK 8 instalado. (No se admiten otras versiones).

Version 1.0170

Page 177: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioRequisitos previos para migracióndesde Cassandra a DynamoDB

Para lanzar una nueva instancia, vaya a la consola de administración de Amazon EC2 en https://console.aws.amazon.com/ec2/.

Configuración de seguridadAWS SCT se comunica con el agente de extracción de datos mediante la capa de conexión segura (SSL).Para habilitar la SSL, configure un almacén de confianza y un almacén de claves:

1. Lance AWS SCT.2. En el menú Settings (Configuración), elija Global Settings (Configuración global).3. Seleccione la pestaña Security (Seguridad) como se muestra a continuación:

4. Seleccione Generate Trust and Key Store o haga clic en Select existing Trust and Key Store.

Si selecciona Generate Trust and Key Store, a continuación tendrá que especificar el nombre yla contraseña de los almacenes de confianza y de claves y la ruta a la ubicación de los archivosgenerados. Utilizará estos archivos en pasos posteriores.

Si selecciona Select existing Trust and Key Store, después especificará la contraseña y el nombre delarchivo para los almacenes de confianza y de claves. Utilizará estos archivos en pasos posteriores.

5. Tras haber especificado el almacén de confianza y el almacén de claves, seleccione OK para cerrar elcuadro de diálogo Global Settings.

Version 1.0171

Page 178: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un nuevo proyecto de AWS SCT

Crear un nuevo proyecto de AWS SCTUna vez que haya realizado los pasos que se describen en Requisitos previos para migración desdeCassandra a DynamoDB (p. 170), ya está listo para crear un nuevo proyecto de AWS SCT para sumigración. Sigue estos pasos:

1. En el menú File (Archivo), elija New project (Nuevo proyecto).

Añada la información siguiente:

Para este parámetro Haga lo siguiente

Project Name Escriba un nombre para su proyecto, que se almacenarálocalmente en su equipo.

Ubicación Escriba la ubicación del archivo local de su proyecto.

Base de datos NoSQL Seleccione NoSQL database (Base de datos NoSQL).

Source Database Engine (Motor debase de datos de origen)

Elija Cassandra.

Version 1.0172

Page 179: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un nuevo proyecto de AWS SCT

Para este parámetro Haga lo siguiente

Target database engine (Motor debase de datos de destino)

Elija Amazon DynamoDB.

Elija OK (Aceptar) para crear su proyecto de AWS SCT.2. En la barra de menú, seleccione Connect to Cassandra (Conectar a Cassandra).

Añada la información siguiente:

Para este parámetro Haga lo siguiente

Server name Escriba el nombre de host o la dirección IP de su clústerde Cassandra.

Server port Escriba el número de puerto donde Cassandra escucha lassolicitudes de conexión. Por ejemplo: 9042

Nombre de usuario Escriba un nombre de usuario válido para conectarse alclúster de Cassandra.

Version 1.0173

Page 180: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un nuevo proyecto de AWS SCT

Para este parámetro Haga lo siguiente

Contraseña Escriba la contraseña asociada con el nombre de usuario.

3. Seleccione OK (Aceptar). AWS SCT prueba la conexión para asegurarse de que puede obteneracceso a su clúster de Cassandra.

4. En la barra de menú, seleccione Connect to Amazon DynamoDB (Conectar a Amazon DynamoDB).

Añada la información siguiente:

Para este parámetro Haga lo siguiente

Copy from AWS profile (Copiar desdeperfil de AWS)

Si ya ha configurado las credenciales de AWS, elija elnombre de un perfil existente.

AWS access key (Clave de acceso deAWS)

Escriba la clave de acceso de AWS.

Clave secreta de AWS Escriba la clave secreta asociada a su clave de acceso deAWS.

Región Elija una región de AWS. AWS SCT migrará los datos aAmazon DynamoDB en esa región.

5. Seleccione OK (Aceptar). AWS SCT prueba la conexión para asegurarse de que puede obteneracceso a DynamoDB.

Version 1.0174

Page 181: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

Crear un centro de datos clonPara evitar interferir con las aplicaciones de producción que utilizan su clúster de Cassandra, AWS SCTcreará un centro de datos clon y copiará los datos de producción en él. El centro de datos clon funcionacomo un área de ensayo, de modo que AWS SCT puede realizar más actividades de migración medianteel clon en lugar de hacerlo en el centro de producción.

Para comenzar el proceso de clonación, siga este procedimiento:

1. En la ventana de AWS SCT, en el lado izquierdo (origen), expanda el nodo Datacenters (Centros dedatos) y elija uno de los centros de datos de Cassandra existentes.

2. Desde el menú Actions (Acciones), elija Clone Datacenter for Extract (Clonar centro de datos paraextraer).

Version 1.0175

Page 182: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

Version 1.0176

Page 183: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

3. Lea el texto de introducción y, a continuación, seleccione Next (Siguiente) para continuar.4. En la ventana Clone Datacenter for Extract (Clonar centro de datos para extraer), añada la información

siguiente:

Para este parámetro Haga lo siguiente

Private IP:SSH port (IP privada:puertoSSH)

Escriba la dirección IP privada y el puerto SSH decualquiera de los nodos en su clúster de Cassandra. Porejemplo: 172.28.37.102:22

Public IP:SSH port (IP pública:puertoSSH)

Escriba la dirección IP pública y puerto SSH para el nodo.Por ejemplo: 41.184.48.27:22

OS User (Usuario de SO) Escriba un nombre de usuario válido para conectarse alnodo.

OS Password (Contraseña SO) Escriba la contraseña asociada con el nombre de usuario.

Key path (Ruta de clave) Si tiene una clave privada SSH (archivo .pem) para estenodo, elija Browse (Examinar) para ir a la ubicación dondese almacena la clave privada.

Passphrase (Contraseña) Si su clave privada de SSH está protegida mediante unacontraseña, escríbala aquí.

Usuario de JMX Escriba el nombre de usuario de JMX para acceder a suclúster de Cassandra.

JMX password (Contraseña de JMX) Escriba la contraseña del usuario de JMX.

Elija Next (Siguiente) para continuar. AWS SCT se conecta al nodo de Cassandra, donde ejecuta elcomando nodetool status.

5. En la ventana Source Cluster Parameters (Parámetros del clúster de origen), acepte los valorespredeterminados y elija Next (Siguiente) para continuar.

6. En la ventana Node Parameters (Parámetros de nodo), verifique los detalles de conexión de todos losnodos en el clúster de origen. AWS SCT rellenará algunos de estos detalles de forma automática; sinembargo, debe proporcionar cualquier información que falte.

Note

En lugar de introducir todos los datos aquí, puede cargarlos de forma masiva en su lugar.Para ello, elija Export (Exportar) para crear un archivo .csv. A continuación, puede editar estearchivo, añadiendo una nueva línea para cada nodo del clúster. Cuando haya terminado,seleccione Upload (Cargar). AWS SCT leerá el archivo .csv y lo utilizará para rellenar laventana Node parameters (Parámetros de nodo).

Elija Next (Siguiente) para continuar. AWS SCT verifica que la configuración del nodo es válida.7. En la ventana Configure Target Datacenter (Configurar centro de datos de destino), revise los

valores predeterminados. En particular, anote el campo Datacenter suffix (Sufijo de centro de datos):cuando AWS SCT crea el centro de datos clon, se nombrará del mismo modo que el centro dedatos de origen, pero con el sufijo que proporcione. Por ejemplo, si el centro de datos de origense denomina my_datacenter, entonces un sufijo de _tgt haría que el clon se denominaramy_datacenter_tgt.

8. Aún en la ventana Configure Target Datacenter (Configurar centro de datos de destino), elija Add newnode (Añadir nuevo nodo):

Version 1.0177

Page 184: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

Version 1.0178

Page 185: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

9. En la ventana Add New Node (Añadir nuevo nodo), añada la información necesaria para conectar a lainstancia Amazon EC2 que creó en Instancia Amazon EC2 para centro de datos clon (p. 170).

Cuando la configuración sea la que desea, elija Next (Siguiente). El nodo aparece en la lista:

Version 1.0179

Page 186: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCrear un centro de datos clon

Version 1.0180

Page 187: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalar, configurar y ejecutar elagente de extracción de datos

10. Elija Next para continuar. Aparecerá el siguiente cuadro de confirmación:

Elija OK (Aceptar) para continuar. AWS SCT reinicia el centro de datos de origen, un nodo cada vez.11. Revise la información en la ventana Datacenter Synchronization (Sincronización del centro de datos).

Si el clúster está ejecutando Cassandra versión 2, entonces AWS SCT copia todos los datos al centrode datos clon. Si el clúster está ejecutando Cassandra versión 3, entonces puede elegir los espaciosclave que desea copiar al centro de datos clon.

12. Cuando esté listo para empezar a replicar datos a su centro de clonación, seleccione Start (Inicio).

La replicación de datos comenzará de inmediato. AWS SCT muestra una barra de progreso para quepueda monitorear el proceso de replicación. Tenga en cuenta que la replicación puede tardar muchotiempo, en función de la cantidad de datos que haya en el centro de datos de origen. Si necesitacancelar la operación antes de que se haya completado, seleccione Cancel (Cancelar).

Cuando la replicación se haya completado, seleccione Next (Siguiente) para continuar.13. En la ventana Summary (Resumen), AWS SCT muestra un informe que muestra el estado de su

clúster de Cassandra, junto con los siguientes pasos.

Revise la información en este informe y, a continuación, elija Finish (Finalizar) para completar elasistente.

Instalar, configurar y ejecutar el agente de extracciónde datosAhora que tiene un clon de su centro de datos, está listo para comenzar a utilizar el agente de extracciónde datos de AWS SCT para Cassandra. Este agente está disponible como parte de la distribución de AWSSCT (para obtener más información, consulte Instalación, verificación y actualización de Herramienta deconversión de esquemas de AWS (p. 4)).

Note

Le recomendamos que ejecute el agente en una instancia Amazon EC2. La instancia EC2 debecumplir los siguientes requisitos:

• Sistema operativo: Ubuntu o CentOS.• 8 CPU virtuales, como mínimo.• Al menos 16 GB de RAM.

Version 1.0181

Page 188: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalar, configurar y ejecutar elagente de extracción de datos

Si aún no tiene una instancia Amazon EC2 que cumpla estos requisitos, vaya a la consola deadministración Amazon EC2 (https://console.aws.amazon.com/ec2/) y lance una nueva instanciaantes de continuar.

Siga este procedimiento para instalar, configurar y ejecutar el agente de extracción de datos de AWS SCTpara Cassandra:

1. Inicie sesión en la instancia Amazon EC2.2. Compruebe que está ejecutando Java 1.8.x:

java -version

3. Instale el paquete sshfs:

sudo yum install sshfs

4. Instale el paquete expect:

sudo yum install expect

5. Edite el archivo /etc/fuse.conf y quite el comentario de la cadena user_allow_other:

# mount_max = 1000user_allow_other

6. El agente de extracción de datos de AWS SCT para Cassandra está disponible como parte dela distribución de AWS SCT (para obtener más información, consulte Instalación, verificación yactualización de Herramienta de conversión de esquemas de AWS (p. 4)). Puede encontrar el agenteen el archivo .zip que contiene el archivo del instalador de AWS SCT, en el directorio agents. Estándisponibles las siguientes compilaciones del agente:

Nombre de archivo Sistema operativo

aws-cassandra-extractor-n.n.n.deb Ubuntu

aws-cassandra-extractor-n.n.n.x86_64.rpm CentOS

Elija el archivo que sea adecuado para su instancia Amazon EC2. Use la utilidad scp para cargar esearchivo en la instancia Amazon EC2.

7. Instale el agente de extracción de datos de AWS SCT para Cassandra. (Reemplace n.n.n por elnúmero de compilación).

• Para Ubuntu:

sudo dpkg -i aws-cassandra-extractor-n.n.n.deb

• Para CentOS:

sudo yum install aws-cassandra-extractor-n.n.n.x86_64.rpm

Version 1.0182

Page 189: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalar, configurar y ejecutar elagente de extracción de datos

Durante el proceso de instalación, se le pedirá que seleccione la versión Cassandra que desea usar.Elija la versión 3 o 2, según corresponda.

8. Una vez que la instalación se haya completado, revise los directorios siguientes para asegurarse deque se han creado correctamente:

• /var/log/cassandra-data-extractor/—: para los registros del agente de extracción.• /mnt/cassandra-data-extractor/—: para montaje de carpetas de inicio y datos.• /etc/cassandra-data-extractor/—: para el archivo de configuración del agente (agent-settings.yaml).

9. Para habilitar el agente para comunicarse con AWS SCT, debe disponer de un almacén de claves y unalmacén de confianza disponible. (Los crea en Configuración de seguridad (p. 171)). Use la utilidadscp para cargar estos archivos en su instancia Amazon EC2.

La utilidad de configuración (vea el paso siguiente) requiere especificar el almacén de claves y elalmacén de confianza, por tanto necesita que estén disponibles.

10. Ejecute la utilidad de configuración:

sudo java -jar /usr/share/aws-cassandra-extractor/aws-cassandra-extractor.jar --configure

La utilidad le pedirá varios valores de configuración. Puede utilizar el siguiente ejemplo como guía,reemplazando los valores por los suyos propios:

Enter the number of data providers nodes [1]: 1Enter IP for Cassandra node 1: 34.220.73.140Enter SSH port for Cassandra node <34.220.73.140> [22]: 22Enter SSH login for Cassandra node <34.220.73.140> : centosEnter SSH password for Cassandra node <34.220.73.140> (optional):Is the connection to the node using a SSH private key? Y/N [N] : YEnter the path to the private SSH key for Cassandra node <34.220.73.140>: /home/centos/my-ec2-private-key.pemEnter passphrase for SSH private key for Cassandra node <34.220.73.140> (optional):Enter the path to the cassandra.yaml file location on the node <34.220.73.140>: /etc/cassandra/conf/Enter the path to the Cassandra data directories on the node <34.220.73.140>: /u01/cassandra/data===== Mounting process started =====Node [34.220.73.140] mounting started.Will be executed command:sudo sshfs [email protected]:/etc/cassandra/ /mnt/aws-cassandra-data-extractor/34.220.73.140_node/conf/ -p 22 -o allow_other -o StrictHostKeyChecking=no -o IdentityFile=/home/ubuntu/dbbest-ec2-oregon_s.pem > /var/log/aws-cassandra-data-extractor/dmt-cassandra-v3/conf_34.220.73.140.log 2>&1Will be executed command:sudo sshfs [email protected]:/u01/cassandra/data/ /mnt/aws-cassandra-data-extractor/34.220.73.140_node/data/data -p 22 -o allow_other -o StrictHostKeyChecking=no -o IdentityFile=/home/ubuntu/dbbest-ec2-oregon_s.pem > /var/log/aws-cassandra-data-extractor/dmt-cassandra-v3/data_34.220.73.140.log 2>&1===== Mounting process was over =====Enable SSL communication Y/N [N] : YPath to key store: /home/centos/Cassandra_keyKey store password:123456Re-enter the key store password:123456Path to trust store: /home/centos/Cassandra_trustTrust store password:123456Re-enter the trust store password:123456Enter the path to the output local folder: /home/centos/out_data

Version 1.0183

Page 190: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInstalar, configurar y ejecutar elagente de extracción de datos

=== Configuration aws-agent-settings.yaml successful completed === If you want to add new nodes or change it parameters, you should edit the configuration file /etc/aws-cassandra-data-extractor/dmt-cassandra-v3/aws-agent-settings.yaml

Note

Cuando la utilidad de configuración se ha completado, es posible que aparezca el siguientemensaje:Change the SSH private keys permission to 600 to secure them. You canalso set permissions to 400.Puede utilizar el comando chmod para cambiar los permisos, tal y como se muestra en esteejemplo:

chmod 400 /home/centos/my-ec2-private-key.pem

11. Una vez que se completa la utilidad de configuración, revise los siguientes directorios y archivos:

• /etc/cassandra-data-extractor/agent-settings.yaml—: el archivo de configuraciónpara el agente.

• $HOME/out_data—: un directorio para los archivos de resultado de la extracción.• /mnt/cassandra-data-extractor/34.220.73.140_node/conf—: una carpeta de inicio de

Cassandra vacía. (Reemplace 34.220.73.140 por su dirección IP real).• /mnt/cassandra-data-extractor/34.220.73.140_node/data/data—: un archivo de

datos de Cassandra vacío. (Reemplace 34.220.73.140 por su dirección IP real).

Si estos directorios no están montados, utilice el siguiente comando para montarlos:

sudo java -jar /usr/share/aws-cassandra-extractor/aws-cassandra-extractor.jar -mnt

12. Monte los directorios de inicio y de datos de Cassandra:

sudo java -jusr/share/cassandra-extractor/rest-extraction-service.jar -mnt

Una vez que el proceso de montaje está completo, revise la carpeta de inicio de Cassandra y eldirectorio del archivo de datos de Cassandra como se muestra en el ejemplo siguiente. (Reemplace34.220.73.140 por su dirección IP real).

ls -l /mnt/cassandra-data-extractor/34.220.73.140_node/confls -l /mnt/cassandra-data-extractor/34.220.73.140_node/data/data

13. Inicie el agente de extracción de datos de AWS SCT para Cassandra:

sudo systemctl start aws-cassandra-extractor

Note

De forma predeterminada, el agente se ejecuta en el puerto 8080. Puede cambiarlo editandoel archivo agent-settings.yaml.

Version 1.0184

Page 191: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigrar datos desde el centro de

datos clon a Amazon DynamoDB

Migrar datos desde el centro de datos clon a AmazonDynamoDBAhora está listo para realizar la migración desde el centro de datos clon a Amazon DynamoDB, utilizandoAWS SCT. AWS SCT administra los flujos de trabajo entre el agente de extracción de datos de AWS SCTpara Cassandra, AWS Database Migration Service (AWS DMS) y DynamoDB. El proceso de migraciónse realiza por completo dentro de la interfaz de AWS SCT y AWS SCT administra todos los componentesexternos en su nombre.

Para migrar sus datos, siga este procedimiento:

1. Desde el menú View (Ver), elija Data migration view (Vista de migración de datos).2. Elija la pestaña Agents (Agentes).3. Si no ha registrado aún el agente de extracción de datos de AWS SCT, verá el siguiente mensaje:

Elija Register.4. En la ventana New agent registration (Registro de nuevo agente), añada la información siguiente:

Para este parámetro Haga lo siguiente

Descripción Escriba una breve descripción para este agente.

Host name Escriba el nombre de host de la instancia Amazon EC2que usó para Instalar, configurar y ejecutar el agente deextracción de datos (p. 181)

Puerto Escriba el número de puerto para el agente. (El número depuerto predeterminado es 8080).

Contraseña Si utiliza SSL, deje este campo en blanco; de lo contrario,escriba la contraseña para registrarse en el host.

Use SSL Si utiliza SSL, elija esta opción para activar la pestañaSSL.

Si utiliza SSL, elija la pestaña SSL y añada la siguiente información:

Para este parámetro Haga lo siguiente

Trust store (Almacén de confianza) Elija el almacén de confianza que haya configurado enInstalar, configurar y ejecutar el agente de extracción dedatos (p. 181).

Version 1.0185

Page 192: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigrar datos desde el centro de

datos clon a Amazon DynamoDB

Para este parámetro Haga lo siguiente

Key store (Almacén de claves) Elija el almacén de claves que haya configurado enInstalar, configurar y ejecutar el agente de extracción dedatos (p. 181).

Cuando la configuración sea la que desea, elija Register (Registrar). AWS SCT intenta conectar con elagente de extracción de datos de AWS SCT para Cassandra.

5. En el lado izquierdo de la ventana AWS SCT, elija el centro de datos de Cassandra que ha creado enCrear un centro de datos clon (p. 175).

6. En la menú Actions (Acciones), elija Create Local & DMS Task (Crear tarea local y DMS).7. En la ventana Create Local & DMS Task (Crear tarea local y DMS), introduzca la información

siguiente:

Para este parámetro Haga lo siguiente

Task name Escriba un nombre abreviado para la tarea de AWS DMSque se va a crear.

Instancia de replicación Elija la instancia de replicación de AWS DMS que deseausar.

Migration type Seleccione la opción Migrate existing data and replicationongoing changes (Migrar datos existentes y cambiosde replicación en curso). Esto migrará las tablas en sucentro de datos clon de Cassandra a DynamoDB y, acontinuación, captura todos los cambios en curso. Esteproceso se denomina carga completa y CDC en AWSDMS.

Target table preparation mode Si ya tiene tablas correspondientes en DynamoDB y deseaeliminarlas antes de la migración, elija Drop tables ontarget (Borrar tablas en el destino). De lo contrario, deje laconfiguración en su valor predeterminado [Do nothing (Nohacer nada)].

Rol de IAM Elija la función de IAM predefinida que tiene permisospara acceder al bucket de Amazon S3 y a la base dedatos de destino (Amazon DynamoDB). Para obtenermás información acerca de los permisos necesarios paraacceder a un bucket de Amazon S3, consulte

Cuando se ejecuta el agente de extracción de datosde AWS SCT, este lee datos desde su centro de datosclon y los escribe en un bucket de Amazon S3. Antesde continuar, debe proporcionar las credenciales paraconectarse a su cuenta de AWS y a su bucket de AmazonS3. Puede almacenar la información de sus credenciales ysu bucket en un perfil en la configuración de la aplicaciónglobal y, a continuación, asociar el perfil con su proyectode AWS SCT. Si fuera necesario, seleccione GlobalSettings para crear un nuevo perfil. Para obtener másinformación, consulte Uso de los perfiles del servicio deAWS en la Herramienta de conversión de esquemas deAWS (p. 13).

Version 1.0186

Page 193: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigrar datos desde el centro de

datos clon a Amazon DynamoDB

Para este parámetro Haga lo siguiente (p. 170).

Logging level (Nivel de registro) Elija un nivel de registro adecuado para la tarea demigración.

Descripción Escriba una descripción para la tarea.

Cifrado de datos Elija Enable (Habilitar) o Disable (Deshabilitar).

Delete files from the local directory(Eliminar archivos del directorio local)

Elija esta opción para eliminar archivos de datos desde eldirectorio local del agente después de cargar los archivosa Amazon S3.

S3 bucket Escriba el nombre de un bucket de Amazon S3 para el quetiene privilegios de escritura.

Cuando esté conforme con los ajustes, elija Create.8. Elija la pestaña Tasks (Tareas), donde debería ver la tarea que ha creado. Para iniciar la tarea,

seleccione Start (Inicio).

Puede monitorear el progreso de las tareas, tal y como se muestra en la siguiente captura de pantalla:

Version 1.0187

Page 194: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioMigrar datos desde el centro de

datos clon a Amazon DynamoDB

Version 1.0188

Page 195: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActividades posteriores a la migración

Actividades posteriores a la migraciónSi ha terminado con la migración y desea eliminar la tarea de migración, haga lo siguiente:

1. Elija la pestaña Tasks.2. Si la tarea se está ejecutando en este momento, elija Stop (Detener).3. Para eliminar la tarea, seleccione Delete (Eliminar).

Si ya no tiene que utiliza el agente de extracción de datos de AWS SCT para Cassandra, haga lo siguiente:

1. Elija la pestaña Agents (Agentes).2. Elija el agente que ya no necesite.3. Seleccione Unregister (Anular el registro).

Version 1.0189

Page 196: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioInformación general de la conversión de SQL de aplicación

Conversión de SQL de aplicacióncon la Herramienta de conversión deesquemas de AWS

Al convertir su esquema de base de datos de un motor a otro, también deberá actualizar el código SQL desus aplicaciones para interactuar con el nuevo motor de base de datos en lugar del antiguo. Puede ver,analizar, editar y guardar el código SQL convertido.

Puede utilizar la Herramienta de conversión de esquemas de AWS (AWS SCT) para convertir el códigoSQL en código C++, C #, Java u otro tipo de código de su aplicación. En el caso de una conversión deOracle a PostgreSQL, puede utilizar AWS SCT para convertir el código de SQL*Plus a PSQL.

Información general de la conversión de SQL deaplicación

Para convertir el código SQL de su aplicación, siga estos pasos de alto nivel:

• Crear un proyecto de conversión de aplicación: – el proyecto de conversión de la aplicación essecundario al proyecto de conversión del esquema de la base de datos. Cada proyecto de conversiónde esquema de base de datos puede tener uno o varios proyectos de conversión de aplicacionessecundarios. Para obtener más información, consulte Creación de proyectos de conversión deaplicaciones en la Herramienta de conversión de esquemas de AWS (p. 190).

• Analizar y convertir su código SQL: – la AWS SCT analiza su aplicación, extrae el código SQL y creauna versión local del SQL convertido para que pueda analizarlo y editarlo. La herramienta no cambiael código en su aplicación hasta que esté listo. Para obtener más información, consulte Análisis yconversión de su código SQL mediante el uso de la Herramienta de conversión de esquemas deAWS (p. 193).

• Crear un informe de evaluación de la aplicación: – el informe de evaluación de la aplicación proporcionainformación importante sobre la conversión del código SQL de la aplicación desde el esquema de labase de datos de origen al esquema de la base de datos de destino. Para obtener más información,consulte Creación y uso del informe de evaluación (p. 194).

• Editar, aplicar los cambios y guardar el código SQL convertido: – el informe de evaluación incluye unalista de elementos de código SQL que no se pueden convertir automáticamente. Para estos elementos,puede editar el código SQL manualmente para realizar la conversión. Para obtener más información,consulte Edición y guardado del código SQL convertido con la Herramienta de conversión de esquemasde AWS (p. 195).

Creación de proyectos de conversión deaplicaciones en la Herramienta de conversión deesquemas de AWS

En la Herramienta de conversión de esquemas de AWS, el proyecto de conversión de la aplicación essecundario al proyecto de conversión del esquema de la base de datos. Cada proyecto de conversión

Version 1.0190

Page 197: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de proyectos de conversión de aplicaciones

de esquema de base de datos puede tener uno o varios proyectos de conversión de aplicacionessecundarios. Utilice el siguiente procedimiento para crear un proyecto de conversión de aplicación.

Para crear un proyecto de conversión de aplicación

1. En la Herramienta de conversión de esquemas de AWS, seleccione New Aplication (Nueva aplicación)desde el menú Applications (Aplicaciones).

Aparecerá el cuadro de diálogo New application conversion project.

2. Agregue la siguiente información del proyecto.

Para este parámetro Haga lo siguiente

Application Project Name Escriba un nombre para el proyecto de conversión de laaplicación. Cada proyecto de conversión de esquemas de basesde datos puede tener uno o varios proyectos secundarios de

Version 1.0191

Page 198: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación de proyectos de conversión de aplicaciones

Para este parámetro Haga lo siguienteconversión de aplicaciones, por lo que deberá elegir un nombresignificativo si va a agregar más proyectos posteriormente.

Ubicación Escriba la ubicación del código fuente de su aplicación.

Project language Elija una de las siguientes opciones:

• JAVA• C++• C#• Cualquiera

SQL parameter style for targetdatabase

Elija una de las siguientes opciones:

• Same as in source• Positional (?)• Indexed (:1)• Indexed ($1)• Named (@name)• Named (:name)

Select source database schema En el árbol de origen, elija el esquema utilizado por el código de laaplicación.

3. Seleccione OK para crear su proyecto de conversión de la aplicación.

Se abrirá la ventana de proyecto.

4. La primera vez que cree un proyecto de conversión de aplicaciones, la ventana de proyecto se abriráautomáticamente. Para abrir un proyecto de conversión de aplicaciones existente, seleccione el nodode proyecto en el árbol de origen, abra el menú contextual (clic secundario) y seleccione Manageapplication.

Version 1.0192

Page 199: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAnálisis y conversión de su código SQL

5. Puede agregar proyectos de conversión de aplicaciones adicionales si selecciona New Applicationdesde el menú Applications o seleccionando el nodo Applications en el árbol de origen, abriendo elmenú contextual (clic con el botón secundario) y seleccionando Add application.

Análisis y conversión de su código SQL mediante eluso de la Herramienta de conversión de esquemasde AWS

Utilice el siguiente procedimiento para analizar y convertir su código SQL mediante la Herramienta deconversión de esquemas de AWS.

Para analizar y convertir su código SQL

1. En el proyecto de conversión de aplicaciones, seleccione Analyze.

La AWS SCT analiza el código de su aplicación y extrae el código SQL. Una lista del código SQLextraído aparecerá en el panel Parsed SQL Scripts en la parte inferior de la ventana. El elementoseleccionado en la lista también aparecerá en el panel Extracted SQL script.

2. Puede analizar todos los elementos del código SQL de la lista y, cuando esté listo, seleccionarConvert para convertir el SQL a SQL para su base de datos de destino.

Note

Puede editar el código SQL convertido en otro procedimiento posterior.

Version 1.0193

Page 200: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioCreación y uso del informe de evaluación

Creación y uso del informe de evaluaciónEl informe de evaluación de la aplicación proporciona información importante sobre la conversión delcódigo SQL de la aplicación desde su esquema de base de datos de origen a su esquema de base dedatos de destino. En el informe se detalla todo el código SQL extraído de la aplicación, todo el SQLconvertido, y los elementos de acción en SQL que no se han podido convertir. El informe incluye tambiénestimaciones de la cantidad de esfuerzo necesario para convertir manualmente el código SQL que no sepudo convertir automáticamente.

Creación de un informe de evaluación de la aplicaciónUtilice el siguiente procedimiento para crear un informe de evaluación de la aplicación.

Para crear un informe de evaluación de la aplicación

1. En la ventana del proyecto de conversión de la aplicación, seleccione Create Report en el menúActions.

El informe se creará y se abrirá en la ventana del proyecto de conversión de la aplicación.2. Analice la pestaña Summary.

En la pestaña Summary que se muestra a continuación aparece la información resumida del informede evaluación de la aplicación. Muestra los elementos del código SQL que se hayan convertidoautomáticamente y los elementos que no se hayan convertido automáticamente.

Version 1.0194

Page 201: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioEdición y guardado de su código SQL convertido

3. Seleccione la pestaña SQL Conversion Actions y analice la información.

La pestaña SQL Conversion Actions contiene una lista de elementos de código SQL que no se puedenconvertir automáticamente. También hay recomendaciones sobre cómo convertir manualmenteel código SQL. Puede editar el código SQL convertido en un paso posterior. Para obtener másinformación, consulte Edición y guardado del código SQL convertido con la Herramienta deconversión de esquemas de AWS (p. 195).

4. Puede guardar una copia local del informe de evaluación de la aplicación en formato PDF o comoun archivo de valores separados por comas (CSV). El archivo PDF contiene tanto el resumen comoinformación de elementos de acción. El archivo CSV contiene solamente información de elementos deacción.

Edición y guardado del código SQL convertido conla Herramienta de conversión de esquemas deAWS

El informe de evaluación incluye una lista de elementos de código SQL que no se pueden convertirautomáticamente. Para cada elemento que no se puede convertir, hay un elemento de acción en lapestaña SQL Conversion Actions. Para estos elementos, puede editar el código SQL manualmente pararealizar la conversión.

Utilice el siguiente procedimiento para editar su código SQL convertido, aplique los cambios y, acontinuación, guárdelos.

Para editar, aplicar cambios y guardar su código SQL convertido

1. Edite su código SQL convertido directamente en el panel Target SQL script. Si no se muestra ningúncódigo convertido, puede hacer clic en el panel y empezar a escribir.

2. Una vez que haya terminado de editar su código SQL convertido, seleccione Apply. En este punto, loscambios se guardan en memoria, pero aún no se escriben en el archivo.

3. Seleccione Save para guardar los cambios en su archivo.

Important

Al seleccionar Save, sobrescribirá su archivo original. Realice una copia de su archivo originalantes de guardar, a fin de que disponga de un registro de su código de aplicación original.

Version 1.0195

Page 202: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Uso del paquete de extensión dela Herramienta de conversión deesquemas de AWS

El paquete de extensión de la AWS SCT es un módulo complementario que simula funciones presentes enla base de datos de origen que son necesarias a la hora de convertir objetos a la base de datos de destino.Antes de poder instalar el paquete de extensión de la AWS SCT, debe convertir su esquema de base dedatos.

El paquete de extensión de la AWS SCT incluye los siguientes componentes:

• Esquema de la – base de datos: Incluye procedimientos, tablas y funciones SQL para simular algunosobjetos OLTP y OLAP (por ejemplo, secuencia) o funciones integradas no admitidas de la base de datosde origen. Este esquema se nombra en el formato aws_<database engine name>_ext.

• Biblioteca de Python personalizada (para algunas bases de datos OLAP): – Incluye un conjunto defunciones de Python que simulan funciones de la base de datos integradas no admitidas. Utilice estabiblioteca al migrar desde una de las bases de datos admitidos a Amazon Redshift.

Para obtener más información sobre esta biblioteca, consulte Uso de la biblioteca de Pythonpersonalizada para el paquete de extensión de la AWS SCT (p. 197).

• Funciones de AWS Lambda (para algunas bases de datos OLTP): Incluye funciones de – que simulanAWS Lambda funcionalidades de la base de datos complejas, como programación del trabajo y envío decorreos electrónicos.

En las siguientes secciones se explica el paquete de extensión de la AWS SCT.

Temas• Uso del esquema del paquete de extensión (p. 197)• Uso de la biblioteca de Python personalizada para el paquete de extensión de la AWS SCT (p. 197)• Uso de las funciones de AWS Lambda del paquete de extensión AWS SCT (p. 199)

Puede aplicar el paquete de extensión de la AWS SCT de dos formas:

• La AWS SCT aplica automáticamente el paquete de extensión cuando usted aplica un script de base dedatos de destino al elegir ApplyToTarget desde el menú contextual. La AWS SCT aplica el paquete deextensión antes de que aplicar el resto de objetos del esquema.

• Para aplicar manualmente el paquete de extensión, seleccione la base de datos de destino y, acontinuación, elija Apply Extension Pack desde el menú contextual. La aplicación automática essuficiente para la mayoría de las situaciones. Sin embargo, es posible que desee aplicar el paquete si seelimina accidentalmente.

Cada vez que se aplica el paquete de extensión de la AWS SCT a un almacén de datos de destino, loscomponentes se sobrescriben. Cada componente tiene un número de versión y la AWS SCT le avisa si laversión del componente actual es anterior a la versión que se aplica. Puede controlar estas notificacionesen Notification Settings en la sección Global Settings de Settings.

Version 1.0196

Page 203: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioUso del esquema de base de

datos del paquete de extensión

Uso del esquema del paquete de extensiónAl convertir su esquema de almacén de datos o base de datos, la AWS SCT añade un esquema adicionala su base de datos de destino. Este esquema implementa las funciones del sistema SQL de la base dedatos de origen que son necesarias al escribir su esquema convertido en la base de datos de destino. Elesquema adicional se denomina esquema del paquete de extensión.

El esquema del paquete de extensión para bases de datos OLTP se nombra en función a la base de datosde origen, de la siguiente manera:

• Microsoft SQL Server: AWS_SQLSERVER_EXT• MySQL: AWS_MYSQL_EXT• Oracle: AWS_ORACLE_EXT• PostgreSQL: AWS_POSTGRESQL_EXT

El esquema del paquete de extensión para aplicaciones data warehouse OLAP se nombra en función delalmacén de base de datos de origen, de la siguiente manera:

• Greenplum: AWS_GREENPLUM_EXT• Microsoft SQL Server: AWS_SQLSERVER_EXT• Netezza: AWS_NETEZZA_EXT• Oracle: AWS_ORACLE_EXT• Teradata: AWS_TERADATA_EXT• Vertica: AWS_VERTICA_EXT

Uso de la biblioteca de Python personalizada parael paquete de extensión de la AWS SCT

En algunos casos, Herramienta de conversión de esquemas de AWS no puede convertir características debase de datos de origen a características de Amazon Redshift equivalentes. El paquete de extensión de laAWS SCT contiene una biblioteca de Python personalizada que simula algunas funcionalidades de la basede datos de origen en Amazon Redshift.

Si va a convertir una base de datos transaccional, consulte Uso de las funciones de AWS Lambda delpaquete de extensión AWS SCT (p. 199).

Hay dos casos en los que podría querer instalar el paquete de extensión a mano:

• Si elimina accidentalmente el esquema del paquete de extensión de su base de datos de destino.• Si quiere cargar bibliotecas de Python personalizadas para emular una funcionalidad de base de datos.

Uso de AWS Services para cargar bibliotecas dePython personalizadasEl asistente del paquete de extensión de la AWS SCT le ayuda a instalar la biblioteca de Pythonpersonalizada.

Version 1.0197

Page 204: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del paquete de extensión

Aplicación del paquete de extensiónUtilice el siguiente procedimiento para aplicar el paquete de extensión.

Para aplicar el paquete de extensión

1. En la Herramienta de conversión de esquemas de AWS, en el árbol de la base de datos de destino,abra el menú contextual (clic secundario) y seleccione Apply Extension Pack (Aplicar paquete deextensión).

Aparecerá el asistente de paquete de extensión.2. Lea la página Welcome y seleccione Next.3. En la página AWS Services Settings, realice lo siguiente:

• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip thisstep for now y, a continuación, Next.

• Si está cargando la biblioteca de Python, facilite las credenciales para conectarse a su cuentade AWS. Puede utilizar sus credenciales de AWS Command Line Interface (AWS CLI) si tieneinstalada la AWS CLI. También puede utilizar las credenciales que ya haya almacenado en un perfilen la configuración global de la aplicación y tenga asociadas con el proyecto. Si fuera necesario,seleccione Navigate to Project Settings para asociar al proyecto un perfil diferente. Si fueranecesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas deAWS (p. 13).

4. En la página Python Library Upload, haga lo siguiente:

• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip thisstep for now y, a continuación, Next.

• Si desea cargar la biblioteca de Python, proporcione la ruta de Amazon S3 y, a continuación,seleccione Upload Library to S3 (Cargar biblioteca a S3).

Cuando haya terminado, elija Next.5. En la página Functions Emulation, seleccione Create Extension Pack. Aparecerán mensajes con el

estado de las operaciones del paquete de extensión.

Cuando haya terminado, seleccione Finish.

Version 1.0198

Page 205: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioLas funciones de Lambda del paquete de extensión

Uso de las funciones de AWS Lambda del paquetede extensión AWS SCT

El paquete de extensión de la Herramienta de conversión de esquemas de AWS contiene funcionesde Lambda que proporcionan funcionalidades de correo electrónico, programación del trabajo y otrascaracterísticas a las bases de datos alojadas en la plataforma Amazon EC2.

Uso de las funciones de AWS Lambda para simular lafuncionalidad de una base de datosEn algunos casos, las características de la base de datos de origen no se pueden convertir acaracterísticas de Amazon RDS equivalentes. Algunos ejemplos son las llamadas de envío de correoselectrónicos de Oracle que utilizan UTL_SMTP y las tareas de Microsoft SQL Server que utilizan unprogramador de trabajos. Si aloja y administra una base de datos en la plataforma Amazon EC2, puedesimular estas características sustituyendo los servicios de AWS por ellas.

El asistente del paquete de extensión de la AWS SCT le ayuda a instalar, crear y configurar funciones deLambda para simular las características de correo electrónico, programación del trabajo y otras funciones.

Aplicación del paquete de extensiónUtilice el siguiente procedimiento para aplicar el paquete de extensión.

Important

Las características de simulación de los servicios de AWS solo se admiten en bases de datosinstaladas y autoadministradas en la plataforma Amazon EC2. No instale las características desimulación de servicios si su base de datos de destino está en una instancia de base de datos deAmazon RDS.

Para aplicar el paquete de extensión

1. En la Herramienta de conversión de esquemas de AWS, en el árbol de la base de datos de destino,abra el menú contextual (clic secundario) y seleccione Apply Extension Pack (Aplicar paquete deextensión).

Aparecerá el asistente de paquete de extensión.2. Lea la página Welcome y seleccione Next.3. En la página AWS Services Settings, realice lo siguiente:

• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip thisstep for now y, a continuación, Next.

Version 1.0199

Page 206: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAplicación del paquete de extensión

• Si está instalando AWS Services, facilite las credenciales para conectarse a su cuenta de AWS.Puede utilizar sus credenciales de AWS Command Line Interface (AWS CLI) si tiene instaladala AWS CLI. También puede utilizar las credenciales que ya haya almacenado en un perfil enla configuración global de la aplicación y tenga asociadas con el proyecto. Si fuera necesario,seleccione Navigate to Project Settings para asociar al proyecto un perfil diferente. Si fueranecesario, seleccione Global Settings para crear un nuevo perfil. Para obtener más información,consulte Uso de los perfiles del servicio de AWS en la Herramienta de conversión de esquemas deAWS (p. 13).

4. En la página Email Sending Service, haga lo siguiente:

• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip thisstep for now y, a continuación, Next.

• Si está instalando servicios de AWS y ya tiene una función de Lambda, puede introducirla. De locontrario, el asistente la creará por usted. Cuando haya terminado, elija Next.

5. En la página Job Emulation Service, haga lo siguiente:

• Si está volviendo a instalar solamente el esquema del paquete de extensión, seleccione Skip thisstep for now y, a continuación, Next.

• Si está instalando servicios de AWS y ya tiene una función de Lambda, puede introducirla. De locontrario, el asistente la creará por usted. Cuando haya terminado, elija Next.

6. En la página Functions Emulation, seleccione Create Extension Pack. Aparecerán mensajes con elestado de las operaciones del paquete de extensión.

Cuando haya terminado, seleccione Finish.

Version 1.0200

Page 207: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioAdministración general de la

memoria y opciones de desempeño

Prácticas recomendadas para laHerramienta de conversión deesquemas de AWS

A continuación, encontrará información sobre prácticas recomendadas y opciones al usar la Herramientade conversión de esquemas de AWS.

Administración general de la memoria y opcionesde desempeño

Puede configurar la Herramienta de conversión de esquemas de AWS con diferentes opciones dedesempeño de la memoria. Al aumentar la memoria, acelerará el desempeño de su conversión, peroempleará más recursos de memoria en su escritorio.

Para establecer su opción de administración de la memoria, seleccione Global Settings en el menúSettings y seleccione la pestaña Performance and Memory. Elija una de las siguientes opciones:

• Conversión rápida, pero alto consumo de memoria: – esta opción optimiza la conversión para que searápida, pero podría requerir más memoria para la caché de referencia de objetos.

• Bajo consumo de memoria, pero conversión más lenta: – esta opción reduce al mínimo la cantidad dememoria empleada, pero da como resultado una conversión más lenta. Utilice esta opción si el escritoriotiene una cantidad limitada de memoria.

• Equilibrio entre velocidad y consumo de memoria: – esta opción de optimización facilita un equilibrioentre el uso de la memoria y la velocidad de conversión.

Configuración de memoria adicionalPara convertir grandes esquemas de bases de datos, por ejemplo, una base de datos con 3500procedimientos almacenados, puede configurar la cantidad de memoria disponible para la Herramienta deconversión de esquemas de AWS.

Para modificar la cantidad de memoria que consume la AWS SCT:

1. Localice la carpeta en la que esté el archivo de configuración (C:\Program Files\AWS SchemaConversion Tool\App).

2. Abra el archivo de configuración AWS Schema Conversion Tool.cfg con el bloc de notas o suprocesador de textos favorito.

3. Edite la sección JVMUserOptions para definir la memoria disponible mínima y máxima. El siguienteejemplo establece el mínimo en 4 GB y el máximo en 40 GB.

[JVMUserOptions]-Xmx48960m -Xms4096m

Version 1.0201

Page 208: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNo se puede cargar objetos de unabase de datos de origen de Oracle

Solución de problemas con laHerramienta de conversión deesquemas de AWS

A continuación, podrá obtener información sobre la solución de problemas con la Herramienta deconversión de esquemas de AWS (AWS SCT).

No se puede cargar objetos de una base de datosde origen de Oracle

Al intentar cargar esquemas desde una base de datos de Oracle, puede que reciba uno de los siguienteserrores.

Cannot load objects tree.

ORA-00942: table or view does not exist

Estos errores se producen debido a que el usuario cuyo ID se utiliza para conectarse a la base de datosOracle no tiene permisos suficientes para leer el esquema según requiere la AWS SCT.

Puede resolver este problema si concede al usuario permiso select_catalog_role y permiso paracualquier diccionario en la base de datos. Estos permisos proporcionan un acceso de solo lectura a lasvistas y tablas del sistema que requiere AWS SCT. En el siguiente ejemplo se crea un ID de usuariodenominado min_privs y concede al usuario con este ID los permisos mínimos necesarios para convertirel esquema de una base de datos Oracle de origen.

create user min_privs identified by min_privs;grant connect to min_privs;grant select_catalog_role to min_privs; grant select any dictionary to min_privs;

Version 1.0202

Page 209: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 635

Notas de la versión de Herramientade conversión de esquemas de AWS

Esta sección contiene las notas de la versión de Herramienta de conversión de esquemas de AWS, a partirde la versión 1.0.611.

Notas de la versión de la compilación 635 de laHerramienta de conversión de esquemas de AWS

Los cambios para las versiones Herramienta de conversión de esquemas de AWS 1.0.633 y 1.0.634 sefusionan en la versión Herramienta de conversión de esquemas de AWS 1.0.635.

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.635 dela Herramienta de conversión de esquemas de AWS.

Origen Destino Novedades, mejoras o correcciones

ALL ALL Interfaz de usuario SCT - AWS Glue. Tareas comunes deformación de trabajo

ALL Amazon Redshift Controlador JDBC actualizado a 1.2.36.1060. Mejoraspara CREATE TABLE. Soporte para columnas con opción:GENERATED BY DEFAULT AS IDENTITY.

ALL AuroraPostreSQL 11

Ahora es compatible con Aurora PostreSQL 11 como objetivo

ALL Microsoft SQLServer

Ahora es compatible con WAIT FOR DELAY.

ALL Oracle CORRECCIÓN: La función TO_CHAR (número) ahora devuelve elresultado correcto.

ALL PostgreSQL CORRECCIÓN: La función analítica (PERCENTILE_CONT) con elconjunto ordenado ahora convierte correctamente.

Micorosft AzureSQL/MicrosoftSQL Server

PostgreSQL/AuroraPostgreSQL

Compatibilidad para determinar el nombre del esquema según lasinstrucciones DDL.

Greenplum Amazon Redshift Mejoras de código almacenado y DDL para los siguienteselementos. CREATE TEMPORARY TABLE. TRUNCATETABLE en función. Operador PERFORM. Revise y reduzca el«Tiempo estimado para resolver manualmente» y el nivel degravedad de las inteligencias artificiales. NEXTVAL en SELECT.CORRECCIÓN: inteligencia artificial 14006 incorrecta en algunascolumnas de tipo VARCHAR. Mejor descripción para inteligenciaartificial 14014.

Microsoft SQLServer

AWS Glue (shellde Python)

Mejoras de código almacenado para los siguientes elementos.Operadores. Instrucciones SET. Sintaxis DECLARE. CREATE

Version 1.0203

Page 210: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 635

Origen Destino Novedades, mejoras o correccionesPROCEDURE. Funciones integradas que convierten a Python.Expresiones aritméticas con tipos de operandos mixtos Lenguajede control de flujo: IF/ELSE, WHILE, RETURN, CASE, WAITFOR.Uso de secuencias. Tratamiento de errores de procedimientos.

Microsoft SQLServer

PostgreSQL/AuroraPostgreSQL

Operaciones aritméticas ampliadas con fechas. Emulación paraTOP (expresión) WITH TIES.

Netezza Amazon Redshift Mejoras de código almacenado. CREATE TABLE AS, CREATEVIEW AS. Revisión y mejoras de mapeo de tipos de datos.CORRECCIÓN: indicador de procedimiento OBFUSCATEcorregido e inteligencia artificial 15089.

Netezza Amazon Redshift Mejoras de código almacenado para los siguientes elementos.Mejoras en las sentencias DDL. Objetos DROP. Parámetros delsistema SET. AppConversion analizable. Instrucciones DML.Mapeo de tipos de datos. Funciones integradas de DateTime.Compatibilidad para funciones e intervalos del sistema.

Oracle Amazon Redshift Mejoras de código almacenado para los siguientes elementos.Paquetes estándar de Oracle. Instrucción INSERT dentro delbucle del cursor.

Oracle AWS Glue(modo Spark)

Compatibilidad para el mapeo de tipos de datos a tipos de datosPython. Mejora en la formación de cadenas SparkSQL. Mejora enla formación de cadenas SQL pg8000.

Oracle PostgreSQL/AuroraPostgreSQL

Matriz asociativa y lógica de tabla anidada global mejoradas.Flujo de inicialización mejorado para colecciones globales.Compatibilidad para la función TO_TIMESTAMP, ajustedbms_lock, lockmode/timeout.

Oracle PostgreSQL/AuroraPostgreSQL

Se han implementado variables locales/globales de declaraciónen un procedimiento/función que se utiliza en procedimientos/funciones anidados. Compatibilidad para pasar argumentos/variables como parámetros de cursor explícitos. CORRECCIÓN:problema de conversión de cursor local. CORRECCIÓN: lasvariables de paquete clasifican el orden en la función de entradade destino.

Oracle PostgreSQL/AuroraPostgreSQL

Mejoras para los siguientes elementos: conversión IS NULL/SET NULL. Conversión de variables de tipo registro de paquete.Configuración de mapeo de tipo personalizada para variablesNUMBER. Matriz asociativa y lógica de tabla anidada local. OVERen vistas. Valores predeterminados para colecciones globales.Desencadenadores de tabla temporal global. ANYDATA ahora escompatible. Se admiten múltiples inserciones.

PostgreSQL Microsoft SQLServer

CORRECCIÓN: las actualizaciones y eliminaciones con unionesahora funcionan correctamente

PostrgreSQL Microsoft SQLServer

CORRECCIÓN: SCT ya no ignora la palabra clave de ordenaciónDESC en las consultas RANK OVER.

Version 1.0204

Page 211: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 632

Origen Destino Novedades, mejoras o correcciones

SAP ASE PostgreSQL/AuroraPostgreSQL

Se ha mejorado la compatibilidad para los siguientes elementos:CONVERT (char(x), varchar,0) con 3 argumentos. SELECT VAR= expresión/ SELECT VAR = (SELECT ... FROM...). Índicesen tablas temporales. Sugerencias de consulta. ROLLBACKTRIGGER/ROLLBACK TRIGGER WITH RAISEERROR.HAVING con columnas que no están en la cláusula GROUPBY. HAVING sin GROUP BY. La conversión de una llamada deprocedimiento con parámetros y con un refcursor generado ahoraes correcta. SET el manejo de sesión actual. CORRECCIÓN:Sybase externa se une a las uniones externas estándar ANSI.Emulaciones para objetos del sistema, host_id(), host_name(),SQL GET_APPCONTEXT, @@SPID, función SUSER_NAME.CORRECCIÓN: resolución correcta para columnas de tablastemporales.

SAP ASE PostgreSQL/AuroraPostgreSQL

Compatibilidad mejorada para usar SET para la sesión actual.

SQL Server PostgreSQL CORRECCIÓN: VARCHAR ya no se convierte comoVARCHAR(1).

SQL Server PostgreSQL CORRECCIÓN: la función DATEDIFF de SQL Server ahorafunciona correctamente.

Sybase PostgreSQL Conversiones mejoradas para instrucciones UPDATE.

Teradata Amazon Redshift Ahora convierte EXECUTE IMMEDIATE. Ahora admite el estilo dedistribución = AUTO.

Teradata AWS Glue(modo Spark)

Mejoras generales de conversión. Formación de cadenasSparkSQL, formación de cadenas SQL pg8000 mejoradas.

Errores resueltos:

• Asistente de proyectos - Permitir ejecutar en el nivel de instancia• Correcciones de problemas de conversión para Teradata

Notas de la versión de la compilación 632 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.632 dela Herramienta de conversión de esquemas de AWS.

Origen Destino Novedades, mejoras o correcciones

ALL ALL Interfaz de usuario de SCT: se ha agregado una nueva pestañapara mostrar los errores que se producen al aplicar scripts.

SAP-ASE ALL Ahora puede guardar el árbol de origen como SQL.

Oracle PostgreSQL oAurora PostgreSQL

• Ahora convierte los literales de cadena vacíos a NULL en todaspartes: metadatos de objeto, instrucciones analizables, scripts

Version 1.0205

Page 212: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 632

Origen Destino Novedades, mejoras o correccioneso instrucciones SQL en el código fuente de la aplicación, entreotros.

• REPLACE tiene ahora el mismo comportamiento en Oracle y enPostgreSQL.

• Ahora acepta más de 100 argumentos, que no estabanpermitidos para las funciones y los procedimientos de formapredeterminada.

• Las funciones aws_oracle_ext.instr ya no devuelven unresultado incorrecto.

• Ahora las funciones LEAST y GREATEST funcionan igual.• Ya no debe utilizarse la función immutable_concat_ws del

paquete de extensión en lugar de standard concat_ws enlas vistas.

• Se ha implementado la función concat del paquete deextracción inmutable.

• El sinónimo público ya no se expande en las vistas.• Se ha añadido compatibilidad con

dbms_application_info.set_module.• Ahora se admiten variables de tipo de número previamente

incompatibles para los códigos de error.• Ahora se admite FETCH BULK COLLECT INTO.• Ahora se admite SAVEPOINT, ROLLBACK TO SAVEPOINT

dentro de las funciones.• Ahora se admite el cursor con SELECT...INTO....• Ahora se admite la variable de colección del paquete como

valor DEFAULT del parámetro de entrada de la rutina.• La declaración de tipo de un parámetro o variable se basa en la

columna %TYPE de una vista del sistema.• Ahora se admiten las tablas anidadas globales de %ROWTYPE.• Compatibilidad para paquetes con subtipos de %TYPE.• Corrección: el campo de inserción en el elemento de colección

causaba un error del transformador.

SAP ASE PostgreSQL oAurora PostgreSQL

• Ahora se admite la conversión correcta de la instrucciónUPDATE de varias tablas con una tabla temporal no resuelta.

• Se resuelve el objeto correcto cuando no se especifica elnombre del esquema o solo se utiliza el nombre de la base dedatos.

• Ahora se admite la función CONVERT (paquete de extensión).

Version 1.0206

Page 213: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 631

Origen Destino Novedades, mejoras o correcciones

Netezza Redshift • Código almacenado. Compatibilidad mejorada con el control detransacciones (COMMIT/ROLLBACK).

• Cambio de la gravedad de "crítica" a "alta" para AI 15028 sinresolver. Se ha añadido el operador /=/ al procesamiento de lasconsultas.

• Se ha reducido el valor “Estimated Time to Resolve Manually(Tiempo estimado para resolver manualmente)" para lasinstancias de AI 15001, 15002, 15003.

• Conversión del operador /=/ en las instrucciones SQL.• Mejoras en la asignación de tipos de datos para los tipos de

datos entre comillas (por ejemplo "VARCHAR" y "TIME", entreotros).

Amazon RDS forOracle

Redshift Corrección: para el error de comando de copia que se producíaal cargar en Redshift desde Oracle en RDS mediante el agentede extracción de datos SCT en cualquier sistema operativo deentorno japonés. Se ha agregado el comando "ALTER SESSIONSET NLS_DATE_LANGUAGE = 'ENGLISH'" para Oracle antes deextraer los datos.

Errores resueltos:

• CORRECCIÓN: error tipográfico en el menú de configuración del proyecto actual• CORRECCIÓN: no se puede convertir a mayúsculas con la regla de asignación (si el destino era

PostgreSQL)

Notas de la versión de la compilación 631 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.631 dela Herramienta de conversión de esquemas de AWS.

Origen Destino Novedades, mejoras o correcciones

Oracle yOracleDW

Todos Se ha añadido compatibilidad con el mecanismo de recuento y elrecuento de líneas de código SQL

Oracle MariaDB(10.2/10.3/10.3SQLMODE=ORACLE)

Las consultas jerárquicas que utilizan la sintaxis CONNECT BYde Oracle se transfieren a expresiones de tabla comunes (WITHRECURSIVE)

Oracle MariaDB

MySQL

MySQL (Aurora)

Se ha corregido una combinación compleja con la tabla queaparecía en ambos lados de la combinación

SAP ASE MySQL Compatibilidad con la función CONVERT

Version 1.0207

Page 214: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 631

Origen Destino Novedades, mejoras o correcciones

SAP ASE MySQL

MySQL (Aurora)

REVISIÓN: conversión de INSERT con una implementaciónSELECT de varias tablas y conversión de la instrucción UPDATEde varias tablas con una implementación de tabla temporal

Microsoft SQLServer

MySQL

MySQL (Aurora)

REVISIÓN: la definición de objetos y esquemas no es correcta sise invoca un objeto y no se especifica un esquema

Ahora, los objetos del sistema que no tienen esquemas seconvierten tal y como están.

SAP ASE MySQL

MySQL (Aurora)

Corregido: conversión incorrecta de INSERT con SELECT devarias tablas

Microsoft SQLServer

PostgreSQL Ahora, el comentario del bloque try/catch se transfiere al destino

Se ha mejorado la compatibilidad con los parámetros de losprocedimientos almacenados que tienen valores predeterminados

REVISIÓN: se ha eliminado todo el código del proceso cuando seutiliza ALTER TABLE y ENABLE/DISABLE TRIGGER ALL

SAP ASE PostgreSQL Compatibilidad con la función CONVERT

Oracle PostgreSQL Compatibilidad con la conversión de código de ProC a ECPG

Se ha mejorado la compatibilidad con la conversión RAWTOHEX/HEXTORAW/UTL_RAW

Se ha mejorado la compatibilidad con los cursores globales parapermitir los comandos FETCH y OPEN en rutinas almacenadasindependientes. Con esta mejora, el cursor se puede abrir en unprocedimiento, recuperarse en otro procedimiento y cerrarse enun tercer procedimiento.

Opción para cambiar entre el procedimiento y la función enPostgreSQl 11

DBMS_XMLGEN y DBMS_XMLQUERY

Creación de sinónimos públicos para los procedimientosalmacenados

Microsoft SQLServer

PostgreSQL

PostgreSQL(Aurora)

Se ha mejorado la definición de objetos y esquemas cuandosolo se especifica el nombre de la base de datos al llamar a unprocedimiento

Ahora, los objetos del sistema que no tienen esquemas seconvierten tal y como están.

Version 1.0208

Page 215: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 631

Origen Destino Novedades, mejoras o correcciones

Oracle PostgreSQL

PostgreSQL(Aurora)

Se ha mejorado la compatibilidad con los cursores globales parapermitir los comandos FETCH y OPEN en rutinas almacenadasindependientes. Con esta mejora, el cursor se puede abrir en unprocedimiento, recuperarse en otro procedimiento y cerrarse enun tercer procedimiento.

Ahora, los alias de columna de una subconsulta se conviertencorrectamente.

Compatibilidad con la función REVERSE

Compatibilidad con los parámetros de un bloque anónimo

Se ha añadido una opción para convertir ROWID envarchar(36). Con esta nueva opción, puede crear un objetoDOMAIN para MyRowid como varchar(36) NOT NULL,convertir el tipo de datos ROWID y la columna AS MyRowid y,finalmente, crear un objeto SEQUENCE para cada columna yestablecerlo de forma predeterminada en NEXTVAL().Emulación de vistas del sistema

Compatibilidad con FORALL MERGE

Compatibilidad con un cursor global con parámetros de tipo%TYPE. Se han realizado mejoras en las conversiones de Oracle:

Compatibilidad de los cursores globales con parámetros de tipo%TYPE. Compatibilidad de los cursores globales con parámetrosde tipo %TYPE

Compatibilidad para crear una función de inicialización en unpaquete sin variables

La IA se activa en una rutina con más de 100 argumentos

Se ha corregido la conversión de DECODE a CASE con NULL

Transformación de SQL recursivo si se necesita una columnadistinta de la columna de conexión.

Uso de los atributos %FOUND y %NOTFOUND de los cursoresexplícitos locales

Llamadas a funciones con el resultado de un tipo de colección queutiliza una notación con nombre

Funciones con el resultado de un tipo de colección y valores deargumento predeterminados

Version 1.0209

Page 216: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 631

Origen Destino Novedades, mejoras o correcciones

Greenplum Redshift Declaración FUNCTION (DROP/CREATE PROCEDURE)

Declaración de variables y constantes

Asignaciones y expresiones de variables

Lenguaje de control de flujo.FOR

Cursores

SQL dinámico v1. (rechazo con IA)

Asignación de tipos de datos Greenplum PL/pgSql: Redshift PL/pgSQL

Estructura PL/pgSQL (BEGIN... END, subbloques, etiquetas)

Comentarios

Lenguaje de control de flujo. RETURN/RETURN NEXT

Lenguaje de control de flujo. IF-THEN-ELSE

Lenguaje de control de flujo. EXIT/CONTINUE en bucles

Lenguaje de control de flujo. LOOP simple

Lenguaje de control de flujo. WHILE

Instrucciones comunes. Llamar a otro procedimiento/UDF

RETURNS SETOF da como resultado funciones de Redshift(plpythonu)

Devuelve el valor VOID a Redshift (plythonu)

Microsoft SQLServer

Redshift Compatibilidad con procedimientos almacenados de CLR

Se ha mejorado la compatibilidad con código almacenado para elcontrol de transacciones (COMMIT, ROLLBACK)

Netezza Redshift Los procedimientos de Netezza ya no se convierten en funcionesde python

Compatibilidad con asignaciones, aplicación de SELECT envariables, comentarios de procedimientos y otros casos.

Oracle Redshift Compatibilidad mejorada con paquetes PL/SQL

Se ha mejorado la compatibilidad con código almacenado para elcontrol de transacciones (COMMIT, ROLLBACK)

Version 1.0210

Page 217: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 630

Origen Destino Novedades, mejoras o correcciones

Teradata Redshift Compatibilidad con el control de transacciones (COMMIT,ROLLBACK) en código almacenado.

Ejecución de funciones y procedimientos almacenados

Devolución de cursores de conjuntos de resultados

Instrucciones de diagnóstico

Compatibilidad con las instrucciones DDL para CREATE TABLE yCREATE VOLATILE TABLE

Errores resueltos:

• REVISIÓN: no se puede traducir la función SYSDATETIMEOFFSET de SQL Server a PG• REVISIÓN: error de conexión de prueba de perfil de servicio en Amazon ETL Service (SCT 626)• REVISIÓN: problemas para convertir la tabla Teradata a Redshift• REVISIÓN: error de conexión de prueba del perfil de servicio global para el servicio Amazon ETL• REVISIÓN: el informe de evaluación de SCT no puede guardar caracteres multibyte como PDF• REVISIÓN: el agente independiente de DMS ahora admite S3 como destino de la tarea local de DMS• REVISIÓN: ahora puede ver las tablas del sistema de SAP ASE en el árbol de objetos.• REVISIÓN: en las conversiones entre SQL Server y PostgreSQL, SCT ahora admite comentarios en

bloques try/catch.

Notas de la versión de la compilación 630 de laHerramienta de conversión de esquemas de AWS

La versión 1.0.630 de Herramienta de conversión de esquemas de AWS se ha fusionado con laversión 1.0.631 de Herramienta de conversión de esquemas de AWS. Para ver los cambios que se hancombinado, consulte Notas de la versión de la compilación 631 de la Herramienta de conversión deesquemas de AWS (p. 207).

Notas de la versión de la compilación 629 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.629 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

   

Redshift Para conversiones de Netezza, compatibilidad de código almacenadocon lo siguiente:

• Procedimientos almacenados

Version 1.0211

Page 218: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 629

Nueva característica o mejora DescripciónPara las conversiones de Microsoft SQL Server:

• Se ha añadido la capacidad de imprimir el procedimiento almacenadode CLR de código fuente

• OBJECT_ID

Para conversiones de Oracle, compatibilidad de código almacenado conlo siguiente:

• Paquetes PL/SQL

Para las conversiones de Teradata:

• Tratamiento de excepciones• Gestión de condiciones• Instrucciones DDL• Declaraciones DDL: CREATE otros objetos• Enunciados DML: compatibilidad mejorada

SAP ASE Compatibilidad con SAP ASE 12.5 como origen

DynamoDB Para conversiones de Cassandra:

• Mejoras de migración y corrección de errores.• Extracción de tipo de recopilación para tuplas y congeladas

MySQL 8 Para las conversiones de Oracle, se ha agregado compatibilidad conconsultas jerárquicas mediante Oracle CONNECT BY, convirtiendoahora la sintaxis a WITH Queries (CTE), incluido el modificadorRECURSIVE.

MySQL y Aurora MySQL Para las conversiones de SAP ASE:

• Se ha añadido compatibilidad con los mensajes definidos por elusuario a la tabla de sistema sysusermessages para su uso porparte de cualquier aplicación. Utilice sp_addmessage para añadirmensajes a sysusermessages; utilice sp_getmessage pararecuperar mensajes para que los usen print y raiserror.

• Se ha corregido la conversión incorrecta de RAISERROR.

Version 1.0212

Page 219: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión–

Nueva característica o mejora Descripción

PostgreSQL Para conversiones de Oracle, compatibilidad con lo siguiente:

• Opciones para hacer caso omiso de los disparadores y restriccionesdeshabilitados

• Asignar la operación de matriz o tabla anidada global de registroanidado

• Funciones EXTRACT, EXTRACTVALUE• Contextos de aplicaciones locales y globales con el paquete de

extensión, incluida la categoría de objetos adicional en el árbol deobjetos y las reglas.

• Métodos XMLSEQUENCE, XMLELEMENT y XMLTYPE• Se ha mejorado la compatibilidad de cursor global para convertir

comandos OPEN y FETCH en rutinas almacenadas independientes.Ahora, el cursor se puede abrir en un procedimiento, recuperarse enotro y cerrarse en el tercero.

• Corregido: los alias de las columnas en la subselección ya no seconvierten incorrectamente

• Se ha corregido la combinación compleja de SCT Transformer Errorque ya no muestra la tabla a ambos lados de la combinación.

Para conversiones de Microsoft SQL Server, compatibilidad con el SQLdinámico:

PostgreSQL y AuroraPostgreSQL

Para las conversiones de Oracle,dbms_application_info.set_action se puede emularmediante el paquete de extensión. Además, donde la referenciaSQL%bulk_exceptions provocaba un error de transformador, estasexcepciones ahora deben rechazarse con IA.

Errores resueltos:

• Ahora los disparadores y procedimientos pueden convertir de SQL Server a MySQL• SCT ahora puede convertir esquemas de 6000 procedimientos en conversiones de SQL Server a Aurora

PostgreSQL• Se ha corregido la incapacidad de usar AWS Glue en la región del Norte de Virginia• Los procedimientos de origen de SQL Server ya no se bloquean durante la conversión de esquemas• Corrección de errores y mejoras generales.

Notas de la versión de la compilación 628 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.628 dela Herramienta de conversión de esquemas de AWS ().

Nueva característica o mejora Descripción

Sustituciones de servicio Para conversiones de DB2 a Aurora MySQL:

Version 1.0213

Page 220: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión–

Nueva característica o mejora Descripción• Emulación de envío de correo electrónico• Emulación de compatibilidad de archivos• Emulación de trabajos

Para conversiones de DB2 a Aurora PostgreSQL:

• Emulación de envío de correo electrónico• Emulación de compatibilidad de archivos• Emulación de paquetes UTL_File

Para conversiones de Microsoft SQL Server a MySQL, PostgreSQL,Aurora MySQL o Aurora PostgreSQL:

• Emulación del programador de SQL Server

Para conversiones de Oracle a MySQL o Aurora MySQL:

• Emulación de compatibilidad de archivos• Emulación de paquetes OWA_• Emulación de colas de Oracle• Emulación de paquetes HTP/HTF/OWA_*

Para conversiones de Oracle a PostgreSQL o Aurora PostgreSQL:

• Emulación de compatibilidad de archivos• Emulación de paquetes OWA_• Emulación de colas de Oracle• Emulación de paquetes UTL_FILE

Version 1.0214

Page 221: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión–

Nueva característica o mejora Descripción

Redshift Para conversiones de Microsoft SQL Server, compatibilidad de códigoalmacenado con lo siguiente:

• Procedimientos almacenados y SQL dinámico

Para conversiones de Oracle, compatibilidad de código almacenado conlo siguiente:

• Cursores en procedimientos• MERGE

• EXECUTE IMMEDIATE es compatible con procedimientos y hamejorado la compatibilidad con SQL dinámico

• Subprogramas anidados en procedimientos

Para conversiones de Teradata, compatibilidad de código almacenadocon lo siguiente:

• Cursores en procedimientos• MERGE

• QUALIFY

• variables DECLARE y SET

SAP ASE 15.0 Compatibilidad con SAP ASE 15.0 como origen

DynamoDB Para conversiones de Cassandra, compatibilidad con lo siguiente:

• Extracción de tipos de colección (SET, LIST, MAP)• Mejoras y correcciones generales

MySQL 8 Para conversiones de DB2 o SAP ASE, compatibilidad con instanciasque distinguen entre mayúsculas y minúsculas

Version 1.0215

Page 222: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión–

Nueva característica o mejora Descripción

PostgreSQL 11 Para conversiones de DB2, compatibilidad con lo siguiente:

• Compatibilidad con transacciones incrustadas y CALL paraprocedimientos almacenados en SQL. En los procedimientosinvocados por el comando CALL, así como en bloques de códigoanónimo (comando DO), es posible finalizar las transacciones con loscomandos COMMIT y ROLLBACK. Una nueva transacción se iniciaráautomáticamente cuando se termine una transacción con estoscomandos, por lo que no hay ningún comando START TRANSACTIONindependiente. (Tenga en cuenta que BEGIN y END tienen distintossignificados en PL/pgSQL).

Para conversiones de Microsoft SQL Server, compatibilidad con losiguiente:

• Compatibilidad con T-SQL dinámico. Compatibilidad con llamada aprocedimientos almacenados mediante CALL en consultas dinámicas.

Para conversiones de Oracle, compatibilidad con lo siguiente:

• Compatibilidad con conversiones SQL* Plus, incluidos procedimientosy SQL dinámico. Procedimientos almacenados CALL en consultasdinámicas.

• Se ha añadido la opción para cambiar el mapeo de tipos de datospredeterminado para columnas con PK y FK que hacen referenciaa una PK modificada. Por ejemplo, puede convertir un númerocon escala y precisión en bigint, para mejorar el rendimiento.Anteriormente, cuando el tipo de datos numérico se migraba de Oraclea PostgreSQL, SCT utilizaba de forma predeterminada la conversióna numérico en PostgreSQL. Si el número de Oracle se utilizaba conescala y precisión, esta conversión era correcta. Sin embargo, si setratara de un número entero con un índice de PK en la columna, laconversión a numérico en PostgreSQL podría causar problemas derendimiento.

• Compatibilidad para convertir %TYPE en tipo de datos integrado. SCTsustituye %TYPE por un nuevo tipo de datos, de acuerdo con las reglasde mapeo de tipos.

• Se ha reemplazado el mapeo predeterminado de los argumentos defunción y procedimiento para que NUMBER se convierta a NUMERIC, enlugar de DOUBLE PRECISION

Para conversiones de SAP ASE, compatibilidad con lo siguiente:

• CREATE PROCEDURE with RETURN

• Compatibilidad con la llamada a procedimientos almacenadosmediante CALL en consultas dinámicas

• Compatibilidad con FOREIGN KEYen tablas particionadas.PostgreSQL 11 solo admite claves externas de una tabla conparticiones a una sin particiones.

• Compatibilidad con índices en tablas particionadas. Después deindexar la tabla maestra, PostgreSQL crea automáticamente un

Version 1.0216

Page 223: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripcióníndice configurado de forma idéntica en las particiones secundariasexistentes y en las tablas con particiones futuras.

• Compatibilidad con PRIMARY KEY en tablas particionadas. En laversión 11, puede añadir una clave principal a la tabla maestra. Estocrea la PRIMARY KEY en todas las tablas secundarias existentesy en tablas de particiones futuras. Si se añade PARTITION, no esnecesario crear una clave principal manualmente.

• Compatibilidad con disparadores en tablas particionadas. Despuésde crear un disparador en la tabla maestra, PostgreSQL creaautomáticamente el disparador en todas las tablas secundarias (estecomportamiento es similar al de los índices).

PostgreSQL y AuroraPostgreSQL

Para conversiones de Sybase, UDT se convierte en DOMAIN

Errores resueltos:

• Se ha añadido compatibilidad para crear un informe SCT junto con componentes lógicos en WQF.• Solución: problema en el que el informe WQF incluía elementos de acción de error de extracción• Solución: problema cuando SCT no recoge automáticamente el punto de enlace de DMS para Aurora

PostgreSQL• Solución: problema cuando Apply to database (Aplicar a base de datos) aparece atenuado para varios

esquemas• Corrección de errores y mejoras generales

Notas de la versión de la compilación 627 deHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.627 deHerramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Compatibilidad conlas conversiones enprocedimientos almacenadosen Amazon Redshift

Se ha mejorado la compatibilidad de las siguientes características alconvertir procedimientos almacenados de Microsoft SQL Server enAmazon Redshift:

• Mejoras en la compatibilidad de DDL• Tablas temporales• Declaración PROCEDURE• Tratamiento de errores de procedimientos• Instrucciones SET• Lenguaje de control de flujo• Operadores• CURSORS

• Expresiones aritméticas con tipos de operandos mixtos

PostgreSQL 11 Las mejoras de las conversiones a PostgreSQL incluyen las siguientes.

Version 1.0217

Page 224: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción• Para orígenes de DB2:

• La función de particiónDEFAULT almacena las tuplas que no estánasignadas a ninguna otra partición. Antes de PostgreSQL 11, estasfilas producían un error. Una fila que no estaba asignada a ningunatabla de partición se insertaba en la partición predeterminada.

• Ahora se pueden crear índices de cobertura, utilizando la cláusulaINCLUDE de CREATE INDEX

• CREATE PROCEDURE define un nuevo procedimiento. CREATEOR REPLACE PROCEDURE creará un nuevo procedimiento oreemplazará una definición existente. Para poder definir unprocedimiento, el usuario debe tener el privilegio USAGE en ellenguaje.

• Una vez que el disparador se crea en la tabla maestra, este secreará automáticamente en todas las tablas secundarias (estecomportamiento es similar al observado para el índice).

• Una vez que el índice se crea en la tabla maestra, este se crearáautomáticamente con la misma configuración en todas lasparticiones secundarias existentes y se aplicará también a todas lastablas de partición futuras.

• Postgres 11 solo admite claves externas de una tabla conparticiones a una sin particiones.

• En la versión 11 se puede añadir PRIMARY KEY a la tabla maestraque creará la PRIMARY KEY en todas las tablas secundariasexistentes y las tablas con particiones futuras. Si se añadeIF PARTITION, no es necesario crear las claves principalesmanualmente

• Para orígenes de datos de Microsoft SQL Server:• Ahora se pueden crear índices de cobertura utilizando la cláusulaINCLUDE de CREATE INDEX

• En los procedimientos invocados por el comando CALL, así comoen bloques de código anónimo (comando DO), es posible finalizarlas transacciones con los comandos COMMIT y ROLLBACK. Unanueva transacción se iniciará automáticamente cuando se termineuna transacción con estos comandos, por lo que no hay ningúncomando START TRANSACTION independiente. (Tenga en cuentaque BEGIN y END tienen distintos significados en PL/pgSQL).

• Sintaxis de CALL para procedimientos almacenados de SQL• CREATE PROCEDURE define un nuevo procedimiento. CREATEOR REPLACE PROCEDURE creará un nuevo procedimiento oreemplazará una definición existente. Para poder definir unprocedimiento, el usuario debe tener el privilegio USAGE en ellenguaje.

• Una vez que el disparador se crea en la tabla maestra, este secreará automáticamente en todas las tablas secundarias (estecomportamiento es similar al observado para el índice).

• Una vez que el índice se crea en la tabla maestra, este se crearáautomáticamente con la misma configuración en todas lasparticiones secundarias existentes y se aplicará también a todas lastablas de partición futuras.

• Postgres 11 solo admite claves externas de una tabla conparticiones a una sin particiones.

Version 1.0218

Page 225: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción• En la versión 11 se puede añadir PRIMARY KEY a la tabla maestra

que creará la PRIMARY KEY en todas las tablas secundariasexistentes y tablas con particiones futuras. Si se añade PARTITION,no es necesario crear las claves principales manualmente

• Para orígenes de Oracle:• En los procedimientos invocados por el comando CALL, así como

en bloques de código anónimo (comando DO), es posible finalizarlas transacciones con los comandos COMMIT y ROLLBACK. Unanueva transacción se iniciará automáticamente cuando se termineuna transacción con estos comandos, por lo que no hay ningúncomando START TRANSACTION independiente. (Tenga en cuentaque BEGIN y END tienen distintos significados en PL/pgSQL).

• Sintaxis de CALL para procedimientos almacenados de SQL• CREATE PROCEDURE define un nuevo procedimiento. CREATE

o REPLACE PROCEDURE creará un procedimiento o reemplazaráuna definición existente. Para poder definir un procedimiento, elusuario debe tener el privilegio USAGE en el lenguaje.

• Para orígenes de SAP ASE:• Sintaxis de CALL para procedimientos almacenados de SQL• En los procedimientos invocados por el comando CALL, así como

en bloques de código anónimo (comando DO), es posible finalizarlas transacciones con los comandos COMMIT y ROLLBACK. Unanueva transacción se iniciará automáticamente cuando se termineuna transacción con estos comandos, por lo que no hay ningúncomando START TRANSACTION independiente. (Tenga en cuentaque BEGIN y END tienen distintos significados en PL/pgSQL).

• CREATE PROCEDURE define un nuevo procedimiento. CREATEOR REPLACE PROCEDURE creará un nuevo procedimiento oreemplazará una definición existente. Para poder definir unprocedimiento, el usuario debe tener el privilegio USAGE en ellenguaje.

• Las instrucciones UPDATE que cambian una columna de clavede partición ahora hacen que las filas afectadas se muevan a lasparticiones correspondientes.

• La función de particiónDEFAULT de PostgreSQL 11 almacena lastuplas que no están asignadas a ninguna otra partición. Antes dePostgreSQL 11, estas filas producían un error. Una fila que noestaba asignada a ninguna tabla de partición se insertaba en lapartición predeterminada.

• Una vez que el índice se crea en la tabla maestra, este se crearáautomáticamente con la misma configuración en todas lasparticiones secundarias existentes y se aplicará también a todas lastablas de partición futuras.

• Particiones hash: la tabla se particiona especificando un módulo yun resto para cada partición. – Cada partición contendrá las filaspara las que el valor hash de la clave de partición dividido por elmódulo especificado producirá el resto especificado.

Version 1.0219

Page 226: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción

MySQL 8 SCT admite ahora instancias con distinción entre mayúsculas yminúsculas para las conversiones de Oracle, Microsoft SQL Server,Azure, PostgreSQL y MySQL. SCT ofrece ahora la opción de crear yutilizar los nombres de bases de datos, tablas y desencadenadores enminúsculas.

Las mejoras en las conversiones a MySQL incluyen las siguientes.

• Para orígenes de DB2:• MySQL admite ahora índices descendentes: DESC en una definición

de índice ya no se omite, sino que hace que los valores declave se almacenen en orden descendente. Anteriormente, losíndices podían analizarse en orden inverso, pero a expensas delrendimiento. Un índice descendente se puede analizar en ordenascendente, lo que es más eficaz. Los índices descendentestambién hacen posible que el optimizador utilice índices de variascolumnas cuando el orden de análisis más eficiente combina elorden ascendente para algunas columnas y el descendente paraotras.

• MySQL permite ahora crear partes de claves de índice funcionalesque indexen valores de expresión en lugar de valores de columna.Las partes de clave funcionales permiten indexar los valores que nose pueden indexar de otra manera, como los valores JSON.

• MySQL admite ahora CTE y CTE WITH recursivo (expresiones detabla comunes)

• Una tabla derivada ahora puede ir precedida de la palabra claveLATERAL para especificar que se permite su uso para hacerreferencia a columnas de tablas anteriores en la misma cláusulaFROM. Las tablas derivadas laterales permiten que algunasoperaciones SQL no se puedan realizar con tablas derivadas que nosean laterales o que requieran soluciones menos eficaces.

• Ahora se pueden utilizar varias funciones de agregación comofunciones de ventana.• AVG()

• BIT_AND()

• BIT_OR()

• BIT_XOR()

• COUNT()

• JSON_ARRAYAGG()

• JSON_OBJECTAGG()

• MAX()

• MIN()

• STDDEV_POP()

• STDDEV()

• STD()

• STDDEV_SAMP()

• SUM()

• VAR_POP()

• VARIANCE()

• VAR_SAMP()

Version 1.0220

Page 227: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción• MySQL admite las funciones de ventana que, para cada fila de una

consulta, realizan un cálculo utilizando las filas relacionadas con esafila.• CUME_DIST()

• DENSE_RANK()

• FIRST_VALUE()

• LAG()

• LAST_VALUE()

• LEAD()

• NTH_VALUE()

• NTILE()

• PERCENT_RANK()

• RANK()

• ROW_NUMBER()

• Para orígenes de base de datos de Microsoft SQL Server y AzureSQL:• Ahora se pueden utilizar varias funciones de agregación como

funciones de ventana.• AVG()

• BIT_AND()

• BIT_OR()

• BIT_XOR()

• COUNT()

• JSON_ARRAYAGG()

• JSON_OBJECTAGG()

• MAX()

• MIN()

• STDDEV_POP()

• STDDEV()

• STD()

• STDDEV_SAMP()

• SUM()

• VAR_POP()

• VARIANCE()

• VAR_SAMP()

• WITH (expresiones de tabla comunes): MySQL admite CTE y CTErecursivo –

• MySQL admite las funciones de ventana que, para cada fila de unaconsulta, realizan un cálculo utilizando las filas relacionadas con esafila.• CUME_DIST()

• FIRST_VALUE()

• LAG()

• LAST_VALUE()

• LEAD()

Version 1.0221

Page 228: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción• Tablas derivadas laterales• MySQL admite ahora índices descendentes: DESC en una definición

de índice ya no se omite, sino que hace que los valores declave se almacenen en orden descendente. Anteriormente, losíndices podían analizarse en orden inverso, pero a expensas delrendimiento. Un índice descendente se puede analizar en ordenascendente, lo que es más eficaz. Los índices descendentestambién hacen posible que el optimizador utilice índices de variascolumnas cuando el orden de análisis más eficiente combina elorden ascendente para algunas columnas y el descendente paraotras.

• MySQL admite ahora el uso de expresiones como valorespredeterminados en las especificaciones de tipos de datos. Estoincluye el uso de expresiones como valores predeterminadospara los tipos de datos BLOB, TEXT, GEOMETRY y JSON, a los queanteriormente no se podían asignar valores predeterminados deninguna forma.

• Para orígenes de Oracle:• Una tabla derivada ahora puede ir precedida de la palabra claveLATERAL para especificar que se permite su uso para hacerreferencia a columnas de tablas anteriores en la misma cláusulaFROM. Las tablas derivadas laterales permiten que algunasoperaciones SQL no se puedan realizar con tablas derivadas que nosean laterales o que requieran soluciones menos eficaces.

• InnoDB admite las opciones NOWAIT y SKIP LOCKED con lasinstrucciones de bloqueo de lectura SELECT ... FOR SHAREy SELECT ... FOR UPDATE. NOWAIT hace que la instruccióntermine inmediatamente si una fila solicitada está bloqueada porotra transacción. SKIP LOCKED elimina las filas bloqueadas delconjunto de resultados.

• WITH (expresiones de tabla comunes): MySQL admite CTE y CTErecursivo –

• Ahora se pueden utilizar varias funciones de agregación comofunciones de ventana.• AVG()

• BIT_AND()

• BIT_OR()

• BIT_XOR()

• COUNT()

• JSON_ARRAYAGG()

• JSON_OBJECTAGG()

• MAX()

• MIN()

• STDDEV_POP()

• STDDEV()

• STD()

• STDDEV_SAMP()

• SUM()

• VAR_POP()

Version 1.0222

Page 229: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión: 627 –

Nueva característica o mejora Descripción• VARIANCE()

• VAR_SAMP()

• MySQL implementa la compatibilidad con las expresiones regularesde la manera siguiente.• NOT REGEXP

• REGEXP

• REGEXP_INSTR()

• REGEXP_LIKE()

• REGEXP_REPLACE()

• REGEXP_SUBSTR()

• RLIKE

• MySQL admite las funciones de ventana que, para cada fila de unaconsulta, realizan un cálculo utilizando las filas relacionadas con esafila.• CUME_DIST()

• DENSE_RANK()

• FIRST_VALUE()

• LAG()

• LAST_VALUE()

• LEAD()

• NTH_VALUE()

• NTILE()

• PERCENT_RANK()

• RANK()

• ROW_NUMBER()

• Para orígenes de SAP ASE:• MySQL admite ahora índices descendentes: DESC en una definición

de índice ya no se omite, sino que hace que los valores declave se almacenen en orden descendente. Anteriormente, losíndices podían analizarse en orden inverso, pero a expensas delrendimiento. Un índice descendente se puede analizar en ordenascendente, lo que es más eficaz. Los índices descendentestambién hacen posible que el optimizador utilice índices de variascolumnas cuando el orden de análisis más eficiente combina elorden ascendente para algunas columnas y el descendente paraotras.

• MySQL permite ahora crear partes de claves de índice funcionalesque indexen valores de expresión en lugar de valores de columna.Las partes de clave funcionales permiten indexar los valores que nose pueden indexar de otra manera, como los valores JSON.

• MySQL admite ahora el uso de expresiones como valorespredeterminados en las especificaciones de tipos de datos. Estoincluye el uso de expresiones como valores predeterminadospara los tipos de datos BLOB, TEXT, GEOMETRY y JSON, a los queanteriormente no se podían asignar valores predeterminados deninguna forma.

Version 1.0223

Page 230: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 626

Nueva característica o mejora Descripción

AWS Glue Las mejoras en las conversiones a AWS Glue incluyen las siguientes.

• Se ha mejorado la conversión de los parámetros de procedimientos.• Capacidad de añadir comillas para caracteres especiales a los scripts

de AWS Glue.• Correcciones, mejoras y ajustes de las conversiones de Teradata

BTEQ a AWS Glue.• Mejoras y correcciones de las conversiones de Oracle a AWS Glue.

DynamoDB Mejoras y correcciones de las migraciones de Cassandra a DynamoDB.

Oracle SCT admite ahora las particiones INTERVAL en orígenes de Oracle.

Errores resueltos:

• Se ha agregado compatibilidad con MySQL 8 como destino en AWS SCT.• Se ha agregado compatibilidad para la autenticación de Windows en WQF.• Los campos de nombre de usuario/contraseña ya no son necesarios para el proxy de AWS DMS.• Corrección: SCT ahora puede leer todos los objetos de base de datos cuando se selecciona el esquema

completo (de Oracle a Amazon Aurora PostgreSQL).• Corección: la ruta física del archivo de estadísticas de AWS SCT ahora se admite en WQF cuando se

cargan componentes físicos o lógicos desde archivos CSV/JSON.• Corrección: la clave compuesta (b,a) ya no cambia a (a,b) durante las conversiones de SQL Server a

Aurora MySQL.• Corrección: véase el error de conversión (de SQL Server a PostgreSQL).• Corrección: para las conversiones de SAP ASE, se ha añadido compatibilidad para especificar el juego

de caracteres en la conexión del servidor.

Notas de la versión de la compilación 626 deHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.626 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

PostgreSQL 11 PostgresSQL 11 ya se admite como objetivo. Estas son algunas de lasprincipales características:

• Creación de una partición “predeterminada” para las filas que noencajan de forma automática en una partición existente.

• Creación de claves externas de una tabla particionada a una tabla noparticionada.

• Creación de un índice único en la tabla maestra. Este índiceadministra los índices con la misma configuración en las tablassecundarias existentes y en tablas particionadas futuras.

• Cuando crea un desencadenador en la tabla maestra, crea, de formaautomática, desencadenadores en todas las tablas secundarias.

Version 1.0224

Page 231: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 626

Nueva característica o mejora Descripción• Cuando UPDATE una columna de clave de partición para que encaje

en una partición diferente, esa fila se mueve a la partición adecuada.• Uso de particiones HASH al especificar un módulo al que aplicar la

clave de partición. El resto de los módulos se utilizan para identificar lapartición para esa fila.

MySQL 8.0 MySQL 8.0 ya se admite como objetivo. Estas son algunas de lasprincipales características:

• El uso de DESC en una definición de índice ahora almacena valoresclave en orden descendente. Anteriormente, el análisis de estosíndices en orden inverso provocaba una pérdida de rendimiento.Ahora, un índice descendente se puede escanear de forma eficaz(avanzando hacia adelante en vez de hacia atrás). Los índicesdescendentes también hacen posible que el optimizador utilice índicesde varias columnas cuando el orden de escaneo más eficiente mezclael orden ascendente para algunas columnas y el descendente paraotras.

• Uso de expresiones como valores predeterminados enespecificaciones de tipos de datos. Esto incluye los tipos de datosBLOB, TEXT, GEOMETRY y JSON.

• Creación de partes clave funcionales del índice que indexan valoresde expresión en lugar de valores de columnas. Las partes clavefuncionales permiten indexar los valores que no lo pueden hacer deotra manera, como los valores JSON.

SAP ASE 15.5 SAP ASE 15.5 ya se admite como origen.

AzureSQL/MSSQL a MySQL/AuroraMySQL

Ya puede utilizar las columnas de identidad en las tablas temporales ylas funciones con valores de tabla.

A partir de ahora puede utilizar INSERT INTO para las tablas con unacolumna de identidad.

Cassandra a DynamoDB Mejoras de migración y corrección de errores.

Adición del proceso de compactación en el asistente.

telnet de utilidad se reemplazó con por netcat en el asistente.

De DB2 a MariaDB 10.3 (SQL MODE=ORACLE) Las rutinas de módulos y las referencias variablesya se admiten.

DB2 a MySQL/AuroraMySQL Sustitución de servicio: soporte para archivos.

Netezza a Redshift Las columnas de la tabla que contienen DEFAULT 'now(0)' se hanestablecido ahora en DEFAULT SYSDATE.

Oracle a MariaDB 10.3 (SQL MODE=ORACLE) Las rutinas de módulos, las referencias variables yel uso de secuencias ya se admiten.

Oracle a MySQL/AuroraMySQL

Sustitución de servicio: soporte para archivos.

Oracle a AWS Glue La función integrada del conjunto FORMAT MODELS ya se admite.

Version 1.0225

Page 232: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 625

Nueva característica o mejora Descripción

SAP ASE a MySQL /AuroraMySQL

Las variables globales ya se admiten.

SAP ASE a PostgreSQL /Aurora PostgreSQL

Las variables globales ya se admiten.

Teradata BTEQ a AWS Glue Ahora se admiten funciones integradas para los conjuntos BITBYTE yPERIOD.

Problemas resueltos:

• Se han corregido errores de convertidor internos para la migración de SQL Server a MySQL.• Se han corregido problemas en el informe de evaluación de la conversión de la aplicación.• Se han corregido problemas para el particionado de intervalos de Oracle.• Se han corregido y pulido las conversiones a AWS Glue.• Corrección de errores y mejoras generales.

Notas de la versión de la compilación 625 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.625 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Conversión de TeradataBTEQ

Ya se pueden convertir scripts de Teradata BTEQ a AWS Glue.

De DB2 a MariaDB 10.3 Ya se pueden utilizar cursores con parámetros.

De DB2 a MariaDB 10.3 (SQLMODE=ORACLE)

Para conversiones de DB2 a MariaDB 10.3 con SQL MODE=ORACLE,ahora se admite lo siguiente:

• variables %TYPE y %ROWTYPE• variables de estructura ROW en cursores locales• Declaración de variables escalares• Declaración de un valor de variable predeterminado• Conversión de módulos en paquetes• CREATE PROCEDURE p1 (param OUT INT)

• CREATE PROCEDURE p1 (a IN OUT INT)

• Uso de AS antes del cuerpo de una función• Uso de IS antes del cuerpo de una función

Oracle a MariaDB 10.3 Para las conversiones de Oracle a MariaDB 10.3, puede utilizar lasvariables %TYPE y %ROWTYPE.

De Oracle a MariaDB 10.3(SQL MODE=ORACLE)

Para las conversiones de Oracle a MariaDB 10.3 con SQLMODE=ORACLE, ahora se admite lo siguiente:

Version 1.0226

Page 233: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 624

Nueva característica o mejora Descripción• variables %TYPE y %ROWTYPE• Rutinas de paquete (procedimientos y funciones)• SELECT UNIQUE

• GLOBAL CURSORS

• Bloque de inicialización de paquete BEGIN..END• Paquete sin el cuerpo• Variables locales y constantes• Variables globales y constantes

MS SQL Server a MySQL/AuroraMySQL

Para conversiones de MS SQL Server a MySQL/AuroraMySQL, ya seadmite lo siguiente:

• sp_prepexec() con SQL dinámico• sp_execute() con SQL dinámico• sp_unprepare() con SQL dinámico

SAP ASE 15.7 SAP ASE 15.7 ya es compatible.

Problemas resueltos:

• Se han añadido notificaciones para el momento en que se cierra un proyecto y se podrían perder lasconexiones del agente de datos.

• Se han resuelto los problemas de conversión de Oracle a PostgreSQL.• Se han resuelto los problemas de conversión de SCT Oracle a PostgreSQL: problema to_date.• Corrección de errores y mejoras generales.

Notas de la versión de la compilación 624 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.624 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Convertir ETL de Oracle aAWS Glue

Ya puede convertir los trabajos de ETL de Oracle a ETL en base a AWSGlue para trabajar junto con Amazon Redshift.

Conversiones de MicrosoftSQL Server, Oracle e IBMDb2 LUW a Amazon RDS forMariaDB

Se ha añadido compatibilidad con RDS para MariaDB 10.2 y 10.3 comodestino.

Conversiones de SAP ASEa RDS for MySQL y AmazonAurora con compatibilidadcon MySQL

Se ha añadido compatibilidad para las conversiones de SAP ASE aobjetos de base de datos MySQL

Compatibilidad con laextensión Orafce durante

Ya puede utilizar la extensión Orafce como destino al convertir aPostgreSQL en el modo de compatibilidad con Oracle

Version 1.0227

Page 234: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 623

Nueva característica o mejora Descripciónla conversión de Oracle aPostgreSQL

Problemas resueltos:

• Se ha solucionado el problema al utilizar perfiles de AWS en AWS SCT en las regiones de Pekín yNingxia.

• Se ha solucionado un problema en SQL Server a RDS para las conversiones PostgreSQL/AuroraPostgreSQL donde SCT no regresa al convertir un procedimiento almacenado.

• Se ha solucionado un error de partición virtual en los agentes de extracción de datos desde lacompilación 623.

• Corrección de errores y mejoras generales.

Notas de la versión de la compilación 623 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.623 dela Herramienta de conversión de esquemas de AWS.

Note

En la siguiente tabla, se entiende que PostgreSQL hace referencia a PostgreSQL y AmazonAurora PostgreSQL.

Nueva característica o mejora Descripción

Conversión de SAP ASE aPostgreSQL

Se ha añadido SAP ASE como una base de datos de origen.

Emulación de la funciónNLSSORT de Oracle para laconversión a PostgreSQL

La función NLSSORT se utiliza para reemplazar una cadena decaracteres por la cadena de ordenación equivalente que utiliza elmecanismo de ordenación lingüística. En el caso de una ordenaciónbinaria, la cadena de clasificación es la misma que la cadena deentrada. En la ordenación lingüística; cada carácter de una cadena sereemplaza por otros valores binarios.

Emulación de la funciónDBTIMEZONE de Oraclepara la conversión aPostgreSQL

La función DBTIMEZONE de Oracle/PLSQL devuelve la zona horaria dela base de datos como una diferencia de zona horaria (en el siguienteformato: "[+|-]TZH:TZM") o un nombre de región de zona horaria.

Emulación de la funciónLNNVL de Oracle para laconversión a PostgreSQL

La función LNNVL de Oracle/PLSQL se utiliza en la cláusula WHEREde una instrucción SQL para evaluar una condición cuando uno de losoperandos puede contener un valor NULL.

Emulación de la funciónTO_SINGLE_BYTE deOracle para la conversión aPostgreSQL

La función TO_SINGLE_BYTE de Oracle/PLSQL devuelve un valor decarácter con todos los caracteres multibyte convertidos en caracteres deun solo byte. Para utilizar esta función, el conjunto de caracteres de labase de datos contiene caracteres de un solo byte y multibyte.

Emulación de la funciónTO_MULTI_BYTE de

La función TO_MULTI_BYTE de Oracle/PLSQL devuelve un valorde carácter con todos los caracteres de un solo byte convertidos en

Version 1.0228

Page 235: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 623

Nueva característica o mejora DescripciónOracle para la conversión aPostgreSQL

caracteres multibyte. Para utilizar esta función, el conjunto de caracteresde la base de datos contiene caracteres de un solo byte y multibyte.

Emulación de la funciónROUND(fecha [; formato ]) deOracle para la conversión aPostgreSQL

La función ROUND de Oracle/PLSQL devuelve una fecha redondeada auna unidad de medida específica.

Emulación de la funciónMEDIAN de Oracle para laconversión a PostgreSQL

La función MEDIAN de Oracle/PLSQL devuelve la mediana de unaexpresión.

Emulación de la funciónLISTAGG de Oracle para laconversión a PostgreSQL

La función LISTAGG de Oracle/PLSQL concatena los valores de lacolumna measure_column para cada cláusula GROUP en función delvalor de order_by_clause.

Emulación de la funciónNANVL de Oracle para laconversión a PostgreSQL

La función NANVL de Oracle/PLSQL le permite sustituir un valor por unnúmero de punto flotante como BINARY_FLOAT o BINARY_DOUBLEcuando se encuentra un valor NaN (abreviatura en inglés de "no es unnúmero"). Es la que más se usa para convertir los valores NaN en NULLo 0.

Emulación de la funciónINSTRB de Oracle para laconversión a PostgreSQL

La función INSTRB de Oracle/PLSQL devuelve la ubicación de unasubcadena en una cadena, utilizando bytes en lugar de caracteres.

Emulación de la funciónSUBSTRB de Oracle para laconversión a PostgreSQL

La función SUBSTRB de Oracle/PLSQL devuelve una parte de lacadena; comenzando en una posición especificada de la cadena.La función SUBSTRB calcula las longitudes usando bytes para ladevolución.

Emulación de la funciónLENGTHB de Oracle para laconversión a PostgreSQL

La función LENGTHB de Oracle/PLSQL devuelve la longitud de lacadena especificada, utilizando bytes en lugar de caracteres.

MSSQL: conversión descripts a PostgreSQL

Convertir scripts T-SQL, DML y DDL en código o componentesequivalentes.

MSSQL: emulación deOBJECT_NAME(@@PROCID)para la conversión aPostgreSQL

La función OBJECT_NAME(@@PROCID) de MS SQL Server devuelveel identificador de objeto (ID) del módulo T-SQL actual.

MSSQL: emulación deOBJECT_SCHEMA_NAME(@@PROCID)para la conversión aPostgreSQL

La función OBJECT_SCHEMA_NAME(@@PROCID) de Microsoft SQLServer devuelve el nombre del esquema de la base de datos de losobjetos con ámbito de esquema.

MSSQL: emulación de vistasysobject para la conversióna MySQL, Aurora MySQL oMariaDB

La vista sysobject se puede emular mediante Ext.Pack durante unaconversión de MS SQL Server a MySQL, Aurora MySQL o MariaDB.

Modificación del "modo decomparación" de SCT parael módulo de replicación DDLpara PostgreSQL

Cuando compare dos esquemas PostgreSQL con SCT, ya no necesitaráimplementar el esquema de servicio.

Version 1.0229

Page 236: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 622

Nueva característica o mejora Descripción

Mejora de la regla de "tablaspequeñas" (DISTSTYLE=ALL)para Redshift

La regla de tablas pequeñas tiene en cuenta el número de filas de latabla, en lugar de su tamaño.

Mejora del control decompresión ZSTD

Según la configuración, SCT establece la compresión ZSTDpredeterminada en todas las columnas que no están incluidas enSortKey (DistKey, opcional).

Problemas resueltos:

• Se ha solucionado un problema con la doble codificación UTF-8 en los extractores de datos para lasmigraciones de Netezza a Redshift.

• Se ha solucionado un problema con la deserialización de YAML no segura en los archivos deconfiguración de Cassandra.

• Mejoras en la conversión de Microsoft SQL Server a PostgreSQL.• Se ha solucionado un problema por el que no se podía establecer conexión con el clúster de Cassandra

si la versión era 2.1.20. SCT ahora admite la migración desde Cassandra 2.1.20.

Notas de la versión de la compilación 622 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.622 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Agente de AWS DMS paraAWS SCT

Si está utilizando el agente de AWS DMS local para migrar datos a undispositivo AWS Snowball Edge o para Amazon S3, tenga en cuenta losiguiente:

• Si tiene tareas existentes en ejecución con el agente de DMS localversión 2.4.1, debe migrar estas tareas a la última versión del agentede DMS.

• No actualice Herramienta de conversión de esquemas de AWS hastadespués de actualizar el agente de DMS.

• Los siguientes componentes deben utilizar el mismo número deversión del motor de replicación:• El agente de DMS local.• La instancia de DMS para la tarea remota.

Microsoft SQL Server aPostgreSQL: conversión descripts

Cuando se utiliza SQL Server como origen, aparece un elemento nuevoen el panel de origen: "SQL Scripts" (Scripts SQL). Si elige Actions |Load Scripts (Acciones | Cargar scripts) en el menú de AWS SCT, puedeelegir uno o varios archivos .sql para convertirlos. Durante la conversión,AWS SCT vuelve a escribir los scripts para usarlos con PostgreSQL. Losresultados se muestran en el panel de destino: "SQL Scripts" (ScriptsSQL).

El informe de evaluación de AWS SCT destaca los problemasencontrados al convertir los scripts.

Version 1.0230

Page 237: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 621

Nueva característica o mejora Descripción

Los extractores de datospermiten la sustitución delvalor NULL

El comando COPY puede sustituir NULL por un valor diferente:

• COPY … FROM … NULL AS 'MyReplacementValue' …

• CREATE EXTERNAL TABLE … USING (REMOTESOURCE …NULLVALUE 'MyReplacementValue' …)

Soporte para compresiónZSTD en Redshift

Capacidad de elegir compresión ZSTD para las columnas de la tabla.Nueva configuración del proyecto para elegir opciones de conversión:

• No utilice la compresión ZSTD.• Utilice la compresión ZSTD en todas las columnas.• Utilice la compresión ZSTD en todas las columnas excepto Distkey y

Sortkey.

Almacén de datos deOracle: compatibilidad convarios archivos durante lageneración de scripts

Nueva configuración del proyecto para guardar scripts SQL:

• Archivo único: todo el SQL se generará en un único archivo.• Varios archivos: cada archivo contiene instrucciones SQL, incluido el

ID y el nombre de la etapa. Los scripts se deben ejecutar de uno enuno, por orden de ID.

Workload QualificationFramework

Workload Qualification Framework (WQF) forma parte de AWSDatabase Migration Service (AWS DMS). Ayuda a analizar y planificarlas migraciones a los servicios de bases de datos de AWS. Para obtenermás información, consulte Creación de informes de migración conWorkload Qualification Framework (p. 88).

Problemas resueltos

• Microsoft SQL Server: no se puede crear informes de evaluación para una instancia con nombre.• Oracle a PostgreSQL: un mensaje de error indica de forma incorrecta que no se admiten las vistas

materializadas.• Microsoft SQL Server a PostgreSQL: Dynamic SQL se convierte de forma incorrecta.• Informes de evaluación: los archivos PDF que contienen caracteres multibyte no se pueden guardar.• Microsoft SQL Server a PostgreSQL: error en conversiones con NullPointerException.• Extractores de datos OLAP: correcciones de errores para la partición virtual. (Para obtener más

información, consulte https://aws.amazon.com/blogs/database/use-virtual-partitioning-in-the-aws-schema-conversion-tool).

• Uso de AWS SCT para crear una tarea en AWS DMS: corrección de errores. Se recomienda actualizar aAWS SCT compilación 622 si necesita ejecutar una tarea de AWS DMS.

Notas de la versión de la compilación 621 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.621 dela Herramienta de conversión de esquemas de AWS.

Version 1.0231

Page 238: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 621

Nueva característica o mejora Descripción

Microsoft SQL Server aMySQL: mejoras

Las siguientes funciones de fecha y hora son compatibles conel paquete de extensión de AWS SCT: DATETIMEFROMPARTS,DATETIME2FROMPARTS y TIMEFROMPARTS.

Ahora la función CHECKSUM es compatible.

Microsoft SQL Server aPostgreSQL: mejoras

La función OBJECT_ID es compatible con el paquete de extensión deAWS SCT.

En SQL Server, puede especificar ELEMENTS XSINIL en una consultapara generar elementos XML, incluso para valores NULL en el conjuntode resultados. AWS SCT reconoce la directiva XSINIL al convertir deSQL Server a PostgreSQL y realiza la conversión de acuerdo con lasemántica de PostgreSQL.

AWS SCT es compatible con el uso de la función NEWID en scripts SQLguardados. Para habilitar este comportamiento:

• En la barra de menú de AWS SCT, seleccione Settings(Configuración) | Project settings (Configuración de proyecto).

• Elija Save as SQL and Apply (Guardar como SQL y Aplicar).• Para Source database uses "newid()" function (La base de datos de

origen utiliza la función "newid()"), elija Yes (Sí).• Seleccione OK.

Guardar código SQL paracrear un árbol de origen

Puede guardar las instrucciones SQL que AWS SCT genera para crearel árbol de origen. En esta versión, los siguientes motores de bases dedatos son ahora compatibles: MySQL, PostgreSQL y Azure.

Compatibilidad para utilizarAmazon Aurora PostgreSQL10 como destino.

Amazon Aurora compatible con PostgreSQL es ahora compatible conla versión principal de PostgreSQL 10.4. AWS SCT es totalmentecompatible con el uso de esta nueva versión como destino.

Netezza como origen:mejoras

AWS SCT reconoce tablas EXTERNAL en Netezza. Esto permite a AWSSCT acceder a datos externos como si estuvieran almacenados deforma nativa en Netezza.

Para que el rendimiento sea más rápido, AWS SCT utiliza la compresiónparalela al leer datos de Netezza.

El agente de extracción de AWS SCT utiliza el comando COPY deRedshift para copiar datos de Netezza a Redshift. Puede controlarel comportamiento del comando COPY mediante los siguientesparámetros:

• extractor.redshift.copying.thread.pool.size—: elnúmero de comandos COPY que puede ejecutar el agente de formasimultánea. El valor predeterminado es 1, lo que supone que el agenteejecutará todos los comandos COPY de forma secuencial.

• extractor.redshift.copy.command.count.threshold—: elnúmero máximo de comandos COPY que se pueden ejecutar a la vez.El valor predeterminado es 5.

Cuando el agente de extracción lee datos desde una única tablagrande, escribe los datos en varias tablas más pequeñas en Amazon

Version 1.0232

Page 239: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 620

Nueva característica o mejora DescripciónRedshift. Al final de la migración, estas tablas provisionales se unificanen una única tabla grande en Redshift. Para limitar el número de tablasprovisionales que se permiten en Redshift, puede modificar el parámetroextractor.redshift.staging.table.count.threshold. Elvalor predeterminado es 100.

(Para obtener más información sobre cómo establecer estos parámetros,consulte Configuración de agentes de extracción (p. 149)).

Problemas resueltos:

• Microsoft SQL Server a MySQL: AWS SCT admite operaciones aritméticas con tipos de operandosmixtos.

• La partición virtual de AWS SCT es totalmente compatible con columnas que contengan el dato NULL.Para obtener más información, consulte Uso de particiones virtuales con Herramienta de conversión deesquemas de AWS (p. 164).

Notas de la versión de la compilación 620 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.620 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Guardar instruccionesCREATE en scripts SQL

AWS SCT le permite guardar instrucciones SQL utilizadas para crearobjetos de base de datos (CREATE TABLE, CREATE VIEW, CREATEFUNCTION, etc.). Puede guardar todas las instrucciones en un scriptSQL, guardar cada una de las instrucciones en un archivo de script SQLindependiente o guardar cada instrucción en su propio script SQL.

Para modificar este comportamiento, seleccione los ajustes Settings(Configuración) | Project (Proyecto) en la barra de menú de AWS SCT, yseleccione Save as SQL and Apply (Guardar como SQL y Aplicar).

Microsoft SQL Server aMySQL: compatibilidadcon las funcionesCHECKSUM, ISNUMERIC yNEWSEQUENTIALID

Estas funciones son compatibles con el paquete de extensión de AWSSCT.

Oracle a MySQL:compatibilidad con MERGE

La instrucción MERGE de Oracle se utiliza para insertar, actualizar oeliminar filas, en función de si esas mismas filas existen actualmenteen la tabla. (Esta operación se denomina a veces "upsert"). MySQLno es compatible con la instrucción MERGE; sin embargo, AWS SCTpuede migrar instrucciones MERGE a instrucciones INSERT, UPDATE yDELETE compatibles con MySQL.

Microsoft SQL Server aMySQL: tipo de datosTIMESTAMP

AWS SCT puede migrar los datos de tipo TIMESTAMP desde SQLServer a MySQL.

Version 1.0233

Page 240: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 619

Nueva característica o mejora Descripción

Microsoft SQL Server aPostgreSQL: funcionesOPENXML

AWS SCT puede migrar funciones OPENXML desde SQL Server hastaMySQL.

Oracle a MySQL: cursoresglobales

Oracle es compatible con cursores globales, en los que sepuede acceder a un cursor definido en una unidad del programa(procedimiento, función o desencadenador almacenado) fuera de launidad del programa en la que se definió. MySQL no es compatible conlos cursores globales. Sin embargo, AWS SCT ofrece una funcionalidadequivalente modificando el código de la unidad del programa en eldestino de MySQL.

Oracle a MySQL: datosespaciales

AWS SCT puede migrar datos espaciales, objetos y funciones desdeOracle hasta MySQL.

Oracle a MySQL:TIMESTAMP WITH TIMEZONE

Este tipo de datos es compatible con el paquete de extensión de AWSSCT.

Tamaño de LOB definido porel usuario con AWS Snowball

Ahora puede definir el tamaño máximo de objetos grandes (LOB) alutilizar el agente de DMS de AWS SCT y AWS Snowball.

Problemas resueltos

• Oracle a PostgreSQL: solución de problemas de conversión leves.• Las particiones ya no descartan los valores null.

Notas de la versión de la compilación 619 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.619 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Soporte de migración desdeApache Cassandra a AmazonDynamoDB

Puede utilizar AWS SCT con un agente de extracción de datos de AWSpara migrar desde Apache Cassandra a Amazon DynamoDB. Paraobtener más información, consulte Migración de datos desde ApacheCassandra a Amazon DynamoDB (p. 168).

Soporte para Vertica 9 comoorigen de migración

A partir de ahora, puede utilizar la versión Vertica 9 como origen demigración. Para obtener más información, consulte Utilizar Vertica comoorigen para Herramienta de conversión de esquemas de AWS (p. 77).

Microsoft SQL Server aMySQL: soporte del valorRETURN de procedimientoalmacenado

MySQL no es compatible con la palabra clave RETURN enprocedimientos almacenados; sin embargo, se admiten los parámetrosOUT.

Soporte de Azure SQLDatabase como origen

Ahora puede migrar desde Azure SQL Database a MySQL, PostgreSQLo Amazon Aurora (con compatibilidad con MySQL o PostgreSQL).

Version 1.0234

Page 241: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 618

Problemas resueltos

• Microsoft SQL Server a PostgreSQL: AWS SCT admite operaciones aritméticas con tipos de operandosmixtos.

• Oracle Advanced Queuing (AQ) se admite al migrar a Amazon RDS para Oracle.

Notas de la versión de la compilación 618 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.618 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

SQL dinámico en literales decadena

Puede ejecutar una cadena de comandos o una cadena de caracteresdentro de un lote Transact-SQL o uno de los módulos siguientes:procedimiento almacenado en el sistema, procedimiento almacenadodefinido por el usuario, procedimiento almacenado de CLR, funcióndefinida por el usuario de valor escalar o procedimiento almacenadoextendido. La instrucción EXECUTE se puede utilizar para enviarcomandos de paso a servidores vinculados. Además, el contexto enel que se ejecuta una cadena o un comando se puede establecerexplícitamente. Los metadatos para el conjunto de resultados se puedendefinir utilizando las opciones WITH RESULT SETS.

Microsoft SQL Servera PostgreSQL: datosespaciales

AWS SCT admite la conversión de datos espaciales de MS SQL Servera PostgreSQL.

MS SQL Server a MySQL:datos espaciales

AWS SCT admite la conversión de datos espaciales de MS SQL Servera MySQL.

Microsoft SQL Servera PostgreSQL:@@ROWCOUNT

AWS SCT admite la función @@ROWCOUNT de Microsoft SQL Serverde MS SQL Server a PostgreSQL.

Oracle a MySQL: formatode cadenas para función deconversión TO_CHAR

La función TO_CHAR de Oracle acepta una amplia gama de caracteresde formato. AWS SCT admite estas cadenas de formato de Oracle aMySQL.

Oracle a MySQL:compatibilidad de la cláusulaWITH para instruccionesINSERT y UPDATE

AWS SCT admite instrucciones INSERT y UPDATE que utilizan lacláusula WITH, de Oracle a MySQL.

Oracle a MySQL: formatode cadenas para función deconversión TO_NUMBER

La función TO_NUMBER de Oracle acepta una amplia gama decaracteres de formato. AWS SCT admite estas cadenas de formato deOracle a MySQL.

MS SQL Server a MySQL:sp_sequence_get_range

La función sp_sequence_get_range de Microsoft SQL Server devuelveun rango de valores de secuencia desde un objeto de secuencia. AWSSCT admite esta función de MS SQL Server a MySQL.

Microsoft SQL Server aPostgreSQL: PARSE

AWS SCT admite la función PARSE de Microsoft SQL Server, de MSSQL Server a PostgreSQL.

Version 1.0235

Page 242: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 617

Nueva característica o mejora Descripción

MS SQL Server:almacenamiento de códigoSQL para crear un árbol deorigen

Puede guardar las instrucciones SQL que AWS SCT genera para crearel árbol de origen.

Problemas resueltos

• Los extractores de datos SCT ahora emiten comandos COPY para Redshift.• Redshift: la función de ventana count(distinct) se tiene que reescribir a Redshift DENSE_RANK.• La conversión de consultas utilizando las funciones FROM_TZ y EXTRACT de Oracle ahora se traducen

correctamente a equivalentes basados en Redshift, utilizando extract y convert_timezone.• El informe de evaluación notifica de forma incoherente el número de objetos de código en la base de

datos de origen.• Reescritura de la función INSTR de Oracle a función integrada de Redshift para más casos.• Se ha añadido compatibilidad de comparación de esquemas PostgreSQL 9.x - PostgreSQL 10.

Notas de la versión de la compilación 617 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.617 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

De Oracle a Amazon RDS forOracle: objetos de nivel deservidor de Oracle

AWS SCT incorpora compatibilidad con perfiles de usuario, funcionesde usuario, programas de eventos y mucho más. Para obtener másinformación, consulte Conversión de Oracle a Amazon RDS forOracle (p. 42).

De SQL Server a AmazonRDS for SQL Server:inclusión de métricasadicionales en el informe deevaluación

El informe de evaluación de AWS SCT contiene información acerca dela instancia de base de datos de Amazon RDS, así como los serviciosde SQL Server que se usan en la base de datos de origen. Para obtenermás información, consulte Conversión de SQL Server a Amazon RDSfor SQL Server (p. 54).

De Oracle a Amazon RDS forOracle: inclusión de métricasadicionales en el informe deevaluación

El informe de evaluación de AWS SCT contiene información acerca dela instancia de base de datos de Amazon RDS, así como los serviciosde Oracle que se usan en la base de datos de origen. Para obtenermás información, consulte Conversión de Oracle a Amazon RDS forOracle (p. 42).

De Oracle a PostgreSQL 10:TIMESTAMP sin columnas dezona horaria

AWS SCT admite TIMESTAMP sin columnas de zona horaria.

De Oracle a PostgreSQL 10:columnas ROWID

Puede convertir las pseudocolumnas ROWID en columnas de datos.Para obtener más información, consulte Conversión de pseudocolumnasROWID de Oracle a PostgreSQL (p. 36).

Version 1.0236

Page 243: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 616

Nueva característica o mejora Descripción

De SQL Server aPostgreSQL: emulación de lainstrucción MERGE

AWS SCT convierte la instrucción MERGE al migrar a PostgreSQL. Paraobtener más información, consulte Uso de Microsoft SQL Server comoorigen para Herramienta de conversión de esquemas de AWS (p. 45).

De Oracle a MySQL:cláusulas SELECT y WITH

AWS SCT convierte las cláusulas WITH al migrar a MySQL. Paraobtener más información, consulte Conversión de Oracle a AmazonRDS for MySQL o Amazon Aurora (MySQL) (p. 38)

De SQL Server a MySQL:paquete de extensión

El paquete de extensión de AWS SCT emula varias funciones, incluidasISDATE, FORMAT, PATINDEX y CONVERT.

De SQL Server aPostgreSQL: tipos de tablasdefinidos por el usuario

Puede utilizar tipos de tablas definidos por el usuario para especificarestructuras de tabla. Para obtener más información, consulte Uso deMicrosoft SQL Server como origen para Herramienta de conversión deesquemas de AWS (p. 45).

Oracle: almacenamiento decódigo SQL para crear unárbol de origen

Puede guardar las instrucciones SQL que AWS SCT genera para crearel árbol de origen.

Problemas resueltos

• Mejoras en el informe de evaluación para objetos de nivel de servidor.• Corrección del procesamiento incorrecto de los objetos que terminan con el bloque END.• Adición de la fecha de generación del informe de evaluación en el archivo PDF.• Adición de la lógica de generación de scripts para varios archivos en la opción Save as SQL.

Notas de la versión de la compilación 616 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.616 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

De SQL Server aPostgreSQL: compatibilidadcon SUSER_SNAME

AWS SCT permite convertir SUSER_SNAME. Para obtener másinformación, consulte Conversión de SQL Server PostgreSQL (p. 50).

De SQL Server aPostgreSQL: compatibilidadcon funciones con valores detabla

AWS SCT permite convertir funciones con valores de tabla. Paraobtener más información, consulte Conversión de SQL ServerPostgreSQL (p. 50).

De Oracle a Amazon RDS forOracle: trabajos de Oracle

AWS SCT añade compatibilidad con muchos tipos de trabajos de Oracleen Amazon RDS for Oracle.

De Oracle a Amazon RDS forOracle: Oracle RAC

Amazon RDS for Oracle no admite Oracle RAC. Considere la posibilidadde utilizar una implementación Multi-AZ en una instancia de AmazonRDS para obtener una alta disponibilidad.

Version 1.0237

Page 244: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 616

Nueva característica o mejora Descripción

De Oracle a Amazon RDS forOracle: Oracle Data Guard yActive Data Guard

Amazon RDS for Oracle no admite Oracle Data Guard ni Active DataGuard. Considere la posibilidad de utilizar una implementación Multi-AZen una instancia de Amazon RDS para obtener una alta disponibilidad.

De Oracle a Amazon RDS forOracle: replicación continua

Amazon RDS for Oracle no admite la replicación continua. Puede utilizarAWS Database Migration Service si necesita tener replicación continuaen un destino de Amazon RDS.

De Oracle a Amazon RDS forOracle: auditorías

Amazon RDS para Oracle no admite Oracle Unified Auditing. AmazonRDS for Oracle admite las auditorías tradicionales y detalladas (paqueteDBMS_FGA).

De Oracle a Amazon RDSfor Oracle: objetos deprogramación

AWS SCT permite convertir objetos de Oracle DBMS_SCHEDULER almigrar a Amazon RDS for Oracle.

De SQL Server a MySQL:funciones con valores detabla

MySQL no admite funciones con valores de tabla compuestas de variasinstrucciones. AWS SCT simula las funciones con valores de tabladurante una conversión mediante la creación de tablas temporales. Paraobtener más información, consulte Uso de Microsoft SQL Server comoorigen para Herramienta de conversión de esquemas de AWS (p. 45).

Actualizaciones del informede evaluación de AWS SCT

Las actualizaciones del informe de evaluación de AWS SCT incluyen lassiguientes:

• Muestra el tamaño de las bases de datos en una instancia de base dedatos de Amazon RDS

• Muestra la cantidad de almacenamiento usado en una instancia debase de datos de Amazon RDS

• Muestra el número de bases de datos en una instancia de base dedatos de Amazon RDS

• Muestra si las bases de datos incluidas en una migración ya se estánutilizando para la replicación

De SQL Server a AmazonRDS for SQL Server: ServiceBroker y puntos de enlace

Amazon RDS no admite actualmente SQL Server Service Broker nipuntos de enlace de T-SQL adicionales que usen el comando CREATEENDPOINT. Para obtener más información, consulte Uso de MicrosoftSQL Server como origen para Herramienta de conversión de esquemasde AWS (p. 45).

De Db2 LUW a PostgreSQL10: tablas particionadas

AWS SCT puede convertir tablas de Db2 LUW en tablas particionadasde PostgreSQL 10.

Problemas resueltos

• De Db2 LUW a Amazon RDS for MySQL o Amazon Aurora (MySQL). Se ha añadido la capacidad demostrar el código SQL de destino para varios objetos relacionados transformados.

• De Db2 LUW a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL). Se ha añadido lacapacidad de mostrar el código SQL de destino para varios objetos relacionados transformados.

• De MySQL a Amazon RDS for PostgreSQL o Amazon Aurora (PostgreSQL). Se ha añadido la capacidadde mostrar el código SQL de destino para varios objetos relacionados transformados.

• OLAP. Se ha añadido la capacidad de mostrar el código SQL de destino para varios objetosrelacionados transformados.

• Se ha resuelto el problema de AWS SCT de conversión de MySQL a MySQL.

Version 1.0238

Page 245: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 615

Notas de la versión de la compilación 615 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.615 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

De SQL Server a MySQL:compatibilidad con lainstrucción MERGE

MySQL no admite la instrucción MERGE; sin embargo, AWS SCTpuede emular esta instrucción utilizando la cláusula INSERT ONDUPLICATE KEY y las instrucciones UPDATE FROM y DELETE FROM.Para obtener más información, consulte Conversión de SQL Server aMySQL (p. 49).

De SQL Server aPostgreSQL: compatibilidadpara crear nombres de índiceúnicos

AWS SCT permite generar nombres de índice únicos si los nombres delos índices no lo son. Para ello, seleccione la opción Generate uniqueindex names (Generar nombres de índice únicos) en las propiedades delproyecto. Para obtener más información, consulte Conversión de SQLServer PostgreSQL (p. 50).

De Oracle a PostgreSQL:impedir valores superpuestosen secuencias de bases dedatos

En los proyectos de migración de Oracle a PostgreSQL, seleccione laopción Populate converted sequences with the last values generatedon the source side (Rellenar las secuencias convertidas con los últimosvalores generados en el origen) en la pestaña de ajustes de conversiónde Project Settings (Configuración del proyecto). Para obtener másinformación, consulte Conversión de Oracle a Amazon RDS forPostgreSQL o Amazon Aurora (PostgreSQL) (p. 35).

De Oracle a PostgreSQL:compatibilidad con lasparticiones de PostgreSQL 10

Cuando AWS SCT convierte un esquema de una base de datosde Oracle en una base de datos de PostgreSQL, puede emularparticiones y subparticiones. Para obtener más información, consulte Conversión de Oracle a Amazon RDS for PostgreSQL o Amazon Aurora(PostgreSQL) (p. 35).

De SQL Server aPostgreSQL: compatibilidadcon las particiones dePostgreSQL 10

Cuando AWS SCT convierte un esquema de una base de datos de SQLServer en una base de datos de PostgreSQL, puede emular particionesy subparticiones. Para obtener más información, consulte Conversiónde SQL Server PostgreSQL (p. 50).

De SQL Server a MySQL:compatibilidad con lainstrucción GOTO

MySQL no utiliza instrucciones GOTO. Cuando AWS SCT conviertecódigo que contiene la instrucción GOTO, convierte esta instrucción parautilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.

De SQL Server aPostgreSQL: compatibilidadcon la instrucción GOTO

PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT conviertecódigo que contiene la instrucción GOTO, convierte esta instrucción parautilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.

De Oracle a PostgreSQL:compatibilidad con lainstrucción GOTO

PostgreSQL no utiliza instrucciones GOTO. Cuando AWS SCT conviertecódigo que contiene la instrucción GOTO, convierte esta instrucción parautilizar en su lugar la instrucción BEGIN...END o LOOP...END LOOP.

De DB2 LUW a PostgreSQL:compatibilidad condisparadores de DB2 enPostgreSQL

AWS SCT puede convertir diversas instrucciones TRIGGER quese utilizan con DB2 LUW. Para obtener más información, consulte Conversión de DB2 LUW a Amazon RDS for PostgreSQL o AmazonAurora (PostgreSQL) (p. 64)

Version 1.0239

Page 246: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 614

Nueva característica o mejora Descripción

De SQL Server a AmazonRDS for SQL Server:compatibilidad con losdisparadores de nivel de basede datos

AWS SCT puede añadir disparadores de bases de datos al árbol deobjetos cuando el destino es Amazon RDS for SQL Server.

De SQL Server a AmazonRDS for SQL Server:compatibilidad condisparadores de nivelde servidor, servidoresenlazados y agentes SQLServer

AWS SCT ahora es compatible con los disparadores de nivel deservidor, los servidores enlazados y los agentes de SQL Server. Paraobtener más información, consulte Uso de Microsoft SQL Server comoorigen para Herramienta de conversión de esquemas de AWS (p. 45).

De Oracle a Amazon RDSfor Oracle: compatibilidadcon objetos de directorio,espacios de tabla y funcionesy privilegios de usuario

AWS SCT puede añadir objetos de directorio en el árbol de objetos.Para obtener más información, consulte Uso de Microsoft SQLServer como origen para Herramienta de conversión de esquemas deAWS (p. 45).

Compatibilidad con la versión10.1 de Db2

Ahora, AWS SCT es compatible con IBM Db2 LUW versión 10.1.

Se ha agregado lacompatibilidad con regionesgubernamentales aisladas

Ahora, AWS SCT admite regiones gubernamentales aisladas.

Problemas resueltos

• Perfil de AWS. Uso de credenciales federadas.• De DB2 a PostgreSQL. Conversión de disparadores de DB2.• Migración de OLAP. Ajustes actuales del proyecto: valor de umbral descompensado. Se ha modificado la

compatibilidad con los porcentajes.• Informe de evaluación. Marcar tablas de LOB sin clave principal.• Se han corregido algunos errores de la interfaz de usuario.

Notas de la versión de la compilación 614 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.614 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Oracle a PostgreSQL:informe de evaluación para laconversión de SQL*Plus

AWS SCT puede convertir archivos SQL*Plus a PSQL. El informede evaluación muestra cómo ha convertido AWS SCT los archivosSQL*Plus a PSQL. Para obtener más información, consulte Uso deOracle como origen para Herramienta de conversión de esquemas deAWS (p. 31).

Version 1.0240

Page 247: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 614

Nueva característica o mejora Descripción

Compatibilidad con la versiónAurora MySQL 5.7

Se agregó compatibilidad para convertir esquemas de Aurora MySQL5.7.

Db2 LUW 9.1 Se agregó compatibilidad con Db2 LUW 9.1.

Migración de datos OLTP.Compresión de datos.

La compresión de datos durante la migración ahora es opcional alconfigurar una tarea mediante un agente de replicación.

Oracle a Oracle RDS:compatibilidad con enlacesde base de datos

Las migraciones de Oracle a Oracle RDS ahora admiten enlacesde base de datos. Para obtener más información, consulte Uso deOracle como origen para Herramienta de conversión de esquemas deAWS (p. 31).

Oracle a PostgreSQL:conversión de SELECT INTOBULK COLLECT (VARRAY)

Las instrucciones SQL con BULK COLLECT (VARRAY) ahora sepueden convertir al migrar entre Oracle y PostgreSQL.

Conversión de comentariosde Oracle

Se agregó compatibilidad para convertir los comentarios de Oracle alformato que utiliza el motor de base de datos de destino. Para obtenermás información, consulte Uso de Oracle como origen para Herramientade conversión de esquemas de AWS (p. 31).

Emulación de objetos delsistema de Oracle

Se agregó compatibilidad para convertir objetos del sistema de Oraclea PostgreSQL. Para obtener más información, consulte Uso deOracle como origen para Herramienta de conversión de esquemas deAWS (p. 31).

Oracle a PostgreSQL:conversión de ROWNUM aLIMIT

Se agregó compatibilidad para convertir ROWNUM.

Microsoft SQL Servera Microsoft SQL ServerRDS: BULK INSERT yOPENROWSET()

Se agregó compatibilidad para convertir BULK INSERT yOPENROWSET()

Microsoft SQL Server aMicrosoft SQL Server RDS:enlaces en los objetos dealmacenamiento

AWS SCT ahora admite enlaces en los objetos almacenados duranteuna migración a Amazon RDS. Para obtener más información, consulte Uso de Microsoft SQL Server como origen para Herramienta deconversión de esquemas de AWS (p. 45).

Microsoft SQL Server aPostgreSQL: PATINDEX

AWS SCT ahora admite la conversión de PATINDEX durante unamigración a PostgreSQL. Para obtener más información, consulte Usode Microsoft SQL Server como origen para Herramienta de conversiónde esquemas de AWS (p. 45).

Microsoft SQL Server aPostgreSQL: acceso a losobjetos del sistema

Los objetos del sistema de SQL Server ahora se convierten a objetos enPostgreSQL. Para obtener más información, consulte Uso de MicrosoftSQL Server como origen para Herramienta de conversión de esquemasde AWS (p. 45).

Microsoft SQL Server aPostgreSQL: creación defunciones en línea

Se agregó compatibilidad con las funciones en línea. Para obtener másinformación, consulte Uso de Microsoft SQL Server como origen paraHerramienta de conversión de esquemas de AWS (p. 45).

Problemas resueltos

Version 1.0241

Page 248: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 613

• Mapeo de tipos. Mejoras y correcciones de errores.• Conversión OLAP. Estrategias de optimización. Corrección de la capacidad para restablecer estrategias.• Oracle a PostgreSQL. Corrección de errores y mejoras en la conversión de SQL dinámico• Conversión de scripts SQL*Plus. Mejoras y correcciones de errores• Conversión de Oracle a PostgreSQL Corrección del reconocimiento de variables de enlace.• Se agregó la capacidad de actualizar la información del servidor haciendo clic en "Update server

info" (Actualizar información del servidor) en el nivel del servidor.• Netezza. Corrección de la conversión de esquemas para los objetos en minúsculas.• Tratamiento de algunos caracteres específicos en los nombres de los nodos del árbol de navegación de

AWS SCT derivados de nombres de archivo• Se han corregido algunos errores de la interfaz de usuario.

Notas de la versión de la compilación 613 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.613 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Compatibilidad con DB2 LUW Se agregó compatibilidad con la migración de una base de datos DB2como origen. Para obtener más información, consulte Convertir losesquemas de base de datos utilizando el Herramienta de conversión deesquemas de AWS (p. 99).

Conversión de Oracle aPostgreSQL Se agrególa conversión de archivosSQL*Plus

Ahora puede convertir archivos SQL*Plus

Se agregó la pestañaSnowball a la migración dedatos OLTP

Se agregó una nueva pestaña Snowball para la migración de datosOLTP que muestra el estado actual de un dispositivo Snowball paraun proyecto concreto. Para obtener más información, consulte Uso deagentes de extracción de datos (p. 144).

Conversión de Oracle aPostgreSQL. Conversión decódigo espacial de Oracle aPostGISopen

Conversión de Oracle a PostgreSQL. El código espacial de Oracle seconvierte a PostGIS.

La comparación deesquemas ahora escompatible con Oracle 10

Ahora puede ejecutar la comparación de esquemas con Oracle 10. Paraobtener más información, consulte Comparación de esquemas de basesde datos (p. 112)

Conversión de Oracle aPostgreSQL Conversión detipos implícita de la base dedatos de Oracle controladaen PostgreSQL

Durante la conversión de Oracle a PostgreSQL, SCT agrega laconversión de tipo de datos.

SQL Server, autenticación deWindows

SQL Server. Se agregó la compatibilidad del método de conexión deautenticación de Windows.

Version 1.0242

Page 249: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 612

Nueva característica o mejora Descripción

Conversión de SQL Server aPostgreSQL

Se agregó la compatibilidad con el tipo CITEXT. Ahora puede elegirlocon el tipo de datos mappint.

Conversión de Oracle aPostgreSQL

Mejoras adicionales en la conversión de SQL dinámico para EXECUTEIMMEDIATE y DBMS_SQL, y los cursores.

Conversión de Oracle aPostgreSQL

Se agregó compatibilidad la conversión de SELECT INTO BULKCOLLECT de Oracle a PostgreSQL.

Conversión de Oracle aPostgreSQL

Ahora se puede convertir una matriz asociativa de Oracle a PostgreSQL.

Mapeo de tipos: mejorasen el mapeo de tipospersonalizados

Se agregó la capacidad de seleccionar tipos de datos de origen según lalongitud y la precisión.

Configuración de perfil deAWS

Se agregó la posibilidad de seleccionar un perfil predeterminado en laconfiguración de perfil de AWS.

Conversión de Greenplum aRedshift

Se agregaron funciones SQL integradas a la conversión de UDF SQLescalar de Redshift.

Problemas resueltos

Fecha de notificación Descripción

Posterior a la versión 612 • Conversión de Oracle a Redshift. CAST a CHAR funciona, CAST aCHARACTER no funciona.

• Los comentarios en tablas no se crean en el DDL de la base de datosde Oracle de origen.

• La discrepancia de tipos no se marca en el informe de evaluación.• Conversión de Oracle a PostgreSQL Se realiza una conversión

incorrecta del nombre de tabla de alfabeto en mayúsculas de anchocompleto al nombre de tabla de alfabeto en minúsculas de anchocompleto.

• La ventana de configuración global no se puede cerrar haciendo clicen el botón Aceptar.

• Oracle a Redshift. La reescritura de to_date y de resta ofrece unresultado distinto.

• Se han corregido algunos errores de la interfaz de usuario.

Notas de la versión de la compilación 612 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.612 dela Herramienta de conversión de esquemas de AWS.

Version 1.0243

Page 250: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 612

Nueva característica o mejora Descripción

Mapeo de tipos de datospersonalizados

Ahora puede configurar reglas de mapeo para cambiar el tipo dedatos de los objetos de almacenamiento. El tipo de datos que debemodificarse se define en la pestaña Mapping Rules (Reglas de mapeo).

Se ha añadido una opcióncon las novedades

Una nueva opción "What's New" (Novedades) en el menú Help (Ayuda)muestra todas las características principales que se han añadido a estaversión.

La comparación deesquemas ahora escompatible con Oracle 10

Ahora puede ejecutar la comparación de esquemas con Oracle 10.

Conversión de Oracle aPostgreSQL

La migración de Oracle a PostgreSQL ahora admite:

• Variables globales• Matrices asociativas• Cadenas de formato para la función TO_NUMBER• Conversión de SQL dinámico con el paquete DBMS_SQL• Conversión de varios subprogramas anidados con variables globales

Se ha agregadocompatibilidad para cargaralgunos atributos de funcióny restricciones de dominio dePostgreSQL

Se ha agregado compatibilidad para cargar los atributos de funciónIMMUTABLE, STABLE y VOLATILE de PostgreSQL.

Se ha agregado compatibilidad para cargar restricciones de dominio dePostgreSQL.

Problemas resueltos

Fecha de notificación Descripción

Posterior a la versión 611 • APPLY se reconoce como palabra clave para Oracle.• Se ha corregido un error al ejecutar la comparación de esquemas para

un proyecto de Oracle a Oracle.• Mejoras generales basadas en los comentarios y correcciones de

errores para las migraciones de Microsoft SQL Server a Microsoft SQLServer.

• Falta DROP FOREIGN KEY CONSTRAINTS cuando se utiliza Saveas SQL (Guardar como SQL) para las migraciones de Oracle aPostgreSQL.

• Correcciones de errores de conversión en las funciones TO_DATE yTRUNC para las migraciones de Oracle a Redshift.

• Mejoras generales basadas en los comentarios y correcciones deerrores para las migraciones de PostgreSQL a PostgreSQL.

• Mejoras generales basadas en los comentarios y correcciones deerrores para las migraciones de MySQL a MySQL.

• Mejoras generales basadas en los comentarios y correcciones deerrores para las migraciones de Oracle a Oracle.

• Se han corregido algunos errores de la interfaz de usuario.• Reescritura de NUMTOINTERVL() para un literal de intervalo de

Redshift para las migraciones de Oracle a Redshift.• Optimización del desempeño.

Version 1.0244

Page 251: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 611

Notas de la versión de la compilación 611 de laHerramienta de conversión de esquemas de AWS

En la siguiente tabla se muestran las características y las correcciones de errores de la versión 1.0.611 dela Herramienta de conversión de esquemas de AWS.

Nueva característica o mejora Descripción

Comparación de esquemasde MySQL a MySQL

Se ha añadido la posibilidad de comparar bases de datos de MySQLa MySQL. Para obtener más información, consulte Comparación deesquemas de base de datos.

Conversión de instruccionesdinámicas de Oracle aPostgreSQL

Se ha añadido la primera versión que admite conversión del paqueteDBMS_SQL. Para obtener más información, consulte Conversión deSQL dinámico para migraciones de Oracle a PostgreSQL.

Conversión de instruccionesGOTO de Oracle aPostgreSQL

PostgreSQL no admite el operador GOTO en funciones como Oracle,pero se puede convertir utilizando el bucle BEGIN/END o LOOP/END.

Abrir el archivo de registrodesde el mensaje de error

Si aparece un error, puede hacer clic en él para obtener acceso alarchivo log asociado, en lugar de tener que buscarlo por todo el sistemade origen.

Se ha añadido el campode complejidad estimada alarchivo de exportación PDFdel informe de evaluación

El campo de complejidad estimada se exportaba en la versión .pdfdel informe de evaluación, pero no se incluía en la versión .csv. Paraobtener más información, consulte Creación y uso del informe deevaluación en AWS Schema Conversion Tool.

Migración de datos OLAP.Se ha añadido la opción deno eliminar archivos en S3después de una copia deRedshift

Después de una migración a Amazon Redshift, el agente puedeconservar o eliminar los archivos cargados. Para obtener másinformación, consulte Optimización de Amazon Redshift mediante AWSSchema Conversion Tool .

Migración de datos OLAP.Se ha añadido compatibilidadcon la migración de LOB paraGreenplum, Vertica, Netezzay Microsoft SQL Server.

Se ha añadido la posibilidad de migrar columnas de LOB. Para obtenermás información, consulte Migración de LOB a Amazon Redshift.

Se ha añadido la capacidadde ver objetos relacionadospara conversiones comoOracle en MySQL o Aurorapara MySQL y Microsoft SQLen MySQL o Aurora paraMySQL.

Cuando AWS SCT transforma el objeto de origen en varios objetos dedestino, ahora puede ver una lista completa de los objetos relacionadosque se han creado. Para obtener más información, consulte Búsquedade objetos transformados relacionados .

Extractores de datos OLAP.Se ha añadido la posibilidadde recuperar el agentedespués de reinstalarlo

Durante la instalación o la configuración, puede recuperar el agente si elpuerto o la ubicación cambian. Para obtener más información, consulte Ocultar y recuperar Information de un agente de AWS SCT .

Version 1.0245

Page 252: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioNotas de la versión:– 611

Nueva característica o mejora Descripción

Capacidad de ocultaresquemas en la vista de árbol

Puede decidir qué objetos e información de sus esquemas desea veren la vista de árbol. Para obtener más información, consulte Ocultaresquemas en la vista de árbol de AWS SCT .

Compatibilidad conparticiones virtuales

Ahora puede administrar tablas sin particiones de gran tamaño mediantela creación de subtareas que creen particiones virtuales de los datosde la tabla utilizando reglas de filtrado. Para obtener más información,consulte Uso de particiones virtuales con Herramienta de conversión deesquemas de AWS (p. 164).

Problemas resueltos

Fecha de notificación Descripción

Posterior a la versión 608 • Migración de datos OLTP. Se ha añadido la capacidad de actualizarlos registros de agente/tarea.

• Comparación de esquemas de Oracle a Oracle. Se ha solucionado lacomparación de sinónimos públicos.

• Se ha solucionado la capacidad de ocultar el esquema del sistema dela vista de árbol.

• Se ha añadido una ayuda contextual para el filtro de árbol. Permitea los usuarios cargar archivos .csv con objetos que tienen que serfiltrados.

• Conversión solucionada de NUMTOINTERVAL de Oracle a un literalde intervalo Redshift, si corresponde.

• Conversión de Oracle a Redshift. Se ha solucionado la migraciónde una SUBSTR de Redshift con un segundo parámetro constante(inicio de substr) para que sea una expresión sencilla, en lugar de unainstrucción CASE.

• Migración de datos OLAP. Se ha añadido la descripción de particiónvirtual.

Version 1.0246

Page 253: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

Historial de revisiónEn la siguiente tabla se describen los cambios importantes en la guía del usuario de AWS SchemaConversion Tool después de enero de 2018.

Puede suscribirse a una fuente RSS para recibir notificaciones de las actualizaciones de estadocumentación.

update-history-change update-history-description update-history-date

Compilaciones 1.0.635 de AWSSCT

El controlador JDBC de AmazonRedshift se ha actualizado a1.2.36.1060. Se ha agregadoAurora PostreSQL 11 comoobjetivo. Soporte de interfazde usuario SCT para tareascomunes de formación detrabajos de AWS Glue.

February 10, 2020

Compilaciones 1.0.632 de AWSSCT

Interfaz de usuario de SCT: seha agregado una nueva pestañapara mostrar los errores quese producen al aplicar scripts.Ahora puede guardar el árbolde origen como SQL al convertirdesde SAP ASE. Mejoras paralas conversiones a PostgreSQL,Aurora PostgreSQL o Redshift.

November 19, 2019

Compilaciones 1.0.631 y 1.0.630(combinadas) de AWS SCT

Se ha mejorado la compatibilidadcon ROWID en Oracle y con losobjetos del sistema en MicrosoftSQL Server y SAP ASE. Se hamejorado el tratamiento de losespecificadores que faltan en losesquemas de SQL Server. Se hamejorado la compatibilidad conlas conversiones de Greenpluma Redshift. Se ha mejorado lacompatibilidad con la conversiónde código almacenado al migrara Amazon Redshift, MariaDB,MySQL y PostgreSQL.

September 30, 2019

AWS SCT compilación 1.0.629 Compatibilidad conprocedimientos almacenadospara conversiones de Netezza.Se ha mejorado la compatibilidadcon las conversiones a AmazonRedshift, DynamoDB, MySQLy PostgreSQL. Se ha añadidocompatibilidad con SAP ASE12.5 como origen.

August 20, 2019

Version 1.0247

Page 254: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

AWS SCT compilación #1.0.628 Compatibilidad con la emulaciónde servicios para conversionesde DB2, SQL Server y Oracle.Mejoras de las conversiones aAmazon Redshift, incluida máscompatibilidad con cursores yprocedimientos almacenados.

June 22, 2019

AWS SCT compilación #1.0.627 Compatibilidad con lasconversiones de SQL Server aprocedimientos almacenados enAmazon Redshift Mejoras en lasconversiones a PostgresSQL 11y MySQL 8.0.

May 31, 2019

AWS SCT compilación #1.0.626 PostgresSQL 11 y MySQL 8.0son ahora objetivos compatibles.SAP ASE 15.5 es ahora unafuente compatible.

April 26, 2019

AWS SCT compilación #1.0.625 Las actualizaciones incluyenla capacidad de convertirTeradata BTEQ a AWS Glue,compatibilidad con conversionesa MariaDB 10.3 con modo decompatibilidad con Oracle,compatibilidad con SAP ASE15.7 y sustituciones de serviciopara emular la funcionalidad quefalta.

March 25, 2019

AWS SCT compilación #1.0.624 Las actualizaciones incluyenla capacidad de convertir ETLde Oracle a AWS Glue, ycompatibilidad de conversionesde Microsoft SQL Server, Oracley IBM Db2 LUW a AmazonRDS for MariaDB. También seha agregado compatibilidadcon conversiones de SAP ASEa RDS for MySQL y AmazonAurora con compatibilidad conMySQL. Además, hemos añadidocompatibilidad con la extensiónOrafce durante la conversión deOracle a PostgreSQL.

February 22, 2019

AWS SCT compilación #1.0.623 Las actualizaciones incluyenla capacidad de convertir lasbases de datos de SAP ASEy la capacidad de convertirscripts de T-SQL, DML y DDLen código o componentesequivalentes. También se hanañadido emulaciones de Oracley Microsoft SQL Server paramejorar las conversiones.

January 25, 2019

Version 1.0248

Page 255: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuario

AWS SCT compilación #1.0.622 Las actualizaciones incluyenWorkload QualificationFramework, que analiza lacarga de trabajo de la migracióncompleta, incluida la base dedatos y las modificaciones de laaplicación.

December 20, 2018

AWS SCT compilación #1.0.621 Entre las actualizaciones seincluyen la compatibilidad conAurora PostgreSQL 10 comodestino y la capacidad demigrar desde Netezza utilizandoopciones de tablas externas.

November 21, 2018

AWS SCT compilación #1.0.620 Entre las actualizaciones seincluyen la capacidad de guardarscripts SQL y compatibilidad concursores globales de Oracle almigrar a MySQL.

October 22, 2018

AWS SCT compilación #1.0.619 Las actualizaciones incluyensoporte para migrar desdeApache Cassandra a DynamoDBy compatibilidad con Vertica 9como origen.

September 20, 2018

AWS SCT compilación #1.0.618 Las actualizaciones incluyeninformes de evaluaciónampliados, compatibilidad paraconvertir las pseudocolumnasROWID de Oracle ycompatibilidad con las tablasdefinidas por el usuario de SQLServer.

August 24, 2018

AWS SCT compilación #1.0.617 Las actualizaciones incluyeninformes de evaluaciónampliados, compatibilidad paraconvertir las pseudocolumnasROWID de Oracle ycompatibilidad con las tablasdefinidas por el usuario de SQLServer.

July 24, 2018

AWS SCT compilación #1.0.616 Las actualizaciones incluyencompatibilidad con RDS alconvertir de Oracle a AmazonRDS for Oracle y al convertirobjetos de programación deOracle, así como compatibilidadcon trabajos de Oracle.Particiones y Db2 LUW versión10.1.

June 26, 2018

Version 1.0249

Page 256: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

AWS SCT compilación #1.0.615 Las actualizaciones permiteconvertir SQL Server ainstrucciones GOTO dePostgreSQL, particiones dePostgreSQL 10 y Db2 LUWversión 10.1.

May 24, 2018

AWS SCT compilación #1.0.614 Las actualizaciones permiteconvertir de Oracle a Oracle DBLinks, de SQL Server a funcionesinsertadas de PostgreSQL yemulación de objetos del sistemade Oracle.

April 25, 2018

AWS SCT compilación #1.0.613 Las actualizaciones incluyencompatibilidad de Db2 LUW,conversión de archivos deSQL*Plus y autenticación deWindows en SQL Server.

March 28, 2018

AWS SCT compilación #1.0.612 Las actualizaciones incluyencompatibilidad con la asignaciónde tipos de datos personalizados,comparación de esquemasde Oracle 10 y conversión devariables globales de Oracle aPostgreSQL.

February 22, 2018

AWS SCT compilación #1.0.611 Las actualizaciones incluyencompatibilidad de Oracle coninstrucciones dinámicas dePostgreSQL, la apertura de unarchivo log seleccionando unmensaje de error y la capacidadde ocultar esquemas en la vistade árbol.

January 23, 2018

Actualizaciones anterioresEn la siguiente tabla se describen los cambios importantes en la guía del usuario de AWS SchemaConversion Tool antes de enero de 2018.

Versión Cambio Descripción Fecha demodificación

1.0.608 Compatibilidadcon puntos deenlace de FIPSpara Amazon S3

Ahora puede solicitar a la AWS SCT que seconecte a Amazon S3 and Amazon Redshiftusando puntos de enlace de FIPS si tieneque cumplir con los requisitos de seguridaddel Estándar federal de procesamiento de lainformación. Para obtener más información,consulte Almacenamiento de las credencialesde AWS (p. 14).

17 de noviembrede 2017

1.0.607 Compatibilidadcon puntos de

Ahora puede solicitar a la AWS SCT que seconecte a Amazon S3 and Amazon Redshift

30 de octubrede 2017

Version 1.0250

Page 257: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

Versión Cambio Descripción Fecha demodificación

enlace de FIPSpara Amazon S3

usando puntos de enlace de FIPS si tieneque cumplir con los requisitos de seguridaddel Estándar federal de procesamiento de lainformación. Para obtener más información,consulte Almacenamiento de las credencialesde AWS (p. 14).

1.0.607 Las tareas deextracción dedatos puedenhacer casoomiso de LOB

Al crear tareas de extracción de datos, ahorapuede optar por omitir los objetos grandes(LOB) para reducir la cantidad de datos queva a extraer. Para obtener más información,consulte Creación, ejecución y monitorizaciónde una tarea de extracción de datos de AWSSCT (p. 154).

30 de octubrede 2017

1.0.605 Acceso alregistro detareas delagente deextracción dedatos

A partir de ahora, puede obtener acceso alregistro de tareas del agente de extracción dedatos desde un práctico enlace en la interfazde usuario de Herramienta de conversiónde esquemas de AWS. Para obtener másinformación, consulte Creación, ejecución ymonitorización de una tarea de extracción dedatos de AWS SCT (p. 154).

28 de agosto de2017

1.0.604 Mejoras delconvertidor

El motor de Herramienta de conversiónde esquemas de AWS ha sido mejoradopara ofrecer conversiones más eficaces enmigraciones heterogéneas.

24 de junio de2017

1.0.603 Filtros desoporte deagentes deextracción dedatos

A partir de ahora, podrá filtrar los datos queextraen los agentes de extracción de su datawarehouse. Para obtener más información,consulte Creación de filtros de extracción dedatos en la Herramienta de conversión deesquemas de AWS (p. 153).

16 de junio de2017

1.0.603 AWS SCT escompatiblecon versionesadicionales dealmacenes dedatos

A partir de ahora, puede utilizar Herramienta deconversión de esquemas de AWS para convertirsus esquemas Teradata 13 y Oracle DataWarehouse 10 a esquemas Amazon Redshiftequivalentes. Para obtener más información,consulte Conversión de esquemas de almacénde datos a Amazon Redshift utilizando laHerramienta de conversión de esquemas deAWS (p. 114).

16 de junio de2017

1.0.602 Los agentesde extracciónde datos soncompatiblescon datawarehousesadicionales

A partir de ahora puede usar agentes deextracción de datos para extraer datos desdesus data warehouses Microsoft SQL Server.Para obtener más información, consulte Uso deagentes de extracción de datos (p. 144).

11 de mayo de2017

Version 1.0251

Page 258: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

Versión Cambio Descripción Fecha demodificación

1.0.602 Los agentes deextracción dedatos puedencopiar datosa AmazonRedshift

Ahora, los agentes de extracción de datostienen tres modelos de carga. A partir deahora, puede especificar si desea simplementeextraer los datos, extraerlos y cargarlos enAmazon S3 o extraerlos, cargarlos y copiarlosdirectamente en Amazon Redshift. Para obtenermás información, consulte Creación, ejecucióny monitorización de una tarea de extracción dedatos de AWS SCT (p. 154).

11 de mayo de2017

1.0.601 AWS SCT escompatible conalmacenesde datosadicionales

A partir de ahora, puede utilizar la Herramientade conversión de esquemas de AWS paraconvertir sus esquemas Vertica y MicrosoftSQL Server a esquemas Amazon Redshiftequivalentes. Para obtener más información,consulte Conversión de esquemas de almacénde datos a Amazon Redshift utilizando laHerramienta de conversión de esquemas deAWS (p. 114).

18 de abril de2017

1.0.601 Los agentesde extracciónde datos soncompatiblescon datawarehousesadicionales

A partir de ahora puede usar agentes deextracción de datos para extraer datos desdesus data warehouses Greenplum, Netezza yVertica. Para obtener más información, consulteUso de agentes de extracción de datos (p. 144).

18 de abril de2017

1.0.601 Los agentesde extracciónde datos soncompatiblescon sistemasoperativosadicionales

A partir de ahora, puede instalar agentesde extracción de datos en equipos queejecuten los sistemas operativos macOSy Microsoft Windows. Para obtener másinformación, consulte Instalación de agentes deextracción (p. 147).

18 de abril de2017

1.0.601 Los agentesde extracciónde datosrealizan cargasa Amazon S3automáticamente

A partir de ahora, los agentes de extracción dedatos cargan sus datos extraídos a AmazonS3 automáticamente. Para obtener másinformación, consulte Resultado de la tarea deextracción de datos (p. 162).

18 de abril de2017

1.0.600 Agentes deextracción dedatos

A partir de ahora, puede instalar agentes deextracción de datos que extraen los datos desu almacén de datos y prepararlos para suuso con Amazon Redshift. Puede utilizar laHerramienta de conversión de esquemas deAWS para registrar los agentes y crear lastareas de extracción de datos para los mismos.Para obtener más información, consulte Uso deagentes de extracción de datos (p. 144).

16 de febrero de2017

Version 1.0252

Page 259: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

Versión Cambio Descripción Fecha demodificación

1.0.600 Opinión decliente

Ahora puede expresar sus comentarios sobrela Herramienta de conversión de esquemas deAWS. Puede archivar un informe de errores,enviar una solicitud de función o proporcionarinformación general. Para obtener másinformación, consulte Proporcionar opinionesdel cliente (p. 3).

16 de febrero de2017

1.0.502 Integración conAWS DMS

A partir de ahora, puede utilizar Herramientade conversión de esquemas de AWS paracrear puntos de conexión y tareas AWS DMS.Puede ejecutar y monitorizar las tareas desdela AWS SCT. Para obtener más información,consulte Uso de la Herramienta de conversiónde esquemas de AWS con el AWS DatabaseMigration Service (p. 143).

20 de diciembrede 2016

1.0.502 Amazon Auroracompatible conPostgreSQLcomo base dedatos de destino

A partir de ahora, la Herramienta de conversiónde esquemas de AWS admite AmazonAurora compatible con PostgreSQL comobase de datos de destino. Para obtener másinformación, consulte Convertir los esquemasde base de datos utilizando el Herramienta deconversión de esquemas de AWS (p. 99).

20 de diciembrede 2016

1.0.502 Compatibilidadcon perfiles

A partir de ahora, puede almacenar diferentesperfiles en la Herramienta de conversión deesquemas de AWS y cambiar fácilmente entreellos. Para obtener más información, consulteUso de los perfiles del servicio de AWS en laHerramienta de conversión de esquemas deAWS (p. 13).

20 de diciembrede 2016

1.0.501 Compatibilidadcon GreenplumDatabase yNetezza

A partir de ahora, puede utilizar la Herramientade conversión de esquemas de AWS paraconvertir sus esquemas de almacenes de datosde Greenplum Database y Netezza a AmazonRedshift. Para obtener más información,consulte Conversión de esquemas de almacénde datos a Amazon Redshift utilizando laHerramienta de conversión de esquemas deAWS (p. 114).

17 de noviembrede 2016

1.0.501 Optimización deRedshift

A partir de ahora, puede utilizar la Herramientade conversión de esquemas de AWS paraoptimizar sus bases de datos de AmazonRedshift. Para obtener más información,consulte Optimización de Amazon Redshiftmediante la Herramienta de conversión deesquemas de AWS (p. 129).

17 de noviembrede 2016

Version 1.0253

Page 260: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

Versión Cambio Descripción Fecha demodificación

1.0.500 Reglas demapeo

A partir de ahora, antes de convertir suesquema con la Herramienta de conversión deesquemas de AWS, puede configurar reglasque cambien el tipo de datos de las columnas,mover objetos de un esquema a otro y cambiarlos nombres de los objetos. Para obtener másinformación, consulte Creación de reglas demapeo en la Herramienta de conversión deesquemas de AWS (p. 117).

4 de octubre de2016

1.0.500 Migración a lanube

Ahora puede utilizar la Herramienta deconversión de esquemas de AWS para copiarsu esquema de base de datos local existentea una instancia de base de datos de AmazonRDS que ejecute el mismo motor. Puede utilizaresta característica para analizar posiblesahorros de costos en la migración a la nube yen el cambio del tipo de licencia. Para obtenermás información, consulte Creación de informesde evaluación con Herramienta de conversiónde esquemas de AWS (p. 83).

4 de octubre de2016

1.0.400 Conversionesde esquemasde datawarehouses

A partir de ahora, puede utilizar la Herramientade conversión de esquemas de AWS paraconvertir sus esquemas de almacenes dedatos de Oracle y Teradata a Amazon Redshift.Para obtener más información, consulte Conversión de esquemas de almacén de datosa Amazon Redshift utilizando la Herramienta deconversión de esquemas de AWS (p. 114).

13 de julio de2016

1.0.400 Conversionesde SQL enaplicaciones

A partir de ahora, puede utilizar la Herramientade conversión de esquemas de AWS paraconvertir SQL en su código C++, C #, Java uotro tipo de código de aplicación. Para obtenermás información, consulte Conversión de SQLde aplicación con la Herramienta de conversiónde esquemas de AWS (p. 190).

13 de julio de2016

1.0.400 Nuevacaracterística

La Herramienta de conversión de esquemasde AWS ahora contiene un paquete deextensión y un asistente para ayudarle ainstalar, crear y configurar las funciones deAWS Lambda y las bibliotecas de Pythonpara proporcionar funcionalidades de correoelectrónico, programación de trabajos y otras.Para obtener más información, consulte Usode las funciones de AWS Lambda del paquetede extensión AWS SCT (p. 199) y Uso de labiblioteca de Python personalizada para elpaquete de extensión de la AWS SCT (p. 197).

13 de julio de2016

Version 1.0254

Page 261: Schema Conversion Tool de AWS · Amazon Aurora, una instancia de base de datos PostgreSQL de Amazon RDS o un clúster de Amazon Redshift. El esquema convertido también puede utilizarse

Schema Conversion Tool de AWS Guía del usuarioActualizaciones anteriores

Versión Cambio Descripción Fecha demodificación

1.0.301 SSL Support Ahora puede usar la capa de conexión segura(SSL) para conectarse a su base de datosde origen cuando utilice la Herramienta deconversión de esquemas de AWS.

19 de mayo de2016

1.0.203 Nuevacaracterística

Agrega soporte para MySQL y PostgreSQLcomo bases de datos de origen para lasconversiones.

11 de abril de2016

1.0.202 Versión demantenimiento

Agrega soporte para editar el SQL convertidoque se haya generado para el motor de basede datos de destino. Agrega capacidades deselección mejoradas a las vistas en árbol dela base de datos de origen y de la instanciade base de datos de destino. Agrega soportepara conectarse a una base de datos Oracle deorigen con nombres del Transparent NetworkSubstrate (TNS).

2 de marzo de2016

1.0.200 Versión demantenimiento

Agrega soporte para PostgreSQL comomotor de base de datos de destino. Agrega laposibilidad de generar esquemas convertidoscomo scripts y de guardar los scripts enarchivos antes de aplicar el esquema a lainstancia de base de datos de destino.

14 de enero de2016

1.0.103 Versión demantenimiento

Agrega capacidad de proyectos sin conexión,la posibilidad de comprobar si hay nuevasversiones y administración de la memoria y eldesempeño.

2 de diciembrede 2015

1.0.101 Versión demantenimiento

Agrega el asistente para crear un nuevoproyecto de migración de base de datos.Agrega la capacidad de guardar el informe deevaluación de la migración de la base de datosen formato PDF.

19 de octubrede 2015

1.0.100 Versión deprueba

Ofrece la guía del usuario para la versiónpreliminar de la Herramienta de conversión deesquemas de AWS.

7 de octubre de2015

Version 1.0255