IN 1051 WhatSNewAndChanged10511 Es
IN 1051 WhatSNewAndChanged10511 Es
IN 1051 WhatSNewAndChanged10511 Es
10.5.1
Novedades y cambios
(10.5.1.1)
Informatica Novedades y cambios (10.5.1.1)
10.5.1
Diciembre 2021
© Copyright Informatica LLC 2003, 2022
Este software y la documentación se proporcionan exclusivamente en virtud de un acuerdo de licencia independiente que contiene restricciones de uso y divulgación.
Ninguna parte de este documento puede ser reproducida o transmitida de cualquier forma o manera (electrónica, fotocopia, grabación o mediante otros métodos) sin
el consentimiento previo de Informatica LLC.
Las bases de datos, el software y los programas de DERECHOS DEL GOBIERNO DE LOS ESTADOS UNIDOS, y la documentación e información técnica relacionadas
entregadas a los clientes del Gobierno de los Estados Unidos constituyen "software informático comercial" o "datos técnicos comerciales" de acuerdo con el
Reglamento de Adquisición Federal y las regulaciones complementarias específicas del organismo que correspondan. Como tales, el uso, la duplicación, la divulgación,
la modificación y la adaptación están sujetos a las restricciones y los términos de licencia establecidos en el contrato gubernamental aplicable, y hasta donde sea
aplicable en función de los términos del contrato gubernamental, a los derechos adicionales establecidos en FAR 52.227-19, Licencia de Software Informático
Comercial.
Informatica, el logotipo de Informatica, PowerCenter, PowerExchange, Big Data Management y Live Data Map son marcas comerciales o marcas comerciales
registradas de Informatica LLC en los Estados Unidos y en muchas otras jurisdicciones de todo el mundo. La lista actual de marcas comerciales de Informatica está
disponible en Internet en https://www.informatica.com/trademarks.html. Otros nombres de productos y empresas pueden ser nombres o marcas comerciales de sus
respectivos titulares.
Las partes de este software o la documentación están sujetas a derechos de autor de terceros. Se incluyen con el producto los avisos obligatorios de terceros.
La información contenida en esta documentación está sujeta a cambios sin previo aviso. Si encuentra algún problema en esta documentación, escríbanos a
[email protected] para notificárnoslo.
Los productos de Informatica gozan de garantía en función de los términos y condiciones de los acuerdos conforme a los cuales se proporcionen. INFORMATICA
PROPORCIONA LA INFORMACIÓN DE ESTE DOCUMENTO "TAL CUAL" SIN GARANTÍA DE NINGÚN TIPO, EXPRESA O IMPLÍCITA, INCLUIDAS LAS GARANTÍAS DE
COMERCIALIZACIÓN, ADAPTACIÓN A UN FIN PARTICULAR Y CUALQUIER GARANTÍA O CONDICIÓN DE NO INCUMPLIMIENTO.
Tabla de contenido 3
Plantilla de informe DSAR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Compatibilidad con Microsoft Azure SQL Server. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Orígenes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Data Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Data Transformation Biblioteca HIX. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Advanced Scanners. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Requisitos de sudo para el usuario de la puerta de enlace. . . . . . . . . . . . . . . . . . . . . . . . . 40
SELinux en modo impositivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Compatibilidad con RHEL 7.9 en modo FIPS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Data Asset Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Ordenar resultados de búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Informatica Data Quality. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Seguridad (10.5.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Delegación restringida de Kerberos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Tipos de datos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4Tabla de contenido
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Enterprise Data Catalog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
Tabla de contenido 5
DataProc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Destino de almacenamiento en la nube de Google en Google Dataproc. . . . . . . . . . . . . . . . 74
Google PubSub. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Tipos de datos de alta precisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Kudu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Transformación de Python en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Personalizar el logotipo de la marca. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Dominios de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Compatibilidad con PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Panel de privacidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Orígenes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Data Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Advanced Scanners. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Clonación de un recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Página de inicio mejorada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Panel de filtro mejorado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Resultados de búsqueda mejorados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Nuevos tutoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Mejoras en la página de notificaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Perfil en el clúster de Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Mejoras de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformación de enmascaramiento de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformación de búsqueda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Transformación del generador de secuencias en Databricks. . . . . . . . . . . . . . . . . . . . . . . 82
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Modelos de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Compatibilidad con Azure Microsoft SQL Server. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Cifrados compatibles con los servicios de PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . 83
Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Adaptadores de PowerExchange para PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Fortalecimiento del cifrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Funcionalidad SAML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6Tabla de contenido
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Compatibilidad con PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Ordenar entradas en un diccionario relacional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Test Data Generation para orígenes XSD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Tabla de contenido 7
Cloudera CDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8Tabla de contenido
Datos jerárquicos en orígenes y destinos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Autenticación de SAML para ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Puerto FileName para ADLS Gen2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Ingerir datos de CDC desde varios temas de Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Transformación de búsqueda de JDBC V2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Formato de datos Parquet para destinos complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Parámetros de sustitución en destinos de Amazon S3 y ADLS Gen2. . . . . . . . . . . . . . . . . 121
Orígenes y destinos en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Asignaciones de transmisión en AWS Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Almacenes de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Tareas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Panel de privacidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Cifrado de datos del Registro de asunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Almacenes de datos no estructurados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Asociación de términos empresariales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Configurar la resolución de conflictos para la regla de datos y la regla de nombres de
columna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Información del linaje contextual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Data Asset Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Conservación de datos a través de la exportación y la importación. . . . . . . . . . . . . . . . . . 124
Detección de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Tutoriales de Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Extraer los puntos finales de la transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Linaje a nivel de campo para archivos sin formato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Linaje de archivos para Cloud Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Recurso de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Recurso de Informatica MDM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Microsoft SQL Server Recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Recurso de MicroStrategy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Detección de archivos particionados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Recursos de referencia y activos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Permisos a nivel de recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Extraer el nombre de la base de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Recursos de SAP BW y SAP BW/4HANA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Recurso de SSIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Transformación de macro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Cambiar el nodo raíz en una estructura de matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Tabla de contenido 9
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Configurar la ubicación de Java y el tamaño de heap para los recursos de Business Object. . 130
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
10Tabla de contenido
Eliminación de vista previa técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Novedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Tabla de contenido 11
Visualización de los nodos utilizados en una asignación. . . . . . . . . . . . . . . . . . . . . . . . . 164
Agregación de registros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Análisis de datos jerárquicos en el motor Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Creación de perfiles y opciones de muestreo en el motor Spark. . . . . . . . . . . . . . . . . . . . 164
Transformación de Python. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Data Engineering Streaming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Confluent Schema Registry en asignaciones de transmisión . . . . . . . . . . . . . . . . . . . . . . 166
Transformaciones de Data Quality en asignaciones de transmisión. . . . . . . . . . . . . . . . . . 166
Clúster efímero en asignaciones de transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Puerto FileName en Amazon S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Microsoft Azure Data Lake Storage Gen2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Asignaciones de transmisión en Azure Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Asignaciones dinámicas en Data Engineering Streaming . . . . . . . . . . . . . . . . . . . . . . . . 168
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Asignación de atributos personalizados a recursos y clases. . . . . . . . . . . . . . . . . . . . . . 168
Nuevos recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Recursos de referencia y activos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Exportación de activos desde resultados de búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . 169
Filtros de linaje e impacto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Resumen de control de activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Reglas y cuadros de mandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Inferencia de clave única. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Detección del dominio de datos en el tipo de archivo CLOB. . . . . . . . . . . . . . . . . . . . . . . 170
Obtención de datos y opciones de muestreo en el motor Spark. . . . . . . . . . . . . . . . . . . . 170
Seguimiento de la vista previa técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Vista previa de datos y aprovisionamiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Tipos de recursos compatibles en la utilidad de escáner independiente. . . . . . . . . . . . . . . 172
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Administración de acceso a Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Microsoft Azure Data Lake Storage como origen de datos. . . . . . . . . . . . . . . . . . . . . . . . 173
Publicación de archivos en Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Carga de archivos en Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Asignaciones de Informatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Vinculación de salidas de asignación con parámetros de asignación. . . . . . . . . . . . . . . . . 174
Recomendaciones y conclusiones de CLAIRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Actualización del nivel del optimizador de asignaciones. . . . . . . . . . . . . . . . . . . . . . . . . 175
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Propiedades avanzadas de la tarea Crear clúster en Amazon EMR. . . . . . . . . . . . . . . . . . 176
12Tabla de contenido
Instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Pre-installation (i10Pi) System Check Tool en modo silencioso. . . . . . . . . . . . . . . . . . . . 177
Cifrado de contraseñas en el archivo de propiedades de la instalación silenciosa. . . . . . . . . 177
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Tipos de entrada adicionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Creación de modelos a partir de muestras en tiempo de diseño. . . . . . . . . . . . . . . . . . . . 177
Administración de datos sin identificar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Configuración de aplicaciones web para utilizar proveedores de identidades SAML diferentes 184
Tabla de contenido 13
PowerExchange for Microsoft Azure Data Lake Storage Gen1. . . . . . . . . . . . . . . . . . . . . 192
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Servicios de directorio de LDAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Configuraciones de LDAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Autenticación de SAML. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
14Tabla de contenido
Firma de código del programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Reanudar el programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Utilidad de Informatica Docker. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Motor de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Compatibilidad con la distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Cambios en la compatibilidad de Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . 214
Cambios en la compatibilidad de Big Data Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Marco de conectividad universal en Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . 215
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Tabla de contenido 15
Comandos infacmd ipc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Comandos infacmd ldm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Comandos infacmd mi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Comandos infacmd ms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Comandos infacmd oie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Comandos infacmd tools. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
Asignar automáticamente un título empresarial a una columna. . . . . . . . . . . . . . . . . . . . 231
Colaboración del usuario en activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
Crear servicios de aplicación de Enterprise Data Catalog usando el programa de instalación. 231
Utilidad de validación de metadatos personalizada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Notificaciones de cambio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Business Glossary Informe de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Perfiles de sistema operativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Filtro de perfiles de datos y metadatos de origen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Utilidad de analizador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Tipos de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Enterprise Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Aplicar reglas activas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Eliminar filas duplicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Agrupar y categorizar datos de columna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Recomendaciones basadas en CLAIRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Agregación condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Enmascaramiento de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Localización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Orígenes y destinos de la partición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Agregar comentarios a pasos de la receta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Guardar una receta como asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Amazon S3, ADLS, WASB, MapR-FS como orígenes de datos. . . . . . . . . . . . . . . . . . . . . . 236
Funciones estadísticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Funciones de fecha y hora. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones matemáticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones de texto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones de ventana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Purgar eventos de auditoría. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Motor de ejecución de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Asignaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
16Tabla de contenido
Salidas de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Parámetros de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Niveles del optimizador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Transformación de estrategia de actualización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
PowerExchange for Google BigQuery. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
PowerExchange for MapR-DB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Cosmos DB SQL API. . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Data Lake Store. . . . . . . . . . . . . . . . . . . . . . . . . . . 249
PowerExchange for Microsoft Azure SQL Data Warehouse. . . . . . . . . . . . . . . . . . . . . . . 249
PowerExchange for Salesforce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
PowerExchange para la API del transportador paralelo de Teradata. . . . . . . . . . . . . . . . . . 251
Tabla de contenido 17
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Transformación de escritura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for Google Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for Google Cloud Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
18Tabla de contenido
Comandos infacmd ccps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Comandos infacmd cluster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Comandos infacmd cms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd dis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd ihs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd ldm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
Comandos infacmd mi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
Comandos infacmd mrs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Comandos infacmd wfs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Adición de un título empresarial a un activo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Utilidad de validación de clústeres en el programa de instalación. . . . . . . . . . . . . . . . . . . 280
Tipos de detección del dominio de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Filtro Valores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Informe de enlaces que faltan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Nuevos tipos de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Autenticación SAML para aplicaciones de Enterprise Data Catalog. . . . . . . . . . . . . . . . . . 281
Recurso de SAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Importación desde ServiceNow. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Columnas similares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Especificación de tipos de carga para el servicio de catálogo. . . . . . . . . . . . . . . . . . . . . . 282
Tipos de recursos admitidos en la detección de datos. . . . . . . . . . . . . . . . . . . . . . . . . . 282
Enterprise Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Datos de columna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Administración de los recursos de Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Operaciones de preparación de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Preparación de archivos JSON. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Pasos de la receta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Programación de actividades de exportación, importación y publicación. . . . . . . . . . . . . . 285
Autenticación del lenguaje de marcado de aserción de seguridad (SAML). . . . . . . . . . . . . . 285
Visualización de los flujos de proyecto y el historial de proyectos. . . . . . . . . . . . . . . . . . . 285
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Diseño predeterminado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Búsqueda en el editor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
Importación de propiedades de sesión de PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . 287
Vistas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Asignaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Asignaciones dinámicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Parámetros de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
Tabla de contenido 19
Ejecución de asignaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
Truncamiento de las tablas de destino de Hive con particiones. . . . . . . . . . . . . . . . . . . . 290
Lenguaje de transformación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
Funciones complejas para el tipo de datos de asignación. . . . . . . . . . . . . . . . . . . . . . . . 291
Operador complejo para el tipo de datos de asignación. . . . . . . . . . . . . . . . . . . . . . . . . 291
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
Importación de una tarea de comando de PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . 294
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for Cassandra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
PowerExchange for Microsoft Azure SQL Data Warehouse. . . . . . . . . . . . . . . . . . . . . . . 297
PowerExchange for Salesforce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
PowerExchange for SAP NetWeaver. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
Complejidad de la contraseña. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
20Tabla de contenido
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Configurar la distribución de Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Configuración de Developer tool. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Propiedades de conexión de Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Programas de la línea de comandos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Programa de instalación de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Enterprise Data Catalog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Sección de propiedades adicionales de la ficha General. . . . . . . . . . . . . . . . . . . . . . . . . 312
Asignación de conexión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Similitud de columnas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Creación de un servicio de catálogo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Mejoras del tipo de recurso HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Recursos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Escáner de Informatica Platform. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Resumen Tabulador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Cambios de nombre de producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Dominios de datos de proximidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Resultados de la búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Marco de conectividad universal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Informatica Analyst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Cuadros de mando. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Importación y exportación de objetos en PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformación de generador de secuencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
Transformación de ordenación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Amazon Redshift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Cassandra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
Tabla de contenido 21
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Herramienta del analista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
22Tabla de contenido
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
Tabla de contenido 23
Dominios de datos compuestos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
Dominios de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
Exportar e importar atributos personalizados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Texto enriquecido como valor de atributo personalizado. . . . . . . . . . . . . . . . . . . . . . . . . 378
Lógica de transformación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Tipos de archivos no estructurados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Frecuencia de valores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Implementación admitida para Azure HDInsight. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Perfiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Intelligent Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Validar y evaluar datos mediante visualización con Apache Zeppelin. . . . . . . . . . . . . . . . . 379
Evaluar datos mediante filtros durante la vista previa de datos. . . . . . . . . . . . . . . . . . . . . 380
Diseño mejorado del panel de recetas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Aplicar reglas de Data Quality. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Ver términos empresariales para activos de datos en vista previa de datos y vista de hoja
de cálculo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Preparar datos para archivos delimitados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
Editar combinaciones en una hoja de cálculo combinada. . . . . . . . . . . . . . . . . . . . . . . . 381
Editar configuración de muestreo para la preparación de datos. . . . . . . . . . . . . . . . . . . . 381
Compatibilidad con varios recursos de Enterprise Information Catalog en Data Lake. . . . . . . 381
Utilizar Oracle para el repositorio del servicio de preparación de datos. . . . . . . . . . . . . . . . 381
Escalabilidad mejorada para el servicio de preparación de datos. . . . . . . . . . . . . . . . . . . 381
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
Objetos de datos no relacionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Perfiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Informatica Upgrade Advisor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Intelligent Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Formato CSV. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Conexiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Asignaciones de transferencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Orígenes y destinos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Compatibilidad con transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Cloudera Navigator. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
Especificaciones de regla. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
24Tabla de contenido
Registros de actividad del usuario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Idioma de transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Lenguaje de transformación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Transformaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
Transformaciones de PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Flujos de trabajo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
Tabla de contenido 25
Prefacio
Consulte Novedades y cambios de Informatica® para conocer las nuevas funciones y los cambios en las
versiones de productos actuales y recientes. También puede leer los avisos importantes para obtener
información relacionada con los cambios de soporte, los nuevos productos y las tareas de lanzamiento que
podría necesitar realizar después de actualizar desde una versión anterior. Novedades y cambios incluye
contenido para todos los productos integrados en la instalación de Informatica Platform.
Recursos de Informatica
Informatica proporciona una variedad de recursos de productos a través de Informatica Network y otros
portales en línea. Use los recursos para sacar el mayor provecho de los productos y las soluciones de
Informatica y aprender de otros expertos en la materia y usuarios de Informatica.
Informatica Network
Informatica Network es la puerta de entrada a muchos recursos, entre ellos, la base de conocimientos de
Informatica y el servicio internacional de atención al cliente de Informatica. Para entrar en Informatica
Network, visite https://network.informatica.com.
26
Documentación de Informatica
Use el portal de documentación de Informatica para recorrer una extensa biblioteca de documentación para
las versiones de productos actuales y recientes. Para recorrer el portal de documentación, visite
https://docs.informatica.com.
Si tiene preguntas, comentarios o ideas acerca de la documentación de los productos, póngase en contacto
con el equipo de la documentación de Informatica en [email protected].
Informatica Velocity
Informatica Velocity es una colección de consejos y procedimientos recomendados desarrollados por los
servicios profesionales de Informatica que se basan en experiencias reales de cientos de proyectos de
administración de datos. Informatica Velocity represente el conocimiento colectivo de los consultores de
Informatica que trabajan con organizaciones de todo el mundo para planificar, desarrollar, implementar y dar
mantenimiento a soluciones de administración de datos exitosas.
Para encontrar el número de teléfono local del servicio internacional de atención al cliente de Informatica,
visite el sitio web de Informatica en el siguiente vínculo:
https://www.informatica.com/services-and-training/customer-success-services/contact-us.html.
Prólogo 27
Parte I: Versión 10.5.1-10.5.1.1
Esta parte incluye los siguientes capítulos:
• Versión 10.5.1.1, 29
• Avisos importantes de la versión 10.5.1, 32
• Novedades de la versión 10.5.1, 37
• Cambios en la versión 10.5.1, 44
28
Capítulo 1
Versión 10.5.1.1
Este capítulo incluye los siguientes temas:
• Novedades (10.5.1.1), 29
• Cambios (10.5.1.1), 30
Novedades (10.5.1.1)
Lea esta sección para conocer las novedades de la versión 10.5.1.1.
A partir de la versión 10.5.1.1, puede obtener una vista previa de los datos de una asignación de
transmisión que se ejecuta en el motor de Spark en Developer tool. Al obtener una vista previa de los
datos, podrá diseñar y depurar asignaciones de transmisión.
Para obtener información sobre la vista previa de datos, consulte la Guía del usuario de Data Engineering
Streaming.
Escalado automático
A partir de la versión 10.5.1.1, puede habilitar el escalado automático y ejecutar una asignación de
transmisión en un clúster de Databricks. Cuando habilita el escalado automático, el clúster de
Databricks suma o resta automáticamente el núcleo del clúster y los nodos de tareas cuando las
asignaciones de Spark activan los umbrales de rendimiento.
Para obtener información sobre el escalado automático, consulte la Guía del usuario de Data Engineering
Integration.
A partir de la versión 10.5.1.1, puede utilizar la utilidad DPMRepoMigration para migrar un repositorio de
Data Privacy Management en Oracle a PostgreSQL.
29
Para obtener información sobre cómo ejecutar la utilidad, consulte la Guía del administrador de
Informatica Data Privacy Management.
Orígenes
A partir de la versión 10.5.1.1, puede conectarse a un origen de Workday. Utilice conectores CDATA para
Workday para crear un almacén de datos JDBC para Workday. Puede realizar detección de dominios y
análisis del registro de asuntos en almacenes de datos para aplicaciones de Workday.
Para obtener información sobre cómo configurar la conectividad a los orígenes, consulte la Guía del
administrador de Informatica Data Privacy Management.
Nuevos recursos
A partir de la versión 10.5.1.1, el recurso de TIBCO Spotfire se agrega en Enterprise Data Catalog. Puede
utilizar el recurso para extraer metadatos, relaciones e información de linaje del origen de datos de
TIBCO Spotfire.
Nota: Enterprise Data Catalog admite la autenticación OAuth para conectarse al TIBCO Spotfire Server.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.5.1
Enterprise Data Catalog.
A partir de la versión 10.5.1.1, puede especificar un límite superior cuando crea un perfil de un recurso
de Hive con porcentaje aleatorio como una opción de muestreo mediante el motor Spark. Para un
rendimiento óptimo, el límite se aplica tanto a las tablas grandes como a las pequeñas.
Cambios (10.5.1.1)
Lea esta sección para conocer los cambios en la versión 10.5.1.1.
A partir de la versión 10.5.1.1, puede enviar el procesamiento de las opciones de muestreo Primeras N
filas y Porcentaje aleatorio a Google BigQuery. Puede realizar el muestreo en tablas nativas, tablas
agrupadas, tablas particionadas con la opción require_partition_filter establecida en falso y tablas
externas creadas sobre almacenamiento en nube de Google.
Para un rendimiento óptimo, considere la posibilidad de ejecutar el perfil con la opción de muestreo
Primeras N filas.
A partir de la versión 10.5.1.1, los comandos tee y sed no requieren privilegios de sudo. Se requieren
privilegios de sudo para sshd para ejecutar la utilidad de validación del clúster antes de actualizar
Enterprise Data Catalog.
Cambios (10.5.1.1) 31
Capítulo 2
• Cambios en la compatibilidad, 32
• Tareas de la versión, 33
• Programa de instalación de Informatica, 34
Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.1.
Puede utilizar el análisis de flujo de datos para ver datos analíticos sobre las asignaciones de
PowerCenter en el catálogo. Puede utilizar los datos para mejorar la calidad y la eficiencia de la
asignación en su empresa. También puede ver las asignaciones como diagramas para facilitar su
comprensión.
Los datos analíticos incluyen detalles sobre las siguientes métricas de asignación:
• Asignaciones similares
• Asignaciones duplicadas
• Mapplets, transformaciones y funciones de usuario reutilizables para expresiones complejas
Además, los datos también incluyen los detalles del grupo de asignación y los detalles de detección de
asignación para proporcionar información adicional sobre los datos de asignación. Puede descargar los
datos analíticos como informes para un análisis más detallado o mejorar los informes utilizando
soluciones de informes de terceros.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Catalog 10.5.1.
32
Vista previa de datos en clústeres de Azure HDInsight y MapR
Puede obtener una vista previa de los datos con el motor Spark para las asignaciones configuradas para
ejecutarse en distribuciones de clúster de Azure HDInsight y MapR.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.1.
Compatibilidad cancelada
A partir de la versión 10.5.1, Data Privacy Management canceló la compatibilidad con las extensiones de
protección de Cloudera Sentry y Hortonworks Ranger. No puede crear ni utilizar las extensiones para
proteger datos confidenciales.
Para obtener información sobre cómo utilizar las extensiones de protección para proteger datos
confidenciales, consulte la Guía del usuario de Informatica Data Privacy Management.
Para obtener más información sobre la compatibilidad cancelada, póngase en contacto con el servicio
internacional de atención al cliente de Informatica.
En desuso
A partir de la versión 10.5.1, la siguiente funcionalidad ha caído en desuso:
La funcionalidad en desuso es compatible, pero Informatica quiere dejar de proporcionar soporte en una
versión posterior. Informatica solicita que pase a otra funcionalidad antes de que esta se elimine.
La funcionalidad en desuso es compatible, pero Informatica quiere dejar de proporcionar soporte en una
versión posterior. Informatica solicita que pase a otra funcionalidad antes de que esta se elimine.
Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede
configurar funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales
de linaje.
Tareas de la versión
Lea esta sección para conocer las tareas que debe realizar después de actualizar a la versión 10.5.1.
Después de actualizar a la versión 10.5.1, las asignaciones fallan cuando usa la URL del servicio de
detección para el tipo de autenticación de contraseña para acceder a Microsoft Dynamics CRM Online. Debe
actualizar la conexión de Microsoft Dynamics CRM para que use la URL del servicio de organización de CRM.
Tareas de la versión 33
Nota: Puede seguir usando la URL de servicio web del servicio de detección para los tipos de autenticación
basados en notificaciones y Active Directory para conectarse a la instancia de Microsoft Dynamics CRM
local.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.5.1 para PowerCenter.
Documentación
Se han movido algunas instrucciones para aplicar el HotFix para la versión 10.5.1.
La siguiente tabla enumera los documentos donde puede encontrar instrucciones del HotFix para cada
producto:
Producto Documento
Enterprise Data Catalog Actualización de Enterprise Data Catalog desde las versiones 10.4.0 y
posteriores
Data Privacy Management Actualización de Data Privacy Management desde las versiones 10.4.0 y
posteriores
La siguiente tabla enumera las rutas de actualización para cada producto que admite el instalador.
Producto Versiones
PowerCenter Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
los paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Informatica Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Quality los paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Data Engineering Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Integration los paquetes de servicio:
Data Engineering - 10.1.1
Quality - 10.2
- 10.2.1
- 10.2.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering está en el mismo dominio que cualquier otro producto
compatible con el instalador de Informatica, verifique que todos los productos estén
actualizados a la misma versión de actualización compatible antes de actualizar a la 10.5.1.
Data Engineering Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Streaming los paquetes de servicio:
- 10.2.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Data Privacy Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Management los paquetes de servicio:
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering, Enterprise Data Catalog y Data Privacy Management están en el
mismo dominio de una versión anterior a la 10.4.1, actualícelos todos a la versión 10.4.1 antes
de actualizar a la 10.5.1.
Enterprise Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidos los paquetes de
Catalog servicio:
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Enterprise Data Catalog y Data Engineering están en el mismo dominio de una
versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1 antes de actualizar a
10.5.1.
Enterprise Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidos los paquetes de
Preparation servicio:
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering, Enterprise Data Catalog y Enterprise Data Preparation están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1
antes de actualizar a la 10.5.1.
Test Data Puede aplicar el HotFix 10.5.1 para actualizar desde la versión 10.5.
Management
Para obtener más información, consulte los artículos de la biblioteca de procedimientos (H2L) Instalar
Enterprise Data Catalog en Docker con Informatica Deployment Manager 10.5.1 e Instalar Data Quality en
Docker con Informatica Deployment Manager 10.5.1.
Transformaciones en Databricks
A partir de la versión 10.5.1, puede agregar las siguientes transformaciones a las asignaciones de
transmisión que se ejecutan en un entorno de Databricks en las plataformas de Azure y AWS:
• Validador de direcciones
• Clasificador
• Analizador
• Estandarizador
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.1.
El motor de Databricks Spark puede procesar cualquier tipo de entrada que el modelo pueda analizar.
37
Para obtener más información sobre los modelos de estructura inteligente, consulte la Guía del usuario de
Data Engineering Streaming 10.5.1.
Para obtener información sobre las infracciones de directivas de seguridad, consulte la Guía del usuario de
Informatica Data Privacy Management.
Para obtener información sobre las directivas de seguridad, consulte la Guía del usuario de Informatica Data
Privacy Management.
Puede personalizar los logotipos que aparecen en el encabezado y pie de página del informe. También puede
cambiar los colores de fondo y mover o eliminar los valores de campo que aparecen en el informe
predeterminado.
Para obtener información sobre cómo personalizar una plantilla de informe DSAR en PDF, consulte la Guía
del usuario de Informatica Data Privacy Management.
Para obtener información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.
Orígenes
A partir de la versión 10.5.1, puede conectarse a los siguientes orígenes:
Google BigQuery
Cree un almacén de datos para conectarse a una base de datos de Google BigQuery. Puede realizar
detección de dominios y análisis del registro de asuntos en almacenes de datos de Google BigQuery.
Utilice conectores CDATA para SAP para crear un almacén de datos para conectarse a una aplicación
SAP. Puede realizar exploraciones del registro de asuntos en almacenes de datos de SAP que cree con
conectores CDATA.
MongoDB
Utilice conectores CDATA para MongoDB para crear un almacén de datos JDBC para MongoDB. Puede
realizar detección de dominios y análisis del registro de asuntos en almacenes de datos de MongoDB.
Servicios REST
Utilice conectores CDATA para servicios REST para crear un almacén de datos JDBC para servicios
REST. Puede realizar detección de dominios y análisis del registro de asuntos en almacenes de datos de
servicios REST.
Para obtener información sobre cómo configurar la conectividad a los orígenes, consulte la Guía del
administrador de Informatica Data Privacy Management.
Data Transformation
Lea esta sección para conocer las novedades de Data Transformation en la versión 10.5.1.
Para obtener más información sobre la biblioteca HIX, consulte la Guía de bibliotecas de Data Transformation
10.5.
Advanced Scanners
Nuevos escáneres avanzados
A partir de la versión 10.5.1, puede extraer metadatos utilizando los siguientes escáneres avanzados:
Para obtener más información, consulte la Guía de configuración de Advanced Scanners de Enterprise Data
Catalog.
Data Transformation 39
Ámbitos globales en SSIS
A partir de la versión 10.5.1, puede configurar ámbitos globales y ámbitos de nivel de paquete en el archivo
de valores predeterminados del escáner del servicio de integración de Microsoft SQL Server (SSIS).
Para obtener más información, consulte el artículo de la base de conocimientos "CÓMO: Configurar ámbitos
globales y ámbitos de nivel de paquete en el archivo de valores predeterminados del escáner del servicio de
integración de SQL Server".
En la versión 10.5.1, Data Asset Analytics muestra métricas clave y gráficos basados en datos analíticos
almacenados en tablas precalculadas en el repositorio de Data Asset Analytics.
Antes de actualizar a la versión 10.5.1, debe ejecutar la utilidad Data Asset Analytics para rellenar las tablas
precalculadas.
Para obtener más información, consulte la Guía del usuario de Informatica Enterprise Data Catalog.
Implementación de Docker
A partir de la versión 10.5.1, puede implementar un dominio de Informatica y los servicios de aplicación para
Informatica Data Quality y Data Engineering Quality en un contenedor de Docker.
Para obtener más información, consulte la Guía de instalación de Informatica 10.5.1 para PowerCenter y Data
Quality.
Para obtener más información, consulte la Guía de Informatica 10.5.1 Analyst Tool.
Transformaciones de Informatica
Lea esta sección para conocer las novedades de las transformaciones de Informatica en la versión 10.5.1.
Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.5.1, consulte la Guía de desarrollador de Informatica
Address Verification 5.16.1.
Adaptadores de PowerExchange
Lea esta sección para conocer las novedades de los adaptadores de PowerExchange en la versión 10.5.1.
• Puede configurar un servidor proxy para conectarse a Amazon S3 y ejecutar una asignación en el motor
de Spark.
• Puede ejecutar una asignación en el motor de Databricks Spark para leer y escribir datos en archivos
Avro, ORC y Parquet que estén particionados en función de directorios.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5.1 PowerExchange for Amazon
S3.
Seguridad (10.5.1)
Lea esta sección para conocer las novedades de la seguridad del dominio en la versión 10.5.1.
Configure la delegación restringida cuando desee restringir el acceso a los servicios mediante la
autenticación delegada. Puede utilizar este método para restringir los servicios adicionales a los que puede
solicitar acceso un usuario o servicio autenticado con Kerberos.
Char
Date
Timestamp
Varchar
Para obtener información sobre los tipos de datos, consulte la Guía del usuario de Test Data Management.
Anteriormente, los datos exportados no incluían información sobre el recuento de impresiones para las
directivas de clasificación.
Para obtener información sobre cómo exportar información de campos confidenciales, consulte la Guía del
usuario de Informatica Data Privacy Management
Transformaciones de Informatica
Lea esta sección para conocer los cambios en las transformaciones de Informatica en la versión 10.5.1.
44
Transformación del validador de direcciones
Lea esta sección para conocer los cambios en la transformación del validador de direcciones en la versión
10.5.1.
Anteriormente, la transformación utilizaba la versión 5.15.0 del motor de software Informatica Address
Verification.
Australia
Informatica presenta las siguientes mejoras para Australia:
Estándar AMAS
A partir de la versión 10.5.1, Informatica es compatible con el estándar 2021 Address Matching Approval
System (AMAS) para el software de verificación de direcciones.
Anteriormente, Informatica era compatible con el estándar 2019 AMAS para el software de verificación
de direcciones.
A partir de la versión 10.5.1, la transformación del validador de direcciones permite una optimización
AMPLIA cuando verifica datos de Australia en modo certificado.
Nota: El estándar de certificación AMAS no admite direcciones que verifique con el nivel de optimización
AMPLIA. Puede establecer el nivel de optimización en modo certificado para evaluar el efecto del nivel
en sus datos. Si planea enviar un conjunto de direcciones al servicio postal australiano como
certificadas según el estándar AMAS, use un nivel de optimización ESTÁNDAR.
Canadá
A partir de la versión 10.5.1, Informatica es compatible con el estándar 2020 Software Evaluation and
Recognition Program (SERP) para el software de verificación de direcciones.
Anteriormente, Informatica era compatible con el estándar 2019 SERP para el software de verificación de
direcciones.
Nueva Zelanda
A partir de la versión 10.5.1, Informatica es compatible con el estándar 2020 SendRight para el software de
verificación de direcciones.
Anteriormente, Informatica era compatible con el estándar 2019 SendRight para el software de verificación
de direcciones.
Estados Unidos
A partir de la versión 10.5.1, la transformación del validador de direcciones puede asignar diferentes
puntuaciones a candidatos de alias de calle para una dirección determinada.
Anteriormente, la transformación del validador de direcciones asignaba una única puntuación común a los
candidatos de alias de calle.
Transformaciones de Informatica 45
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía del desarrollador de Informatica Address Verification 5.16.1.
Las diferencias pueden deberse a cambios en las bibliotecas internas de Intelligent Structure Discovery.
Para obtener más información sobre los modelos de estructura inteligente, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.1.
Anteriormente, los servicios asociados al servicio de clúster de Informatica solo estaban habilitados para
SSL si habilitaba la comunicación segura para el dominio.
Data Asset Analytics muestra las métricas clave basadas en la cantidad total de recursos, activos,
enriquecimientos y colaboraciones creados y disponibles durante el intervalo de tiempo especificado en el
catálogo.
Anteriormente, Data Asset Analytics mostraba las métricas clave basadas en la cantidad total de recursos,
activos, enriquecimientos y colaboraciones agregados al catálogo durante el intervalo de tiempo
especificado.
• Versión 10.5.0.1, 49
• Avisos importantes de la versión 10.5, 53
• Novedades de la versión 10.5, 62
• Cambios en la versión 10.5, 91
48
Capítulo 5
Versión 10.5.0.1
Este capítulo incluye los siguientes temas:
• Avisos importantes, 49
• Novedades, 49
• Cambios, 50
Avisos importantes
Lea esta sección para conocer los avisos importantes en la versión 10.5.0.1.
Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.0.1.
Aplazamiento
A partir de la versión 10.5.0.1, Informatica levantó el aplazamiento para Cloudera CDH 6.3.
Soporte adicional
A partir de la versión 10.5.0.1, Informatica admite comunicaciones de doble pila para los formatos de
dirección del Protocolo de Internet versión 4 (IPv4) y del Protocolo de Internet versión 6 (IPv6) en
Informatica Data Quality.
Los componentes que admiten comunicaciones de doble pila incluyen el dominio de Informatica, los
servicios de aplicación que utiliza Informatica Data Quality, y Developer tool y la Herramienta del
analista.
Para obtener más información, consulte la Statement of Support for IPv6 in Informatica Products.
Novedades
Lea esta sección para conocer las novedades de la versión 10.5.0.1.
49
Almacenes de datos
A partir de la versión 10.5.0.1, puede crear un almacén de datos de Active Directory. Cree el almacén de
datos en la categoría Almacén de datos de aplicación. El almacén de datos crea un recurso JDBC
correspondiente en Enterprise Data Catalog.
Para obtener información sobre los almacenes de datos, consulte la Guía del usuario de Informatica Data
Privacy Management.
Exploraciones
A partir de la versión 10.5.0.1, puede incluir los siguientes almacenes de datos y tipos de archivos en las
exploraciones:
Puede incluir tipos de archivos de Presentaciones de Google, Hojas de cálculo de Google y Documentos
de Google en las exploraciones de detección de dominios y en las exploraciones del registro de asunto
de un almacén de datos de Google Drive.
Scality Ring 8
Puede incluir sistemas de almacenamiento Scality Ring 8 en un almacén de datos de Amazon S3 que
cree con los tipos de almacenamiento compatibles con Amazon S3. Puede realizar exploraciones de
detección de dominios y exploraciones del registro de asunto de los almacenes de datos de
transacciones.
Active Directory
Puede realizar exploraciones de detección de dominios y exploraciones del registro de asunto de los
almacenes de datos de Active Directory.
Para obtener información sobre las exploraciones, consulte la Guía del usuario de Informatica Data Privacy
Management.
Advanced Scanners
A partir de la versión 10.5.0.1, puede extraer metadatos, incluidos los procedimientos almacenados,
utilizando el escáner avanzado Greenplum:
Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.
Cambios
Lea esta sección para conocer los cambios en la versión 10.5.0.1.
La nueva versión permite extraer el linaje de los siguientes orígenes de datos de Snowflake:
• Procedimientos almacenados
• Funciones
• Canales
• Etapas
El recurso que configuró en Catalog Administrator se ha dejado de usar.
Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.
Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.
Para obtener más información, consulte "SAP Business Warehouse (SAP BW)" y "SAP BW/4HANA" en la Guía
de configuración de escáneres de Enterprise Data Catalog 10.5.
Las siguientes características están disponibles para el escáner avanzado de Microsoft Power BI:
• Soporte de proxy habilitado, que le permite proporcionar un host de proxy y un puerto de proxy.
Opcionalmente, puede proporcionar autenticación para el proxy en forma de nombre de usuario y
contraseña.
• Linaje detallado para conjuntos de datos que incluye campos y cálculos dentro de los conjuntos de datos.
• Soporte habilitado para ver el linaje de orígenes externos.
El recurso que configuró en Catalog Administrator se ha dejado de usar.
Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.
Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.
Cambios 51
Servicio de integración de SQL Server mejorado
A partir de la versión 10.5.0.1, puede extraer metadatos utilizando una versión mejorada del recurso servicio
de integración de SQL Server. La nueva versión proporciona un mejor linaje.
Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.
Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.
Anteriormente, el servicio de integración de datos omitía el valor del calificador de texto que especificaba y
usaba las comillas dobles predeterminadas en su lugar.
Para conservar el comportamiento anterior, edite la asignación existente, establezca el calificador de texto
en comillas dobles y vuelva a ejecutar la asignación.
• Cambios en la compatibilidad , 53
• Nuevos productos, 57
• Programa de instalación de Informatica, 57
• Tareas de la versión, 61
Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.
Puede utilizar el análisis de flujo de datos para ver datos analíticos sobre las asignaciones de
PowerCenter en el catálogo. Puede utilizar los datos para mejorar la calidad y la eficiencia de la
asignación en su empresa. También puede ver las asignaciones como diagramas para facilitar su
comprensión.
Los datos analíticos incluyen detalles sobre las siguientes métricas de asignación:
• Asignaciones similares
• Asignaciones duplicadas
• Mapplets, transformaciones y funciones de usuario reutilizables para expresiones complejas
Además, los datos también incluyen los detalles del grupo de asignación y los detalles de detección de
asignación para proporcionar información adicional sobre los datos de asignación. Puede descargar los
datos analíticos como informes para un análisis más detallado o mejorar los informes utilizando
soluciones de informes de terceros.
53
Para obtener más información, consulte la Guía del usuario de Enterprise Data Catalog 10.5.
Puede utilizar un instalador basado en interfaz gráfica de usuario para instalar PowerCenter y Data
Engineering Integration en plataformas Linux. El instalador proporciona una interfaz fácil e interactiva
para ejecutar Pre-installation (i10Pi) System Check Tool, instalar el dominio de Informatica y configurar
el dominio y los servicios de aplicación.
Para obtener más información, consulte Instalar PowerCenter en Kubernetes con Informatica Deployment
Manager o Instalar Data Engineering Integration en Kubernetes con Informatica Deployment Manager.
Cuando crea un modelo de estructura inteligente, puede seleccionar un archivo XSD en el cual basar el
modelo.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.
• Puede leer objetos almacenados en subdirectorios en Microsoft Azure Data Lake Storage Gen2 en el
entorno nativo o en el motor de Spark.
• Puede utilizar caracteres comodín para especificar el nombre del directorio de origen o el nombre del
archivo de origen cuando lee datos de un archivo sin formato o complejo en el entorno nativo o en el
motor de Spark.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.
Para Enterprise Data Catalog, puede realizar una copia de seguridad del catálogo sin deshabilitar el
servicio de catálogo. Puede realizar una copia de seguridad del catálogo mediante las API de REST, la
interfaz de Enterprise Data Catalog o Catalog Administrator. Para obtener más información, consulte la
sección Utilidades de recopilación de registros y copia de seguridad del catálogo en la Guía de
Informatica 10.5 Catalog Administrator o la Guía del usuario de Informatica 10.5 Enterprise Data Catalog.
Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP usa un clúster base y
clústeres de carga de trabajo para ejecutar trabajos de ingeniería de datos. Esta arquitectura permite
Puede usar Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las siguientes
conexiones:
Para obtener más información, consulte la Guía de integración de Data Engineering 10.5.
Vista compacta
Puede optar por mostrar la vista compacta de la vista Linaje e impacto. La vista Linaje e impacto
compacta muestra el diagrama de linaje e impacto resumido en el nivel de recursos.
Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la
Guía del usuario de Informatica 10.5 Enterprise Data Catalog.
Parámetros de sustitución para destinos de Amazon S3 y Azure Data Lake Storage Gen2
Para Data Engineering Streaming, puede usar diferentes parámetros de sustitución para destinos
Amazon S3 y Azure Data Lake Storage Gen2 a fin de decidir el tiempo de sustitución o el tamaño para
cada destino. Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming
10.5.
Para Enterprise Data Catalog, puede extraer metadatos del origen de datos SAP S/4HANA. Para obtener
más información, consulte la Guía de configuración del escáner de Enterprise Data Catalog 10.5.
Para Enterprise Data Catalog, puede recopilar registros para los recursos. Además, puede recopilar
registros para los siguientes servicios:
Se pueden generar candidatos de clave única a partir de las columnas en el objeto de datos de origen.
Puede ver los resultados de la inferencia de clave única para comprender los problemas de calidad de
los datos identificando las columnas que tienen valores duplicados. Puede aceptar o rechazar los
resultados de inferencia de claves únicas deducidas. Después de aceptar o rechazar una inferencia de
clave única deducida, puede restablecer la inferencia de clave única para restaurar el estado deducido.
Cambios en la compatibilidad 55
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario
de Informatica 10.4.0 Enterprise Data Catalog.
En desuso
A partir de la versión 10.5, la siguiente funcionalidad ha caído en desuso:
A partir de la versión 10.5, no puede instalar Enterprise Data Catalog en un clúster de Hadoop.
Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.
A partir de la versión 10.5, la funcionalidad para extraer el linaje de datos a nivel de columna para
procedimientos almacenados en Oracle y SQL Server ha caído en desuso y se eliminará en una versión
futura de Enterprise Data Catalog.
Informatica recomienda que utilice Advanced Scanners para extraer el linaje de datos a nivel de columna
para procedimientos almacenados en Oracle y SQL Server.
Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.
A partir de la versión 10.5, la funcionalidad para extraer el linaje de datos a nivel de columna que incluye
la lógica de transformación desde los siguientes orígenes de datos ha caído en desuso y se eliminará en
una versión futura de Enterprise Data Catalog.
Informatica recomienda que utilice Advanced Scanners para extraer metadatos para el linaje de datos a
nivel de columna para el origen de datos de Oracle Data Integrator y los orígenes de datos de IBM
InfoSphere DataStage.
Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.
En la versión 10.5, infacmd dis compareMapping ya no se admite y se eliminará en una futura versión.
Si utiliza scripts basados en infacmd dis compareMapping, Informatica recomienda que los actualice
con el nuevo comando infacmd dis compareObject. La funcionalidad en desuso es compatible, pero
Informatica quiere dejar de proporcionar soporte en una versión posterior. Informatica solicita que pase
a otra funcionalidad antes de que esta se elimine.
A partir de la versión 10.5, la compatibilidad con Universal Connectivity Framework ha caído en desuso.
Para obtener información adicional, comuníquese con Informatica Global Customer Support.
Aplazamiento
A partir de la versión 10.5, Cloudera CDH 6.3 se aplaza.
La funcionalidad diferida no está disponible o no es compatible con la versión actual. Informatica tiene la
intención de reinstaurarla, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Kudu.
La siguiente tabla enumera las rutas de actualización para cada producto que admite el instalador.
Producto Versiones
PowerCenter Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
Informatica Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Quality paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
Data Engineering Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Integration paquetes de servicio:
Data Engineering - 10.1.1
Quality - 10.2
- 10.2.1
- 10.2.2
- 10.4
- 10.4.1
Importante: Si Data Engineering está en el mismo dominio que cualquier otro producto
compatible con el instalador de Informatica, verifique que todos los productos estén
actualizados a la misma versión de actualización compatible antes de actualizar a la 10.5.
Nuevos productos 57
Producto Versiones
Data Engineering Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Streaming paquetes de servicio:
- 10.2.2
- 10.4
- 10.4.1
Data Privacy Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Management servicio:
- 10.4
- 10.4.1
Importante: Si Data Engineering, Enterprise Data Catalog y Data Privacy Management están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 antes
de actualizar a la 10.5.
Enterprise Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Catalog servicio:
- 10.4
- 10.4.1
Importante: Si Enterprise Data Catalog y Data Engineering están en el mismo dominio de una
versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1 antes de actualizar a
10.5.
Enterprise Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Preparation servicio:
- 10.4
- 10.4.1
Importante: Si Data Engineering, Enterprise Data Catalog y Enterprise Data Preparation están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 o
10.4.1 antes de actualizar a la 10.5.
Test Data Puede actualizar a la versión 10.5 desde las siguientes versiones:
Management - 10.2.0 HotFix 2
- 10.4 y todos los paquetes de servicios
- 10.4.1 y todos los paquetes de servicios
Data Engineering
A partir de la versión 10.5, las opciones del instalador de Data Engineering incluyen la siguiente actualización
y características adicionales:
Google Dataproc
Puede crear Google DataProc para la configuración del clúster cuando ejecuta el instalador.
Para obtener más información, consulte la Guía de instalación de Informatica 10.5 para Data Engineering.
A partir de la versión 10.5, instale Data Privacy Management en un clúster que no es de Hadoop. El
instalador incluye una base de datos MongoDB empaquetada que se utiliza para los datos del Registro
de asuntos.
Puede crear el repositorio de Data Privacy Management en una base de datos PostgreSQL.
Puede usar una versión de Elasticsearch con características de X-Pack si desea incluir TLS y
autenticación para Elasticsearch. Debe tener el archivo .tar de la versión de Elasticsearch requerida.
Configuración avanzada
Puede habilitar la configuración avanzada para Data Privacy Management. Si habilita la configuración
avanzada, puede especificar valores para las propiedades de Elasticsearch y Spark. De lo contrario, el
instalador utiliza los valores predeterminados. Data Privacy Management usa Elasticsearch y Spark para
tareas relacionadas con el monitoreo de la actividad del usuario.
Para obtener más información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.
Dominio
A partir de la versión 10.5, las opciones del instalador del dominio de Informatica incluyen la siguiente
actualización y características adicionales:
SAML
Puede habilitar la firma de solicitudes, la respuesta firmada y las funciones de autenticación SAML de
aserción cifrada durante la creación del dominio.
Informatica aumentó el tamaño de la clave del sitio de 128 bits a 256 bits.
Puede instalar Enterprise Data Catalog y Enterprise Data Catalog Advanced Scanners con un único
instalador. Durante la instalación de Enterprise Data Catalog, puede elegir si desea instalar Enterprise
Data Catalog Advanced Scanners.
Enterprise Data Catalog y Enterprise Data Catalog Advanced comparten un archivo de licencia común.
Enterprise Data Catalog Advanced Scanners lee los detalles de la licencia del servicio Enterprise Data
Catalog.
Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.
Alta disponibilidad
Puede implementar Enterprise Data Catalog en uno, tres o seis nodos incluidos en un clúster.
Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.
Las actualizaciones se deben a los cambios en la implementación, los servicios asociados y el protocolo
de autenticación.
Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.
Las opciones para implementar Enterprise Data Catalog en un clúster integrado o existente ya no
existen.
Base de datos para almacenar información relacionada con el perfil de similitud en lugar de HBase
Nomad
MongoDB
Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.
Utilidad de exportación
Debe utilizar la utilidad para realizar una copia de seguridad de los datos del catálogo además de utilizar
el comando LDM BackupContents para hacer una copia de seguridad de los datos del catálogo.
Para más información, consulte Actualización desde las versiones 10.4.0 y posteriores.
Debe usar el comando LDM migrateContents para restaurar los datos después de actualizar Enterprise
Data Catalog a la versión 10.5.
Para más información, consulte Actualización desde las versiones 10.4.0 y posteriores y Referencia de
comandos de Informatica.
Para más información, consulte los artículos de la biblioteca de procedimientos (H2L) Instalar PowerCenter
(10.4.x - 10.5.0) en Docker con Informatica Deployment Manager e Instalar Data Engineering Integration (10.4.x
- 10.5.0) en Kubernetes con Informatica Deployment Manager.
PowerCenter
A partir de la versión 10.5, cuando se une a un dominio, puede crear y configurar el servicio de integración de
PowerCenter y el servicio de repositorio de PowerCenter.
Tareas de la versión
Lea esta sección para conocer las tareas que debe realizar después de actualizar a la versión 10.5.
Para garantizar la compatibilidad con los planes creados anteriormente y generar una salida enmascarada
coherente después de la actualización, puede crear una propiedad de proyecto para elegir utilizar el
algoritmo anterior. Establezca el valor de la propiedad en true para proyectos que requieran compatibilidad
con versiones anteriores o en false si desea utilizar el algoritmo actualizado.
Para obtener información sobre cómo utilizar la opción en una regla de enmascaramiento y cómo configurar
una propiedad de proyecto, consulte la Guía del usuario de Test Data Management 10.5.
Tareas de la versión 61
Capítulo 7
• CI/CD, 62
• Programas de la línea de comandos, 66
• Data Engineering Integration, 71
• Data Engineering Quality, 73
• Data Engineering Streaming, 74
• Data Privacy Management, 75
• Data Transformation, 77
• Enterprise Data Catalog, 77
• Enterprise Data Preparation, 81
• Transformaciones de Informatica, 81
• Flujos de trabajo de Informatica, 82
• Modelos de estructura inteligente, 82
• Metadata Manager, 82
• PowerCenter , 83
• Adaptadores de PowerExchange, 84
• Seguridad, 88
• Test Data Management, 89
CI/CD
Lea esta sección para conocer las novedades de CI/CD en la versión 10.5.
A partir de la versión 10.5, puede comparar objetos entre el servicio de integración de datos y el servicio
de repositorio de modelos. Puede comparar objetos dentro de un dominio o entre varios dominios.
62
En la siguiente tabla se describen las opciones y los argumentos de infacmd dis compareMapping:
CI/CD 63
Opción Argumento Descripción
Parámetros de consulta
A partir de la versión 10.5, puede utilizar los parámetros Tipo y Objeto en consultas de comandos
infacmd para recuperar objetos en tiempo de diseño. Puede utilizar los parámetros con los comandos
infacmd dis compareObject, queryRunTimeObjects, queryDesignTimeObjects, deployObjectsToFile,
replaceAllTag, tag y untag. Para obtener más información, consulte la Referencia de comandos de
Informatica 10.5.
CI/CD 65
Programas de la línea de comandos
Lea esta sección para conocer las novedades de los programas de línea de comandos en la versión 10.5.
Opción Descripción
-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.
-EnableAudit Opcional. Indica si la asignación ejecuta las reglas y condiciones de auditoría configuradas para la
-ea asignación. El valor predeterminado es false.
Comandos de infasetup
A partir de la versión 10.5, puede usar comandos infasetup para definir o actualizar el dominio o los nodos
de dominio para configurar o mejorar la autenticación SAML para aplicaciones web.
Cada una de las siguientes secciones describe nuevas opciones para los comandos infasetup:
defineDomain
La siguiente tabla describe las nuevas opciones para el comando infasetup defineDomain:
Opción Descripción
defineGatewayNode
La siguiente tabla describe las nuevas opciones para el comando infasetup defineGatewayNode:
Opción Descripción
defineWorkerNode
La siguiente tabla describe las nuevas opciones para el comando infasetup defineWorkerNode:
Opción Descripción
-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que
-skd se necesita para utilizar la autenticación SAML en el nodo de puerta de enlace.
Especifique solo el directorio, no la ruta de acceso completa al archivo.
updateGatewayNode
La siguiente tabla describe las nuevas opciones para el comando infasetup updateGatewayNode:
Opción Descripción
-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.
updateWorkerNode
La siguiente tabla describe las nuevas opciones para el comando infasetup updateWorkerNode:
Opción Descripción
-CipherWhiteList Opcional. Lista separada por comas de los conjuntos de cifrado JSSE que quiere añadir a
-cwl la lista efectiva.
Nota: La lista debe contener al menos un conjunto de cifrado JRE u OpenSSL válido.
-CipherBlackList Opcional. Lista separada por comas de los conjuntos de cifrado JSSE que quiere quitar de
-cbl la lista efectiva.
Nota: La lista efectiva debe contener al menos un conjunto de cifrado JRE u OpenSSL
válido.
-CipherWhiteListFile Opcional. Nombre de archivo absoluto del archivo de texto sin formato que contiene una
-cwlf lista separada por comas de los conjuntos de cifrado que quiere añadir a la lista efectiva.
Nota: La lista debe contener al menos un conjunto de cifrado JRE u OpenSSL válido.
-CipherBlackListFile Opcional. Nombre de archivo absoluto del archivo de texto sin formato que contiene una
-cblf lista separada por comas de los conjuntos de cifrado que quiere quitar de la lista efectiva.
Nota: La lista efectiva debe contener al menos un conjunto de cifrado JRE u OpenSSL
válido.
-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.
updateDomainSamlConfig
La siguiente tabla describe las nuevas opciones para el comando infasetup updateDomainSamlConfig:
Opción Descripción
-RequestSigningPrivateKeyPassword Contraseña de texto sin formato de la clave privada que utiliza Informatica
-rspp para firmar la solicitud.
El valor predeterminado es la contraseña de la clave privada presente en el
archivo del almacén de claves <inicio de Informatica>\services
\shared\security\infa_keystore.jks con el alias "Informatica LLC".
-SamlResponseSigned Establezca esta opción en true para especificar si el IDP firma la respuesta
-srs SAML.
Nota: Cuando se establece en TRUE, requiere que el administrador de IDP
configure el proveedor de identificación para firmar la respuesta.
El valor predeterminado es false.
-SamlAssertionEncrypted Establezca esta opción en true para especificar que el IDP cifra la aserción.
-sae Nota: Cuando se establece en TRUE, requiere que el administrador de IDP
configure el proveedor de identificación para cifrar la aserción.
El valor predeterminado es false.
infasetup defineDomain
A partir de la versión 10.5, puede usar una nueva opción de infasetup para requerir que las aplicaciones web
usen HTTPS cuando se comunican con el dominio.
Opción Descripción
EnableHsts Opcional. Establezca esta opción en TRUE para habilitar la seguridad de transporte estricta HTTP. La
-hsts seguridad de transporte estricta de HTTP requiere que las aplicaciones web utilicen HTTPS.
Función EXTRACT_STRUCT
A partir de la versión 10.5, puede utilizar la función EXTRACT_STRUCT en expresiones dinámicas para extraer
todos los elementos de un puerto de estructura dinámica en una transformación de expresión.
La función EXTRACT_STRUCT aplana los puertos de estructura dinámica. La expresión para los puertos de
salida usa el operador de punto para extraer elementos en la estructura dinámica.
Para obtener más información, consulte la Referencia del lenguaje de transformación de Informatica 10.5.
Comandos de filemanager
La siguiente tabla describe los comandos disponibles para la utilidad filemanager:
Comandos Descripción
copy Utilice el comando copy para copiar archivos en un ecosistema de nube de Amazon AWS.
copyfromlocal Utilice el comando copyfromlocal para copiar archivos de un sistema local a un ecosistema en la
nube.
rename Utilice el comando rename para cambiar el nombre a los archivos en un ecosistema en la nube.
watch Utilice el comando watch para ver archivos que desencadenan un evento de procesamiento de
archivos, asignación o flujo de trabajo en un ecosistema en la nube.
Asignación de auditorías
Puede crear una auditoría para validar la coherencia y precisión de los datos que se procesan en una
asignación.
Una auditoría se compone de reglas y condiciones. Utilice una regla para calcular un valor agregado para una
sola columna de datos. Utilice una condición para realizar comparaciones entre varias reglas o entre una
regla y valores constantes.
Puede configurar auditorías para las siguientes asignaciones que se ejecutan en el entorno nativo o en el
motor de Spark:
• Leer operaciones en asignaciones de Snowflake, Microsoft Azure SQL Data Warehouse, JDBC V2 y
Amazon S3.
• Leer operaciones para archivos complejos como Avro, Parquet y JSON en asignaciones HDFS.
• Leer y escribir operaciones en asignaciones de Hive y Oracle.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.
Puede crear y ejecutar perfiles en el clúster de Databricks en las herramientas Informatica Developer e
Informatica Analyst. Puede realizar la detección de dominios de datos y la creación de cuadros de
mandos en el clúster de Databricks.
Para obtener información sobre los perfiles en el clúster de Databricks, consulte Guía de Informatica 10.5
Data Discovery.
Las recomendaciones enumeran columnas de origen que contienen datos confidenciales según las reglas de
calidad de los datos. También puede agregar tipos personalizados a los datos confidenciales que detecta
CLAIRE.
Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.
Cuando configura las instancias de grupo intermedio en el entorno de Databricks, entran en modo de espera
en un estado de ejecución para la creación de un clúster efímero. Puede optar por que las instancias
permanezcan en espera cuando finalicen los clústeres efímeros.
Para obtener más información, consulte el capítulo sobre flujos de trabajo de clústeres en la Guía del usuario
de Data Engineering Integration.
Integración de Databricks
A partir de la versión 10.5, puede agregar las siguientes transformaciones a una asignación que se ejecuta
en un entorno de Azure Databricks o AWS Databricks:
• Validador de direcciones
• Conversión de mayúsculas y minúsculas
• Clasificador
• Consolidación
• Decisión
• Generador de claves
Cassandra
A partir de la versión 10.5, se puede utilizar Cassandra como destino en las asignaciones de transmisión.
Cassandra es una base de datos NoSQL de código abierto que es altamente escalable y proporciona alta
disponibilidad. Puede utilizar Cassandra para almacenar grandes cantidades de datos distribuidos en
centros de datos o cuando sus aplicaciones requieran una alta velocidad de acceso de escritura.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
DataProc
A partir de la versión 10.5, Data Engineering Streaming admite DataProc para la configuración de clústeres.
Google Dataproc es una implementación ligera de Hadoop y Apache Spark en la plataforma en la nube de
Google. Cuando integra Informatica Data Engineering Streaming con Dataproc, configura un dominio de
Informatica local para ejecutar trabajos en el clúster de nube de Dataproc. Debe configurar el clúster de
Dataproc antes de integrar el clúster con Data Engineering Streaming.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
Google PubSub
A partir de la versión 10.5, se puede utilizar Google PubSub como destino en las asignaciones de
transmisión.
Utilice un origen de Google PubSub para leer mensajes de la suscripción configurada de Google Cloud
PubSub.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
En el modo de alta precisión, el motor de Spark admite tipos de datos decimales con precisión de hasta 38
dígitos y una escala máxima de 38. La escala debe ser menor que la precisión.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
Kudu
A partir de la versión 10.5, se puede utilizar Kudu como destino en las asignaciones de transmisión.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.
Para obtener instrucciones e información sobre cómo personalizar el logotipo, consulte el capítulo
"Configuración del sistema" en la Guía del usuario de Informatica Data Privacy Management 10.5.
Puede configurar un dominio de datos para que devuelva una coincidencia cuando coincidan los metadatos
o la condición de los datos.
Puede utilizar la regla de coincidencia en los dominios de datos que cree en Data Privacy Management e
importe desde un archivo CSV.
Para obtener información, consulte la Guía del usuario de Informatica Data Privacy Management.
Para obtener información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.
Panel de privacidad
A partir de la versión 10.5, el panel de privacidad incluye las siguientes características:
Puede ver información detallada sobre temas y solicitudes de temas en las páginas detalladas sobre los
siguientes indicadores del panel de privacidad:
• Principales almacenes de datos por asunto. Vea información adicional sobre todos los almacenes de
datos del Registro de asuntos y abra las páginas relacionadas desde los valores de columna
seleccionados.
• Datos del asunto por ubicación. Vea información detallada sobre los almacenes de datos que
contienen temas filtrados por ubicación.
• Solicitudes de asunto por tipo. Vea información sobre solicitudes de asunto filtradas por tipo de
solicitud y vea las páginas de tareas correspondientes.
• Solicitudes de asunto por fecha de vencimiento. Vea información sobre solicitudes de asunto
filtradas por fecha de vencimiento y vea las páginas de tareas correspondientes.
Puede aplicar filtros globales en la página principal del panel de privacidad. Puede aplicar filtros
globales y específicos de página desde cada una de las páginas de indicadores que se abren.
Para obtener información sobre el panel de privacidad y los filtros disponibles en el panel, consulte el
capítulo "Panel de privacidad" en la Guía del usuario de Informatica Data Privacy Management 10.5.
Orígenes
A partir de la versión 10.5, puede incluir los siguientes tipos de archivos y conexiones en los análisis:
Puede crear un almacén de datos y utilizar Informatica Discovery Agent para realizar la detección de
dominios en un servidor de correo electrónico de Office 365 Outlook.
Puede incluir imágenes y archivos PDF escaneados en exploraciones de detección de dominios que
utilizan Informatica Discovery Agent. Cuando habilita el reconocimiento óptico de caracteres, puede
optar por incluir un tipo de archivo de imagen adicional en un almacén de datos no estructurado. La
página Archivos confidenciales incluye un filtro de imagen adicional Tipo de archivo.
Para obtener información sobre cómo crear un almacén de datos y cómo utilizar los orígenes de datos en un
almacén de datos no estructurado, consulte la Guía del usuario de Informatica Data Privacy Management
10.5.
Data Transformation
Lea esta sección para conocer las novedades de Data Transformation en la versión 10.5.
Puede utilizar un motor de Data Transformation de velocidad mejorada para las validaciones de VRL con
los servicios de Data Transformation. Esta mejora no afecta a los servicios de Data Transformation
existentes que utilizan validaciones de VRL.
Para obtener más información, consulte la Guía del usuario de Data Transformation 10.5.
Puede usar el atributo xsd:nillable para marcar los elementos XSD como nillable. Cuando marca un
elemento como nillable, el elemento correspondiente en el archivo XML permite valores nulos.
Para obtener más información, consulte la Guía del usuario de Data Transformation 10.5.
Advanced Scanners
Lea esta sección para conocer las novedades de Advanced Scanners en la versión 10.5:
Puede extraer el linaje de orígenes ETL y herramientas de informes sin la necesidad de definir
conexiones en vivo a los sistemas vinculados, como bases de datos y sistemas de archivos. En ciertos
casos, esas conexiones son necesarias si los metadatos del sistema de origen no describen
completamente los sistemas vinculados.
Data Transformation 77
Nota: Si no se proporciona la conexión al sistema de origen o de destino, no se procesa el linaje de las
llamadas a procedimientos almacenados.
Puede editar una base de datos en el Registro de conexiones seleccionando de una lista de opciones
disponibles y rellenando los campos obligatorios. También puede utilizar la URL de base de datos
sugerida.
Puede configurar todos los Advanced Scanners para extraer metadatos de orígenes de datos u otros
recursos del catálogo a los que hacen referencia los escáneres.
Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.
Clonación de un recurso
A partir de la versión 10.5, puede clonar un recurso mediante Catalog Administrator. La clonación de un
recurso le permite crear una copia de un recurso existente y luego modificar la configuración según sea
necesario.
Para obtener instrucciones e información sobre cómo clonar un recurso, consulte el capítulo "Clonación de
un recurso" en la Guía de Informatica 10.5 Catalog Administrator.
Para obtener más información, consulte el capítulo sobre la búsqueda de activos en la Guía del usuario de
Informatica 10.5 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre la personalización de la búsqueda en la Guía del
usuario de Informatica 10.5 Enterprise Data Catalog.
Los activos que aparecen en la página de resultados de búsqueda contienen la siguiente información:
• Título empresarial
• Nombre técnico
• Ruta de acceso de activos
• Estado de la certificación
• Tipo de activo
• Calificaciones
Nuevos tutoriales
A partir de la versión 10.5, Enterprise Data Catalog incluye nuevos tutoriales para Enterprise Data Catalog.
También se presentan tutoriales para Catalog Administrator.
Los siguientes nuevos tutoriales están disponibles en Catalog Administrator y Enterprise Data Catalog:
Catalog Administrator
• Configuración de la aplicación
• Descripción general del término comercial
• Descripción general del dominio de datos
• Conservar dominios de datos
• Descripción general de recursos
Nota: Antes de acceder a los tutoriales, verifique que tenga acceso a los siguientes dominios de Walkme:
• https://cdn.walkme.com
• https://playerserver.walkme.com
• https://ec.walkme.com
• https://rapi.walkme.com
• https://papi.walkme.com
Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía
del usuario de Informatica Enterprise Data Catalog 10.5.
Para obtener más información, consulte el capítulo "Conceptos de Enterprise Catalog" en la Guía de
Informatica 10.5 Enterprise Data Catalog Administrator.
Mejoras de recursos
A partir de la versión 10.5, Enterprise Data Catalog incluye las siguientes mejoras de recursos:
Puede utilizar el recurso SAP S/4HANA para extraer la siguiente información de creación de perfiles
para un activo de tabla:
• Detección de dominio
• Creación de perfiles de columna
• Detección de relaciones
Puede configurar el recurso SAP S/4HANA para conectarse al servidor de SAP mediante la conexión de
comunicaciones de red seguras (SNC).
Recurso de Salesforce
Puede configurar un recurso de Salesforce para utilizar la autenticación OAuth para conectarse a un origen
de datos de Salesforce.
Recurso de Axon
Puede configurar un recurso Axon para extraer y cargar objetos Axon específicos en el catálogo.
A partir de la versión 10.5, puede importar conjuntos de datos filtrados para la preparación de datos.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.5.
A partir de la versión 10.5, puede utilizar caracteres especiales o multibyte en los nombres de esquema,
tabla o columna. Para obtener más información, consulte la Guía del usuario de Enterprise Data
Preparation 10.5.
Transformaciones de Informatica
Lea esta sección para conocer las novedades de las transformaciones de Developer tool en la versión 10.5.
Cifrado
Puede utilizar la técnica de cifrado para cifrar o descifrar los datos de origen. Puede configurar la
técnica para conservar el formato y los metadatos, conservar los metadatos o cambiar los metadatos.
Orden de clasificación
Puede establecer el orden de las entradas en un diccionario relacional que utilice para el
enmascaramiento de sustitución. Establezca el orden de las entradas en el diccionario según la columna
del número de serie para asegurarse de que el orden sea coherente y genere datos enmascarados
coherentes.
Optimice el uso del diccionario para aumentar el número de valores enmascarados que se utilizan en el
diccionario en una técnica de enmascaramiento de sustitución que configure para una salida repetible.
Para obtener más información, consulte el capítulo "Transformación del enmascaramiento de datos" de la
Guía de transformación de Informatica 10.5 Developer.
La transformación del generador de secuencia es compatible con Databricks cuando el clúster de Databricks
y el dominio de Informatica residen en la misma red virtual.
Para obtener más información, consulte la Guía del servicio de aplicación de Informatica 10.5.
Asignaciones dinámicas
Cuando crea un objeto de datos de archivo complejo que utiliza un modelo de estructura inteligente y el
archivo de entrada es Avro, Parquet u ORC, puede seleccionar el directorio donde residen los archivos de
entrada.
Para obtener más información sobre los modelos de estructura inteligentes, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.
Metadata Manager
Lea esta sección para conocer las novedades de Metadata Manager en la versión 10.5.
PowerCenter
Lea esta sección para conocer las novedades de PowerCenter en la versión 10.5.
Conectividad
A partir de la versión 10.5, PowerExchange Adapters for PowerCenter incluye las siguientes características:
• Puede configurar una sesión de destino de Oracle para actualizar o insertar datos en lotes de matrices.
Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.5 PowerCenter.
• Puede parametrizar la cadena de conexión en la conexión de Oracle y la conexión del cargador externo de
Oracle.
Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.5 PowerCenter.
• Cuando importa una definición de origen para las siguientes conexiones, puede editar los metadatos de
los campos en el calificador de origen:
- PowerExchange for Google Cloud Storage
Transformaciones
Lea esta sección para conocer las novedades de las transformaciones de PowerCenter en la versión 10.5.
Puede utilizar la técnica de cifrado que conserva el formato para cifrar o descifrar los datos de origen.
Puede configurar la técnica para conservar el formato y los metadatos, conservar los metadatos o
cambiar los metadatos.
PowerCenter 83
Orden de clasificación
Puede establecer el orden de las entradas en un diccionario relacional que utilice para el
enmascaramiento de sustitución. Establezca el orden de las entradas en el diccionario según la columna
del número de serie para asegurarse de que el orden sea coherente y genere datos enmascarados
coherentes.
Optimice el uso del diccionario para aumentar el número de valores enmascarados que se utilizan en el
diccionario en una técnica de enmascaramiento de sustitución que configure para una salida repetible.
Para obtener más información, consulte el capítulo "Transformación del enmascaramiento de datos" de la
Guía de transformación de Informatica PowerCenter 10.5.
Adaptadores de PowerExchange
Lea esta sección para conocer las novedades de los adaptadores de PowerExchange en la versión 10.5.
• Puede leer y escribir datos del tipo de datos TIMESTAMPZ cuando ejecuta una asignación en el entorno
nativo.
• Puede configurar la partición del rango de claves cuando lee datos de un origen de Amazon Redshift y
ejecuta la asignación en el entorno nativo.
• Puede configurar la partición dinámica cuando lee datos de un origen de Amazon Redshift y ejecuta la
asignación en el entorno nativo.
• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están organizados en función de directorios.
• Puede configurar un almacenamiento compatible con Amazon S3 para acceder y administrar los datos
almacenados en una interfaz compatible con S3. Puede utilizar el almacenamiento compatible con Scality
RING S3. Utilice la conexión de Amazon S3 para conectarse a Scality RING y realice operaciones de
lectura y escritura similares a las de Amazon S3.
• Puede configurar la autenticación de inicio de sesión único (SSO) federado para acceder de forma segura
a los recursos de Amazon S3.
• Puede configurar una operación de búsqueda en caché para almacenar en caché los datos de búsqueda
cuando ejecuta una asignación en el motor de Spark.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede escribir cadenas vacías desde un origen como valores nulos en un destino de Google BigQuery.
• Puede usar la consulta Merge para realizar operaciones de actualización, inserción o eliminación en una
sola declaración cuando escribe en un destino de Google BigQuery.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
BigQuery.
• Puede leer la ruta completa y los nombres de los archivos de origen de Google Cloud Storage.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
Cloud Storage.
• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están particionados en función de directorios.
• Puede realizar auditorías para operaciones de lectura para archivos complejos como Avro, Parquet y
JSON en asignaciones de HDFS que se ejecutan en el entorno nativo o en el motor de Spark.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for HDFS.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Hive.
• Puede utilizar objetos JDBC V2 como orígenes y destinos dinámicos en las asignaciones.
• Puede configurar una asignación para crear un destino JDBC V2 en tiempo de ejecución.
Adaptadores de PowerExchange 85
• Puede usar una conexión JDBC V2 con el subtipo de base de datos SAP HANA en asignaciones para leer
o escribir en tablas HANA. También puede leer desde las vistas de modelado de datos de HANA, como
las vistas de atributos, analíticas y cálculo. Puede validar y ejecutar asignaciones de JDBC V2 en el motor
de Spark o Databricks Spark.
• Puede realizar auditorías para operaciones de lectura en asignaciones de JDBC V2 que se ejecutan en el
entorno nativo o en el motor de Spark.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for JDBC V2.
• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están particionados en función de directorios.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Microsoft
Azure Data Lake Storage Gen2.
• Puede conectarse a Microsoft Azure Data Lake Storage Gen2 para preparar archivos en tiempo de
ejecución.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Salesforce
Marketing Cloud.
• Puede leer y escribir en el almacén de datos de Snowflake que está habilitado para almacenar datos en
Google Cloud Platform.
• Puede realizar auditorías para operaciones de lectura en asignaciones de Snowflake que se ejecutan en el
entorno nativo o en el motor de Spark.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for
Snowflake.
• Cuando realiza una optimización con inserciones con la conexión ODBC de Google BigQuery, puede usar
la versión 2.2.5.1012 del controlador ODBC de Informatica para Google BigQuery para conectarse a
Google BigQuery y enviar las funciones CHR(), DATEDIFF(), DECODE(), LPAD(), y RPAD() a la base de
datos de Google BigQuery.
Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener el
controlador ODBC de Informatica para Google BigQuery.
Adaptadores de PowerExchange 87
• Puede usar la consulta Merge para realizar operaciones de actualización, inserción o eliminación en una
sola declaración cuando escribe en un destino de Google BigQuery.
• Cuando configura una sesión para escribir datos en Google BigQuery, puede escribir cadenas vacías
desde un origen como valores nulos en un destino de Google BigQuery.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
BigQuery para PowerCenter.
• Puede leer la ruta completa y los nombres de los archivos de origen de Google Cloud Storage.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Google Cloud Storage 10.5
para PowerCenter.
Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter
10.5.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.5
para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Snowflake
para PowerCenter.
Seguridad
Lea esta sección para conocer las novedades de la seguridad del dominio en la versión 10.5.
Para fortalecer el cifrado de seguridad, el instalador de Informatica ahora genera una clave de sitio única
cuando instala los servicios de Informatica. No puede volver a generar la clave del sitio. Anteriormente, podía
volver a generar la clave del sitio de cifrado utilizando una palabra clave y un nombre de dominio en el
comando GenerateEncryptionKey.
Después de actualizar a Informatica 10.5, migre la clave de sitio a la nueva clave de sitio única.
Para un dominio multinodo, copie la clave de sitio única en cada nodo o guarde la clave de sitio única en una
ubicación compartida a la que pueda acceder cada nodo.
Puede utilizar las funciones de codificación del lenguaje de transformación, AES_ENCRYPT y AES_DECRYPT para
cifrar o descifrar tablas de almacenamiento con codificación de 256 bits. Use el nuevo argumento, keySize,
para habilitar el cifrado AES de 256 bits.
Funcionalidad SAML
A partir de la versión 10.5, puede utilizar las siguientes nuevas características de SAML:
• Cuando habilita la autenticación SAML en el dominio, puede habilitar uno o más de los siguientes modos
de autenticación mejorada: solicitud de firma, aserción cifrada y respuesta firmada. Para obtener más
información, consulte la Guía de seguridad de Informatica 10.5.
• Puede usar proveedores de identidad de Azure Active Directory, Oracle Access Manager y Okta SSO para
administrar la autenticación SAML en el dominio para aplicaciones web. Para obtener más información,
consulte el artículo H2L sobre cada proveedor de identidad en el Informatica Documentation Portal.
También puede utilizar la base de datos para crear una conexión provisional y una conexión de
almacenamiento.
Para obtener información, consulte la Guía de configuración de Test Data Management 10.5.
Puede ordenar el orden de las entradas en un diccionario según la columna del número de serie o cualquier
otra columna para asegurarse de que el orden sea coherente y genere datos enmascarados coherentes.
Para obtener información sobre cómo crear y aplicar reglas de generación avanzadas y restricciones
condicionales, consulte el capítulo "Generación de datos" en la Guía del usuario de Test Data
Management 10.5
Para obtener información sobre cómo establecer el valor de propiedad y anular el valor de un elemento,
consulte la Guía del administrador de Test Data Management 10.5 y la Guía del usuario de Test Data
Management 10.5.
infasetup
A partir de la versión 10.5, Informatica almacena el alias del certificado de firma de aserción en el dominio.
Puede configurar la opción assertionSigningCertificateAlias, que especifica un alias para el certificado, en
los siguientes comandos:
• infasetup defineDomain
• infasetup updateDomainSamlConfig
• infasetup updateSamlConfig
Anteriormente, el alias se almacenaba en los metadatos del nodo. Como consecuencia, la opción
assertionSigningCertificateAlias se elimina de los comandos defineGatewayNode, switchToGatewayNode y
updateGatewayNode. Actualice cualquier script que use los comandos relacionados con el nodo para usar
los comandos relacionados con el dominio.
91
Data Engineering
Lea esta sección para conocer los cambios en los productos de Data Engineering en la versión 10.5.
Documentación
A partir de la versión 10.5, las instrucciones para integrar Informatica con un clúster de Google Dataproc se
encuentran en la Guía de Data Engineering Integration.
Rendimiento
A partir de la versión 10.5, la función PERCENTILE en el motor de Spark consume menos memoria,
especialmente cuando varias columnas calculan la función PERCENTILE en el mismo conjunto de datos con
diferentes percentiles.
• El argumento plazos en las funciones financieras PV, FV, PMT y RATE pasa un valor de 0. El valor de
plazos debe ser un entero mayor que 0.
• El argumento mes de la función MAKE_DATE_TIME pasa un valor no válido. El valor de mes debe ser de 1
a 12.
Nota: El servicio de integración de datos rechaza las filas con valores no válidos. Si desea que las filas con
valores no válidos se rechacen y no se escriban en el destino, ejecute la asignación en el entorno nativo.
Anteriormente, los resultados de la exploración omitían los archivos o enumeraban estos archivos
comprimidos como archivos individuales y no enumeraban los archivos anidados individuales.
Las propiedades del tipo de almacén de datos IBM DB2 for z/OS incluyen un nuevo campo Opción de
base de datos. Puede elegir cómo desea ingresar a la base de datos de esta lista. Puede incluir todas
las bases de datos, seleccionar de una lista o especificar con una expresión regular. Los campos para
seleccionar de una lista o especificar una expresión regular aparecen según lo que elija.
Para obtener información, consulte el capítulo Propiedades del almacén de datos en la Guía del usuario de
Informatica Data Privacy Management.
Anteriormente, podía eliminar las tareas DSAR y DSR que estaban en estado Cerrado.
Para obtener información sobre las tareas, consulte el capítulo "Tareas" en la Guía del usuario de Informatica
Data Privacy Management 10.5.
Para obtener información sobre cómo crear y actualizar el archivo de configuración del Registro de asuntos,
consulte la Guía del administrador de Informatica Data Privacy Management.
Debido al cambio, es posible que vea una diferencia en la información del recuento total de asuntos en los
widgets del panel de privacidad y en los informes de vulneración de datos después de la actualización.
Para obtener información sobre cómo ver la información del registro de asuntos, consulte la Guía del usuario
de Informatica Data Privacy Management.
Los archivos de eventos se exportan desde una base de datos que configura para la supervisión de la
actividad del usuario. Especifique la ubicación durante la instalación o actualice la propiedad en las
propiedades de Servicio de Data Privacy Management.
Para obtener información sobre cómo especificar el directorio de archivos de eventos, consulte la Guía de
instalación y configuración de Informatica Data Privacy Management 10.5.
Recurso de Amazon S3
A partir de la versión 10.5, el recurso de Amazon S3 incluye las siguientes mejoras en la pestaña General:
Extracción de metadatos
Puede configurar el recurso de Amazon S3 para conectar y extraer metadatos de un origen de datos de
Amazon S3 mediante un token de sesión temporal.
Anteriormente, las mejoras estaban disponibles como opciones de JVM en el recurso de Amazon S3.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica® Enterprise Data
Catalog 10.5.
Recursos personalizados
A partir de la versión 10.5, puede ejecutar un recurso personalizado que tenga la opción Ejecutar script
habilitada en el dominio de Informatica.
Puede crear el recurso de detección de similitudes de Informatica desde la pestaña Recurso debajo del
grupo de recursos Plataforma de Informatica. Cuando ejecuta el recurso, el escáner detecta columnas
similares según el nombre de la columna, el patrón de datos de la columna y los valores únicos del
recurso. Anteriormente, el recurso de detección de similitudes de Informatica estaba disponible como
recurso del sistema.
Enterprise Data Catalog conserva la información calculada sobre columnas similares, patrones de
columna y valores únicos en la base de datos PostgreSQL. Anteriormente, Enterprise Data Catalog
conservaba la información calculada sobre columnas similares en Apache Hbase.
Enterprise Data Catalog detecta columnas similares según el nombre de la columna, el patrón de datos
de la columna y los valores únicos del recurso. Anteriormente, un trabajo del sistema interno detectaba
columnas similares basadas en el nombre de la columna, el patrón de datos de la columna, los valores
únicos y la frecuencia de los valores en el recurso.
Recursos de referencia
A partir de la versión 10.5, los recursos de referencia incluyen los siguientes cambios:
Enterprise Data Catalog extrae objetos de recursos de referencia, como orígenes de datos, conjuntos de
datos y elementos de datos.
Nombre de la conexión
Enterprise Data Catalog admite caracteres especiales en el nombre de la conexión del recurso de
referencia.
Anteriormente, las pestañas de búsqueda estaban disponibles en la página Resultados de la búsqueda que le
permitió encontrar activos que coincidan con un criterio de búsqueda establecido.
Nota: Si actualiza desde una versión anterior, el proceso de actualización convierte las pestañas de
búsqueda personalizadas en filtros previos de búsqueda.
Transformaciones de Informatica
A partir de la versión 10.5, el motor de Spark aumentó el rendimiento de la transformación del enrutador.
Cuando el motor de Spark ejecuta una asignación que incluye una transformación de enrutador, dicho motor
procesa la canalización de asignación ascendente una vez y prepara los datos para que puedan ser
utilizados por cada rama descendente.
Anteriormente, el motor de Spark procesaba la canalización de asignación ascendente por separado para
cada grupo de salida.
Anteriormente, la salida de los nodos con un tipo de datos de fecha era un tipo de datos de cadena.
Para obtener más información sobre los modelos de estructura inteligentes, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.
Para obtener más información, consulte la Guía de flujo de trabajo avanzado de PowerCenter 10.5.
Anteriormente, la asignación fallaba si la tabla de destino ya existía en Microsoft Azure SQL Data Warehouse.
Seguridad
Lea esta sección para conocer los cambios en la seguridad del dominio en la versión 10.5.
Autenticación de SAML
A partir de la versión 10.5, habilita los modos de autenticación SAML mejorados, solicitud firmada, respuesta
firmada y aserción cifrada a través de las propiedades de configuración del dominio.
Anteriormente, habilitaba estas funciones mediante variables de entorno. Para obtener más información,
consulte el capítulo "Autenticación SAML" en la Guía de seguridad de Informatica 10.5.
PowerCenter 97
Parte III: Versiones
10.4.1-10.4.1.3
Esta parte incluye los siguientes capítulos:
• Versión 10.4.1.3, 99
• Versión 10.4.1.2, 100
• Versión 10.4.1.1, 107
• Avisos importantes de la versión 10.4.1, 113
• Novedades de la versión 10.4.1, 119
• Cambios en la versión 10.4.1, 135
98
Capítulo 9
Versión 10.4.1.3
Este capítulo incluye los siguientes temas:
• Cambios en la compatibilidad, 99
• Novedades, 99
Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.4.1.3.
Novedades
Lea esta sección para conocer las novedades de la versión 10.4.1.3.
Cloudera CDP
A partir de la versión 10.4.1.3 de Data Engineering, puede utilizar el motor de Blaze para ejecutar trabajos en
clústeres de Cloudera CDP Private Cloud y Cloudera CDP Public Cloud.
Cuando el motor de Blaze ejecuta trabajos en un clúster de CDP Private Cloud, puede usar la autenticación
de Kerberos. Cuando el motor de Blaze ejecuta trabajos en un clúster de CDP Public Cloud, puede usar la
autenticación de Apache Knox o Kerberos. Puede usar Apache Ranger, cifrado transparente HDFS o
autorización SSL/TLS para los trabajos que el motor de Blaze ejecuta en un clúster de CDP.
Para obtener más información, consulte la Guía de integración de ® Data Engineering 10.4.1.
99
Capítulo 10
Versión 10.4.1.2
Este capítulo incluye los siguientes temas:
Avisos importantes
Puede utilizar los productos de Informatica Data Engineering con clústeres de Amazon EMR 6.0.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.
Novedades
100
Cloudera CDP Public Cloud
A partir de la versión 10.4.1.2, puede ejecutar trabajos de ingeniería de datos en clústeres de Cloudera CDP
Public Cloud en AWS o Azure.
Puede usar la nube pública de CDP cuando ejecute trabajos de ingeniería de datos en el motor de Spark.
Cuando ejecuta una asignación en el entorno de Hadoop, puede usar las mismas conexiones para CDP
Public Cloud que para CDP Private Cloud. Puede configurar la autenticación Kerberos o Apache Knox para
clústeres de nube pública de CDP.
Para obtener información sobre la integración con Cloudera CDP Public Cloud, consulte las Notas de la
versión de Informatica 10.4.1.2 y la Guía de integración de Data Engineering 10.4.1.
Una exploración incremental actualiza los registros cambiados desde que se ejecutó la última exploración en
lugar de explorar completamente todos los registros.
Para obtener información sobre cómo configurar una exploración del registro de asunto incremental,
consulte la Guía del usuario de Informatica Data Privacy Management y la Guía del administrador de
Informatica Data Privacy Management.
Recurso de Amazon S3
A partir de la versión 10.4.1.2, el recurso de Amazon S3 incluye las siguientes mejoras:
Extracción de metadatos
Puede configurar el recurso de Amazon S3 para conectar y extraer metadatos de un origen de datos de
Amazon S3 mediante un token de sesión temporal.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.
Extracción de metadatos
• Atributo
Novedades 101
• Directiva
• Sistema
• Conjunto de datos
También puede leer los detalles de los usuarios nativos, usuarios de LDAP y usuarios de SSO asociados
con los activos en el Catálogo.
Ver relaciones
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Puede utilizar el informe Uso de activos para ver la lista de activos que se utilizan en Enterprise Data
Catalog. Puede filtrar el informe en función del tipo de activo, la fecha del evento, el tipo de recurso o el
nombre del recurso. Además de los detalles de uso de los activos, el informe también incluye las
características de Enterprise Data Catalog que utilizó cuando accedió al activo. Las características
enumeradas incluyen las fichas Resumen, Linaje e impacto y Relaciones, además del resto de
características asociadas al activo.
El gráfico Principales activos vistos en la página de la ficha Adopción de usuarios muestra una lista de
los activos más veces vistos en el catálogo.
El gráfico Valor de uso de características en la página de la ficha Valor de datos muestra el valor de las
características de Enterprise Data Catalog en función de su uso a lo largo de un periodo de tiempo.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.
Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.4.1.2.
Cambios
En la página de la ficha Valor de datos, el Valor del recurso se calcula sumando los siguientes valores:
• Multiplique el valor del tipo de recurso especificado por el número total de activos seleccionados en
función de las palabras clave de activo especificadas.
• Multiplique el valor especificado para el resto de tipos de recurso por el número total de activos
seleccionados en función de las palabras clave de activo especificadas.
Nota: Puede especificar las palabras clave de activo en el cuadro de texto Palabras clave de activo para
el cálculo del valor del recurso en Configuración de la aplicación.
Después de aplicar 10.4.1.2, se pierden toda la configuración y los valores relacionados con los recursos
que configuró anteriormente. Una reversión no conserva los valores que haya configurado
anteriormente. Los valores y la configuración para los tipos de recursos se conservan, y es posible que
observe un aumento en los nuevos valores basado en el método de cálculo actualizado.
En los nuevos informes, puede utilizar los siguientes caracteres especiales en los nombres de los
informes: - (guión), @ (signo de arroba) y _ (carácter de subrayado). Los informes creados con versiones
anteriores que utilicen caracteres especiales no admitidos seguirán estando disponibles con los
Cambios 103
problemas existentes. Si copia un informe existente que incluya caracteres especiales no admitidos
para crear un nuevo informe, Data Asset Analytics muestra un error de validación.
En Configuración de la aplicación, puede especificar las palabras clave de activo que desea usar para
seleccionar activos del catálogo y calcular el valor del recurso.
Moneda
En Configuración de la aplicación, puede seleccionar la moneda en la que desea ver los valores de
activo en la página de la ficha Valor de datos.
• Deducido. Los enriquecimientos recomendados para el activo basados en los resultados de perfil.
• Deducido-Aceptado. El enriquecimiento deducido es aceptado por el usuario.
• Deducido-Aceptado automáticamente. El enriquecimiento deducido se acepta automáticamente
basado en las puntuaciones de conformidad especificadas.
• Deducido-Rechazado. El enriquecimiento deducido es rechazado por el usuario.
• Manual. El enriquecimiento del activo se realiza de forma manual.
• Deducido
• Deducido-Aceptado
• Deducido-Aceptado automáticamente
• Deducido-Rechazado
• Manual
Actualizar
La página Supervisión incluye un icono Actualizar en el que puede hacer clic para actualizar la página y
ver el estado actual de la ejecución del informe.
Intervalo de tiempo
El filtro y la columna de informe Tipo de grupo de activos se eliminan de los siguientes informes:
Nota: Para los informes creados con las versiones anteriores, la columna de informe Tipo de grupo de
activos se conserva si descarga los informes.
Las opciones Tipo de recurso y Recurso se eliminan de la sección Asignar un valor a en la Calculadora
del valor del recurso.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Puede utilizar la opción -st en el comando backupContents para realizar una copia de seguridad de uno o
varios de los siguientes almacenes de datos en el catálogo:
Para obtener más información, consulte la Referencia de API de REST de Informatica 10.4.1 Enterprise Data
Catalog y la Referencia de comandos de Informatica 10.4.1.
Cambios 105
Recursos SAP S/4HANA, SAP BW y SAP BW/4HANA
A partir de la versión 10.4.1.2, no puede ver las siguientes fichas en el Catálogo para los recursos SAP BW,
SAB BW/4HANA y SAP S/4HANA si el tipo de activo no incluye información de linaje, jerarquía, categoría y
relación:
• Linaje e impacto
• Relación
• Contiene
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.
Versión 10.4.1.1
Este capítulo incluye los siguientes temas:
Avisos importantes
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.4.1.1.
Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP no se admite en el motor de
Blaze.
Cloudera CDP usa un clúster base y clústeres de carga de trabajo para ejecutar trabajos de ingeniería de
datos. Esta arquitectura permite implementar cargas de trabajo y compartir datos entre componentes
usando un catálogo compartido, seguridad unificada, un gobierno coherente y administración del ciclo
de vida de los datos.
Puede usar Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las siguientes
conexiones:
107
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2
• PowerExchange for Microsoft Azure SQL Data Warehouse
• Sqoop
También puede utilizar Cloudera CDP cuando ejecute una asignación de PowerExchange for HDFS en el
entorno nativo.
Para obtener más información, consulte la Guía de integración de Informatica® Data Engineering 10.4.1.
https://network.informatica.com/community/informatica-network/product-availability-matrices
Novedades
Amazon Glue es el servicio de ETL de Amazon.El clúster de Amazon EMR 5.29 puede usar Glue como
metastore de Hive.
Para habilitar la integración con un clúster de EMR con Glue, consulte las Notas de la versión de Informatica
10.4.1.1.
Puede elegir la categoría NoSQL en el tipo de categoría para crear un almacén de datos que se conecta a una
base de datos Apache Cassandra. Puede utilizar el almacén de datos en las exploraciones para realizar la
detección de dominios.
Para obtener información acerca de cómo crear un almacén de datos o ejecutar una exploración, consulte la
Guía del usuario de Informatica Data Privacy Management.
Puede usar el valor Exacto para los campos SearchType, IndexType y MatchType en una configuración de
coincidencia.
Para obtener información sobre cómo configurar la coincidencia exacta, consulte la Guía del administrador
de Informatica Data Privacy Management.
Una exploración incremental considera los registros cambiados desde el último tiempo de ejecución de la
exploración y actualiza los resultados en lugar de explorar completamente todos los registros.
Para obtener información sobre cómo configurar una exploración del Registro de asunto para que sea
incremental en exploraciones repetidas o periódicas, consulte la Guía del usuario de Informatica Data Privacy
Management y la Guía del administrador de Informatica Data Privacy Management.
El trabajo del panel de privacidad verifica los cambios en la base de datos de HBase del registro de asunto y
actualiza los datos del panel de privacidad que se ven cuando se actualiza el panel.
El trabajo aparte asegura la separación de la tarea de exploración y la actualización de los datos en el panel
de privacidad.
Los trabajos del panel de privacidad no se pueden activar, pausar o detener manualmente.
Para obtener información acerca de los trabajos del panel de privacidad, consulte la Guía del usuario de
Informatica Data Privacy Management.
Se recomienda incluir los campos en una exploración, pero que no aparezcan en las páginas de búsqueda y
detalles del Registro de asunto.
Puede incluir la propiedad UsedIn en una configuración de coincidencia de una entidad para determinar si los
campos aparecen en las búsquedas, las exploraciones o ambas en el Registro de asunto.
Para obtener información sobre cómo configurar la propiedad, consulte la Guía del administrador de
Informatica Data Privacy Management.
Novedades 109
Compatibilidad con Informatica Discovery Agent en Windows
A partir de la versión 10.4.1.1, puede utilizar Informatica Discovery Agent para crear un agente en equipos
Windows.
Utilice Informatica Discovery Agent para ejecutar la detección de dominios en orígenes no estructurados y
exploraciones del Registro de asunto.
Para obtener información sobre cómo instalar y utilizar el agente en las exploraciones, consulte la Guía del
usuario de Informatica Data Privacy Management.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre utilidades de copia de seguridad del catálogo y de
la colección de registros en la Guía del administrador de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.4.1 .
Cambios
Una opción para especificar las opciones de exploración del asunto. Incluye la opción Exploración
completa del asunto que puede seleccionar para configurar exploraciones incrementales en
exploraciones repetidas y periódicas.
La lista Categoría de las páginas Nuevo almacén de datos y Nueva exploración incluye una opción
adicional de NoSQL. La lista Tipo de almacén de datos incluye a Apache Cassandra en la categoría
NoSQL.
Para obtener información sobre las opciones del almacén de datos y la creación de exploraciones, consulte
la Guía del usuario de Informatica Data Privacy Management.
El archivo de la entidad del registro de activo tiene las siguientes propiedades adicionales:
UsedIn
IsIncrementalScan
Agregue este indicador y establezca el valor a true para configurar las exploraciones repetidas y
periódicas del Registro de asunto para que sean incrementales. Agregue el indicador a un campo que
contenga un valor de tiempo. La exploración utiliza el valor en el campo para determinar la última hora
actualizada de una exploración incremental. Aplicable a los orígenes estructurados.
IgnoreNullEmptyValuesForScan
Determina si se omiten los valores vacíos y se continúa, o si se suspende un trabajo al encontrar valores
nulos o vacíos. Se aplica a las exploraciones del Registro de asunto en entidades que incluyen el tipo de
coincidencia Exacta, el tipo de índice o el tipo de búsqueda en una configuración de coincidencia.
Para obtener información sobre los archivos de entidades, consulte la Guía del administrador de Informatica
Data Privacy Management.
Cambios 111
Borrar el intervalo de la memoria caché
A partir de la versión 10.4.1.1, la etiqueta Clear Expire Interval cambia de nombre a Clear Cache Interval.
Para obtener más información, consulte el capítulo sobre la configuración de la aplicación de Analytics en la
Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Anteriormente, la similitud de columnas utilizaba la coincidencia de patrones con otros factores para deducir
datos numéricos y también deducía patrones X, XX y XXX para todos los tipos de datos.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.1 Enterprise Data Catalog.
Anteriormente, la columna Tipo de exploración mostraba En línea para indicar todos los tipos de
exploración. La columna Tipo de exploración muestra Manual para representar todos los tipos de
exploración que se indicaban anteriormente como En línea.
Para obtener más información, consulte el capítulo sobre el análisis de informes en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.
Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP no se admite en el motor de
Blaze.
Cloudera CDP usa un clúster base y clústeres de carga de trabajo para ejecutar trabajos de ingeniería de
datos. Esta arquitectura permite implementar cargas de trabajo y compartir datos entre componentes
usando un catálogo compartido, seguridad unificada, un gobierno coherente y administración del ciclo
de vida de los datos.
Puede usar clústeres de Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las
siguientes conexiones:
113
• PowerExchange for Microsoft Azure Cosmos DB SQL API
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2
• PowerExchange for Microsoft Azure SQL Data Warehouse
• PowerExchange for Google Cloud Storage
• PowerExchange for Google BigQuery
• PowerExchange for Google Analytics
• PowerExchange for Google Cloud Spanner
• Sqoop
También puede usar Cloudera CDP cuando ejecute una asignación que utilice una conexión de
PowerExchange for HDFS para leer de un origen en el entorno nativo o en el entorno de Hadoop.
Para obtener más información, consulte la Guía de integración de Informatica® Data Engineering 10.4.1.
Para Data Engineering Streaming, puede usar diferentes parámetros de sustitución para destinos
Amazon S3 y ADLS Gen2 a fin de decidir el tiempo de sustitución o el tamaño para cada destino.
A partir de la versión 10.4.1, puede recopilar registros para los recursos basados en el nombre de
recurso. También puede recopilar registros para los servicios como HBase, Solr, ingesta y el servicio de
catálogo. Puede recopilar los registros usando las API REST, CLI de infacmd o el administrador de
catálogos. Para obtener más información, consulte la sección Utilidades de Enterprise Data Catalog en
la Guía del administrador de Informatica® 10.4.1 Catalog.
A partir de la versión 10.4.1, puede realizar una copia de seguridad del catálogo sin deshabilitar el
servicio de catálogo. Puede realizar una copia de seguridad del catálogo usando las API REST; CLI de
infacmd o el administrador de catálogos. Para obtener más información, consulte la sección Utilidades
de Enterprise Data Catalog en la Guía del administrador de Informatica® 10.4.1 Catalog.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.
Para Enterprise Data Catalog, puede extraer metadatos de orígenes de SAP BW, SAP BW/4HANA, e IBM
InfoSphere DataStage. Para obtener más información, consulte la Guía de configuración del escáner de
Informatica® Enterprise Data Catalog 10.4.1.
Aplazamiento
En esta sección, se describen los cambios en el aplazamiento de la versión 10.4.1.
Asegúrese de que el dominio o los servicios tengan el mismo formato de dirección que la instancia de base
de datos correspondiente. Tanto el nodo como el host de la base de datos deben tener el mismo formato de
dirección. También puede usar el Protocolo de Internet versión 6 (IPv6) para conectarse a bases de datos
habilitadas para IPv6 desde instancias de Informatica Developer o PowerCenter hospedadas en equipos
configurados con IPv6.
En la siguiente tabla se enumeran las conexiones admitidas que puede usar desde el cliente de PowerCenter
o Developer tool:
Conexión Herramienta
En las propiedades de conexión específicas de la base de datos desde el cliente de PowerCenter o Developer
tool, especifique el nombre de host o la dirección IP para conectar con la base de datos hospedada en la red
IPv6.
https://network.informatica.com/community/informatica-network/product-availability-matrices
Recursos
En esta sección, se describen los cambios en la compatibilidad de recursos de la versión 10.4.1.
Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener una
licencia avanzada.
Nuevos productos
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB
10.4.1 para PowerCenter.
Informatica versión 10.4.1 también admite productos de Data Privacy Management y Test Data Management
como parte del instalador unificado. Test Data Management y Data Privacy Management requieren de una
actualización de servicios además de aplicar el HotFix. Las instrucciones del HotFix son las mismas, pero
cambian los requisitos previos y posteriores a ella. Consulte sus guías de actualización individuales para
obtener información.
Al instalar Data Privacy Management, puede instalar productos de Data Engineering y Enterprise Data
Catalog, y crear los servicios. Si tiene instalados Data Engineering y Enterprise Data Catalog, puede
ejecutar el programa de instalación para instalar Data Privacy Management sobre dichos productos.
Cuando crea un dominio, se instalan los archivos binarios de Test Data Management y la estructura del
directorio se crea con ambas carpetas TDM y TDW. Para configurar Test Data Management, consulte la
Guía de configuración de Test Data Management.
Tareas de la versión
En esta sección se describen tareas de la versión 10.4.1. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.4.1.
Para generar los encabezados, puede volver a importar el objeto de destino, habilitar la opción Importar
nombres de columna desde la primera línea y volver a ejecutar la asignación.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake para PowerCenter.
• Conectividad, 119
• Data Engineering Integration, 119
• Data Engineering Streaming, 120
• Data Privacy Management, 122
• Enterprise Data Catalog, 123
• Transformaciones de Informatica, 129
• Modelo de estructura inteligente, 130
• Metadata Manager, 130
• Adaptadores de PowerExchange, 130
Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.4.1.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.1.
119
Datos jerárquicos en orígenes y destinos de Hive
A partir de la versión 10.4.1, puede leer tablas de Hive y escribir en ellas, las cuales contienen datos
jerárquicos en una asignación que se ejecuta en el motor de Spark.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.
Con la autenticación de SAML, podrá utilizar un proveedor de identidades de terceros para administrar las
credenciales de usuario y la autorización.
En tiempo de ejecución, el servicio de integración de datos crea directorios independientes para cada valor
del puerto FileName y añade los archivos de destino en los directorios. Puede utilizar el puerto FileName en
el destino ADLS Gen2 para ingerir los datos CDC desde el editor de PWX CDC.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Puede añadir una operación de lectura de objeto de datos de JDBC V2 como una búsqueda en una
asignación. Después, puede configurar una condición de búsqueda para buscar datos en la tabla de JDBC
V2. Esta asignación se puede ejecutar en un motor de Databricks.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Puede utilizar el formato de datos Parquet para destinos complejos, como HDFS, ADLS Gen2 y Amazon S3 en
las asignaciones de transmisión.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Puede ejecutar las asignaciones de transmisión en un entorno de Databricks en los ecosistemas de nube de
AWS y los servicios de nube de Microsoft Azure.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.
Puede utilizar AWS Databricks para ejecutar asignaciones con la siguiente funcionalidad:
Orígenes y destinos
Puede ejecutar asignaciones de transmisión en los siguientes orígenes y destinos dentro del entorno de
Databricks:
• Amazon S3
• Kinesis Streams
• Kinesis Firehose
Transformaciones
Puede añadir las siguientes transformaciones a una asignación de transmisión de Databricks en AWS:
Agregación
Expresión
Filtro
Unión
Normalizador
Rango
Enrutador
Tipos de datos
AWS Databricks admite los mismos tipos de datos que Azure Databricks.
Matriz
Bigint
Fecha/Hora
Decimal
Doble
Entero
Asignar
Struct
Texto
Cadena
Para obtener más información, consulte la siguiente Guía del usuario de Data Engineering Streaming 10.4.1.
Almacenes de datos
En esta sección se describen los nuevos orígenes y propiedades de los almacenes de datos.
A partir de la versión 10.4.1, puede analizar los almacenes de datos no estructurados con un agente remoto
de registro de asunto para detectar los datos confidenciales. Es posible configurar una exploración para leer
todas las carpetas, leer carpetas específicas de una lista o leer carpetas basadas en expresiones regulares.
La versión 10.4.1 admite los orígenes de datos de Google Drive, SAP HANA y Snowflake.
Para obtener más información, consulte los capítulos sobre las propiedades de los almacenes de datos y las
exploraciones en la Guía del usuario de Informatica Data Privacy Management.
Tareas
En esta sección se describen los nuevos tipos de trabajos.
• El trabajo de exploración incremental solo analiza los registros de un almacén de datos que se
modificaron desde que se ejecutó el último trabajo de exploración.
• El trabajo de importación de resultados del catálogo importa recursos desde Enterprise Data Catalog.
• El trabajo de sincronización de actualizaciones del catálogo sincroniza la información importada desde
Enterprise Data Catalog con los almacenes de datos de Data Privacy Management.
Panel de privacidad
A partir de la versión 10.4.1, Data Privacy Management incluye un panel de privacidad para ver y supervisar
los datos del Registro de asunto.
Utilice los indicadores de resumen y los indicadores de espacio de trabajo del panel para ver información
sobre el recuento total de asuntos, el recuento de retenciones legales, los tipos de asunto y las solicitudes de
asunto. Puede hacer un seguimiento de las solicitudes de asunto y tomar las medidas oportunas en relación
con estas en las páginas de detalles que puede abrir en el panel.
También puede ver información sobre los almacenes de datos que contienen asuntos y su ubicación.
Para obtener más información acerca del panel de privacidad, consulte la Guía del usuario de Informatica
Data Privacy Management.
Los datos se cifran cada vez que se ejecuta una exploración de registro y se actualizan los datos del
repositorio de Registro de asunto.
La versión 10.4.1 incluye las siguientes nuevas características para los almacenes de datos no
estructurados:
• Puede especificar una configuración global para que el tamaño máximo de archivo incluya exploraciones
de almacenes de datos no estructurados que utilizan el escáner de agente remoto.
• Puede utilizar los dominios de datos incluidos en la instalación de Data Privacy Management que
coincidan con las políticas de clasificación configuradas con antelación para escanear almacenes de
datos no estructurados. En el caso de dominios de datos que no estén incluidos en la instalación, puede
configurar dominios de datos con expresiones regulares en un agente proxy de multiplexación (MPA).
• Puede añadir una condición de coincidencia personalizada en las políticas de clasificación para que
coincida con las etiquetas de archivo en almacenes de datos de Google Drive y Microsoft SharePoint.
• Puede descargar informes de trabajos de exploración para análisis de almacenes de datos no
estructurados.
Para obtener más información, consulte la Guía del usuario de Informatica Data Privacy Management.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.
Si desea más información, consulte el capítulo sobre cómo realizar la ingesta de metadatos personalizados
en el catálogo, en la Guía de Informatica 10.4.1 Catalog Administrator, y el capítulo sobre la visualización del
linaje y su impacto, en la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.
Para eliminar los dominios de datos de los activos, puede eliminar los dominios de datos de las columnas de
dominios de datos aceptados o deducidos en el archivo CSV exportado.
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.
Nota: Antes de acceder a los tutoriales, asegúrese de tener acceso a los siguientes dominios de Walkme:
• https://cdn.walkme.com
• https://playerserver.walkme.com
• https://ec.walkme.com
• https://rapi.walkme.com
• https://papi.walkme.com
Para iniciar un tutorial, haga clic en el icono de ayuda ? de la barra de herramientas y, a continuación, haga
clic en el enlace a los tutoriales.
En la siguiente tabla se incluyen los sistemas de archivos soportados por los recursos que puede configurar
para ver el linaje a nivel de campo:
PowerCenter Linux
Windows
Para ver el linaje de nivel de campo para archivos sin formato sin encabezados, debe seleccionar las
propiedades Habilitar recursos de referencia y Conservar los activos de referencia sin resolver durante la
configuración de recursos. Estas propiedades no se requieren para ver el linaje de nivel de campo para
archivos sin formato con encabezados.
Puede ver el linaje de archivos para las asignaciones de Informatica Cloud Service que utilizan orígenes de
datos como Amazon S3, Microsoft Azure Blob Storage y Azure Data Lake Store Gen2.
Recurso de Hive
A partir de la versión 10.4.1, el recurso de Hive incluye las siguientes mejoras:
Puede utilizar el recurso de Hive para extraer los detalles de conexión de las vistas de diferentes
esquemas.
Cuando cree el recurso, puede elegir asignar automáticamente los esquemas de base de datos al
recurso de Hive. Puede ver la lista de esquemas asignados automáticamente y sus conexiones para el
recurso. Los esquemas se pueden asignar en las conexiones asignadas automáticamente o se pueden
anular las asignaciones en estas.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1 .
Extracción de metadatos
El recurso de Informatica MDM se puede configurar para extraer metadatos, como objetos base, tablas
de conexión y tablas de transferencia provisional junto con la información de campo y atributo.
Mejoras en el linaje
Es posible ver el linaje entre las tablas de conexión hasta las entidades de negocio. También se pueden
ver los detalles del linaje en las aplicaciones de Informatica Platform.
Para obtener más información, consulte la Guía del escáner de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.1 Enterprise
Data Catalog.
Recurso de MicroStrategy
A partir de la versión 10.4.1, el recurso de MicroStrategy incluye las siguientes mejoras:
Puede ver el linaje en el nivel de informes para un recurso de MicroStrategy. El linaje en el nivel de
informes no incluye contenedores como el encabezado de página, el pie de página, el cuerpo de página
ni elementos agrupados, como columnas, filas y métricas.
Puede habilitar la carga incremental de un recurso de MicroStrategy. Una carga incremental hace que el
origen de datos cargue los cambios recientes en los metadatos en lugar de cargar los metadatos
completos. La carga incremental reduce la cantidad de tiempo que lleva cargar el recurso.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.1 Enterprise
Data Catalog.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.
Para obtener más información, consulte la Guía de Informatica 10.4.1 Catalog Administrator y la Guía del
usuario de Informatica 10.4.1 Enterprise Data Catalog.
Nota: También puede aplicar restricciones en los recursos durante la creación de recursos.
Para obtener más información, consulte la Guía de Informatica 10.4.1 Catalog Administrator.
Puede usar la opción de JVM -DextractDatabaseName=true para extraer el nombre de la base de datos del
origen de metadatos de Oracle.
Nota: Si actualiza desde una versión anterior, la opción Importar nombre de base de datos sustituye a la
opción de JVM -DextractDatabaseName=true en la configuración de recursos de Oracle.
API de REST
A partir de la versión 10.4.1, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:
• API de REST de eventos de catálogo. Además de las API de REST existentes, puede enumerar los tipos de
clase de eventos para los objetos que ha suscrito el usuario.
• API de REST de filtro de linaje. Además de las API de REST existentes, puede crear un filtro de linaje
predeterminado.
• API de REST de información de supervisión. Además de las API de REST existentes, puede llevar a cabo
las siguientes tareas:
- Enumerar los registros de un trabajo.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1 .
Recurso de SSIS
A partir de la versión 10.4.1, el recurso de SSIS incluye las siguientes mejoras:
Puede ver los detalles de linaje de las transformaciones, como agregado, auditoría y mapa de caracteres
del catálogo.
Puede configurar el recurso de SSIS para extraer metadatos de la base de datos de SSIS.
Puede ver el linaje de nivel de campo de los archivos sin formato y el resumen de control de los activos
de SSIS del catálogo.
Para obtener más información, consulte la Guía del escáner de Informatica 10.4.1 Enterprise Data Catalog.
Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.4.1.
Transformación de macro
A partir de la versión 10.4.1, puede utilizar la transformación de macro en las asignaciones de Informatica.
La transformación de macro añade funcionalidad dinámica a la lógica de transformación que contiene un
mapplet.
Antes de utilizar una transformación de macro, cree un mapplet con la lógica de transformación que desee
para aceptar la entrada dinámica. A continuación, añada la transformación de macro a una asignación
dinámica y utilice el mapplet que creó como la instrucción de macro.
Por ejemplo, desea leer datos de un origen dinámico, realizar el cifrado de datos y después escribir los datos
cifrados en un destino. En primer lugar, cree un mapplet que realice el cifrado mediante una transformación
de enmascaramiento de datos. Después, cree una asignación que lea y escriba en sus orígenes de datos.
Añada una transformación de macro a la asignación dinámica y seleccione el mapplet de enmascaramiento
de datos como la instrucción de macro.
Para obtener más información, consulte el capítulo sobre la transformación de macro en la Guía de
transformación de Informatica 10.4.1 Developer.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.
Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager de la versión 10.4.1.
Para obtener más información, consulte el capítulo "Recursos de Business Intelligence" en la Guía del
administrador de Informatica 10.4.1 Metadata Manager.
Adaptadores de PowerExchange
En esta sección se describen las nuevas características del adaptador de PowerExchange de la versión
10.4.1.
• El cubo de Amazon S3 que especifique para crear los archivos de transferencia provisional puede estar en
una región distinta a la del clúster de Amazon Redshift.
• Puede leer varios archivos del tipo de formato sin formato en Amazon S3 y escribir datos en un destino
mediante un archivo .manifest.
• La región ap-east-1 (Hong Kong) de AWS se puede utilizar en el entorno nativo y en el motor de Spark.
• Puede utilizar las claves administradas de cliente de KMS desde una cuenta externa para crear recursos
cifrados. Para ello, debe proporcionar el nombre de recursos de Amazon (ARN) de la cuenta externa en
las propiedades de conexión.
• Puede ejecutar una asignación para leer un archivo binario de Amazon S3 mediante el puerto FileName en
el modo nativo.
• Puede leer un archivo binario de Amazon S3 desde un directorio en el modo nativo.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Amazon
S3.
• Puede configurar una operación de búsqueda almacenada en caché en una tabla de Google BigQuery.
• Puede leer los datos de la tabla y escribir datos en ella en un conjunto de datos de Google BigQuery que
esté disponible en una región concreta.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
BigQuery.
Cuando lea y escriba en tablas de Hive con datos jerárquicos, podrá realizar la vista previa de datos y la
sincronización de esquemas en la asignación.
Solo podrá utilizar tablas de Hive con datos jerárquicos en la distribución de HDP 3.1.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Hive.
• Los siguientes motores en tiempo de ejecución pueden leer y escribir archivos ORC:
- Servicio de integración de datos
- Spark
• Puede utilizar la versión 48.0 de la API de Salesforce para crear una conexión de Salesforce y acceder a
los objetos de Salesforce.
• Puede configurar asignaciones dinámicas para incluir los cambios frecuentes en orígenes, destinos y la
lógica de transformación en tiempo de ejecución en función de los parámetros y reglas que defina.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Salesforce.
Después de la actualización, las asignaciones existentes que utilice el modo de transferencia de datos de
transmisión HTTP en SAP Table Reader podrían mostrar una mejora en rendimiento. Para ajustar el
rendimiento, especifique un tamaño de paquete de transferencia adecuado basado en su requisito.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for SAP
NetWeaver.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake.
• Puede leer y escribir datos para los tipos de datos VarcharForBitData y CharForBitData en Db2
Warehouse.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Db2
Warehouse 10.4.1 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Greenplum
10.4.1 para PowerCenter.
• Puede crear una transformación de búsqueda de canal para realizar una búsqueda en una tabla de Google
BigQuery.
• Puede crear una sesión para leer los datos modificados o en tiempo real de un origen de Change Data
Capture (CDC) y cargar los datos en Google BigQuery.
• Puede leer los datos de la tabla y escribir datos en ella en un conjunto de datos de Google BigQuery que
esté disponible en una región concreta.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Google
BigQuery para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Google
Cloud Storage para PowerCenter.
• Cuando escriba datos en un destino de Kafka, puede configurar la recuperación basada en archivos en
una sesión en tiempo real.
• Puede establecer otras propiedades de configuración para conectarse a un agente Kafka a través de SSL.
• Cuando especifique las propiedades de configuración en el campo Propiedades de seguridad adicionales,
el valor que indique se enmascarará.
• Puede configurar la seguridad PLAIN para un agente Kafka.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.4.1
para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Microsoft Azure SQL Data Warehouse V3 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Salesforce para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for SAP
NetWeaver para PowerCenter.
• Puede utilizar tablas externas y vistas materializadas como orígenes de Snowflake y realizar todas las
operaciones de lectura.
• Puede reemplazar la consulta de actualización predeterminada que genera el servicio de integración de
PowerCenter con la consulta de actualización que especifique.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake para PowerCenter.
BackupContents Se ha añadido el comando -mode para crear copias de seguridad del contenido. Las copias de
seguridad se pueden crear en los modos sin conexión, hdfs o en línea.
135
Data Engineering Integration
En esta sección se describen los cambios introducidos en Data Engineering Integration en la versión 10.4.1.
Antes, la inferencia de tipos de datos de Intelligent Structure Discovery no estaba alineada con la inferencia
de los conectores nativos.
Para obtener más información, consulte el capítulo sobre modelos de estructura inteligente en la Guía del
usuario de Data Engineering Integration 10.4.1.
Antes, el programa de instalación de Data Privacy Management era un programa independiente. Podía elegir
la opción de instalación necesaria entre las opciones de instalación disponibles de Data Privacy
Management.
Los archivos del programa de instalación del agente remoto están ahora disponibles en la siguiente
ubicación tras la instalación: <INFA_HOME>/SecureAtSourceService/InformaticaDiscoveryAgent/
InformaticaDiscoveryAgent.zip
El agente remoto se puede utilizar para las exploraciones del Registro de asunto y las exploraciones de
detección de dominios en los orígenes no estructurados.
Antes, los archivos del programa de instalación del agente remoto estaban disponibles en la siguiente
ubicación tras la instalación: <INFA_HOME>/SecureAtSourceService/SubjectRegistryAgent/
SubjectRegistryAgent.zip
El agente solo se podía usar para las exploraciones del Registro de asunto en los orígenes no estructurados.
Para obtener más información sobre cómo utilizar el programa de instalación y cómo instalar el agente
remoto, consulte la Guía de instalación y configuración de Informatica Data Privacy Management.
A partir de la versión 10.4.1, la vista del espacio de trabajo Resumen que incluye los indicadores para datos
confidenciales, usuarios y su comportamiento, análisis del panel, ubicaciones y proliferación de datos
confidenciales, y las métricas de protección se denomina Panel de seguridad.
Antes, el espacio de trabajo Resumen solo mostraba la información que aparece ahora en el Panel de
seguridad.
Para obtener más información, consulte el capítulo "Panel de seguridad" en la Guía del usuario de Informatica
Data Privacy Management.
A partir de la versión 10.4.1, puede descargar un informe para el paso del trabajo Cargar catálogo. El paso
del trabajo Creación de perfiles incluye un archivo .zip con dos informes de archivo .csv.
Antes, el paso del trabajo Cargar catálogo no incluía informes y el paso del trabajo Creación de perfiles
contenía un único informe de archivo .csv.
Para obtener más información, consulte el capítulo "Trabajos" en la Guía del usuario de Informatica Data
Privacy Management.
La versión 10.4.1 incluye las siguientes vistas para los almacenes de datos no estructurados:
En la vista sin formato se enumeran los archivos y las carpetas de un almacén de datos no
estructurados que contienen dominios de datos confidenciales. Los archivos y las carpetas se muestran
en orden alfabético.
La vista sin formato incluye la nueva columna Confianza. En la columna se muestra el nivel de confianza
para la coincidencia de políticas de clasificación en archivos de almacenes de datos no estructurados
que se analizan con un agente remoto.
Vista de árbol
La vista de árbol enumera el directorio de nivel superior que contiene las carpetas y los archivos no
estructurados que identificó la exploración. Puede obtener los detalles de las carpetas y los archivos.
Para desplazarse a una carpeta anterior del árbol de directorio, haga clic en un nombre de carpeta en la
ruta de archivos que aparece sobre la lista.
Antes, las vistas de campos confidenciales y campos importados mostraban datos confidenciales para
todos los tipos de almacenes de datos. En la versión 10.4.1, estas vistas solo se incluyen en la página
Campos confidenciales para almacenes de datos estructurados.
Para obtener más información, consulte el capítulo "Panel de seguridad" en la Guía del usuario de Informatica
Data Privacy Management.
En la guía de la versión de Informatica, encontrará información sobre las características nuevas y las
modificadas de Data Privacy Management y, en las notas de la versión de Informatica, encontrará
información sobre los problemas solucionados y las limitaciones conocidas de Data Privacy Management.
Antes, Data Privacy Management tenía unas notas de la versión y una guía de versión independientes.
En la guía de la versión de Informatica, encontrará información sobre las características nuevas y las
modificadas de Test Data Management y, en las notas de la versión de Informatica, encontrará información
sobre los problemas solucionados y las limitaciones conocidas de Test Data Management.
Antes, Test Data Management tenía unas notas de la versión y una guía de versión independientes.
Para más información, consulte la sección sobre cómo establecer el archivo de configuración de Kerberos en
la Guía de seguridad de Informatica.
Para obtener más información, consulte el capítulo "Colaboración del usuario en activos" en la Guía de
Informatica 10.4.1 Enterprise Data Catalog.
• La opción Exportar se puede utilizar para exportar los datos de activos a un archivo de extracción de
datos de Tableau si tiene el permiso Todos los permisos o Lectura de datos y metadatos para los
recursos. Antes, los usuarios no necesitaban permisos ni privilegios para utilizar la opción Exportar para
exportar los datos de activos a un archivo de extracción de datos de Tableau.
• La propiedad personalizada LdmCustomOptions.enableTDEExport se puede configurar para el servicio de
catálogo y se puede establecer el valor en false en Informatica Administrator para ocultar la opción
Exportar en el catálogo para todos los usuarios, independientemente de los permisos asignados. Antes,
todos los usuarios del catálogo podían ver la opción Exportar.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.4.1.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.4.1.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.1 Catalog.
Informatica Developer
En esta sección se describen los cambios realizados en Informatica Developer en la versión 10.4.1.
Cuando crea un objeto de datos relacional, puede buscar los esquemas disponibles en la conexión.
Developer tool muestra el número de esquemas disponibles y el número de tablas que coinciden con la
búsqueda. La lista de recursos disponibles está organizada por tipo de recurso. Los tipos que no tengan
miembros no aparecerán en la lista. Por ejemplo, si el recurso no contiene vistas, el nodo Vistas no se
mostrará en la lista de selección.
Para obtener más información, consulte la sección sobre cómo importar un objeto de datos relacional en la
Guía de Developer Tool.
Para obtener más información, consulte el capítulo sobre planes de ejecución de asignaciones en la Guía del
usuario de Data Engineering Integration 10.4.1.
Metadata Manager
En esta sección se describen los cambios introducidos en Metadata Manager en la versión 10.4.1.
Para obtener más información, consulte el capítulo "Trabajar con linajes de datos" de la Guía del usuario de
Informatica 10.4.1 Metadata Manager.
Para instalar Test Data Management, elige instalar los servicios de Informatica en las opciones de
instalación de producto disponibles.
Antes, el programa de instalación de Test Data Management era un programa independiente. Podías elegir la
opción de instalación necesaria en las opciones de instalación disponibles de Test Data Management.
Para información sobre cómo instalar Test Data Management, consulte Instalación de Informatica para
PowerCenter y Data Quality e Instalación de Informatica para Data Engineering.
Si desea información sobre cómo configurar Test Data Management, consulte la Guía de configuración de
Test Data Management .
142
Capítulo 15
Versión 10.4.0.2
• Novedades, 143
Novedades
Lea esta sección para conocer las novedades de la versión 10.4.0.2.
Cuando aplique el service pack 10.4.0.2, la propiedad de versión del clúster de la tarea de creación de clúster
no se actualiza a la última versión compatible. Utilice el comando para actualizar la versión de distribución
del clúster para todos los flujos de trabajo en una aplicación.
143
Capítulo 16
Versión 10.4.0.1
Este capítulo incluye los siguientes temas:
Avisos importantes
Para Data Engineering Streaming, puede utilizar una tabla delta de Databricks como destino de una
asignación de transmisión para la ingesta de datos de transmisión.
Puede configurar asignaciones de transmisión dinámicas para cambiar orígenes y destinos Kafka en
tiempo de ejecución basándose en los parámetros y las reglas que defina en un Confluent Schema
Registry.
Para los productos de Data Engineering, utilice Hive Warehouse Connector y LLAP de Hive con clústeres
de Azure HDInsight 4.x y Hortonworks HDP 3.x para habilitar el código de Spark para que interactúe con
las tablas de Hive y permitir las tablas de Hive habilitadas para ACID en el motor de Spark.
Para obtener más información, consulte el capítulo de optimizaciones de asignaciones en la Guía del
usuario de Data Engineering Integration 10.4.1.
Para Data Engineering Streaming, puede configurar Snowflake como destino en una asignación de
transmisión para escribir datos en Snowflake.
144
Novedades
Puede seleccionar a la vez más de una asignación y, a continuación, hacer clic con el botón derecho y elegir
Analizar para leer datos de CLAIRE sobre similitudes entre las asignaciones seleccionadas.
Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.
Nuevos recursos
A partir de la versión 10.4.0.1, los siguientes recursos nuevos se añaden a Enterprise Data Catalog:
• Apache Kafka
• Qlik Sense
• MongoDB
Puede extraer información de metadatos, relaciones y linaje de todos estos recursos. Para obtener más
información, consulte la Guía de configuración del escáner de Informatica 10.4.0.1 Enterprise Data Catalog.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.
Novedades 145
Cambios
Vista compacta
A partir de la versión 10.4.0.1, puede ver la lógica de transformación en la vista compacta. Anteriormente, no
era posible ver la lógica de transformación en esta vista.
Para obtener más información, consulte la Guía del usuario de Informatica® 10.4.0 Enterprise Data Catalog.
Si habilita el protocolo HTTPS en el servicio de integración de datos, el servidor de trabajos de Spark también
utilizará este protocolo. El servidor de trabajos de Spark utiliza la misma configuración de almacén de claves
HTTPS que ha establecido en las propiedades del proceso del servicio de integración de datos en la
Herramienta del administrador.
Para obtener más información, consulte la Guía del servicio de aplicación de Informatica® 10.4.0.
Utilice Hive Warehouse Connector y LLAP de Hive para ejecutar con mayor rapidez las consultas de Hive
cuando lea tablas de Hive y escriba en ellas con el motor de Spark. Puede usar Hive Warehouse Connector y
LLAP de Hive con clústeres de Hortonworks HDP 3.x y Microsoft Azure HDInsight 4.x en el motor de Spark.
Para habilitar Hive Warehouse Connector y LLAP de Hive, configure las siguientes propiedades avanzadas de
Spark para la conexión de Hadoop:
• infaspark.useHiveWarehouseAPI=true
• spark.datasource.hive.warehouse.load.staging.dir=<Directorio temporal de HDFS para
escribir en tablas de Hive>
• spark.datasource.hive.warehouse.metastoreUri=<URI para el metastore de Hive>
Use el valor para hive.metastore.uris de las propiedades de configuración del clúster hive_site_xml.
• spark.hadoop.hive.llap.daemon.service.hosts=<Nombre de aplicación para el servicio de
LLAP>
Use el valor para hive.llap.daemon.service.hosts de las propiedades de configuración del clúster
hive_site_xml.
• spark.hadoop.hive.zookeeper.quorum=<Hosts de Zookeeper que utiliza LLAP de Hive>
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.
Cambios 147
Capítulo 17
Nuevos productos
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for JDBC
V2.
148
entorno no nativo. En el entorno no nativo, puede ejecutar asignaciones en el motor de Spark en el entorno
Hadoop o en Databricks.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce Marketing Cloud.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Db2
Warehouse.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Dynamics 365 for Sales.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
PostgreSQL.
La familia de productos Big Data ha cambiado a Data Engineering. Se han modificado los siguientes nombres
de producto:
Enterprise Data Catalog y Enterprise Data Preparation están alineados dentro de la familia de productos de
Data Catalog.
• El programa de instalación de la versión 10.4.0 se puede ejecutar para instalar productos tradicionales, de
Data Engineering y de Data Catalog. Aunque los productos tradicionales se pueden instalar en el mismo
dominio que los de Data Engineering y Data Catalog, Informatica recomienda hacerlo en dominios
independientes.
• El programa de instalación de la versión 10.4.0 se puede ejecutar para actualizar productos tradicionales,
de Data Engineering y de Data Catalog.
• Al crear un dominio, puede optar por crear también el servicio de repositorio de PowerCenter y el servicio
de integración de PowerCenter.
• El servicio de búsqueda crea una carpeta de índice y vuelve a indexar los objetos de búsqueda. Por lo
tanto, no es necesario volver a indexar después de actualizar.
La configuración de alta precisión se puede deshabilitar en Developer tool en los ajustes avanzados de las
configuraciones de tiempo de ejecución de las asignaciones:
Es posible que quiera llevar a cabo este cambio para ejecutar asignaciones en el motor de Spark que se
hayan desarrollado en una versión anterior y que prefiera ejecutar con baja precisión. En algunos casos,
como una asignación en la que no se especifica la escala, las asignaciones generan errores en la
configuración predeterminada de alta precisión y se requiere una baja precisión para ejecutarla.
• La conversión de decimal a cadena ya no anexa un decimal a los números enteros. Por ejemplo, el valor
de entero 1 en formato decimal sigue siendo "1" en el formato de cadena.
• En la conversión de decimal a cadena, se eliminan los ceros al final que aparecen tras la coma decimal.
Por ejemplo, el valor de 1 000 en formato decimal se convierte en "1" en formato de cadena.
• Cuando se ejecuta una asignación en modo de baja precisión, la conversión de decimal a cadena de una
configuración de precisión de más de 15 deriva en una notación exponencial.
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.4.0.
Para Data Engineering Integration, puede conectarse a una cadena de bloques para utilizar orígenes y
destinos de cadena de bloques en asignaciones que se ejecutan en el motor de Spark.
Vista previa de los datos con el servicio de integración de datos ejecutándose en una cuadrícula
Para Data Engineering Integration, puede ver previamente los datos jerárquicos en el motor de Spark
cuando el servicio de integración de datos se ejecuta en una cuadrícula.
Para Data Engineering Streaming, puede utilizar una tabla delta de Databricks como destino de una
asignación de transmisión para la ingesta de datos de transmisión.
Para Data Engineering Streaming, puede configurar Snowflake como destino en una asignación de
transmisión para escribir datos en Snowflake.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
En Data Engineering Integration, se puede obtener una vista previa de los datos de una asignación que
se ejecuta en el motor de Spark desde Developer tool en asignaciones configuradas para ejecutarse con
Amazon EMR, Cloudera CDH y Hortonworks HDP. La vista previa de datos en asignaciones configuradas
para ejecutarse con Azure HDInsight y MapR sigue estando disponible para la vista previa técnica.
Para Data Engineering Integration, puede utilizar modelos de estructura inteligente al importar un objeto
de datos.
Para Data Engineering Integration, puede desarrollar y ejecutar asignaciones en el entorno de Azure
Databricks.
Para Data Engineering Streaming, puede utilizar conexiones Kafka habilitadas para SSL para
asignaciones de transmisión.
Aplazamiento
En esta sección, se describen los cambios en el aplazamiento de la versión 10.4.0.
Compatibilidad cancelada
A partir de la versión 10.4.0, Informatica ya no ofrece compatibilidad con Solaris. Si utiliza Solaris,
Informatica requiere que se actualice y utilice un sistema operativo compatible.
Para obtener más información sobre cómo actualizarse a un sistema operativo compatible, consulte las
guías de actualización de Informatica 10.4.0. Para obtener información sobre los sistemas operativos
compatibles, consulte la tabla de disponibilidad de productos en Informatica Network:
https://network.informatica.com/community/informatica-network/product-availability-matrices
Conectividad
En esta sección, se describen los cambios en la compatibilidad de conectividad de la versión 10.4.0.
En la conexión ODBC, si ODBC subtype no está establecido en SAP HANA y la licencia de SAP HANA no está
disponible, se produce un error en las sesiones en tiempo de ejecución.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HANA 10.4.0
para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for SAP
NetWeaver y el aviso de instalación para las versiones de transporte de PowerExchange for SAP NetWeaver
10.4.0.
• Informatica envía los transportes para las versiones 5.0 y posteriores de Unicode de SAP en las
siguientes carpetas:
- Coarchivos de Unicode: archivo zip del programa de instalación de Informatica/saptrans/
mySAP/cofiles
- Archivos de datos de Unicode: archivo zip del programa de instalación de Informatica/
saptrans/mySAP/data
Anteriormente, Informatica empaquetaba los transportes para las versiones 5.0 y posteriores de Unicode
de SAP en las siguientes carpetas:
• Coarchivos
de Unicode: Archivo zip del programa de instalación de Informatica/saptrans/
mySAP/UC/cofiles
• Archivos
de datos de Unicode: Archivo zip del programa de instalación de Informatica/
saptrans/mySAP/UC/data
Para obtener más información, consulte el aviso de instalación para las versiones de transporte de
PowerExchange for SAP NetWeaver 10.4.0.
Tareas de la versión
En esta sección se describen tareas de la versión 10.4.0. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.4.0.
Transformación de Python
A partir de la versión 10.4.0, el componente de código Python en la transformación de Python se divide en las
siguientes fichas:
• Previo a la entrada. Define el código que puede interpretarse una vez y compartirse entre todas las filas
de datos.
• En entrada. Define el comportamiento de una transformación de Python cuando recibe una fila de entrada
mientras procesa una partición.
• Al final. Define el comportamiento de una transformación de Python después de procesar todos los datos
de entrada de una partición.
En las asignaciones actualizadas, el código que haya introducido en el componente de código Python
aparece en la ficha En entrada.
Para obtener información sobre cómo configurar el código en cada ficha, consulte el capítulo
"Transformación de Python" en la Guía del usuario de Informatica Data Engineering Integration 10.4.0.
• CI/CD, 156
• Programas de la línea de comandos, 161
• Data Engineering Integration, 162
• Data Engineering Streaming , 166
• Enterprise Data Catalog, 168
• Enterprise Data Preparation, 173
• Asignaciones de Informatica , 174
• Transformaciones de Informatica, 176
• Flujos de trabajo de Informatica, 176
• Instalación de Informatica, 176
• Modelo de estructura inteligente, 177
• PowerCenter, 178
• Adaptadores de PowerExchange, 179
• Seguridad, 184
CI/CD
En esta sección se describen las mejoras realizadas en CI/CD en la versión 10.4.0.
CI/CD, o integración continua y entrega continua, es una práctica que automatiza las operaciones de
integración y entrega en un canal de CI/CD. En la versión 10.4.0, puede incorporar las mejoras en su canal de
CI/CD para mejorar la forma en que implementa, prueba y proporciona objetos en el entorno de producción.
Algunas de las tareas que puede automatizar la API de REST incluyen las siguientes:
Consultar objetos.
Consultar objetos, incluidos los objetos en tiempo de diseño en un repositorio de modelos y objetos en
tiempo de ejecución que se implementan en un servicio de integración de datos.
156
Puede pasar la consulta a otras solicitudes de la API de REST. Por ejemplo, puede pasar una consulta a
una operación de control de versiones para realizar un control de versiones en un conjunto de objetos
específico. También puede pasar una consulta para implementar objetos en tiempo de diseño
específicos en un archivo de almacenamiento de revisiones de aplicación.
Realice operaciones de control de versiones para proteger, desproteger, deshacer una desprotección o
reasignar un objeto en tiempo de diseño desprotegido a otro desarrollador.
Administrar etiquetas.
Administre las etiquetas asignadas a objetos en tiempo de diseño. Puede asignar una nueva etiqueta o
sustituir las etiquetas de un objeto. También puede eliminar las etiquetas de un objeto.
Actualizar aplicaciones.
Administrar aplicaciones.
Inicie, anule la implementación o detenga una aplicación en función de los requisitos del proyecto o de
la organización.
Comparar asignaciones.
Por ejemplo, puede comparar dos asignaciones en tiempo de diseño o una asignación en tiempo de
diseño y otra en tiempo de ejecución.
Para ver las solicitudes de API de REST que puede utilizar y los parámetros de cada solicitud, acceda a la
documentación de API de REST a través de las propiedades de proceso del servicio de integración de datos o
las propiedades del servicio del concentrador de operaciones REST en la Herramienta del administrador.
En comparación con los programas de línea de comandos infacmd, la API de REST no tiene ningún requisito
de configuración y puede ejecutarla en entornos sin servicios de Informatica instalados en el equipo cliente.
Para obtener información sobre la API de REST, consulte el capítulo "API de REST del servicio de integración
de datos" en la Guía del servicio de aplicación de Informatica 10.4.0.
CI/CD 157
También puede utilizar los comandos infacmd dis para ejecutar utilidades del servicio de integración de
datos.
Comando Descripción
compareMappi Compara dos asignaciones consultadas. Consulte las asignaciones para comparar propiedades de
ng asignación, propiedades de transformación y puertos en transformaciones. Para consultar
asignaciones de tiempo de diseño, especifique el repositorio de modelos de tiempo de diseño. Para
consultar asignaciones de tiempo de ejecución, no especifique un repositorio de modelos. La
consulta utilizará el servicio de integración de datos que especifique para ejecutar el comando.
deployObjects Implementa los objetos en tiempo de diseño para un archivo de almacenamiento de revisión de
ToFile aplicación.
queryRunTime Consulta los objetos en tiempo de ejecución que están implementados en un servicio de integración
Objects de datos y devuelve una lista de objetos.
replaceAllTag Reemplaza las etiquetas con las etiquetas especificadas en los objetos consultados en el servicio
de repositorio de modelos.
tag Asigna una etiqueta en los objetos consultados en el servicio de repositorio de modelos.
untag Elimina una etiqueta en los objetos consultados en el servicio de repositorio de modelos.
listPatchName Enumera todas las revisiones que se han realizado a una aplicación incremental.
s
Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comandos de Informatica® 10.4.0.
Para obtener información acerca del servidor proxy inverso, consulte el capítulo "Servicios del sistema" en la
Guía del servicio de aplicación de Informatica 10.4.0.
Comandos Descripción
listServiceProcessOptions Enumera las propiedades del proceso del servicio del concentrador de
operaciones REST.
updateServiceOptions Actualiza las propiedades del servicio del concentrador de operaciones REST.
A partir de la versión 10.4.0, se ha cambiado el nombre de los siguientes comandos infacmd roh:
• listROHProperties a listProcessProperties.
• updateROHService a updateServiceProcessOptions.
Nota: Actualice todos los scripts que utilice con el nombre de comando anterior.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd roh" en la Referencia
de comandos de Informatica 10.4.0.
Para obtener más información sobre la información de estado, consulte el capítulo "Implementación de
aplicaciones" en la Guía de Informatica 10.4.0 Developer Tool.
Historial de revisiones
A partir de la versión 10.4.0, el historial de revisiones en el asistente de implementación incremental muestra
tanto el nombre como la descripción de las revisiones que se implementaron para actualizar la aplicación
incremental. La hora de creación de la revisión se anexa al principio de la descripción de la revisión.
Además, puede utilizar la Herramienta del administrador para ver el historial de revisiones de una aplicación
incremental implementada.
CI/CD 159
Para obtener más información sobre el historial de revisiones, consulte el capítulo "Implementación de
revisiones de la aplicación" en la Guía de Informatica 10.4.0 Developer Tool.
Para obtener más información sobre las aplicaciones implementadas, consulte el capítulo "Aplicaciones del
servicio de integración de datos" en la Guía del servicio de aplicación de Informatica 10.4.0.
Para obtener más información sobre el historial de revisiones, consulte el capítulo "Implementación de
revisiones de la aplicación" en la Guía de Informatica 10.4.0 Developer Tool.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd tools" en la Referencia
de comandos de Informatica 10.4.0.
Después de conectarse a una aplicación en tiempo de ejecución, las búsquedas que realice en Developer tool
pueden ubicar objetos en tiempo de ejecución en la aplicación.
Para obtener más información sobre la conexión a una aplicación en tiempo de ejecución y la visualización
de los objetos en tiempo de ejecución, consulte el capítulo "Implementación de aplicaciones" en la Guía de
Informatica 10.4.0 Developer Tool.
1. Dominio
2. Servicio de integración de datos
3. Aplicación en tiempo de ejecución
4. Repositorio de modelos
Para obtener más información sobre la interfaz de usuario de Developer tool, consulte el capítulo
"Informatica Developer" en la Guía de Informatica 10.4.0 Developer Tool.
Etiquetas
A partir de la versión 10.4.0, las etiquetas tienen la siguiente funcionalidad:
• Cuando implementa una asignación que está asociada a una etiqueta, la etiqueta se propaga a la versión
en tiempo de ejecución de la asignación en el servicio de integración de datos.
• Si actualiza la asignación implementada mediante una revisión de la aplicación, el nombre de la revisión
se asocia como una etiqueta a la versión en tiempo de ejecución de la asignación.
Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica 10.4.0
Developer Tool.
Comando Descripción
addCustomLDAPType Agrega un tipo LDAP personalizado que define un servicio de directorio de LDAP.
• Cuando ejecuta una asignación que lee o escribe en objetos de archivos complejos de Avro y Parquet en
el entorno nativo o en el entorno Hadoop, puede utilizar los siguientes tipos de datos:
- Date
- Decimal
- Timestamp
• Puede utilizar el tipo de datos Time para leer y escribir en objetos de archivos complejos de Avro o
Parquet en el entorno nativo o en el motor de Blaze.
• Puede utilizar los tipos de datos Date, Time, Timestamp y Decimal cuando ejecuta una asignación en el
motor de Databricks Spark.
Los nuevos tipos de datos se aplican a los siguientes adaptadores:
Para obtener más información sobre los tipos de datos, consulte el capítulo "Referencia de tipos de datos" en
la Guía del usuario de Data Engineering Integration 10.4.0.
Puede utilizar AWS Databricks para ejecutar asignaciones con la siguiente funcionalidad:
• Puede ejecutar asignaciones en orígenes y destinos de Amazon Simple Storage Service (S3) y Amazon
Redshift dentro del entorno de Databricks.
• Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros mediante Databricks on AWS.
• Puede agregar la transformación de Python a una asignación configurada para ejecutarse en el motor de
Databricks Spark.
La transformación de Python solo es compatible para la vista previa técnica.
AWS Databricks admite los mismos tipos de datos que Azure Databricks.
Para obtener más información sobre los flujos de trabajo de clúster, consulte la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.
Las asignaciones pueden acceder a los recursos de Delta Lake en las plataformas AWS y Azure.
Para obtener información sobre la configuración del acceso a las tablas de Delta Lake, consulte la Guía de
Data Engineering Integration. Para obtener información sobre la creación de asignaciones para acceder a
tablas de Delta Lake, consulte la Guía del usuario de Data Engineering Integration.
Para obtener más información sobre la API de REST, consulte el capítulo "Referencia de la API de REST de
supervisión" en la Guía del administrador de Data Engineering 10.4.0.
Agregación de registros
A partir de la versión 10.4.0, se pueden obtener registros agregados para las asignaciones implementadas
que se ejecutan en el entorno Hadoop.
Puede recopilar los registros de clústeres agregados de una asignación basándose en el ID del trabajo en la
Herramienta de supervisión o mediante el comando infacmd ms fetchAggregatedClusterLogs. Puede obtener
un archivo .zip o tar.gz de los registros de clústeres agregados de una asignación basándose en el ID del
trabajo y escribir el archivo de registros agregados en un directorio de destino.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0.
El motor Spark puede analizar datos de origen de cadenas sin formato mediante las siguientes funciones
complejas:
• PARSE_JSON
• PARSE_XML
Las funciones complejas analizan los datos JSON o XML en la cadena de origen y generan datos de destino
estructurados.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos" en la Guía del
usuario de Informatica Data Engineering Integration 10.4.0.
Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.4.0 Developer.
Puede crear y ejecutar perfiles en el motor Spark en las herramientas Informatica Developer e
Informatica Analyst. Puede realizar la detección de dominios de datos y la creación de cuadros de
mandos en el motor Spark.
Puede seleccionar las siguientes opciones de muestreo para ejecutar perfiles en el motor de Spark:
• La opción de muestreo Limit n ejecuta un perfil basado en el número de filas en el objeto de datos.
Cuando decide ejecutar un perfil en el entorno Hadoop, el motor Spark recopila muestras de varias
particiones del objeto de datos y las envía a un único nodo para calcular el tamaño de la muestra. No
puede aplicar las opciones de muestreo Limit n en los perfiles con un filtro avanzado.
Se admite en la base de datos de Oracle a través de la conexión de Sqoop.
• La opción de muestreo Random percentage ejecuta un perfil en un porcentaje de las filas del objeto
de datos.
Para obtener información sobre los perfiles y las opciones de muestreo en el motor Spark, consulte la Guía
de Informatica 10.4.0 Data Discovery.
Transformación de Python
A partir de la versión 10.4.0, la transformación de Python tiene la siguiente funcionalidad:
Modo activo
Puede crear una transformación de Python activa. Como transformación activa, la transformación de Python
puede cambiar el número de filas que pasan por ella. Por ejemplo, la transformación de Python puede
generar múltiples filas de salida a partir de una única fila de entrada, o la transformación puede generar una
única fila de salida a partir de múltiples filas de entrada.
Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.
Datos particionados
Puede ejecutar código Python para procesar datos entrantes basándose en el esquema de particionamiento
predeterminado de los datos, o puede volver a particionar los datos antes de ejecutar el código Python. Para
volver a particionar los datos antes de ejecutar el código Python, seleccione uno o varios puertos de entrada
como clave de la partición.
Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.
Sqoop
A partir de la versión 10.4.0, puede configurar los siguientes argumentos de Sqoop en la conexión JDBC:
• --update-key
• --update-mode
• --validate
• --validation-failurehandler
• --validation-threshold
• --validator
• --mapreduce-job-name
• --bindir
• --class-name
• --jar-file
• --outdir
Para obtener más información sobre cómo configurar estos argumentos de Sqoop, consulte la
documentación de Sqoop.
Puede utilizar Confluent Kafka para almacenar y recuperar esquemas de Apache Avro en asignaciones de
transmisión. Schema Registry utiliza Kafka como mecanismo de almacenamiento subyacente.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.
Puede utilizar las siguientes transformaciones de Data Quality en las asignaciones de transmisión para
aplicar el proceso de calidad de datos en los datos de transmisión:
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.
Para reanudar el procesamiento de los datos desde el punto en que se elimina un clúster, puede ejecutar
asignaciones de transmisión en un clúster efímero especificando un almacenamiento externo y un directorio
de puntos de comprobación.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.
En tiempo de ejecución, el servicio de integración de datos crea directorios independientes para cada valor
del puerto FileName y agrega los archivos de destino en los directorios.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.
Azure Data Lake Storage Gen2 está basado en Azure Blob Storage. Azure Data Lake Storage Gen2 tiene las
capacidades tanto de Azure Data Lake Storage Gen1 como de Azure Blob Storage. Puede utilizar Azure
Databricks 5.4 o Azure HDInsight 4.0 para acceder a los datos almacenados en Azure Data Lake Storage
Gen2.
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.
Orígenes y destinos
Puede ejecutar asignaciones de transmisión en los siguientes orígenes y destinos dentro del entorno de
Databricks:
Transformaciones
Agregación
Expresión
Filtro
Unión
Normalizador
Rango
Enrutador
Unión
Ventana
Tipos de datos
Matriz
Bigint
Flujos de trabajo
Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros en el entorno de Databricks.
Utilice Azure Data Lake Storage Gen1 (ADLS Gen1) y Azure Data Lake Storage Gen2 (ADLS Gen2) para
crear clústeres efímeros en el entorno de Databricks.
Para obtener más información sobre las asignaciones de transmisión en Azure Databricks, consulte la Guía
del usuario de Data Engineering Streaming 10.4.0.
Puede usar objetos de datos de Confluent Kafka como orígenes y destinos dinámicos en una asignación de
transmisión.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog.
• AWS Glue
• Microsoft Power BI
• Apache Cassandra
• Snowflake
• Google Cloud Storage
Puede extraer información de metadatos, relaciones y linaje de todos estos recursos. Para obtener más
información, consulte la Guía de configuración del escáner de Informatica 10.4.0 Enterprise Data Catalog.
Puede configurar los siguientes recursos para extraer metadatos de orígenes de datos u otros recursos del
catálogo al que hace referencia el recurso:
• PowerCenter
• AWS Glue
• Tableau Server
• Coudera Navigator
• Apache Atlas
• Informatica Intelligent Cloud Services
• Informatica Platform
• SQL Server Integration Service
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog y la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre tareas de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.
Puede aceptar o rechazar los resultados de inferencia de claves únicas deducidas. Después de aceptar o
rechazar una inferencia de clave única deducida, puede restablecer la inferencia de clave única para
restaurar el estado deducido.
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.0 Enterprise Catalog.
Puede seleccionar las siguientes opciones de muestreo para detectar dominios de datos en el motor
Spark:
• La opción de muestreo Limit n ejecuta un perfil basado en el número de filas en el objeto de datos.
Cuando decide detectar dominios de datos en el entorno Hadoop, el motor Spark recopila muestras
de varias particiones del objeto de datos y las envía a un único nodo para calcular el tamaño de la
muestra.
• La opción de muestreo Random percentage ejecuta un perfil en un porcentaje de las filas del objeto
de datos.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.0 Enterprise Catalog.
La funcionalidad de vista previa técnica es compatible, pero no se garantiza ni está preparada para usarla en
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión de disponibilidad general (GA)
para poder usarla en producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento. Para obtener más información, póngase en
contacto con el servicio internacional de atención al cliente de Informatica.
• A partir de la versión 10.4.0, puede optar por mostrar la vista compacta de la vista Linaje e impacto. La
vista Linaje e impacto compacta muestra el diagrama de linaje e impacto resumido en el nivel de
recursos.
Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía
del usuario de Informatica 10.4.0 Enterprise Data Catalog.
• A partir de la versión 10.4.0, puede extraer metadatos de orígenes de SAP Business Warehouse, SAP BW/
4HANA, IBM InfoSphere DataStage y Oracle Data Integrator cuando no se puede acceder a ellos en tiempo
de ejecución o sin conexión.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog.
• A partir de la versión 10.4.0, puede extraer metadatos de los orígenes de datos de SAP Business
Warehouse y SAP BW/4HANA.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.0
Enterprise Data Catalog.
Para obtener más información sobre la obtención de una vista previa y el aprovisionamiento de los datos,
consulte la Guía del administrador de Informatica 10.4.0 Catalog y la Guía del usuario de Informatica 10.4.0
Enterprise Data Catalog.
• Amazon Redshift
• Amazon S3
• Apache Cassandra
• Axon
• Azure Data Lake Store
• Azure Microsoft SQL Data Warehouse
• Azure Microsoft SQL Server
• Business Glossary
• Linaje personalizado
• Scripts de la base de datos
• Erwin
• Glue
• Google BigQuery
• Google Cloud Storage
• Informatica Cloud Service
• IBM Cognos
• Microsoft Azure Blob Storage
• Microsoft SQL Server Integration Services
• PowerBI
• QlikView Business Intelligence
• Salesforce
• SAP HANA
• SAP PowerDesigner
• Snowflake
• Workday
Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.4 .
API de REST
A partir de la versión 10.4, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:
• API de REST de provisión de datos. Además de las API de REST existentes, puede ver si el
aprovisionamiento de datos está disponible para el usuario y enumerar los recursos que admiten
aprovisionamiento de datos.
• API de REST de filtro de linaje. Puede crear, actualizar, enumerar o eliminar un filtro de linaje.
Para obtener más información, consulte la Guía del administrador de Enterprise Data Preparation 10.4.0.
Cuando publica datos, puede seleccionar el tipo de archivo en el que escribir los datos en Data Lake. Por
ejemplo, si decide publicar datos como un archivo de valores separados por comas, la aplicación escribe los
datos en Data Lake como un archivo .csv.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.
Puede cargar en Data Lake un archivo delimitado por comas, un archivo Avro, un archivo JSON o un
archivo Parquet en formato UTF-8 directamente desde la unidad local, sin obtener una vista previa de los
datos. Podría optar por esta opción si desea cargar un archivo sin obtener una vista previa de los datos.
Permitir a CLAIRE determinar la estructura del archivo y luego cargar el archivo en Data Lake.
Puede cargar los datos en un archivo delimitado por comas o una hoja de cálculo de Microsoft Excel en
Data Lake. Cuando se carga el archivo, Enterprise Data Preparation utiliza el motor de detección
integrado de CLAIRE para determinar la estructura del archivo y muestra una vista previa de los datos.
Cuando utiliza esta opción para cargar una hoja de cálculo de Excel, el motor de CLAIRE detecta las
hojas y las tablas en la hoja de cálculo. Puede seleccionar la hoja y la tabla de las que quiere obtener
una vista previa.
Nota: Cargar una hoja de cálculo de Excel es una característica de vista previa.
Puede cargar los datos en un archivo delimitado por comas de la unidad local en Data Lake. Cuando se
carga el archivo, puede obtener una vista previa de los datos, especificar la estructura del archivo y
configurar atributos de columna que cumplan sus requisitos. Puede optar por esta opción si necesita
modificar atributos de columna antes de cargar el archivo.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.
Asignaciones de Informatica
En esta sección se describen las nuevas características para las asignaciones de Informatica en la versión
10.4.0.
Cree una salida de asignación. Enlace la salida con un parámetro de asignación para utilizar el valor en
ejecuciones subsiguientes de la asignación. Cuando ejecute la asignación, el servicio de integración de datos
pasará el valor de la salida de asignación al parámetro de asignación. Para conservar salidas de asignación,
debe especificar un nombre de instancia en tiempo de ejecución mediante la opción -RuntimeInstanceName
para el comando infacmd ms runMapping.
Developer tool incluye ahora una columna Enlace en la vista Propiedades de las asignaciones para enlazar
una salida de asignación con un parámetro.
Para obtener información sobre las salidas de asignación en asignaciones implementadas, consulte el
capítulo "Salidas de asignación" en la Guía de asignaciones de Informatica 10.4.0 Developer.
Comando Descripción
deleteMappingPersistedOutputs Nuevo comando que elimina todas las salidas de asignación persistentes de una
asignación implementada. Especifique las salidas que se deban eliminar con el
nombre de la aplicación y el nombre de instancia en tiempo de ejecución de la
asignación. Para eliminar salidas específicas, use la opción -
OutputNamesToDelete.
getMappingStatus Comando actualizado que ahora devuelve el nombre del trabajo. Si ha definido un
nombre de instancia en tiempo de ejecución en infacmd ms runMapping, el nombre
del trabajo es el nombre de la instancia en tiempo de ejecución.
listMappingPersistedOutputs Nuevo comando que enumera las salidas de asignación persistentes de una
asignación implementada. Las salidas se enumeran de acuerdo con el nombre de
la aplicación y del nombre de instancia en tiempo de ejecución de la asignación.
Para obtener más información, consulte el capítulo "Referencia del comando infacmed ms" de la Referencia
de comandos de Informatica 10.4.0.
Cuando habilita las recomendaciones, CLAIRE se ejecuta automáticamente en las asignaciones conforme las
desarrolla, y muestra recomendaciones que le permiten corregir o ajustar la asignación.
También puede ejecutar análisis de CLAIRE en las asignaciones de un proyecto o en la carpeta del proyecto.
Cuando analiza un grupo de asignaciones, CLAIRE muestra conclusiones acerca de las similitudes entre las
asignaciones.
Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.
Para obtener más información, consulte la Referencia de comandos de Informatica 10.4.0 y la Guía de
asignaciones de Informatica 10.4.0 Developer.
La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:
Estados Unidos
A partir de la versión 10.4, el validador de direcciones reconoce MC como una versión alternativa de MSC
(Mail Stop Code) en las direcciones de Estados Unidos.
Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.4, consulte la Guía de desarrollador de Informatica
Address Verification 5.15.0.
• Tamaño de volumen de EBS de dispositivo raíz. El número de GB del volumen del dispositivo raíz de EBS.
• ID de AMI personalizada. ID de una imagen de máquina de Amazon (Amazon Machine Image, AMI)
personalizada de Amazon Linux.
• Configuración de seguridad. El nombre de una configuración de seguridad para la autenticación y el
cifrado en el clúster.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0 y la Guía de
flujo de trabajo de Informatica® 10.4.0 Developer.
Instalación de Informatica
En esta sección se describen las nuevas características de instalación de la versión 10.4.0.
También puede instalar la versión 10.6 de la aplicación cliente psql para que PostgreSQL funcione en Linux o
en Windows.
Para obtener más información sobre PostgreSQL, consulte las guías de instalación de Informatica 10.4.0.
Para obtener más información sobre cómo ejecutar i10Pi en modo silencioso, consulte la Guía de instalación
de Informatica 10.4.0.
Cuando el programa de instalación se ejecuta en modo silencioso, el marco de la instalación descifra las
contraseñas cifradas.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.
Esta funcionalidad es compatible con archivos de ejemplo XML, JSON, ORC, AVRO y Parquet.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.
PowerCenter
En esta sección se describen las nuevas características de PowerCenter de la versión 10.4.0.
Transformación de HTTP
A partir de la versión 10.4.0, la transformación de HTTP también incluye los siguientes métodos para la
construcción de URL final: SIMPLE PATCH, SIMPLE PUT y SIMPLE DELETE.
Puede realizar una actualización parcial y los datos de entrada no necesitan formar un cuerpo completo con
el método SIMPLE PATCH. Puede utilizarlo para actualizar los datos del puerto de entrada como una revisión
del recurso.
Puede realizar un reemplazo completo del documento con el método SIMPLE PUT. Puede crear datos desde
un puerto de entrada como un único bloque de datos para un servidor HTTP. Si los datos ya existen, puede
actualizar los datos de un puerto de entrada como un único bloque de datos para un servidor HTTP.
Puede eliminar datos del servidor HTTP con el método SIMPLE DELETE.
Anteriormente, solo se podía especificar la construcción de URL final para estos dos métodos: SIMPLE GET y
SIMPLE POST. Tampoco se podía parametrizar la URL final para la transformación HTTP.
Para obtener más información, consulte el capítulo "Transformación HTTP" de la Guía de transformación de
PowerCenter 10.4.0.
Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.4.0.
Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.4.0 PowerCenter.
• Vistas de análisis
• Vistas de atributos
• Vistas calculadas
Para obtener más información, consulte la Guía de Informatica 10.4.0 PowerCenter Designer.
• Puede utilizar un clúster de Google Dataproc para ejecutar asignaciones en el motor Spark.
• Puede aumentar el rendimiento de la asignación ejecutándola en el modo Spark optimizado. Cuando
utiliza el modo Spark optimizado para leer datos, puede especificar el número de particiones que se
utilizarán. Puede especificar si la asignación se ejecutará en modo Genérico u Optimizado en las
propiedades avanzadas de las operaciones de lectura y escritura. El modo Spark optimizado aumenta el
rendimiento de las asignaciones.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada que se
utiliza para extraer datos del origen de Google BigQuery.
• Puede utilizar un clúster de Google Dataproc para ejecutar asignaciones en el motor Spark.
• Puede configurar las siguientes propiedades avanzadas de operación de lectura de objeto de datos de
Google Cloud Storage cuando lee datos de un origen de Google Cloud Storage:
Ruta de Google Cloud Storage
Reemplaza la ruta de Google Cloud Storage al archivo que seleccionó en el objeto de datos de Google
Cloud Storage.
Use el siguiente formato:
gs://<bucket name> o gs://<bucket name>/<folder name>
Reemplaza el nombre del archivo de origen de Google Cloud Storage especificado en el objeto de
datos de Google Cloud Storage.
Es un directorio
Lee todos los archivos disponibles en la carpeta especificada en la propiedad avanzada de operación
de lectura de objeto de datos de Ruta de Google Cloud Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
Cloud Storage.
• Puede parametrizar el tipo de formato y el esquema de datos en las propiedades de las operaciones de
lectura y escritura en tiempo de ejecución.
• Puede utilizar la autenticación con firmas de acceso compartido mientras crea una conexión con
Microsoft Azure Blob Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Blob Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure SQL Data Warehouse.
• Puede utilizar la versión 45.0, 46.0 y 47.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede habilitar la fragmentación de claves principales para consultas sobre un objeto compartido que
representa una entrada que se comparte en el objeto de destino. La fragmentación de claves principales
solo es compatible con los objetos compartidos si el objeto principal es compatible. Por ejemplo, si
quiere consultar sobre CaseHistory, la fragmentación de claves principales debe ser compatible con el
objeto principal Case.
• Puede crear reglas de asignaciones para volver a asignar atributos en registros cuando se insertan,
actualizan o se actualizan e insertan registros para los objetos de destino Lead y Case que utilizan la API
estándar.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce.
• Puede configurar la transmisión HTTPS para las asignaciones de lector de tablas de SAP.
• Puede leer datos de las vistas de ABAP CDS utilizando el extractor de tablas de SAP si utiliza la versión
7.50 o posterior del sistema SAP NetWeaver.
• Puede leer datos de tablas de SAP con campos que tengan los siguientes tipos de datos:
- DF16_DEC
- DF32_DEC
- DF16_RAW
- DF34_RAW
- INT8
- RAWSTRING
- SSTRING
- STRING
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.4.0.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Snowflake.
• Puede parametrizar el tipo de formato y el esquema de datos en las propiedades de las operaciones de
lectura y escritura en tiempo de ejecución.
• Puede dar formato al esquema de un objeto de datos de un archivo complejo para una operación de
lectura o escritura.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for HDFS.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
BigQuery para PowerCenter.
Reemplaza la ruta de Google Cloud Storage al archivo que seleccionó en el objeto de datos de Google
Cloud Storage.
Reemplaza el nombre del archivo de origen de Google Cloud Storage especificado en el objeto de datos
de Google Cloud Storage.
Lee todos los archivos disponibles en la carpeta especificada en la propiedad avanzada de operación de
lectura de objeto de datos de Ruta de Google Cloud Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
Cloud Storage para PowerCenter.
Cuando ejecuta una sesión de Greenplum para leer datos, el servicio de integración de PowerCenter invoca el
servidor de archivos paralelos de la base de datos de Greenplum, gpfdist, que es el programa de distribución
de archivos, para leer los datos.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Greenplum
10.4.0 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for JD
Edwards EnterpriseOne para PowerCenter.
• Modo SSL
• Ruta de acceso de archivo del TrustStore SSL
• Contraseña del TrustStore SSL
• Ruta de acceso de archivo de almacén de claves SSL
• Contraseña del almacén de claves SSL
Puede configurar el agente de mensajería de Kafka para utilizar la versión 0.10.1.1 o superior del agente de
Kafka.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.4.0
para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.4.0.
Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.4.0.
Antes, el servicio de integración de datos utilizaba scripts spark-submit para todos los trabajos de vista
previa de datos en el motor de Spark. Las asignaciones configuradas para ejecutarse con Azure HDInsight y
MapR utilizan scripts spark-submit para obtener una vista previa de los datos en el motor de Spark. La vista
previa de datos en las asignaciones configuradas para ejecutarse con Azure HDInsight y MapR está
disponible para la vista previa técnica.
Para obtener más información, consulte el capítulo "Vista previa de datos" en la Guía del usuario de Data
Engineering Integration 10.4.0.
Transformación de unión
A partir de la versión 10.4.0, puede seleccionar una transformación de unión como punto de vista previa al
obtener una vista previa de los datos. Anteriormente, la transformación de unión no se admitía como punto
de vista previa.
185
Comandos infacmd dp
Puede utilizar el complemento infacmd dp para realizar operaciones de vista previa de datos. Utilice los
comandos infacmd dp para iniciar y detener manualmente el servidor de trabajos de Spark.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia de comandos infacmd dp" en la Referencia de
comandos de Informatica 10.4.0.
Anteriormente, el formato se establecía en las propiedades de asignación para las preferencias de tiempo de
ejecución de Developer tool.
Es posible que deba realizar tareas adicionales para seguir utilizando datos de fecha y hora en el motor de
Databricks. Para obtener más información, consulte el capítulo "Integración con Databricks" en la Guía de
integración de Data Engineering 10.4.0.
• Si el origen de la asignación contiene valores nulos y utiliza la opción Crear destino para crear un archivo
Parquet de destino, el esquema predeterminado contiene campos opcionales y puede insertar valores
nulos en el destino.
Anteriormente, todos los campos se creaban como REQUIRED en el esquema predeterminado y había que
actualizar manualmente el tipo de datos en el esquema de destino de "Required" a "Optional" para escribir
las columnas con valores nulos en el destino.
• Si el origen de la asignación contiene valores nulos y utiliza la opción Crear destino para crear un archivo
Avro de destino, los valores nulos se definen en el esquema predeterminado y puede insertar valores
nulos en el archivo de destino.
Anteriormente, los valores nulos no se definían en el esquema predeterminado y había que actualizar
manualmente el esquema de destino predeterminado para agregar el tipo de datos "null" al esquema.
Nota: Puede editar manualmente el esquema si no desea permitir valores nulos en el destino. No puede
editar el esquema para impedir valores nulos en el destino con flujo de asignación habilitado.
Transformación de Python
A partir de la versión 10.4.0, se accede a los archivos de recursos en el código Python haciendo referencia a
un índice en la matriz resourceFilesArray. Utilice resourceFilesArray en las nuevas asignaciones que
cree en la versión 10.4.0.
Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.
Cuando se abre un proyecto creado en una versión anterior, aparece un cuadro de diálogo que le pide que
actualice las hojas de trabajo del proyecto. Si decide actualizar las hojas de trabajo, la aplicación recalcula
las fórmulas en cada hoja de trabajo del proyecto y, a continuación, las actualiza con los resultados de las
nuevas fórmulas.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.
Anteriormente, la aplicación Enterprise Data Preparation utilizaba Apache Solr para recomendar pasos para
agregar a una receta durante la preparación de datos. Ahora, la aplicación utiliza un algoritmo interno para
recomendar pasos para agregar a una receta.
A partir de la versión 10.4.0, Enterprise Data Catalog ahora admite la creación de perfiles de las tablas y las
vistas de las bases de datos de SAP HANA para extraer estadísticas de detección de dominios y creación de
perfiles de columna.
El origen de transmisión admitido es Apache Kafka. Se admiten objetos de referencia de tipo seguro para los
orígenes de datos de Apache Kafka y Hive.
Búsqueda Sugerencias
A partir de la versión 10.4.0, Enterprise Data Catalog ahora muestra tanto los títulos empresariales como los
nombres de activos como coincidencias probables en las sugerencias de búsqueda. Anteriormente,
Enterprise Data Catalog solo mostraba los nombres de activos como coincidencias probables en las
sugerencias de búsqueda.
Anteriormente, Developer tool no importaba la tabla ni intentaba importar ninguna otra tabla subsiguiente.
Para obtener más información, consulte la Guía de Informatica 10.4.0 Developer Tool.
Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la
versión 10.4.0.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.14.0 del motor de software Informatica Address
Verification.
Anteriormente, si los datos de referencia de una dirección no contenían información de provincia para el país,
Address Verification movía la información de provincia al campo Residuo y devolvía una puntuación Cx.
España
A partir de la versión 10.4, la transformación del validador de direcciones devuelve un estado Ix para las
direcciones de España que requieren una corrección significativa para producir una coincidencia en los datos
de referencia.
Anteriormente, Address Verification podía corregir una dirección que requiriera cambios significativos y
devolver una puntuación de coincidencia excesivamente optimista para la dirección.
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.15.0.
PowerCenter
En esta sección se describen los cambios introducidos en PowerCenter en la versión 10.4.0.
Para actualizar la lista de carpetas en un repositorio, haga clic con el botón derecho en él y seleccione
Actualizar lista de carpetas. Para actualizar la carpeta y todo su contenido, haga clic con el botón derecho en
la carpeta y seleccione Actualizar.
Anteriormente, era necesario desconectar y reconectar los clientes de PowerCenter para ver las
actualizaciones en el repositorio o en la carpeta.
Para obtener más información, consulte las guías PowerCenter 10.4.0 Repository Guide, PowerCenter 10.4.0
Designer Guide y PowerCenter 10.4.0 Workflow Basics Guide.
Importar y exportar
A partir de la versión 10.4.0, es posible importar y exportar asignaciones, sesiones, flujos de trabajo y
worklets.
Para importar datos de PowerCenter al repositorio de modelos, complete las siguientes tareas:
1. Exporte los objetos de PowerCenter a un archivo mediante el cliente de PowerCenter o con el siguiente
comando:
pmrep ExportObject
2. Convierta el archivo de exportación en un archivo del repositorio de modelos mediante el siguiente
comando:
infacmd ipc importFromPC
3. Importe los objetos mediante Developer tool o con el siguiente comando:
infacmd tools importObjects
1. Exporte los objetos del repositorio de modelos a un archivo mediante Developer tool o con el siguiente
comando:
infacmd tools ExportObjects
O bien, puede ejecutar infacmd ipc ExportToPC directamente para realizar la exportación.
2. Convierta el archivo de exportación en un archivo de PowerCenter mediante el siguiente comando:
infacmd ipc ExporttoPC
3. Importe los objetos mediante PowerCenter o con el siguiente comando:
pmrep importObjects
En las versiones 10.2.2 y 10.2.1, era posible importar desde PowerCenter con los parches del programa de
instalación, pero no se podía exportar a PowerCenter. Antes de la versión 10.2.1, se podía importar y exportar
a PowerCenter.
Para obtener más información, consulte la Guía de Informatica 10.4.0 Developer Tool, la Guía de asignaciones
de Informatica 10.4.0 Developer, la Guía de flujo de trabajo de Informatica 10.4.0 Developer y la Guía de
referencia de comandos de Informatica 10.4.0.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
Redshift.
Anteriormente, tenía que agregar el permiso GetBucketPolicy en la directiva de cubo de Amazon S3 para
conectarse a Amazon S3.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
S3.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Blob Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen1.
Seguridad
En esta sección se describen los cambios introducidos en las características de seguridad en la versión
10.4.0.
Comando Descripción
addNameSpace La opción -ln requerida se agrega al comando. Esta opción se emplea para especificar el
nombre de la configuración de LDAP.
setLDAPConnectivity El nombre del comando ha cambiado a addLDAPConnectivity. Actualice todos los scripts que
utilicen setLDAPConnectivity con la nueva sintaxis del comando.
La opción -ln requerida se agrega al comando.
Configuraciones de LDAP
A partir de la versión 10.4.0, es posible configurar un dominio de Informatica para permitir a los usuarios
importados de uno o varios servicios de directorio de LDAP iniciar sesión en nodos, servicios y clientes de
aplicación de Informatica.
Anteriormente, se podía configurar un dominio de Informatica para importar usuarios de un único servicio de
directorio de LDAP.
Autenticación de SAML
A partir de la versión 10.4.0, Informatica admite los siguientes proveedores de identidades:
Seguridad 193
Parte V: Versión 10.2.2 a 10.2.2
HotFix 1
Esta parte incluye los siguientes capítulos:
194
Capítulo 20
Avisos importantes
Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2.2 HotFix 1 Service Pack 1.
Para los productos de Big Data, utilice Hive Warehouse Connector y LLAP de Hive con Azure HDInsight
4.x y Hortonworks HDP 3.x para habilitar el código de Spark para que interactúe con las tablas de Hive y
permitir las tablas de Hive habilitadas para ACID en el motor de Spark.
La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.
La actualización a HDP 3.1 podría afectar las tablas Hive administradas. Antes de actualizar, revise la
información de actualización de HDP 3.1 y las limitaciones conocidas de Cloudera en el artículo de la base
de conocimiento What Should Big Data Customers Know About Upgrading to Hortonworks HDP 3.1?.
195
Póngase en contacto con Informatica Global Customer Services o Cloudera Professional Services para
validar sus planes de actualización a HDP 3.1.
Novedades
-Force Opcional. Si desea forzar la copia de seguridad cuando el modo de copia de seguridad es sin
-fr conexión. Realiza a la fuerza la copia de seguridad y sobrescribe la copia de seguridad existente.
-Force Opcional. Si desea limpiar el contenido existente de HDFS y Apache Zookeeper. Restaura a la fuerza
-fr los datos de la copia de seguridad.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ldm" en la Referencia
de comandos de Informatica 10.2.2 HotFix 1.
Para obtener más información sobre cómo integrar Big Data Management con un clúster que usa el
almacenamiento ADLS Gen2, consulte la Guía de integración de Big Data Management. Para obtener
información sobre cómo usar asignaciones con orígenes y destinos ADLS Gen2, consulte la Guía del usuario
de Big Data Management.
Para obtener más información, consulte el capítulo "Azure Data Lake Store" de la Guía de configuración del
escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.
Para obtener información sobre la vinculación sin distinción entre mayúsculas y minúsculas, consulte el
capítulo sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2
HotFix 1.
La extensión Tableau de Enterprise Data Catalog se puede utilizar en Tableau Desktop, Tableau Server y en
todos los navegadores web que sean compatibles con Tableau. Descargue la extensión desde la aplicación
de Enterprise Data Catalog y añádala a un panel en Tableau.
Para obtener más información sobre la extensión, consulte la guía de la extensión de Informatica Enterprise
Data Catalog 10.2.2 HotFix 1 para Tableau.
Nuevos recursos
A partir de la versión 10.2.2 HotFix 1, los siguientes recursos nuevos se añaden a Enterprise Data Catalog:
• SAP PowerDesigner. Se puede extraer información de los metadatos, la relación y el linaje de un origen de
datos de SAP PowerDesigner.
• SAP HANA. Se pueden extraer metadatos de linaje y objetos de una base de datos de SAP HANA.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.2.2 HotFix 1.
Para obtener más información, consulte el capítulo sobre la configuración de escáneres de Informatica
Platform en la Guía de configuración del escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.
API de REST
A partir de la versión 10.2.2 HotFix 1, puede usar las siguientes API de REST de Informatica Enterprise Data
Catalog:
• API de REST de provisión de datos. Puede devolver, actualizar o eliminar conexiones y recursos.
Novedades 197
• API de REST del modelo de catálogo. Además de las API de REST existentes, puede acceder, actualizar o
eliminar las facetas de campos, las facetas de consultas y las fichas de búsqueda.
• API de objetos. Además de las API de REST existentes, puede enumerar las sugerencias y la búsqueda de
catálogo.
Para obtener más información sobre las API de REST, consulte la Referencia de la API de REST de Informatica
Enterprise Data Catalog 10.2 .2 HotFix 1.
Búsqueda Mejoras
A partir de la versión 10.2.2 HotFix 1, se pueden realizar mejores búsquedas en Enterprise Data Catalog en
función de las siguientes mejoras:
Se puede realizar una búsqueda de activos mediante las comillas dobles ("") para buscar activos que
tengan exactamente el nombre del activo que se incluya entre las comillas dobles, pero no las
variaciones del nombre del activo en el catálogo.
Operadores de búsqueda
Se pueden utilizar nuevos operadores de búsqueda para que los resultados de la búsqueda sean más
precisos. Los operadores de búsqueda son AND, OR, NOT, título y descripción.
Rango de búsqueda
Enterprise Data Catalog utiliza un algoritmo de clasificación para clasificar los activos de datos en la
página de resultados de búsqueda. La clasificación de la búsqueda hace referencia a la precedencia de
un activo cuando se compara con otros activos que forman parte de los resultados de búsqueda
específicos.
Búsqueda relacionada
La opción Mostrar búsqueda relacionada se puede habilitar en la página Resultados de búsqueda para
ver los activos relacionados.
Si desea más información sobre las mejoras en las búsquedas, consulte el capítulo "Buscar activos" en la
Guía del usuario de Informatica Enterprise Data Catalog 10.2.2 Hotfix 1.
Búsqueda Tabuladores
A partir de la versión 10.2.2 HotFix 1, se pueden usar las fichas de búsqueda para buscar activos sin tener
que establecer continuamente los mismos criterios de búsqueda cuando se realice una búsqueda para los
activos. Las fichas de búsqueda son filtros predefinidos en el catálogo.
Si desea más información sobre las fichas de búsqueda, consulte el capítulo "Personalizar búsqueda" en la
Guía del usuario de Informatica Enterprise Data Catalog 10.2.2 Hotfix 1.
• Apache Atlas
• Cloudera Navigator
• Sistema de archivos
• HDFS
Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.
La funcionalidad de versión preliminar técnica es compatible, pero no se garantiza ni está preparada para
usarla en producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.
Informatica tiene la intención de incluir la funcionalidad de versión preliminar en una próxima versión de
disponibilidad general (GA) para poder usarla en producción, pero podría decidir no hacerlo en función de
cuáles sean los requisitos del mercado o las circunstancias técnicas en ese momento. Para obtener más
información, póngase en contacto con el servicio internacional de atención al cliente de Informatica.
A partir de la versión 10.2.2 HotFix 1, las siguientes funciones están disponibles para la versión preliminar
técnica:
• A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos para el linaje de datos en el nivel de
columna, incluida la lógica de transformación de un origen de datos de Oracle Data Integrator.
• A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos para el linaje de datos en el nivel de
columna, incluida la lógica de transformación de un origen de datos de IBM InfoSphere DataStage.
• A partir de la versión 10.2.2 HotFix 1, se puede extraer el linaje de datos en el nivel de columna para los
procedimientos almacenados en Oracle y SQL Server.
• A partir de la versión 10.2.2 HotFix 1, se puede realizar el aprovisionamiento de datos después de
completar la obtención de datos en el catálogo. Gracias al aprovisionamiento de datos, podrá mover los
datos a un destino para realizar otros análisis.
Si desea más información sobre la obtención de una vista previa de los datos, consulte la Guía del
administrador de Informatica Catalog 10.2.2 HotFix 1 y la Guía del usuario de Informatica Enterprise Data
Catalog 10.2.2 Hotfix 1.
• A partir de la versión 10.2.2 HotFix 1, se puede obtener una vista previa de los datos para evaluarlos antes
de trasladarlos al destino. Solo se pueden obtener vistas previas de los datos para los activos tabulares
de los recursos de Oracle y Microsoft SQL Server.
Si desea más información sobre la obtención de una vista previa de los datos, consulte la Guía del
administrador de Informatica Catalog 10.2.2 HotFix 1 y la Guía del usuario de Informatica Enterprise Data
Catalog 10.2.2 Hotfix 1.
Novedades 199
PowerExchange for Google Analytics
A partir de la versión 10.2.2 HotFix 1 Service Pack 1, puede ejecutar asignaciones de PowerExchange for
Google Analytics en el motor de Spark en las siguientes distribuciones:
Cambios
Data Transformation
En esta sección se describen los cambios realizados en la versión 10.2.2 HotFix 1 de Data Transformation.
Si intenta utilizar BIRT desde Data Transformation antes de descargarlo, podría obtener el siguiente error:
Para obtener más información, consulte la Guía del usuario de Informatica Enterprise Data Preparation 10.2.2
HotFix 1.
Para obtener información sobre la propagación de términos empresariales, consulte el capítulo sobre los
conceptos de Enterprise Data Catalog en la Guía del administrador de Informatica Catalog 10.2.2 HotFix 1.
Recursos personalizados
A partir de la versión 10.2.2 HotFix 1, los recursos personalizados incluyen las siguientes mejoras:
Ver el resumen o los detalles del linaje para las transformaciones de ETL
Puede configurar los recursos personalizados de ETL para ver el resumen o los detalles del linaje para
las transformaciones de ETL entre varios orígenes de datos.
Cuando configura un recurso personalizado, puede proporcionar una ruta de acceso remota al
archivo .zip que incluye los metadatos personalizados que desea incluir en el catálogo. Puede utilizar la
ruta de archivo remota para automatizar y programar exploraciones de recursos personalizados.
Configurar el recurso personalizado para utilizar un script definido por el usuario para extraer metadatos
Cambios 201
Configurar iconos personalizados para activos de datos de recursos personalizados
Es posible personalizar y configurar iconos para las clases que defina en el modelo personalizado. Los
iconos aparecen en Enterprise Data Catalog para representar los activos de datos desde un recurso
personalizado.
La página Vistas de relaciones se puede configurar en Enterprise Data Catalog para los recursos
personalizados. Como parte de la configuración, se puede definir un conjunto de configuraciones para
clases en el modelo personalizado. En función de las definiciones, puede filtrar o agrupar objetos
relacionados para cada tipo de clase y ver los objetos en la página Vistas de relaciones.
Para obtener más información, consulte la Guía del administrador de Informatica Catalog 10.2.2 HotFix 1.
Documentación Cambios
A partir de la versión 10.2.2 HotFix 1, toda la información relacionada con la creación y la configuración de
recursos se trasladará desde la Guía del administrador de Catalog a una nueva guía llamada Guía de
configuración del escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.2.2 HotFix 1.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.2.2 HotFix 1.
Anteriormente, tenía que agregar el permiso GetBucketPolicy en la directiva de cubo de Amazon S3 para
conectarse a Amazon Redshift.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2 HotFix 1.
Avisos importantes
Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2.2 Service Pack 1.
Compatibilidad diferida
A partir de la versión 10.2.2 Service Pack 1, Informatica postergó la compatibilidad con las siguientes
funcionalidades:
Informatica tiene la intención de reinstaurarla en una próxima versión, pero podría decidir no hacerlo en
función de cuáles sean los requisitos del mercado o las circunstancias técnicas en ese momento.
Al crear una conexión de Kafka, puede usar propiedades de conexión SSL para configurar el agente de
Kafka.
Puede utilizar productos de Informatica Big Data con Hortonworks HDP versión 3.1.
La funcionalidad de vista previa técnica se puede utilizar con fines de evaluación, pero no se garantiza ni
está preparada para usarla en producción. Informatica recomienda utilizarla solo en entornos que no sean de
203
producción. Informatica tiene la intención de incluir la funcionalidad de vista previa en una próxima versión
para poder usarla en producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento. Para obtener más información, póngase en
contacto con el servicio internacional de atención al cliente de Informatica.
Tareas de la versión
En esta sección se describen las tareas de la versión en la versión 10.2.2 Service Pack 1. Las tareas de la
versión son tareas que se deben realizar después de actualizar a la versión 10.2.2 Service Pack 1.
Sqoop Conectividad
A partir de la versión 10.2.2 Service Pack 1, las siguientes tareas de la versión son de aplicación en Sqoop:
• Cuando se utiliza Cloudera Connector Powered by Teradata para ejecutar asignaciones existentes de
Sqoop en el motor de Spark o Blaze y en Cloudera CDH versión 6.1.x, debe descargar los archivos
junit-4.11.jar y sqoop-connector-teradata-1.7c6.jar.
Antes de ejecutar las asignaciones existentes de Sqoop en Cloudera CDH versión 6.1.x, realice las
siguientes tareas:
1. Descargue y copie el archivo junit-4.11.jar desde la siguiente dirección URL:
http://central.maven.org/maven2/junit/junit/4.11/junit-4.11.jar
2. En el nodo donde se ejecuta el servicio de integración de datos, añada el archivo junit-4.11.jar al
siguiente directorio: <directorio de instalación de Informatica>\externaljdbcjars-
3. Descargue y extraiga el paquete de Cloudera Connector Powered by Teradata del sitio web de
Cloudera y copie el siguiente archivo: sqoop-connector-teradata-1.7c6.jar.
4. En el nodo donde se ejecuta el servicio de integración de datos, añada el archivo sqoop-connector-
teradata-1.7c6.jar al siguiente directorio: <directorio de instalación de Informatica>
\externaljdbcjars.
• Para ejecutar asignaciones de Sqoop en el motor de Blaze o Spark y en Cloudera CDH, ya no necesita
establecer las entradas de mapreduce.application.classpath en el archivo mapred-site.xml de
aplicaciones MapReduce.
Si utiliza Cloudera CDH versión 6.1.x para ejecutar las asignaciones de Sqoop existentes, quite las
entradas de mapreduce.application.classpath del archivo mapred-site.xml.
Para obtener más información, consulte la Guía de integración de Informatica Big Data Management
10.2.2 Service Pack 1.
Sqoop
A partir de la versión 10.2.2 Service Pack 1, puede utilizar las siguientes nuevas características de Sqoop.
Conexión con bases de datos de Oracle y Microsoft SQL Server habilitadas con SSL
Puede configurar Sqoop para que se conecte con bases de datos relacionales seguras como Oracle y
Microsoft SQL Server.
Utilice el argumento de conexión y la cadena de conexión de JDBC adecuados en la conexión JDBC para
conectarse a una base de datos de Oracle o Microsoft SQL Server habilitada con SSL.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management
10.2.2 Service Pack 1.
El contenido de este archivo se analiza como una propiedad Java estándar y pasa al controlador cuando se
crea una conexión.
--connection-param-file <nombre_archivo_parámetro>
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management
10.2.2 Service Pack 1.
Destino de Amazon S3
A partir de la versión 10.2.2 Service Pack 1, puede crear una asignación de transmisión para escribir datos en
Amazon S3.
Cree un objeto de datos de Amazon S3 para escribir datos en Amazon S3. Puede crear una conexión de
Amazon S3 para utilizar Amazon S3 como destinos. Una conexión de Amazon S3 se puede crear y
administrar en Developer tool o a través de infacmd.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2 Service
Pack 1.
Novedades 205
Función TIME_RANGE
A partir de la versión 10.2.2 Service Pack 1, puede utilizar la función TIME_RANGE en una transformación de
combinación que determina el intervalo de tiempo de los eventos de transmisión que se van a unir.
Sintaxis
TIME_RANGE(EventTime1,EventTime2,Format,Interval)
Si desea más información sobre la función TIME_RANGE, consulte la Guía de referencia de lenguaje de
transformación de Informatica 10.2.2 Service Pack 1.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2 Service
Pack 1.
• IBM DB2
• IBM DB2 for z/OS
• IBM Netezza
• JDBC
• PowerCenter
• SQL Server Integration Services
Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Enterprise Data Catalog en Informatica 10.2.2 Service Pack 1.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Enterprise Data Preparation de Informatica 10.2.2 Service Pack 1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Hive
10.2.2 Service Pack 1.
Cambios
La cola local solo se puede habilitar mediante una propiedad personalizada. Si requiere esta funcionalidad,
póngase en contacto con el servicio internacional de atención al cliente de Informatica.
Antes, el servicio de integración de datos utilizaba de forma predeterminada una cola local en cada nodo, y
solo utilizaba la cola distribuida en trabajos de Spark cuando estaba habilitada la recuperación de Big Data.
Para obtener más información, consulte el capítulo sobre procesamiento del servicio de integración de datos
en la Guía del administrador de Informatica Big Data Management 10.2.2 Service Pack 1.
Cambios 207
Ingesta masiva
A partir de la versión 10.2.2 Service Pack 1, puede seleccionar el valor predeterminado del clúster como el
formato de almacenamiento de una especificación de ingesta masiva que ingiere datos en un destino de
Hive. Si selecciona el valor predeterminado del clúster, la especificación utilizará el formato de
almacenamiento predeterminado en el clúster de Hadoop.
Transformaciones
En esta sección se describen los cambios en las transformaciones que se han introducido en la versión
10.2.2 Service Pack 1 de Big Data Streaming.
Transformación de rango
A partir de la versión 10.2.2 Service Pack 1, una asignación de transmisión debe cumplir con los siguientes
requisitos adicionales si contiene una transformación de rango:
• Una asignación de transmisión no puede contener una transformación de rango y una transformación de
búsqueda pasiva que esté configurada con una condición de búsqueda de desigualdad en el mismo
canal. Antes, se podía utilizar una transformación de rango y una transformación de búsqueda pasiva que
estuviera configurada con una condición de búsqueda de desigualdad en el mismo canal.
• Una transformación de rango en una asignación de transformación no puede tener una transformación de
combinación de nivel inferior. Antes, se podía utilizar una transformación de rango en cualquier parte
antes de una transformación de combinación en una asignación de transmisión.
• Una asignación de transmisión no puede contener más de una transformación de rango en el mismo
canal. Antes, se podían utilizar varias transformaciones de rango en una asignación de transmisión.
• Una asignación de transmisión no puede contener una transformación de agregación y una
transformación de rango en el mismo canal. Antes, se podía utilizar una asignación de agregación y una
transformación de rango en el mismo canal.
Transformación de ordenación
A partir de la versión 10.2.2 Service Pack 1, una asignación de transmisión debe cumplir con los siguientes
requisitos adicionales si contiene una transformación de ordenación:
• Una asignación de transmisión se ejecuta en el modo de salida completo si contiene una transformación
de ordenación. Antes, una asignación de transmisión se ejecutaba en el modo de salida de anexión si
contenía una transformación de ordenación.
• Una transformación de ordenación en una asignación de transmisión debe tener una transformación de
agregación de nivel superior. Antes, se podía utilizar una transformación de ordenación sin una
transformación de agregación de nivel superior.
• La transformación de ventana en el nivel superior de una transformación de agregación se ignorará si la
asignación contiene una transformación de ordenación. Antes, la transformación de ventana en el nivel
superior de una transformación de agregación no se ignoraba si la asignación contenía una
transformación de ordenación.
Vista predeterminada
A partir de la versión 10.2.2 Service Pack 1, la vista predeterminada del archivo sin formato y los objetos de
tabla es la ficha Propiedades. Cuando se crea o se abre un archivo sin formato o un objeto de datos de tabla,
el objeto se abre en la ficha Propiedades. Antes, la vista predeterminada era la ficha Visor de datos.
Para obtener más información, consulte la Guía de la Herramienta del analista de Informatica 10.2.2 Service
Pack 1.
• PowerExchange for Amazon Redshift admite el tipo de cifrado Cifrado en el lado del servidor con KMS en
las siguientes distribuciones:
- Amazon EMR versión 5.20
Antes, el servicio de integración de datos admitía el tipo de cifrado Cifrado en el lado del servidor con
KMS en las siguientes distribuciones:
• Amazon EMR versión 5.16
• Cloudera CDH versión 5.15
• Las siguientes distribuciones no se pueden utilizar para ejecutar asignaciones de Amazon Redshift:
- MapR versión 5.2
- IBM BigInsight
Antes, se podían utilizar las distribuciones de MapR versión 5.2 e IBM BigInsight para ejecutar
asignaciones de Amazon Redshift.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2 Service Pack 1.
• PowerExchange for Amazon S3 admite el tipo de cifrado Cifrado en el lado del servidor con KMS en las
siguientes distribuciones:
- Amazon EMR versión 5.20
Cambios 209
Antes, PowerExchange for Amazon S3 admitía el tipo de cifrado Cifrado en el lado del servidor con KMS
en las siguientes distribuciones:
• Amazon EMR versión 5.16
• Cloudera CDH versión 5.15
• Las siguientes distribuciones no se pueden utilizar para ejecutar asignaciones de Amazon S3:
- MapR versión 5.2
- IBM BigInsight
Antes, se podían utilizar las distribuciones de MapR versión 5.2 e IBM BigInsight para ejecutar
asignaciones de Amazon S3.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2 Service Pack 1.
Instalación y configuración
En esta sección se describen los avisos relacionados con la instalación y configuración de Big Data en la
versión 10.2.2.
OpenJDK
A partir de la versión 10.2.2, el programa de instalación de Informatica incluye OpenJDK (AzulJDK). La
versión de Java compatible es Azul OpenJDK 1.8.192.
Puede usar OpenJDK para implementar Enterprise Data Catalog en un clúster incrustado. Para implementar
Enterprise Data Catalog en un clúster existente, debe instalar JDK 1.8 en todos los nodos del clúster.
Informatica ya no admite las propiedades del servicio de integración de datos para la opción de ejecución,
Directorio de inicio de JDK. Las asignaciones de Sqoop en el motor de Spark usan el kit de desarrollo de Java
(JDK) que se incluye con el programa de instalación de Informatica.
Anteriormente, el programa de instalación usaba el Oracle Java que se incluía con el programa de
instalación. También tenía que instalar y después especificar el directorio de instalación de JDK en el equipo
del servicio de integración de datos para ejecutar asignaciones de Sqoop, especificaciones de ingesta
masiva que usan una conexión de Sqoop en el motor de Spark o para procesar una transformación de Java
en el motor de Spark.
211
Firma de código del programa de instalación
A partir de la versión 10.2.2, Informatica usa una firma digital basada en certificados para firmar el código de
software de Informatica. La firma de código ayuda a validar y asegurar el código contra cualquier forma de
manipulación después de la firma digital del código del programa de instalación.
Informatica empaqueta la clave pública, la firma y el hash del archivo en el paquete del programa de
instalación. Una vez que Informatica firme el paquete de software, puede ponerse en contacto con el servicio
internacional de atención al cliente de Informatica para acceder a la clave pública.
Para obtener más información acerca del proceso de firma de código del programa de instalación o sobre
cómo un cliente puede comprobar que el código firmado es auténtico, consulte la Guía de instalación y
configuración de Informatica Big Data Suite 10.2.2.
Para obtener más información acerca de cómo reanudar el programa de instalación, consulte la Guía de
instalación y configuración de Informatica Big Data Suite 10.2.2.
Al ejecutar la utilidad de Informatica Docker, puede crear la imagen de Informatica Docker con el sistema
operativo base y los archivos binarios de Informatica. Puede ejecutar la imagen de Informatica Docker para
configurar el dominio de Informatica. Al ejecutar la imagen de Informatica Docker, puede crear un dominio o
unirse a uno. Puede crear el servicio de repositorio de modelos, el servicio de integración de datos y la
configuración del clúster durante la creación del contenedor.
Para obtener más información sobre la utilidad Informatica Docker, consulte el artículo
How to Install Big Data Management 10.2.2 Using a Docker Utility en Informatica Network.
Programa de instalación
En esta sección se describen los cambios en el programa de instalación de Informatica en la versión 10.2.2.
Para obtener más información, consulte la Guía de instalación y configuración de Informatica Big Data Suite
10.2.2.
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.2.
Motor de Hive
A partir de la versión 10.2.2, Informatica ya no admite el modo de ejecución de Hive para la ejecución de
trabajos en el entorno de Hadoop. No puede configurar ni ejecutar trabajos en el motor de Hive.
Informatica sigue admitiendo los motores de Blaze y Spark en el entorno de Hadoop, e incorporó
compatibilidad con el motor de Databricks Spark en el entorno de Databricks.
Debe actualizar todas las asignaciones y los perfiles configurados para ejecutarlos en el motor de Hive antes
de actualizar.
Para obtener más información, consulte las guías de actualización de Informatica 10.2.2.
Big Data Management añadió compatibilidad para los entornos de Databricks y admite la versión de
distribución 5.1 de Databricks.
En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2.2:
Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.
Transformación de Python
A partir de la versión 10.2.2, las asignaciones de transmisión actualizadas son inválidas. Debe volver a
crear los objetos de datos físicos para ejecutar las asignaciones en el motor de Spark que usa la
transmisión estructurada de Spark. Después de volver a crear los objetos de datos físicos, las siguientes
propiedades no están disponibles para los objetos de datos de los centros de eventos de Azure:
A partir de la versión 10.2.2, se ha diferido la compatibilidad con algunos tipos de objetos de datos. La
compatibilidad volverá a establecerse en una versión futura.
Origen JMS
MapR Streams
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
Para obtener más información, consulte la Declaración de compatibilidad para el uso del marco de
conectividad universal (UCF) con Informatica Enterprise Data Catalog.
Tareas de la versión
En esta sección se describen tareas de la versión 10.2.2. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.2.2.
Por ejemplo, si una asignación previamente actualizada usa el modo de alta precisión y contiene la expresión
TO_DECIMAL(3), debe especificar un argumento de escala antes de poder ejecutar la asignación actualizada
en el motor de Spark. Cuando la expresión tiene un argumento de escala, es posible que la expresión sea
TO_DECIMAL(3,2).
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
Si actualiza a la versión 10.2.2, las especificaciones de ingesta masiva se actualizan para que tengan
deshabilitada la carga incremental. Antes de poder ejecutar cargas incrementales en especificaciones
existentes, complete las siguientes tareas:
1. Editar la especificación.
2. En la página Definición, seleccione Habilitar carga incremental.
3. En las páginas Origen y Destino, configure las opciones de carga incremental.
4. Guarde la especificación.
5. Vuelva a implementar la especificación en el servicio de integración de datos.
Nota: La especificación de ingesta masiva que se vuelve a implementar se ejecuta en el motor de Spark.
Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.
Transformación de Python
Si actualiza a la versión 10.2.2, la transformación de Python puede procesar datos de forma más efectiva en
Big Data Management.
Para disfrutar de mejoras en el rendimiento, configure las siguientes propiedades avanzadas de Spark en la
conexión de Hadoop:
infaspark.pythontx.exec
Es necesario para ejecutar una transformación de Python en el motor de Spark para Data Engineering
Integration. La ubicación del archivo binario ejecutable de Python en los nodos de trabajo en el clúster
de Hadoop.
Es necesario para ejecutar una transformación de Python en el motor de Spark para Data Engineering
Integration y Data Engineering Streaming. La ubicación del directorio de instalación de Python en los
nodos de trabajo del clúster de Hadoop.
Para obtener información acerca de cómo instalar Python, consulte la Guía de integración de Informatica Big
Data Management 10.2.2.
Destino de Kafka
A partir de la versión 10.2.2, el tipo de datos del puerto de encabezado de claves en el destino de Kafka es
binario. Anteriormente, el tipo de datos del puerto de encabezado de claves era cadena.
Después de actualizar, para ejecutar una asignación de transmisión existente, debe volver a crear el objeto
de datos y actualizar la asignación de transmisión con el objeto de datos recientemente creado.
Para obtener más información acerca de cómo volver a crear el objeto de datos, consulte la Guía de
integración de Big Data Management 10.2.2.
Si anteriormente configuraba una asignación para ejecutarla en el entorno nativo para buscar datos en un
recurso de HBase, debe actualizar el motor de ejecución a Spark después de actualizar a la versión 10.2.2.
De lo contrario, se produce un error en la asignación.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.
• Binary
• Varbinary
• Datetime2
• Datetimeoffset
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.2.
Nuevos productos
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra
JDBC.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Spanner.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Tableau V3 de Informatica.
servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.2.
Para obtener más información, consulte el capítulo "Servicio de ingesta masiva" en la Guía del servicio de
aplicación de Informatica 10.2.2.
Para obtener más información, consulte el capítulo sobre usuarios y grupos en la Guía de seguridad de
Informatica 10.2.2.
219
Servicio del concentrador de operaciones REST
A partir de la versión 10.2.2, puede configurar el servicio del concentrador de operaciones REST. Se trata de
un servicio de sistema REST en el dominio de Informatica que expone la funcionalidad de los productos de
Informatica a clientes externos mediante las API de REST.
Puede configurar el servicio del concentrador de operaciones REST a través de la Herramienta del
administrador o infacmd. Puede usar el servicio del concentrador de operaciones REST para ver estadísticas
de ejecución de asignaciones para los trabajos de asignación implementados en la aplicación.
Puede usar el servicio del concentrador de operaciones REST para obtener estadísticas de ejecución de
asignaciones para asignaciones de Big Data que se ejecutan en el servicio de integración de datos o en el
entorno de Hadoop.
Para obtener más información acerca de la API de REST, consulte la Guía del administrador de Big Data
Management 10.2.2.
Azure Databricks es una plataforma de nube de análisis que está optimizada para los servicios de nube de
Microsoft Azure. Incorpora las funciones y tecnologías de clúster de Apache Spark de código abierto.
El dominio de Informatica puede instalarse en una máquina virtual de Azure o en las instalaciones. El
proceso de integración es similar a la integración con el entorno de Hadoop. Se pueden realizar tareas de
integración, incluso la importación de la configuración del clúster desde el entorno de Databricks. El dominio
de Informatica usa autenticación de token para acceder al entorno de Databricks. El ID del token de
Databricks se almacena en la conexión de Databricks.
Orígenes y destinos
Puede ejecutar asignaciones contra los siguientes orígenes y destinos dentro del entorno de Databricks:
Transformaciones
Puede agregar las siguientes transformaciones a una asignación de Databricks:
Agregación
Expresión
Filtro
Unión
Búsqueda
El motor de Databricks Spark procesa la transformación de una manera muy similar a como lo hace el motor
de Spark en el entorno de Hadoop.
Tipos de datos
Se admiten los siguientes tipos de datos:
Array
Bigint
Date/time
Decimal
Doble
Entero
Map
Struct
Text
String
Asignaciones
Cuando se configura una asignación, puede elegir validar y ejecutar la asignación en el entorno de
Databricks. Cuando ejecuta la asignación, el servicio de integración de datos genera un código de Scala y lo
pasa al motor de Databricks Spark.
Flujos de trabajo
Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros en el entorno de Databricks.
Puede elegir orígenes y transformaciones como puntos de vista previa en una asignación que contiene los
siguientes tipos jerárquicos:
• Matriz
• Struct
• Asignación
Para obtener más información, consulte la Guía del usuario de Informatica® Big Data Management 10.2.2.
Datos jerárquicos
En esta sección se describen las nuevas características para los datos jerárquicos en la versión 10.2.2.
Un puerto complejo dinámico recibe elementos nuevos o cambiados de un puerto complejo según los
campos de esquema en tiempo de ejecución. Las reglas de entrada determinan los elementos de un puerto
complejo dinámico. Según las reglas de entrada, un puerto complejo dinámico recibe uno o varios elementos
de un puerto complejo desde la transformación de nivel superior. Puede usar puertos complejos dinámicos
como matriz dinámica, asignación dinámica y estructura dinámica en algunas transformaciones en el motor
de Spark.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos con cambios en el
esquema" de la Guía del usuario de Informatica Big Data Management 10.2.2.
Alta disponibilidad
En esta sección se describen las nuevas características de alta disponibilidad de la versión 10.2.2.
Para recuperar asignaciones de Big Data, debe habilitar la recuperación de trabajos de Big Data en las
propiedades del servicio de integración de datos y ejecutar el trabajo desde infacmd.
Para obtener más información, consulte el capítulo sobre procesamiento del servicio de integración de datos
en la Guía del administrador de Informatica Big Data Management 10.2.2.
Tipos de datos
A partir de la versión 10.2.2 y desde la versión de invierno de marzo de 2019 de Informatica Intelligent Cloud
Services, cuando un lector de archivos complejos usa un modelo de estructura inteligente, Intelligent
Structure Discovery pasa los tipos de datos a los puertos de datos de salida.
Por ejemplo, cuando Intelligent Structure Discovery detecta que un campo contiene una fecha, pasa los datos
a los puertos de datos de salida como fecha, no como cadena.
Nombres de campo
A partir de la versión 10.2.2 y desde la versión de invierno de marzo 2019 de Informatica Intelligent Cloud
Services, los nombres de campo en los objetos de datos de archivo complejo que se importan desde un
modelo de estructura inteligente pueden comenzar con números y palabras reservadas, y pueden contener
los siguientes caracteres especiales \. [ ] { } ( ) * + - ? . ^ $ |
Cuando un campo comienza con un número o una palabra reservada, la asignación de Big Data Management
agrega un guion bajo (_) al comienzo del nombre del campo. Por ejemplo, si un campo en un modelo de
estructura inteligente comienza con OR, la asignación importa el campo como _OR. Cuando el nombre del
campo contiene un carácter especial, la asignación convierte el carácter en un guion bajo.
Desfase de datos
A partir de la versión 10.2.2 y desde la versión de invierno de marzo de 2019 de Informatica Intelligent Cloud
Services, Intelligent Structure Discovery mejora la gestión de los desfases de datos.
En Intelligent Structure Discovery, los desfases de datos se producen cuando los datos de entrada contienen
campos que no contenía el archivo de muestra. En este caso, Intelligent Structure Discovery pasa los datos
sin definir a un puerto de datos no asignado en el destino, en lugar de descartarlos.
Ingesta masiva
A partir de la versión 10.2.2, puede ejecutar una carga incremental para ingerir datos incrementales. Cuando
ejecuta una carga incremental, el motor de Spark captura datos incrementales según una marca de tiempo o
Si ingiere datos incrementales, el servicio de ingesta masiva aprovecha el modo de importación incremental
de Sqoop.
Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.
Supervisión
En esta sección se describen las nuevas características relacionadas con la supervisión en Big Data
Management en la versión 10.2.2.
Supervisión de Spark
A partir de la versión 10.2.2, puede ver tanto las tareas previas al trabajo como las tareas posteriores al
trabajo dentro del panel Estadísticas de resumen para la supervisión de Spark.
Para obtener más información sobre el uso de las tareas previas al trabajo y las tareas posteriores al trabajo,
consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
Seguridad
En esta sección se describen las nuevas características relacionadas con la seguridad en Big Data
Management en la versión 10.2.2.
Este paquete usa Kerberos para autenticación y Apache Ranger para autorización.
Para obtener más información sobre el paquete de seguridad empresarial, consulte la Guía del administrador
de Informatica Big Data Management 10.2.2.
Destinos
En esta sección se describen las nuevas características para los destinos en la versión 10.2.2.
Para ayudar a administrar los archivos que contienen datos anexados, el servicio de integración de datos
anexa el ID de la ejecución de la asignación a los nombres de los archivos de destino y los archivos de
rechazo.
Para obtener más información, consulte el capítulo "Destinos" en la Guía del usuario de Informatica Big Data
Management 10.2.2.
• Amazon EMR
• Azure HDInsight con almacenamiento de ADLS
• Cloudera CDH
• Hortonworks HDP
Use el rol IAM de cuentas cruzadas para compartir recursos en una cuenta de AWS con usuarios de una
cuenta de AWS diferente sin crear usuarios en cada cuenta.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
Puede incorporar un modelo de estructura inteligente en un objeto de datos de centros de eventos de Azure,
Kinesis o Kafka. Cuando se agrega el objeto de datos a una asignación, se puede procesar cualquier tipo de
entrada que el modelo pueda analizar.
El objeto de datos puede aceptar y analizar archivos de entrada de formularios PDF, JSON, Microsoft Excel,
tablas de Microsoft Word, CSV, texto o XML, según el archivo que se utilizó para crear el modelo.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
Para obtener más información acerca de los puertos de encabezado, consulte la Guía del usuario de
Informatica Big Data Streaming 10.2.2.
Cuando crea una conexión de Amazon Kinesis, puede introducir un nombre de perfil de credenciales de AWS.
La asignación accede a las credenciales de AWS a través del nombre del perfil que aparece en el archivo de
credenciales de AWS durante el tiempo de ejecución.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
El motor de Spark ejecuta continuamente la asignación de transmisión. Lee los datos, los divide en
microlotes, procesa dichos microlotes, publica los resultados y después escribe en un destino.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
Transformación de ventana
A partir de la versión 10.2.2 puede usar las siguientes características cuando crea una transformación de
ventana:
El retraso de marca de agua define el tiempo de umbral para que un evento retrasado se acumule en un
grupo de datos.
El retraso de marca de agua es un umbral donde puede especificar el tiempo necesario para que los
datos que llegan con retraso puedan agruparse y procesarse. Si los datos del evento llegan dentro del
tiempo de umbral, los datos se procesan y se acumulan en el grupo de datos correspondiente.
Puerto de ventana
El puerto de ventana especifica la columna que contiene los valores de marca de tiempo según los que
puede agrupar los eventos. Los datos acumulados contienen el valor de marca de tiempo. Use la
columna Puerto de ventana para agrupar los datos de tiempo del evento que se reciben con retraso.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
En la siguiente tabla se describen las nuevas opciones de comando infacmd dis updateServiceOptions:
En la siguiente tabla se describen las nuevas opciones de ejecución del comando infacmd dis
updateServiceOptions:
Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.2.
-BackupNodes Opcional. Los nodos en los que se puede ejecutar el servicio cuando el nodo principal no está
-bn disponible. Puede configurar nodos de copia de seguridad si dispone de alta disponibilidad.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ihs" de la Referencia de
comandos de Informatica 10.2.2.
Comando Descripción
ExportToPC Exporta objetos desde el repositorio de modelos o un archivo de exportación y los convierte en objetos
de PowerCenter.
-PrimaryNode Opcional. Si quiere configurar la alta disponibilidad para Enterprise Data Catalog,
-nm especifique el nodo principal.
-BackupNodes Opcional. Si quiere configurar la alta disponibilidad para Enterprise Data Catalog,
-bn especifique una lista de nombres de nodo de copia de seguridad separada por comas.
-isNotifyChangeEmailEnabled Opcional. Especifique True si quiere habilitar las notificaciones de cambio de activo.
-cne El valor predeterminado es false.
Comando Descripción
collectAppLogs Recopila archivos de registro para aplicaciones YARN que se ejecutan para habilitar el servicio de
catálogo.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ldm" de la Referencia
de comandos de Informatica 10.2.2.
createService A partir de la versión 10.2.2, puede usar las opciones -HttpsPort, -KeystoreFile y -
KeystorePassword para especificar si los procesos del servicio de ingesta masiva usan una
conexión segura para comunicarse con componentes externos.
extendedRunStats A partir de la versión 10.2.2, debe usar la opción -RunID para especificar el RunID de la
especificación de ingesta masiva y la opción -SourceName para especificar el nombre de una
tabla de origen para ver las estadísticas de ejecución extendida para la tabla de origen. Si la
tabla de origen se ingestó usando una carga incremental, la estadística de ejecución mostrará la
clave incremental y el valor de inicio.
Anteriormente, especificaba el JobID para el trabajo de asignación de ingesta que ingestaba la
tabla de origen.
Si actualiza a 10.2.2, debe actualizar cualquier script que ejecute infacmd mi extendedRunStats
para usar las nuevas opciones.
listSpecRuns A partir de la versión 10.2.2, el comando devuelve adicionalmente el tipo de carga que el motor
de Spark usa para ejecutar una especificación de ingesta masiva.
runSpec A partir de la versión 10.2.2, puede usar la opción -LoadType para especificar el tipo de carga
para ejecutar una especificación de ingesta masiva. El tipo de carga puede ser una carga
completa o una carga incremental.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd mi" de la Referencia de
comandos de Informatica 10.2.2.
Comandos infacmd ms
En la siguiente tabla se describen los nuevos comandos infacmd ms:
Comando Descripción
abortAllJobs Anula todos los trabajos de asignación que están configurados para ejecutarse en
el motor de Spark. Puede elegir anular trabajos en cola, trabajos en ejecución o
ambos.
purgeDatabaseWorkTables Purga la información de todos los trabajos desde la cola cuando habilita la
recuperación de Big Data para el servicio de integración de datos.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ms" de la Referencia de
comandos de Informatica.
La siguiente tabla enumera los comandos infacmd oie que migraron al complemento tools:
Comando Descripción
patchApplication Implementa una revisión de aplicación con un archivo .piar en un servicio de integración de datos.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd tools" en la Referencia
de comandos de Informatica 10.2.2.
Comandos de infasetup
La siguiente tabla describe los comandos infasetup cambiados:
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia de comando infasetup" de la Referencia de
comandos de Informatica 10.2.2.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.2.2.
Seguir activos
Puede seguir activos para supervisar los cambios en activos en el catálogo. Siga un activo para estar
informado acerca de los cambios que otros usuarios realizan a fin de poder supervisar el activo y
realizar las acciones que sean necesarias.
Puede calificar y revisar activos según una escala de cinco estrellas en el catálogo. Califique y revise un
activo para proporcionar comentarios acerca de este según diferentes aspectos, como la calidad, la
aplicabilidad, la posibilidad de uso y la disponibilidad del activo.
Consultas de activos
Puede realizar preguntas acerca de un activo si quiere obtener un mejor conocimiento del activo en el
catálogo. Realice preguntas que sean descriptivas, exploratorias, predictivas o causales por naturaleza.
Certificar activo
Puede certificar un activo para aprobarlo a fin de que otros usuarios puedan usarlo como confiable en
contraposición a los que no están certificados.
Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía de
Informatica Enterprise Data Catalog 10.2.2.
Para obtener más información acerca de cómo usar el programa de instalación para crear los servicios de
aplicación, consulte la Guía de instalación y configuración de Informatica Enterprise Data Catalog 10.2.2.
Para obtener más información acerca de cómo usar la utilidad, consulte el artículo de la base de
conocimientos Procedimientos para validar metadatos personalizados antes de ingerirlos en el catálogo.
Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener
instrucciones para descargar la utilidad.
Notificaciones de cambio
A partir de la versión 10.2.2, Enterprise Data Catalog muestra notificaciones cuando se realizan cambios en
los activos seguidos. Los tipos de notificaciones incluyen notificaciones de aplicación, notificación de
cambio por correo electrónico y notificación de resumen por correo electrónico.
Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía de
Informatica Enterprise Data Catalog 10.2.2.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía de
Informatica Enterprise Data Catalog 10.2.2.
Para obtener más información acerca de cómo usar los perfiles del sistema operativo en Enterprise Data
Catalog, consulte el capítulo sobre los conceptos de Enterprise Data Catalog en la Guía del administrador de
Informatica Catalog 10.2.2
API de REST
A partir de la versión 10.2.2, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:
• API de REST de términos empresariales. Puede devolver, actualizar o eliminar un término empresarial
aceptado, inferido o rechazado.
• API de REST de eventos de catálogo. Puede acceder, actualizar o eliminar la configuración del usuario, la
configuración del correo electrónico y las suscripciones de usuario.
• API de certificación de objetos. Puede enumerar, actualizar y eliminar las propiedades de certificación
para un objeto.
• API de comentarios de objetos. Puede enumerar, crear, actualizar y eliminar comentarios, respuestas y
votos para un objeto de datos.
Para obtener más información acerca del filtro de perfiles de datos y metadatos de origen, consulte el
capítulo sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2.
Utilidad de analizador
A partir de la versión 10.2.2, Informatica brinda una utilidad de analizador independiente que se puede usar
para extraer metadatos de recursos inaccesibles o sin conexión. La utilidad contiene un script que debe
ejecutarse junto con los comandos asociados en una secuencia.
Para obtener más información acerca de la utilidad de analizador independiente, consulte el apéndice
"Extracción de metadatos de recursos inaccesibles o sin conexión" de la Guía del administrador de
Informatica Catalog 10.2.2
Tipos de recursos
A partir de la versión 10.2.2, puede crear recursos para los siguientes tipos de origen de datos:
Google BigQuery
Puede extraer información de los metadatos, la relación y el linaje desde los siguientes activos en un
origen de datos de Google BigQuery:
• Proyecto
• Conjunto de datos
• Tabla
• Ver
Para obtener más información acerca de cómo configurar un origen de datos de Google BigQuery,
consulte la Guía del administrador de Informatica Catalog 10.2.2.
Workday
Puede extraer información de los metadatos, la relación y el linaje desde los siguientes activos en un
origen de datos de Workday:
• Servicio
• Entidad
• Informe
• Operación
• Origen de datos
• Propiedad
Para obtener más información acerca de cómo configurar un origen de datos de Workday, consulte la
Guía del administrador de Informatica Catalog 10.2.2.
Las reglas activas son mapplets desarrollados mediante el uso de Developer tool. Puede usar reglas activas
para aplicar transformaciones complejas como transformaciones de agregador y calidad de datos a hojas de
cálculo para coincidencia y consolidación.
Una regla activa usa todas las filas dentro de un conjunto de datos como entrada. Puede seleccionar varias
hojas de cálculo para usar como entradas en la regla. La aplicación agrega una hoja de cálculo que contiene
la salida de la regla para el proyecto.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Al seleccionar una columna en una hoja de cálculo durante la preparación de los datos, la aplicación muestra
sugerencias para mejorar los datos según el tipo de datos de columna en el panel Resumen de columna.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Agregación condicional
A partir de la versión de 10.2.2, puede usar la lógica de AND y OR para aplicar varias condiciones sobre los
cálculos de IF que se usan cuando se crea una hoja de cálculo agregada en un proyecto.
• Use AND con todos los operadores para incluir más de una columna en una condición.
• Use OR con los operadores IS, IS NOT e IS BETWEEN para incluir más de un valor dentro de una columna
en una condición.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Enmascaramiento de datos
A partir de la versión 10.2.2, Enterprise Data Lake se integra con Informatica Dynamic Data Masking, un
producto de seguridad de datos, para habilitar el enmascaramiento de datos confidenciales en los activos de
datos.
Para habilitar el enmascaramiento de datos en Enterprise Data Lake, configure el servidor de Dynamic Data
Masking para aplicar reglas de enmascaramiento a activos de datos en Data Lake. También debe configurar
el dominio de Informatica para habilitar Enterprise Data Lake para que se conecte con dicho servidor.
Dynamic Data Masking intercepta solicitudes enviadas a Data Lake desde Enterprise Data Lake y aplica las
reglas de enmascaramiento a columnas en el activo solicitado. Cuando los usuarios de Enterprise Data Lake
ven o realizan operaciones en columnas que contienen datos enmascarados, los datos reales se confunden
total o parcialmente según las reglas de enmascaramiento aplicadas.
Para obtener más información, consulte el capítulo sobre datos de enmascaramiento confidenciales en la
Guía del administrador de Informatica Enterprise Data Lake 10.2.2.
Localización
A partir de la versión 10.2.2, la interfaz de usuario admite el japonés. También puede usar caracteres no
latinos en nombres y descripciones de proyecto.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Puede guardar la asignación en el repositorio de modelos asociado con el servicio de Enterprise Data Lake o
puede guardar la asignación en un archivo .xml. Los desarrolladores pueden usar Developer tool para revisar
y modificar la asignación, y ejecutarla después cuando sea conveniente según la disponibilidad de recursos
del sistema.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
• Amazon S3
• MapR-FS
• Almacenamiento de Microsoft Azure Data Lake
• Windows Azure Storage Blob
Debe crear un recurso en Enterprise Data Catalog para cada origen de datos que contenga los datos que
quiera preparar. Un recurso es un objeto de repositorio que representa un repositorio de metadatos u origen
de datos externo. Los analizadores adjuntados a un recurso extraen los metadatos del recurso y los
almacenan en Enterprise Data Catalog.
Para obtener información acerca de cómo crear recursos en Enterprise Data Catalog, consulte el capítulo
sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2.
Funciones estadísticas
A partir de la versión 10.2.2, puede aplicar las siguientes funciones estadísticas a columnas de una hoja de
cálculo cuando prepara datos:
• AVG
• AVGIF
• COUNT
• COUNTIF
• COUNTDISTINCT
• COUNTDISTINCTIF
• MAX
• MAXIF
• MIN
• MINIF
• STDDEV
• STDDEVIF
• SUM
• SUMIF
• ADD_TO_DATE
• CURRENT_DATETIME
• DATETIME
• DATE_DIFF
• DATE_TO_UNIXTIME
• EXTRACT_MONTH_NAME
• UNIXTIME_TO_DATE
• Convertir fecha en texto
• Convertir texto en fecha
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Funciones matemáticas
A partir de la versión 10.2.2, puede aplicar las siguientes funciones matemáticas a las columnas cuando
prepara los datos:
• EXP
• LN
• LOG
• PI
• POWER
• SQRT
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Funciones de texto
A partir de la versión 10.2.2, puede aplicar las siguientes funciones de texto a las columnas cuando prepara
los datos:
• ENDSWITH
• ENDSWITH_IGNORE_CASE
• FIND_IGNORE_CASE
• FIND_REGEX
• FIRST_CHARACTER_TO_NUMBER
Funciones de ventana
A partir de la versión 10.2.2 puede usar las funciones de ventana para realizar operaciones en grupos de fila
dentro de una hoja de cálculo. El grupo de filas sobre el cuál actúa una función se llama "ventana", y se
define con una clave de partición, un orden por clave y desplazamientos opcionales. Una función de ventana
calcula un valor de devolución para cada fila de entrada dentro del contexto de la ventana.
Enterprise Data Lake agrega una columna que contiene los resultados de cada función que se aplica a la hoja
de cálculo.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.
Informatica Developer
En esta sección se describen las nuevas características de Developer tool en la versión 10.2.2.
Aplicaciones
A partir de la versión 10.2.2, puede crear aplicaciones incrementales. Una aplicación incremental es una
aplicación que puede actualizarse mediante la implementación de una revisión de aplicación que actualiza
un subconjunto de objetos. El servicio de integración de datos actualiza los objetos de la revisión mientras
siguen ejecutándose los objetos de aplicación.
Si actualiza a la versión 10.2.2, las aplicaciones existentes se marcan como "aplicaciones completas". Puede
seguir creando aplicaciones completas en la versión 10.2.2, pero no puede convertir una aplicación completa
en una aplicación incremental.
Para obtener más información, consulte los capítulos sobre implementación de aplicaciones e
implementación de revisiones de aplicación en la Guía de Informatica Developer Tool 10.2.2.
Asignaciones de Informatica
En esta sección se describen las nuevas características de las asignaciones de Informatica en la versión
10.2.2.
Tipos de datos
A partir de la versión 10.2.2, puede habilitar el modo de alta precisión en asignaciones por lote que se
ejecutan en el motor de Spark. Con el motor de Spark, puede procesar los valores decimales con una
precisión de hasta 38 dígitos.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
Salidas de asignación
A partir de la versión 10.2.2, puede usar salidas de asignación en asignaciones por lote que se ejecuten
como tareas de asignación en flujos de trabajo en el motor de Spark. Puede conservar las salidas de
asignación en el repositorio de modelos o vincular las salidas de asignación a variables de flujo de trabajo.
Para obtener más información, consulte el capítulo "Salidas de asignación" en la Guía de asignaciones de
Informatica Developer 10.2.2 y el capítulo "Tarea de asignación" en la Guía de flujos de trabajo de Informatica
Developer 10.2.2.
Para obtener más información, consulte el capítulo sobre dónde se asignan los parámetros y "Asignaciones
dinámicas" en la Guía de asignaciones de Informatica Developer 10.2.2.
El valor predeterminado del nivel del optimizador para las aplicaciones nuevas es Automático.
Cuando actualiza a la versión 10.2.2, los niveles del optimizador configurados en las asignaciones siguen
siendo los mismos. Para usar el nivel automático del optimizador con asignaciones de actualización, debe
cambiar manualmente el nivel del optimizador.
Para obtener más información, consulte el capítulo "Niveles del optimizador" en la Guía de asignaciones de
Informatica Developer 10.2.2.
Sqoop
A partir de la versión 10.2.2, puede utilizar las siguientes nuevas características de Sqoop:
Puede configurar una asignación de Sqoop para realizar una extracción de datos incrementales según
un ID o una marca de tiempo. Con la extracción de datos incrementales, Sqoop extrae solamente los
datos que hayan cambiado desde la última extracción de datos. La extracción de datos incrementales
aumenta el rendimiento de la asignación.
Puede configurar Sqoop para que lea datos desde un origen de Vertica o escriba datos en un destino de
Vertica.
Cuando ejecuta una asignación de transferencia con un origen de Sqoop en el motor de Spark, el
servicio de integración de datos optimiza el rendimiento de la asignación en los siguientes escenarios:
• Escribe datos en un destino de Hive que se creó con una consulta de DDL personalizada.
• Escribe datos en un destino de Hive existente que está particionado con una consulta de DLL
personalizada o particionada, y con depósitos con una consulta de DDL personalizada.
• Escribe datos en un destino de Hive existente que está particionado y tiene depósitos.
Puede configurar el argumento --infaownername para indicar si Sqoop debe ajustarse al nombre del
propietario para un objeto de datos.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:
En las versiones anteriores, la transformación admitía la verificación de direcciones de una sola línea de 26
países.
Para verificar una dirección de una sola línea, introduzca la dirección en el puerto Dirección completa. Si la
dirección identifica un país para el que el alfabeto predeterminado preferido no es un alfabeto latino u
occidental, use la propiedad predeterminada Alfabeto preferido en la transformación con la dirección.
Australia
A partir de la versión 10.2.2, puede configurar la transformación del validador de direcciones para que
agregue enriquecimientos de direcciones a direcciones de Australia. Los enriquecimientos sirven para
detectar los sectores geográficos y las regiones a las que el Australia Bureau of Statistics asigna las
direcciones. Los sectores y las regiones incluyen distritos de realización de censo, bloques de malla y áreas
estadísticas.
Bolivia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora el análisis y la validación
de las direcciones de Bolivia. Además, Informatica actualiza los datos de referencia de Bolivia.
Canadá
Informatica introduce las siguientes características y mejoras para Canadá:
A partir de la versión 10.2.2, puede configurar la transformación del validador de direcciones para que
devuelva la forma corta o la forma larga de un descriptor de elementos.
• Descriptores de calle
• Valores direccionales
• Descriptores de edificios
• Descriptores de elementos por debajo del nivel de edificio
Para especificar el formato de salida de los descriptores, configure la propiedad Descriptor global
preferido en la transformación. La propiedad se aplica a los descriptores de los idiomas inglés y francés.
De forma predeterminada, la transformación devuelve el descriptor en el formato que especifiquen los
datos de referencia. Si selecciona la opción PRESERVE INPUT en la propiedad, la propiedad Alfabeto
preferido tendrá prioridad sobre la propiedad Descriptor global preferido.
Compatibilidad de CH y CHAMBER como descriptores de elementos por debajo del nivel de edificio
Colombia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora el procesamiento de los
datos de calles en las direcciones de Colombia. Además, Informatica actualiza los datos de referencia de
Colombia.
Francia
A partir de la versión 10.2.2, Informatica introduce las siguientes mejoras para las direcciones de Francia:
Puede configurar la transformación del validador de direcciones para devolver una dirección de Israel en
idioma inglés o hebreo.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación.
El idioma predeterminado para las direcciones de Israel es el hebreo. Para devolver la información de
dirección en hebreo, establezca la propiedad Idioma preferido en DATABASE o ALTERNATIVE_1. Para
devolver la información de dirección en inglés, establezca la propiedad en ENGLISH o ALTERNATIVE_2.
La transformación del validador de direcciones puede leer y escribir direcciones de Israel en conjuntos
de caracteres en hebreo y latín.
El conjunto de caracteres predeterminado para las direcciones de Israel es Hebreo. Cuando la propiedad
del script preferido se establece en Latin o Latin-1, la transformación transcribe datos de direcciones en
hebreo en caracteres en latín.
Perú
A partir de la versión 10.2.2, la transformación del validador de direcciones valida las direcciones de Perú a
nivel de número de casa. Además, Informatica actualiza los datos de referencia de Perú.
Suecia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora la verificación de los
nombres de calles en las direcciones de Suecia.
• La transformación puede reconocer un nombre de calle que termine con el carácter G como alias del
mismo nombre con los caracteres finales GATAN.
• La transformación puede reconocer un nombre de calle que termine con el carácter V como alias del
mismo nombre con los caracteres finales VÄGEN.
• La transformación del validador de direcciones puede reconocer y corregir el nombre de una calle con un
descriptor incorrecto cuando se usan la forma larga o la forma corta del descriptor.
Por ejemplo, la transformación puede corregir RUNIUSV o RUNIUSVÄGEN como RUNIUSGATAN en la
siguiente dirección:
RUNIUSGATAN 7
SE-112 55 STOCKHOLM
Estados Unidos
A partir de la versión 10.2 HotFix 2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no reciben correo en uno o varios días de la semana.
Para identificar las direcciones, use el puerto Días de no entrega. El puerto contiene una cadena de siete
dígitos que representa los días de la semana de domingo a sábado. Cada posición de la cadena representa
un día diferente.
Por ejemplo, un valor de S----FS en el puerto Días de no entrega indica que una dirección no recibe correo
en domingo, viernes y sábado.
Encuentre el puerto Días de no entrega en el grupo de puertos Específico de EE. UU. en el modelo básico.
Para recibir datos en el puerto Días de no entrega, ejecute una transformación del validador de direcciones
en modo certificado. La transformación lee los valores del puerto desde los archivos de base de datos
USA5C129.MD y USA5C130.MD.
Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.2.2, consulte la Guía de desarrollador de Informatica
Address Verification 5.14.0.
Anteriormente, podía usar una transformación de estrategia de actualización en una asignación que se
ejecutaba en el motor de Spark solo para actualizar destinos de Hive.
- UE (París)
• Puede utilizar objetos de Amazon Redshift como orígenes y destinos dinámicos en una asignación.
• Puede usar valores de octal de caracteres ASCII imprimibles y no imprimibles como DELIMITER o QUOTE.
• Puede introducir comandos de pre-SQL y post-SQL para ejecutar consultas para los objetos de origen y
destino de una asignación.
• Puede definir una consulta SQL para los objetos de datos de lectura de una asignación para reemplazar la
consulta predeterminada. Puede especificar una instrucción SQL que sea compatible con la base de
datos de Amazon Redshift.
• Puede especificar el tamaño máximo de un objeto de Amazon S3 en bytes cuando descarga objetos
grades de Amazon S3 en varias partes.
• Puede leer valores únicos al leer datos desde un origen de Amazon Redshift.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2.
- UE (París)
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2.2.
• Cuando crea un objeto de datos de HBase, puede seleccionar un perfil del sistema operativo para
aumentar la seguridad y aislar el entorno del usuario en tiempo de diseño cuando se importan metadatos
y se obtiene una vista previa de ellos desde un clúster de Hadoop.
Nota: Puede elegir un perfil del sistema operativo si el servicio de acceso a metadatos está configurado
para usar perfiles del sistema operativo. El servicio de acceso a metadatos ejecuta los metadatos con el
perfil del sistema operativo predeterminado asignado al usuario. Puede cambiar el perfil del sistema
operativo en la lista de perfiles del sistema operativo disponibles.
• Puede utilizar objetos de HBase como orígenes y destinos dinámicos en una asignación.
• Puede ejecutar una asignación en el motor de Spark para buscar datos en un recurso de HBase.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.
• Cuando crea un objeto de datos de archivo complejo, puede seleccionar un perfil del sistema operativo
para aumentar la seguridad y aislar el entorno del usuario en tiempo de diseño cuando se importan
metadatos y se obtiene una vista previa de ellos desde un clúster de Hadoop.
Nota: Puede elegir un perfil del sistema operativo si el servicio de acceso a metadatos está configurado
para usar perfiles del sistema operativo. El servicio de acceso a metadatos ejecuta los metadatos con el
perfil del sistema operativo predeterminado asignado al usuario. Puede cambiar el perfil del sistema
operativo en la lista de perfiles del sistema operativo disponibles.
• Cuando se ejecuta una asignación en el entorno nativo o en el motor de Spark para leer datos desde un
objeto de datos de archivo complejo, puede usar caracteres comodines para especificar el nombre del
directorio de origen o el nombre del archivo de origen.
Puede usar los siguientes caracteres comodines:
? (Signo de interrogación)
El carácter de asterisco (*) permite una ocurrencia nula o más de una ocurrencia de cualquier
carácter.
• Puede utilizar objetos de archivos complejos como orígenes y destinos dinámicos en una asignación.
• Puede utilizar objetos de archivos complejos para leer datos desde un sistema de archivos complejo o
escribirlos en él.
• Cuando ejecuta una asignación en el entorno nativo o en el motor de Spark para escribir datos en un
objeto de datos de archivo complejo, puede sobrescribir los datos de destino. El servicio de integración
de datos elimina los datos de destino antes de escribir nuevos datos.
• Cuando crea una operación de lectura o escritura de un objeto de datos, puede leer los datos presentes
en el puerto FileName que contiene el nombre del extremo y la ruta de origen del archivo.
• Ahora puede ver las operaciones de objeto de datos inmediatamente después de crear la operación de
lectura o escritura de objeto de datos.
• Puede agregar nuevas columnas o modificar las existentes cuando crea una operación de lectura o
escritura de objeto de datos.
• Puede copiar las columnas de las transformaciones de origen, las transformaciones de destino o
cualquier otra transformación, y pegarlas en la operación de lectura o escritura del objeto de datos
directamente cuando lee o escribe en un archivo Avro, JSON, ORC o Parquet.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.2.
• Puede configurar las siguientes opciones de la estrategia de esquema de destino para un destino de Hive:
- RETAIN. Mantener esquema de destino existente
- Asignar parámetro
• Puede truncar un destino de Hive particionado interno o externo antes de cargar datos. Esta opción se
aplica cuando ejecuta la asignación en el entorno de Hadoop.
• Puede crear una transformación de escritura o lectura para Hive en modo nativo para leer datos desde el
origen de Hive o escribirlos en el destino de Hive.
• Cuando escribe datos en un destino de Hive, puede configurar las siguientes propiedades en una
conexión de Hive:
- Directorio de transferencia provisional de Hive en HDFS. Representa el directorio de HDFS para las
tablas de transferencia provisional de Hive. Esta opción se aplica y se requiere cuando se escriben
datos en un destino de Hive en el entorno nativo.
- Nombre de la base de datos de transferencia provisional de Hive. Representa el espacio de nombres
para las tablas de transferencia provisional de Hive. Esta opción se aplica cuando ejecuta una
asignación en el entorno nativo para escribir datos en un destino de Hive. Si ejecuta la asignación en el
motor de Blaze o Spark, no tendrá que configurar el nombre de la base de datos de transferencia
provisional de Hive en la conexión de Hive. El servicio de integración de datos utiliza el valor que
configure en la conexión de Hadoop.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MapR-DB
10.2.2.
- Deflate
- Gzip
- Bzip2
- Lzo
- Snappy
• Puede usar objetos de Microsoft Azure Blob Storage como orígenes y destinos dinámicos en una
asignación.
• Puede leer el nombre del archivo desde el que el servicio de integración de datos lee los datos en tiempo
de ejecución en el entorno nativo.
• Puede configurar la ruta de acceso relativa en Reemplazo de contenedor de Blob en las propiedades
avanzadas de origen y destino.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.2.
• Puede ejecutar asignaciones en el entorno de Azure Databricks. Existe compatibilidad de Databricks con
PowerExchange for Microsoft Azure Cosmos DB SQL API para vista previa técnica. La funcionalidad de
vista previa técnica es compatible, pero no se garantiza ni está preparada para usarla en producción.
Informatica recomienda utilizar estas características solo en entornos que no sean de producción.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Data Lake Store 10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.2.
• Puede utilizar la versión 43.0 y 44.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede configurar OAuth para las conexiones de Salesforce.
• Puede configurar el filtro de expresiones nativas para la operación del objeto de datos de origen.
• Puede parametrizar las siguientes propiedades de la operación de lectura para un objeto de datos
SalesForce:
- Condición de filtro de SOQL
Puede parametrizar las siguientes propiedades de la operación de escritura para un objeto de datos de
Salesforce:
- Establezca el prefijo para los archivos de errores y de éxito de BULK
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
10.2.2.
• Puede configurar la autenticación SSO de Okta especificando los detalles de la autenticación en los
parámetros de JDBC URL de la conexión de Snowflake.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada
utilizada para extraer datos del origen de Snowflake. Especifique el reemplazo de SQL en las propiedades
de operación de lectura del objeto de datos de SnowFlake.
• Puede elegir comprimir los archivos antes de escribir en las tablas de Snowflake y optimizar el
rendimiento de escritura. En las propiedades avanzadas. Puede establecer el parámetro de compresión
en On u Off en el campo Parámetros adicionales de tiempo de ejecución de escritura en las propiedades
avanzadas de la operación de escritura del objeto de datos de SnowFlake.
• El servicio de integración de datos usa las API del conector de Snowflake Spark para ejecutar
asignaciones de Snowflake en el motor de Spark.
• Puede leer datos y escribir datos en Snowflake habilitados para los datos de almacenamiento provisional
en Azure o Amazon.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.2.
• Puede especificar un carácter de reemplazo para usar en lugar de un carácter unicode de Teradata no
compatible en la base de datos de Teradata mientras se cargan datos en los destinos.
• Si especificó un carácter usado en lugar de uno no compatible al cargar datos en los destinos de
Teradata, puede especificar las versiones 8.x - 13.x o 14.x y posterior para la base de datos de Teradata
de destino. Use este atributo junto con el atributo de carácter de reemplazo. El servicio de integración de
datos omite este atributo si no especificó un carácter de reemplazo mientras cargaba los datos en los
destinos de Teradata.
• Cuando escribe datos en Teradata, puede reemplazar el esquema de tabla de destino de Teradata y el
nombre de tabla durante el tiempo de ejecución.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Teradata
Parallel Transporter API 10.2.2.
servicios de aplicación
En esta sección se describen los cambios en las características del servicio de aplicación de la versión
10.2.2.
Conexión a Hive
A partir de la versión 10.2.2, se ha cambiado el nombre de las siguientes propiedades de la conexión de Hive:
252
La siguiente tabla describe las propiedades:
Propiedad Descripción
Autorización Cuando seleccione la opción para respetar la autorización específica en un origen de Hive, la
específica asignación respeta lo siguiente:
- Las restricciones a nivel de columna y fila. Se aplica a los clústeres de Hadoop donde estén
habilitados los modos de seguridad Sentry o Ranger.
- Reglas de enmascaramiento de datos. Se aplica a las reglas de enmascaramiento que se
establecen en columnas que contienen datos confidenciales mediante Dynamic Data Masking.
Si no selecciona la opción, los motores de Blaze y Spark omitirán las restricciones y las reglas de
enmascaramiento, y los resultados incluirán datos restringidos o confidenciales.
Nombre de El nombre de usuario de LDAP del usuario que el servicio de integración de datos suplanta para
usuario de ejecutar asignaciones en un clúster de Hadoop. El nombre de usuario depende de la cadena de
LDAP conexión de JDBC que especifique en la cadena de conexión de metadatos o en la cadena de
conexión de acceso a los datos del entorno nativo.
Si el clúster de Hadoop utiliza autenticación Kerberos, el nombre principal de la cadena de
conexión de JDBC y el nombre de usuario deben coincidir. De lo contrario, el nombre de usuario
dependerá del comportamiento del controlador JDBC. Con el controlador JDBC de Hive, puede
especificar un nombre de usuario de varias formas y este puede ser una parte de la URL de JDBC.
Si el clúster de Hadoop no utiliza autenticación Kerberos, el nombre de usuario depende del
comportamiento del controlador JDBC.
Si no especifica un nombre de usuario, el clúster de Hadoop autenticará trabajos según los
siguientes criterios:
- El clúster de Hadoop no utiliza autenticación Kerberos. Autentica trabajos según el nombre de
usuario del perfil del sistema operativo del equipo que ejecuta el servicio de integración de
datos.
- El clúster de Hadoop utiliza autenticación Kerberos. Autentica trabajos según el SPN del servicio
de integración de datos. Se omitirá el nombre de usuario de LDAP.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
Ingesta masiva
A partir de la versión 10.2.2, las especificaciones de ingesta masiva se ejecutan en el motor de Spark. Las
especificaciones de ingesta masiva que se implementaron antes de la versión 10.2.2 seguirán ejecutándose
en motores de Blaze y Spark hasta que vuelvan a implementarse.
Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.
Supervisión de Spark
A partir de la versión 10.2.2, la supervisión de Spark está habilitada de forma predeterminada.
Para obtener más información acerca de la supervisión de Spark, consulte la Guía del usuario de Informatica
Big Data Management 10.2.2.
• Puede especificar una ruta de acceso del archivo en el directorio de transferencia provisional de Spark de
la conexión de Hadoop para almacenar archivos temporales para trabajos de Sqoop. Cuando el motor de
Spark ejecuta trabajos de Sqoop, el servicio de integración de datos crea un directorio de transferencia
provisional de Sqoop dentro del directorio de transferencia provisional de Spark para almacenar archivos
temporales: <directorio de transferencia provisional de Spark>/sqoop_staging
Anteriormente, el directorio de transferencia provisional de Sqoop era de codificación fija y el servicio de
integración de datos usaba el siguiente directorio de transferencia provisional: /tmp/sqoop_staging
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
• Las asignaciones de Sqoop en el motor de Spark usan el OpenJDK (AzulJDK) que se incluye con el
programa de instalación de Informatica. Ya no necesita especificar la propiedad Directorio de inicio de
JDK para el servicio de integración de datos.
Anteriormente, para ejecutar asignaciones de Sqoop en el motor de Spark, se instalaba el kit de desarrollo
de Java (JDK) en el equipo donde se ejecutaba el servicio de integración de datos. A continuación, se
especificaba la ubicación del directorio de instalación de JDK en la propiedad Directorio de inicio de JDK
bajo las opciones de ejecución del servicio de integración de datos en Informatica Administrator.
Transformación de Python
A partir de la versión 10.2.2, la transformación de Python puede procesar datos de forma más eficiente en el
motor de Spark que la transformación de Python en la versión 10.2.1. Además, la transformación de Python
no requiere que se instale Jep, y puede usar cualquier versión de Python para ejecutar la transformación.
Anteriormente, la transformación de Python admitía solo versiones específicas de Python que fueran
compatibles con Jep.
Nota: Las mejoras están disponibles solo para Big Data Management.
Para obtener información acerca de cómo instalar Python, consulte la Guía de integración de Informatica Big
Data Management 10.2.2.
Para obtener más información acerca de la transformación de Python, consulte el capítulo "Transformación
de Python" de la Guía de transformaciones de Informatica Developer 10.2.2.
Transformación de escritura
A partir de la versión 10.2.2, se cambia el nombre de la propiedad avanzada Crear o reemplazar tablas de
destino en una transformación de escritura para objetos de datos relacionales, de Netezza o Teradata a
Estrategia de esquema de destino.
Cuando configura una transformación de escritura, puede elegir entre las siguientes opciones de la
estrategia de esquema de destino para el objeto de datos de destino:
Anteriormente seleccionaba la propiedad avanzada Crear o reemplazar tablas de destino para que el servicio
de integración de datos eliminara la tabla de destino en tiempo de ejecución y la reemplazara por una tabla
basada en la tabla de destino que se indicaba. Cuando no selecciona la propiedad avanzada Crear o
reemplazar tablas de destino, el servicio de integración de datos conserva el esquema existente para la tabla
de destino.
En las asignaciones existentes donde esté habilitada la propiedad Crear o reemplazar tablas de destino,
después de actualizar a la versión 10.2.2, de manera predeterminada, la propiedad Estrategia de esquema de
destino muestra la opción CREATE. Crear o reemplazar una tabla en tiempo de ejecución como habilitada.
En las asignaciones, donde la opción Crear o reemplazar tablas de destino no está seleccionada, después de
actualizar, la propiedad Estrategia de esquema de destino se habilita la opción RETAIN. Mantener esquema
de destino existente. Después de actualizar, si no está seleccionada la opción Estrategia de esquema de
destino, debe seleccionar manualmente la opción requerida en la lista Estrategia de esquema de destino y
después ejecutar la asignación.
Para obtener más información acerca de cómo configurar la estrategia de esquema de destino, consulte el
capítulo "Transformación de escritura" en la Guía de transformaciones de Informatica o el capítulo
"Asignaciones dinámicas" en la Guía de asignaciones de Informatica Developer.
El directorio temporal separa los archivos de destino en los que actualmente se escriben los datos y los
archivos de destino que se cierran después de que se alcanza el límite de sustitución.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.
Conexión de Kafka
A partir de la versión 10.2.2, el agente de Kafka mantiene la información de configuración para el agente de
mensajería de Kafka. Anteriormente, Apache ZooKeeper llevaba a cabo esta tarea.
Para obtener más información, consulte la Guía del usuario de Big Data Streaming 10.2.2.
Transformaciones
En esta sección se describen los cambios a las transformaciones en Big Data Streaming en la versión 10.2.2.
• Una asignación de transmisión debe tener una transformación de ventana directamente en el nivel
superior de una transformación de agregación. Anteriormente, podía usar una transformación de
agregación en cualquier parte del canal después de la transformación de ventana.
• Una asignación de transmisión puede tener una única transformación de agregación. Anteriormente,
podía usar varias transformaciones de agregación en una asignación de transmisión.
Transformación de combinación
A partir de la versión 10.2.2, una asignación de transmisión debe cumplir con los siguientes requisitos
adicionales si contiene una transformación de combinación:
• Una asignación de transmisión debe tener la transformación de ventana directamente en el nivel superior
de una transformación de combinación. Anteriormente, podía usar una transformación de combinación en
cualquier parte del canal después de una transformación de ventana.
• Una asignación de transmisión puede tener una única transformación de combinación. Anteriormente,
podía usar varias transformaciones de combinación en una asignación de transmisión.
• Una asignación de transmisión no puede contener una transformación de agregación en ninguna parte
antes de una transformación de combinación en una asignación de transmisión. Antes podía usar una
transformación de agregación en cualquier parte antes de una transformación de combinación en una
asignación de transmisión.
Para implementar Enterprise Data Catalog en un clúster existente, debe instalar JDK 1.8 en todos los nodos
del clúster.
Función Descripción
MAX (valor) Devuelve el valor máximo entre todas las filas de la hoja de cálculo, según las columnas
incluidas en la versión especificada.
MIN (valor) Devuelve el valor mínimo entre todas las filas de la hoja de cálculo, según las columnas
incluidas en la versión especificada.
MAXINLIST (valor, Devuelve el número más grande o la última fecha en la lista de expresiones especificada.
[valor],...)
MININLIST (valor, Devuelve el número más pequeño o la primera fecha en la lista de expresiones especificada.
[valor],...)
Informatica Developer
En esta sección se describen los cambios realizados a Informatica Developer en la versión 10.2.2.
Para las versiones de Big Data, el nombre de la herramienta ha cambiado a Big Data Developer. Una versión
de Big Data incluye productos como Big Data Management y Big Data Quality.
Para las versiones tradicionales, el nombre de la herramienta sigue siendo Informatica Developer. Una
versión tradicional incluye productos como PowerCenter y Data Quality.
Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la
versión 10.2.2.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.12.0 del motor de software Informatica Address
Verification.
Japón
A partir de la versión 10.2.2, Informatica mejora el análisis y la validación de direcciones japonesas según los
comentarios recibidos de los clientes.
Por ejemplo, en la versión 10.2.2, Informatica rechaza una dirección japonesa cuando el código postal no
está presente en la dirección o cuando la información de localidad y código postal no coinciden.
España
A partir de la versión 10.2.2, Informatica mejora el análisis y la validación de direcciones de España.
Por ejemplo, en la versión 10.2.2, la transformación del validador de direcciones rechaza una dirección
española cuando la información de calle requiere de varias correcciones para que haya coincidencia con los
datos de referencia.
Anteriormente, la transformación realizaba varias correcciones a los datos de la calle, lo que podía derivar en
una evaluación optimista de la precisión de la dirección de entrada.
De igual manera, en la versión 10.2.2, si una dirección coincide con varios candidatos en los datos de
referencia, la transformación del validador de direcciones devuelve un resultado de I3 para la dirección en el
modo por lotes.
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.14.0.
Transformación de escritura
A partir de la versión 10.2.2, se cambia el nombre de la propiedad avanzada Crear o reemplazar tablas de
destino en una transformación de escritura para objetos de datos relacionales, de Netezza o Teradata a
Estrategia de esquema de destino.
Cuando configura una transformación de escritura, puede elegir entre las siguientes opciones de la
estrategia de esquema de destino para el objeto de datos de destino:
En las asignaciones existentes donde esté habilitada la propiedad Crear o reemplazar tablas de destino,
después de actualizar a la versión 10.2.2, de manera predeterminada, la propiedad Estrategia de esquema de
destino muestra la opción CREATE. Crear o reemplazar una tabla en tiempo de ejecución como habilitada.
En las asignaciones, donde la opción Crear o reemplazar tablas de destino no está seleccionada, después de
actualizar, la propiedad Estrategia de esquema de destino se habilita la opción RETAIN. Mantener esquema
de destino existente. Después de actualizar, si no está seleccionada la opción Estrategia de esquema de
destino, debe seleccionar manualmente la opción requerida en la lista Estrategia de esquema de destino y
después ejecutar la asignación.
Para obtener más información acerca de cómo configurar la estrategia de esquema de destino, consulte el
capítulo "Transformación de escritura" en la Guía de transformaciones de Informatica o el capítulo
"Asignaciones dinámicas" en la Guía de asignaciones de Informatica Developer.
• Se cambian los nombres de las siguientes propiedades avanzadas para una operación de escritura de
objeto de datos de Amazon Redshift:
Valor nulo para los tipos de datos CHAR y VARCHAR Exigir un valor nulo para Char y Varchar
Tiempo de espera en segundos para consistencia de Tiempo de espera en segundos para consistencia de
archivos en S3 archivos S3
Prefijo para conservar archivos de transferencia Prefijo para conservar archivos de transferencia
provisional en S3 provisional en S3
• Al importar una tabla de Amazon Redshift en Developer tool, no puede agregar columnas que aceptan
valores NULL en la tabla como claves principales.
Anteriormente podía agregar columnas que aceptan valores NULL en la tabla como claves principales en
Developer tool.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
Analytics 10.2.2.
Anteriormente, PowerExchange for Google Cloud Storage tenía un programa de instalación independiente.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Storage 10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.
Target1.out, Target2.out...Target<NºPartición>.out
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.2.
262
Capítulo 25
servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.1.
263
Nota: Establezca la base de datos y el esquema que el servicio de administración de contenido usará para
los datos de referencia antes de crear una tabla de referencia administrada.
Para obtener más información, consulte el capítulo "Servicio de administración de contenido" de la Guía del
servicio de aplicación de Informatica 10.2.1 y el capítulo "Referencia del comando infacmd cms" de la
Referencia de comandos de Informatica 10.2.1.
Directorio de instalación de JDK en el equipo que ejecuta el servicio de integración de datos. Se requiere
para ejecutar asignaciones de Sqoop o especificaciones de ingesta masiva que usan una conexión de
Sqoop en el motor de Spark o para procesar una transformación de Java en el motor de Spark. El valor
predeterminado es en blanco.
Para administrar las especificaciones de ingesta masiva, el servicio de ingesta masiva realiza las siguientes
tareas:
Para obtener más información sobre el servicio de ingesta masiva, consulte el capítulo "Servicio de ingesta
masiva" de la Guía del servicio de aplicación de Informatica 10.2.1.
Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.
Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.
Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.
Establezca la propiedad infagrid.blaze.service.idle.timeout para especificar los minutos que estará inactivo
el motor Blaze antes de liberar recursos. Establezca la propiedad infagrid.orchestrator.svc.sunset.time para
especificar el número máximo de horas para el servicio de orquestador de Blaze. Puede utilizar el comando
infacmd isp createConnection, o establecer la propiedad en las propiedades avanzadas de Blaze de la
conexión de Hadoop en la Herramienta del administrador o Developer tool.
Para obtener más información sobre estas propiedades, consulte la Guía del administrador de Informatica Big
Data Management 10.2.1.
Un flujo de trabajo de clúster crea un clúster en una plataforma de nube y ejecuta asignaciones y otras tareas
de flujo de trabajo en el clúster. Puede optar por terminar y eliminar el clúster cuando las tareas de flujo de
trabajo se completen con el objetivo de ahorrar recursos en el clúster.
Existen dos nuevas tareas de flujo de trabajo que permiten crear y eliminar un clúster de Hadoop como parte
de un flujo de trabajo de clúster:
La tarea Crear clúster permite crear, configurar e iniciar un clúster de Hadoop en las siguientes
plataformas de nube:
La tarea opcional Eliminar clúster permite eliminar un clúster cuando se completan las tareas de
asignación y otras tareas de flujo de trabajo. Es posible que desee hacer esto para ahorrar costos.
Antes, se podían utilizar tareas de comando en un flujo de trabajo para crear clústeres en una plataforma de
nube. Para obtener más información sobre los flujos de trabajo y las tareas del flujo de trabajo del clúster,
consulte la Guía de flujos de trabajo de Informatica Developer 10.2.1.
Nota: En la versión 10.2.1, el método de tarea de comando para crear y eliminar clústeres es compatible con
los clústeres de Cloudera Altus en AWS. Para obtener más información, consulte el artículo "Cómo crear
clústeres de Cloudera Altus con un flujo de trabajo de clúster en Big Data Management" en la red de
Informatica.
Tarea de asignación
Para obtener más información sobre los flujos de trabajo del clúster, consulte la Guía de flujos de trabajo de
Informatica Developer 10.2.1.
La configuración de aprovisionamiento de nube incluye información sobre cómo integrar el dominio con los
recursos de autenticación y almacenamiento de la cuenta de Hadoop. Un flujo de trabajo de clúster utiliza la
información de la configuración de aprovisionamiento de nube para conectarse y crear un clúster en una
plataforma de nube como Amazon Web Services o Microsoft Azure.
Para obtener más información acerca del aprovisionamiento de clústeres, consulte el capítulo "Configuración
del aprovisionamiento de clústeres" de la Guía del administrador de Informatica Big Data Management 10.2.1.
Alta disponibilidad
A partir de la versión 10.2.1, se puede habilitar la alta disponibilidad para los siguientes servicios y sistemas
de seguridad en el entorno Hadoop de las distribuciones de Cloudera CDH, Hortonworks HDP y MapR
Hadoop:
• Apache Ranger
• Apache Ranger KMS
• Apache Sentry
• Cloudera Navigator Encrypt
• HBase
• Hive Metastore
• HiveServer2
• Avro
• ORC
• Parquet
• RCFile
• Secuencia
• Texto
Puede truncar tablas con los siguientes formatos de tabla externa de Hive:
• Hive en HDFS
• Hive en Amazon S3
• Hive en Azure Blob
• Hive en WASB
• Hive en ADLS
Para obtener más información sobre cómo truncar destinos de Hive, consulte el capítulo "Asignación de
destinos en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
Para obtener más información, consulte el capítulo "Importar desde PowerCenter" en la Guía de asignaciones
de Informatica Developer 10.2.1.
Para obtener más información, consulte el capítulo "Flujos de trabajo" en la Guía de flujos de trabajo de
Informatica Developer 10.2.1.
Compatibilidad del motor Spark con objetos de datos con el modelo de estructura inteligente
El objeto de datos puede aceptar y analizar archivos de entrada de formularios PDF, JSON, Microsoft
Excel, tablas de Microsoft Word, CSV, texto o XML, según el archivo que se utilizó para crear el modelo.
El modelo de estructura inteligente de los objetos de datos de archivo complejo, Amazon S3 y Microsoft
Azure Blob está disponible para la vista previa técnica. La funcionalidad de vista previa técnica se
admite, pero no está autorizada ni lista para producción. Informatica recomienda utilizar estas
características solo en entornos que no sean de producción.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
Ingesta masiva
A partir de la versión 10.2.1, puede realizar trabajos de ingesta masiva para ingerir o replicar grandes
cantidades de datos para su uso o almacenamiento en una base de datos o en un repositorio. Para realizar
trabajos de ingesta masiva, utilice la herramienta de ingesta masiva para crear una especificación de ingesta
masiva. Configure especificaciones de ingesta masiva para ingerir datos de una base de datos relacional en
un destino de HDFS o Hive. También puede especificar parámetros para limpiar los datos que se ingieran.
Una especificación de ingesta masiva sustituye la necesidad de crear y ejecutar asignaciones manualmente.
Puede crear una especificación de ingesta masiva que ingiera todos los datos a la vez.
Para obtener más información sobre la ingesta masiva, consulte la Guía de ingesta masiva de Informatica Big
Data Management 10.2.1.
Supervisión
En esta sección se describen las nuevas características relacionadas con la supervisión en Big Data
Management en la versión 10.2.1.
La cantidad de información en los registros de la aplicación depende del nivel de seguimiento que se
configura para una asignación en Developer tool. En la tabla siguiente se describe la cantidad de información
que aparece en los registros de la aplicación para cada nivel de seguimiento:
Nivel de Mensajes
seguimiento
Ninguno El registro muestra mensajes FATAL. Los mensajes de código FATAL incluyen fallos de sistema
no recuperables que provocan que el servicio se cierre o deje de estar disponible.
Terso El registro muestra mensajes de código FATAL y ERROR. Los mensajes de código ERROR
pueden deberse a fallos de conexión, fallos al guardar o recuperar medatados o errores de
servicio.
Normal El registro muestra mensajes FATAL, ERROR y WARNING. Los errores de código WARNING
pueden ser debidos a advertencias o a fallos de sistema recuperables.
Inicialización El registro muestra mensajes FATAL, ERROR, WARNING e INFO. Los mensajes de código INFO
detallada se deben a mensajes de cambio de servicio o de sistema.
Datos detallados El registro muestra mensajes FATAL, ERROR, WARNING, INFO y DEBUG. Los mensajes de código
DEBUG son registros de solicitudes de usuarios.
Para obtener más información, consulte el capítulo "Supervisión de asignaciones en un entorno Hadoop" de
la Guía del usuario de Informatica Big Data Management 10.2.1.
Supervisión de Spark
A partir de la versión 10.2.1, el ejecutor de Spark escucha los eventos de Spark en un puerto como parte del
soporte de supervisión de Spark, por lo que no es necesario configurar SparkMonitoringPort.
El servicio de integración de datos incluye un rango de puertos disponibles, y el ejecutor de Spark selecciona
uno de ellos. Durante el error, la conexión con el puerto permanece disponible y no es necesario reiniciar el
servicio de integración de datos antes de ejecutar la asignación.
Antes, en la propiedad personalizada del servicio de integración de datos, el puerto de supervisión de Spark
podría configurar el puerto de escucha de Spark. Si no se configuraba la propiedad, la supervisión de Spark
se deshabilitaba de forma predeterminada.
Supervisión de Tez
A partir de la versión 10.2.1, puede ver las propiedades relacionadas con el soporte de supervisión del motor
Tez. Puede utilizar el motor Hive para ejecutar la asignación en MapReduce o Tez. El motor Tez puede
procesar trabajos en Hortonworks HDP, Azure HDInsight y Amazon Elastic MapReduce. Para ejecutar una
asignación de Spark en Tez, puede utilizar cualquiera de los clústeres admitidos para Tez.
En la Herramienta del administrador, también puede revisar las propiedades de consulta de Hive para Tez
cuando supervise el motor de Hive. En el registro de sesiones de Hive y en Tez, puede ver la información
Puede supervisar cualquier consulta de Hive en el motor Tez. Cuando se habilita el registro de datos
detallados o de inicialización detallada, se puede ver la información del motor Tez en la Herramienta del
administrador o en el registro de la sesión. También puede supervisar el estado de la asignación en el motor
Tez en la ficha Supervisión de la Herramienta del administrador.
Para obtener más información acerca de la supervisión de Tez, consulte la Guía del usuario de Informatica
Big Data Management 10.2.1 y la Guía de integración con Hadoop de Informatica Big Data Management 10.2.1.
Puede utilizar el tipo de datos de asignación para generar y procesar datos de asignación en archivos
complejos.
Puede utilizar tipos de datos complejos para leer y escribir datos jerárquicos en archivos Avro y Parquet
en Amazon S3. Las columnas se proyectan como tipos de datos complejos en las operaciones de
lectura y escritura de objetos de datos.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos en el motor de
Spark" de la Guía del usuario de Informatica Big Data Management 10.2.1.
También puede ejecutar una asignación que contenga un mapplet generado a partir de una especificación de
regla en el motor Spark, además de los motores Blaze y Hive.
Para obtener más información sobre las especificaciones de reglas, consulte la Guía de especificaciones de
regla de Informatica 10.2.1.
Seguridad
En esta sección se describen las nuevas características relacionadas con la seguridad en Big Data
Management en la versión 10.2.1.
Autenticación Kerberos
A partir de la versión 10.2.1, se puede habilitar la autenticación Kerberos para los siguientes clústeres:
• Amazon EMR
• Azure HDInsight con WASB como almacenamiento
Autenticación de LDAP
A partir de la versión 10.2.1, se puede configurar la autenticación del protocolo ligero de acceso a directorios
(LDAP) para la versión 5.10 del clúster de Amazon EMR.
Sqoop
A partir de la versión 10.2.1, puede utilizar las siguientes nuevas características de Sqoop:
Puede utilizar el conector MapR de Teradata para leer o escribir datos en Teradata en el motor Spark. El
conector MapR de Teradata es un conector especializado Teradata Connector for Hadoop (TDCH) para
Sqoop. Cuando se ejecutan asignaciones de Sqoop en el motor Spark, el servicio de integración de datos
invoca al conector de forma predeterminada.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
• Se leen datos de un origen de Sqoop y se escriben datos en un destino de Hive que utiliza el formato
de texto.
• Se leen datos de un origen de Sqoop y se escriben datos en un destino de HDFS que utiliza el formato
Flat, Avro o Parquet.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
Compatibilidad del motor Spark con las características de alta disponibilidad y seguridad
Sqoop incluye las mismas características de alta disponibilidad y seguridad que el inicio de sesión de
Kerberos y el cifrado KMS compatibles con el motor Spark.
Para obtener más información, consulte el capítulo "Servicio de integración de datos" de la Guía del
servicio de aplicación de Informatica 10.2.1 y el capítulo "Referencia del comando infacmd dis" de la
Referencia de comandos de Informatica 10.2.1.
Si utiliza un objeto de datos de Teradata y ejecuta una asignación en el motor Spark y en un clúster de
Hortonworks o Cloudera, el servicio de integración de datos ejecutará la asignación a través de Sqoop.
Compatibilidad de la transformación
A partir de la versión 10.2.1, las siguientes transformaciones son compatibles con el motor Spark:
• Validador de direcciones
• Consolidación
• Decisión
• Coincidencia
• Generador de secuencia
A partir de la versión 10.2.1, la siguiente transformación tiene compatibilidad adicional en el motor de Spark:
• Java. Admite tipos de datos complejos como matrices, asignaciones y estructuras para procesar datos
jerárquicos.
Para obtener más información sobre la compatibilidad de las transformaciones, consulte el capítulo
"Asignación de transformaciones en el entorno de Hadoop" en la Guía del usuario de Informatica Big Data
Management 10.2.1.
Para obtener más información sobre las operaciones de transformación, consulte la Guía de
transformaciones de Informatica Developer 10.2.1.
Transformación de Python
A partir de la versión 10.2.1, se puede crear una transformación de Python en Developer tool. Utilice la
transformación de Python para ejecutar código Python en una asignación que se ejecute en el motor Spark.
Nota: La transformación de Python está disponible para la vista previa técnica. La funcionalidad de vista
previa técnica se admite, pero no está lista para producción. Informatica recomienda utilizarla solo en
entornos que no sean de producción.
Las instrucciones MERGE de Hive son compatibles con las siguientes distribuciones de Hadoop:
Para utilizar la instrucción MERGE de Hive, seleccione la opción en las propiedades avanzadas de la
transformación de la estrategia de actualización.
Antes, el servicio de integración de datos utilizaba instrucciones INSERT, UPDATE y DELETE para realizar
esta tarea en cualquier motor en tiempo de ejecución. La transformación de la estrategia de actualización
sigue utilizando estas instrucciones en los siguientes escenarios:
Para obtener más información acerca del uso de la instrucción MERGE en las transformaciones de la
estrategia de actualización, consulte el capítulo sobre la transformación de la estrategia de actualización en
la Guía del usuario de Informatica Big Data Management 10.2.1.
Transformación de agregación
A partir de la versión 10.2.1, la caché de datos para la transformación del agregador utiliza la longitud
variable para almacenar tipos de datos binarios y de cadena en el motor Blaze. La longitud variable reduce la
cantidad de datos que almacena la caché de datos cuando se ejecuta la transformación del agregador.
Cuando los datos que pasan a través de la transformación del agregador se almacenan en la caché de datos
utilizando la longitud variable, la transformación del agregador se optimiza para utilizar la entrada ordenada
y se inserta una transformación de ordenación antes de la transformación del agregador en la asignación en
tiempo de ejecución.
Configure la transformación de coincidencia para escribir los datos del índice de identidad en los archivos de
caché. La asignación generará un error de validación si se configura la transformación de coincidencia para
escribir los datos de índice en tablas de la base de datos.
Para obtener más información sobre la compatibilidad de las transformaciones, consulte el capítulo
"Asignación de transformaciones en el entorno de Hadoop" en la Guía del usuario de Informatica Big Data
Management 10.2.1.
Transformación de rango
A partir de la versión 10.2.1, la caché de datos para la transformación de rango utiliza la longitud variable
para almacenar tipos de datos binarios y de cadena en el motor Blaze. La longitud variable reduce la
cantidad de datos que almacena la caché de datos cuando se ejecuta la transformación de rango.
Cuando los datos que pasan a través de la transformación de rango se almacenan en la caché de datos
utilizando la longitud variable, la transformación de rango se optimiza para utilizar la entrada ordenada y se
inserta una transformación de ordenación antes de la transformación de rango en la asignación en tiempo de
ejecución.
Para obtener más información sobre las operaciones de transformación, consulte la Guía de
transformaciones de Informatica Developer 10.2.1.
Orígenes y destinos
A partir de la versión 10.2.1, los siguientes orígenes y destinos se pueden leer o escribir en las asignaciones
de secuencias:
• Centros de eventos de Azure. Cree un objeto de datos de centro de eventos de Azure para leer o escribir
en eventos del centro de eventos. Puede utilizar una conexión del centro de eventos de Azure para
acceder a los centros de eventos de Microsoft Azure como origen o destino. Puede crear y administrar
una conexión de Azure Eventhub en Developer tool o a través de infacmd.
• Microsoft Azure Data Lake Store. Cree un objeto de datos de Azure Data Lake Store para escribir en Azure
Data Lake Store. Puede utilizar una conexión de Azure Data Lake Store para acceder a las tablas de
Microsoft Azure Data Lake Store como destinos. Puede crear y administrar una conexión de Microsoft
Azure Data Lake Store en Developer tool.
• Base de datos compatible con JDBC. Cree un objeto de datos relacional con una conexión JDBC.
Para obtener más información, consulte los capítulos "Orígenes en una asignación de secuencias" y
"Destinos en una asignación de secuencias" en la Guía del usuario de Informatica Big Data Streaming 10.2.1.
Para obtener más información, consulte el capítulo "Asignaciones de secuencias" en la Guía del usuario de
Informatica Big Data Streaming 10.2.1.
Compatibilidad de la transformación
A partir de la versión 10.2.1, se pueden utilizar las siguientes transformaciones en las asignaciones de
secuencias:
• Enmascaramiento de datos
• Normalizador
• Python
Se puede realizar una búsqueda sin caché en los datos de HBase en las asignaciones de secuencias con una
transformación de búsqueda.
Para obtener más información, consulte el capítulo "Asignaciones de secuencias" en la Guía del usuario de
Informatica Big Data Streaming 10.2.1.
Para obtener más información sobre cómo truncar los destinos de Hive, consulte el capítulo "Destinos en
una asignación de secuencias" en la Guía del usuario de Informatica Big Data Streaming 10.2.1.
Comando Descripción
Autotune Configura los servicios y las conexiones del dominio de Informatica con los ajustes recomendados
basados en la descripción del tamaño.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd autotune" en la
Referencia de comandos de Informatica 10.2.1.
Comando Descripción
deleteClusters Elimina los clústeres de la plataforma de nube que creó un flujo de trabajo de clúster.
listClusters Enumera los clústeres de la plataforma de nube que creó un flujo de trabajo de clúster.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ccps" en la Referencia
de comandos de Informatica 10.2.1.
Comando Descripción
En la tabla siguiente se describen los cambios introducidos en los comandos infacmd cluster:
createConfiguration A partir de la versión 10.2.1, puede utilizar la opción -dv para especificar una versión
distribución de Hadoop al crear una configuración de clúster. Si no especifica una
versión, el comando creará una configuración de clúster con la versión predeterminada
para la distribución de Hadoop especificada.
Antes, el comando createConfiguration no contenía la opción para especificar la versión
de Hadoop.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd cluster" en la
Referencia de comandos de Informatica 10.2.1.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmd cms" de la Referencia
de comandos de Informatica 10.2.1.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.1.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmed ihs" de la Referencia
de comandos de Informatica 10.2.1.
Comando Descripción
PingDomain Hace ping a un dominio, servicio, host de puerta de enlace del dominio o nodo.
ListWeakPasswordUsers Enumera los usuarios con contraseñas que no cumplen la directiva de contraseña.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmed ldm" de la Referencia
de comandos de Informatica 10.2.1.
Comandos infacmd mi
mi es un nuevo complemento de infacmd que realiza operaciones de ingesta masiva.
Comando Descripción
abortRun Interrumpe los trabajos de asignación de la ingesta en una instancia de ejecución de una
especificación de ingesta masiva.
extendedRunStats Obtiene las estadísticas extendidas para una asignación en la especificación de ingesta masiva
implementada.
getSpecRunStats Obtiene las estadísticas de ejecución detalladas de una especificación de ingesta masiva
implementada.
listSpecRuns Enumera las instancias de ejecución de una especificación de ingesta masiva implementada.
restartMapping Reinicia los trabajos de asignación de ingesta en una especificación de ingesta masiva.
runSpec Ejecuta una asignación de ingesta masiva que se implementa en un servicio de integración de
datos.
Para obtener más información, consulte el capítulo "Referencia del comando infacmed mi" de la Referencia
de comandos de Informatica 10.2.1.
Comando Descripción
listMappingEngines Enumera los motores de ejecución de las asignaciones que se almacenan en un repositorio
de modelos.
listPermissionOnProject Enumera todos los permisos en varios proyectos para grupos y usuarios.
updateStatistics Actualiza las estadísticas del repositorio de modelos de supervisión en Microsoft SQL
Server.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd mrs" en la Referencia
de comando de Informatica 10.2.1.
Comando Descripción
pruneOldInstances Elimina los datos del proceso de flujo de trabajo de la base de datos de flujos de trabajo.
Para eliminar los datos del proceso, debe tener el privilegio de administración de servicios en el dominio.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.1.
Comandos de infasetup
La siguiente tabla describe nuevos comandos infasetup:
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia de comando infasetup" de la Referencia de
comandos de Informatica 10.2.1.
Para obtener más información sobre cómo agregar un título empresarial, consulte la Guía del usuario de
Informatica Enterprise Data Catalog 10.2.1.
Para obtener más información acerca de la utilidad, consulte la Guía de instalación y configuración de
Informatica Enterprise Data Catalog 10.2 .1 y los siguientes artículos de la base de conocimientos:
• Cómo validar los requisitos previos del clúster incrustado con la utilidad de validación en Enterprise Data
Catalog
• Cómo validar el dominio de Informatica, los hosts del clúster y la configuración de los servicios del
clúster
• Ejecutar la detección en los datos de origen. El analizador ejecuta la detección del dominio de datos en
los datos de origen.
• Ejecutar la detección en los metadatos de origen. El analizador ejecuta la detección del dominio de datos
en los metadatos de origen.
• Ejecutar la detección en los metadatos y los datos de origen. El analizador ejecuta la detección del
dominio de datos en los metadatos y los datos de origen.
• Ejecutar la detección en los datos de origen que coincidan con los metadatos. El analizador ejecuta la
detección del dominio de datos en los metadatos de origen para identificar las columnas con dominios de
datos deducidos. A continuación, el analizador ejecuta la detección en los datos de origen de las
columnas que tengan dominios de datos deducidos.
Para obtener más información acerca de la detección del dominio de datos, consulte la Guía del
administrador de Informatica Catalog 10.2.1.
Filtro Valores
A partir de la versión 10.2.1, se puede utilizar la configuración de filtro en la página Configuración de la
aplicación para personalizar los filtros de búsqueda que se muestran en el panel Filtrar por de la página de
resultados de búsqueda.
Para obtener más información sobre los filtros de búsqueda, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.
Para obtener más información sobre el informe de vínculos que faltan, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
Puede crear recursos en Informatica Catalog Administrator para extraer metadatos de los siguientes
orígenes de datos:
Azure Data Lake Store
Los scripts de base de datos de los que se extraerá la información de linaje. El recurso Scripts de la
base de datos está disponible para la vista previa técnica. La funcionalidad de vista previa técnica se
admite, pero no está autorizada ni lista para producción. Informatica recomienda utilizar estas
características solo en entornos que no sean de producción.
QlikView
La herramienta de inteligencia empresarial que le permite extraer metadatos del sistema de origen
QlikView.
SharePoint
OneDrive
Para obtener más información acerca de los nuevos recursos, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
API de REST
A partir de la versión 10.2.1, se puede utilizar las API de REST de Informatica Enterprise Data Catalog para
cargar y supervisar recursos.
Para obtener más información acerca de las API de REST, consulte la Referencia de la API de REST de
Informatica Enterprise Data Catalog 10.2.1.
Recurso de SAP
A partir de la versión 10.2.1, se puede elegir la opción Permitir secuencias para el acceso de datos para que
los recursos de SAP R/3 extraigan datos mediante el protocolo HTTP.
Para obtener más información sobre la opción, consulte la Guía del administrador de Informatica Catalog
10.2.1.
La función de importación de ServiceNow está disponible para la vista previa técnica. La funcionalidad de
vista previa técnica se admite, pero no está autorizada ni lista para producción. Informatica recomienda
utilizar estas características solo en entornos que no sean de producción.
Para obtener más información acerca de la importación de metadatos de ServiceNow, consulte la Guía de
Informatica Catalog Administrator 10.2.1.
Columnas similares
A partir de la versión 10.2.1, se puede ver la sección Columnas similares que muestra todas las columnas
parecidas a la columna que se está visualizando. Enterprise Data Catalog detecta las columnas similares
según los nombres de columna, los patrones de columna, los valores únicos y las frecuencias de valor.
Para obtener más información sobre la similitud de columnas, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.
Antes, era necesario crear el servicio de catálogo y utilizar las propiedades personalizadas de este para
especificar el tamaño de los datos.
Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise Data
Catalog 10.2.1.
Este tipo de archivo está disponible para los recursos de HDFS y del sistema de archivos. Para el
recurso del sistema de archivos, solo se puede elegir el protocolo de archivo local.
- Parquet. El tipo de extensión admitido es .parquet.
Este tipo de archivo está disponible para los recursos de HDFS y del sistema de archivos. Para el
recurso del sistema de archivos, solo se puede elegir el protocolo de archivo local.
• Otros recursos:
- Azure Data Lake Store
- Sistema de archivos. Los protocolos admitidos incluyen los protocolos de archivos locales, SFTP y
SMB/CIFS.
- HDFS. La distribución admitida incluye MapR FS.
- OneDrive
- SharePoint
Para obtener más información acerca de los nuevos recursos, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
Datos de columna
A partir de la versión 10.2.1, puede utilizar las siguientes funciones cuando trabaje con columnas en hojas de
cálculo:
• Puede categorizar o agrupar los valores relacionados de una columna en categorías para facilitar el
análisis.
• Puede ver el origen de los datos de una columna seleccionada en una hoja de cálculo. Es posible que
desee ver el origen de los datos en una columna para ayudarle a solucionar un problema.
• Puede revertir los tipos o los dominios de datos deducidos durante el muestreo en las columnas al tipo de
origen. Es posible que desee revertir un tipo o un dominio de datos deducido al tipo de origen si desea
utilizar los datos de columna en una fórmula.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.
Para obtener más información, consulte el capítulo "Administrar Data Lake" de la Guía del administrador de
Informatica Enterprise Data Lake 10.2.1.
Datos dinámicos
Puede utilizar la operación dinámica para cambiar los datos de las columnas seleccionadas de una hoja
de cálculo con un formato resumido. La operación dinámica le permite agrupar y agregar datos para el
análisis, como resumir el precio promedio de las casas unifamiliares vendidas en distintas ciudades
durante los primeros seis meses del año.
Puede utilizar la operación sin dinamismo para transformar las columnas de una hoja de cálculo en filas
que contengan los datos de columna con formato de valor clave. La operación sin dinamismo es útil
cuando se desea agregar datos a una hoja de cálculo en filas según las claves y los valores
correspondientes.
Puede utilizar una operación de cifrado One Hot para determinar la existencia de un valor de cadena en
una columna seleccionada dentro de cada fila de una hoja de cálculo. Puede utilizar la operación de
cifrado One Hot para convertir valores categóricos de una hoja de cálculo en valores numéricos
necesarios para los algoritmos de aprendizaje automático.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.
Pasos de la receta
A partir de la versión 10.2.1, puede utilizar las siguientes funciones cuando trabaje con recetas en hojas de
cálculo:
• Puede reutilizar los pasos de la receta creados en una hoja de cálculo, incluidos los pasos que contengan
fórmulas complejas o definiciones de regla. Puede reutilizar los pasos de la receta en la misma hoja de
cálculo o en una hoja de cálculo diferente, incluida una hoja de cálculo de otro proyecto. Puede copiar y
reutilizar los pasos seleccionados de una receta, o puede reutilizar toda la receta.
• Puede insertar un paso en cualquier posición de una receta.
• Puede agregar un filtro o modificar un filtro aplicado a un paso de la receta.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.
Cuando se programa una actividad, se puede crear una nueva programación o se puede seleccionar una
existente. Puede utilizar las programaciones creadas por otros usuarios, y otros usuarios pueden utilizar las
programaciones que usted cree.
Para obtener más información, consulte el capítulo "Programar actividades de exportación, importación y
publicación" de la Guía del usuario de Informatica Enterprise Data Lake 10.2.1.
Para obtener más información sobre cómo configurar la autenticación SAML, consulte la Guía de seguridad
de Informatica 10.2.1.
Puede ver un diagrama de flujo que muestre cómo se relacionan las hojas de cálculo de un proyecto y cómo
se derivan. El diagrama es especialmente útil cuando se trabaja en un proyecto complejo que contiene varias
hojas de cálculo y que incluye numerosos activos.
También puede revisar el historial completo de las actividades realizadas en un proyecto, incluidas las
actividades realizadas en las hojas de cálculo del proyecto. Consultar el historial del proyecto puede ayudarle
a determinar la causa raíz de los problemas del proyecto.
Para obtener más información, consulte el capítulo "Crear y administrar proyectos" de la Guía del usuario de
Informatica Enterprise Data Lake 10.2.1.
Informatica Developer
En esta sección se describen las nuevas características de Developer tool en la versión 10.2.1.
Diseño predeterminado
A partir de la versión 10.2.1, las siguientes vistas adicionales aparecen de forma predeterminada en el área
de trabajo de Developer tool:
Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica
Developer Tool 10.2.1.
Búsqueda en el editor
A partir de la versión 10.2.1, se puede buscar una definición de tipo de datos complejos en las asignaciones
y los mapplets de la vista del editor. También se pueden mostrar rutas de vínculos mediante una definición
de tipo de datos complejos.
Para obtener más información, consulte el capítulo "Búsquedas en Informatica Developer" en la Guía de
Informatica Developer Tool 10.2.1.
Vistas
A partir de la versión 10.2.1, se pueden expandir los tipos de datos complejos para ver la definición del tipo
de datos en las siguiente vistas:
Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica
Developer Tool 10.2.1.
Asignaciones de Informatica
En esta sección se describen las nuevas características de las asignaciones de Informatica en la versión
10.2.1.
Asignaciones dinámicas
En esta sección se describen las nuevas características de asignación dinámica de la versión 10.2.1.
Reglas de entrada
A partir de la versión 10.2.1, puede realizar las siguientes tareas al crear una regla de entrada:
• Crear una regla de entrada mediante una definición de tipo de datos complejos.
• Restaurar los nombres de los puertos de origen cuando se cambie el nombre de los puertos generados.
• Seleccionar los puertos por nombre de origen cuando se cree una regla de entrada por nombre de
columna o un patrón.
• Ver nombres de origen y definiciones de tipos de datos complejos en la vista previa del puerto.
Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.
Selectores de puerto
A partir de la versión 10.2.1, se puede configurar un selector de puertos para seleccionar puertos mediante
una definición de tipo de datos complejos.
Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.
Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.
Parámetros de asignación
En esta sección se describen las nuevas características de parámetros de la asignación de la versión 10.2.1.
Asignar parámetros
A partir de la versión 10.2.1, puede asignar parámetros a los siguientes objetos de asignación y campos de
objetos:
Objeto Campo
Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.
Aplicar los valores Resuelve los parámetros de asignación según los valores predeterminados
predeterminados en la asignación configurados para los parámetros de la asignación. Si no se configuran los
parámetros de la asignación, no se resolverá ningún parámetro en la
asignación.
Aplicar un conjunto de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el conjunto de parámetros especificado.
Aplicar un archivo de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el archivo de parámetros especificado.
Para resolver rápidamente los parámetros de asignación basados en un conjunto de parámetros. Arrastre el
conjunto de parámetros de la vista del explorador de objetos al editor de asignaciones para ver los
parámetros resueltos en la instancia en tiempo de ejecución de la asignación.
Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.
Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.
Ejecución de asignaciones
En esta sección se describen las nuevas características de asignación de ejecución de la versión 10.2.1.
Para obtener más información, consulte la Guía de Informatica 10.2.1 Developer tool.
Opción Descripción
Seleccionar una configuración de Seleccione una configuración de asignación en el menú desplegable. Para
asignación crear una nueva configuración de asignación, seleccione Nueva configuración.
Especificar una configuración de Cree una configuración de asignación personalizada que persista para la
asignación personalizada ejecución de la asignación actual.
En la siguiente tabla se describen las opciones que puede usar para especificar los parámetros de la
asignación:
Aplicar los valores Resuelve los parámetros de asignación según los valores predeterminados
predeterminados en la asignación configurados para los parámetros de la asignación. Si no se configuran los
parámetros de la asignación, no se resolverá ningún parámetro en la
asignación.
Aplicar un conjunto de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el conjunto de parámetros especificado.
Aplicar un archivo de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el archivo de parámetros especificado.
Para obtener más información, consulte la Guía de asignaciones del desarrollador de Informatica 10.2.1.
Antes, se podía diseñar una asignación para truncar una tabla de destino de Hive, pero no una tabla de
destino de Hive externa y con particiones.
Para obtener más información sobre cómo truncar destinos de Hive, consulte el capítulo "Asignación de
destinos en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.
El lenguaje de transformación incluye las siguientes funciones complejas para el tipo de datos de
asignación:
• COLLECT_MAP
• MAP
• MAP_FROM_ARRAYS
• MAP_KEYS
• MAP_VALUES
A partir de la versión 10.2.1, puede utilizar la función SIZE para determinar el tamaño de los datos de
asignación.
Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.2.1 Developer.
El tipo de datos de asignación contiene una colección desordenada de pares de clave y valor. Utilice el
operador de subíndice [ ] para acceder al valor correspondiente a una clave concreta en el tipo de datos de
asignación.
Para obtener más información acerca de los operadores complejos, consulte el capítulo "Operadores" de la
Referencia del lenguaje de transformación para Informatica 10.2.1 Developer.
Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.2.1.
La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:
Argentina
A partir de la versión 10.2.1, se puede configurar Informatica para devolver sugerencias válidas para las
direcciones de Argentina que se introduzcan en una sola línea.
Colombia
A partir de la versión 10.2.1, Informatica valida las direcciones de Colombia a nivel de número de casa.
Hong Kong
A partir de la versión 10.2.1, Informatica admite la geocodificación de tejados para las direcciones de Hong
Kong. Informatica puede devolver geocoordenadas de tejado para direcciones de Hong Kong que se envíen
en chino o inglés.
Informatica puede considerar los tres niveles de información de edificio cuando genera las geocoordenadas.
Ofrece geocoordenadas de tejado al nivel más bajo disponible en la dirección verificada.
Para recuperar las geocoordenadas de tejado de las direcciones de Hong Kong, instale la base de datos
HKG5GCRT.MD.
India
A partir de la versión 10.2.1, Informatica valida las direcciones de la India a nivel de número de casa.
México
A partir de la versión 10.2.1, se puede configurar Informatica para devolver sugerencias válidas para las
direcciones de México que se introduzcan en una sola línea.
Sudáfrica
A partir de la versión 10.2.1, Informatica mejora el análisis y la verificación de los descriptores de servicio de
entrega de las direcciones de Sudáfrica.
Informatica mejora el análisis y la verificación de los descriptores de servicio de entrega de las siguientes
formas:
• Address Verification reconoce el buzón privado, el conjunto de buzones, el buzón de la oficina de correos
y la suite de Postnet como diferentes tipos de servicio de entrega. Address Verification no estandariza un
descriptor de servicio de entrega como otro. Por ejemplo, Address Verification no estandariza la Suite de
Postnet como el buzón de la oficina de correos.
• Address Verification analiza el cuadro de Postnet como un descriptor de servicio de entrega no estándar y
corrige el cuadro de Postnet con el descriptor válido de la Suite de Postnet.
• Address Verification no estandariza el descriptor de subedificio Flat como Fl.
• Los datos de referencia de las direcciones de Corea del Sur incluyen la información de edificio.
Informatica puede leer, verificar y corregir la información de edificio de una dirección de Corea del Sur.
Tailandia
A partir de la versión 10.2.1, Informatica presenta las siguientes características y mejoras para Tailandia:
Informatica mejora el análisis y la validación de las direcciones de Tailandia escritas en alfabeto latino.
Informatica puede leer y escribir direcciones de Tailandia en el alfabeto nativo tailandés y en el alfabeto
latino. Informatica actualiza los datos de referencia de Tailandia y agrega los datos de referencia al
alfabeto tailandés nativo.
Informatica proporciona bases de datos de referencia independientes para las direcciones de Tailandia
en cada alfabeto. Para verificar las direcciones en el alfabeto tailandés nativo, instale las bases de datos
nativas de Tailandia. Para verificar las direcciones en el alfabeto latino, instale las bases de datos
latinas.
Nota: Si se verifican las direcciones de Tailandia, no se deben instalar los dos tipos de base de datos.
Acepte la opción predeterminada de la propiedad Alfabeto preferido.
Reino Unido
A partir de la versión 10.2.1, Informatica puede devolver un nombre de territorio del Reino Unido.
Para devolver el nombre de territorio, instale los datos de referencia actuales del Reino Unido.
Estados Unidos
A partir de la versión 10.2.1, Informatica puede reconocer hasta tres niveles de subedificio en una dirección
de Estados Unidos.
De conformidad con los requisitos del servicio postal de Estados Unidos, Informatica hace coincidir la
información de un solo elemento de subedificio con los datos de referencia. Si la información de Sub-
building_1 no coincide, Informatica comparará la información de Sub-building_2. Si la información de Sub-
Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2.1, consulte la Guía de desarrollador de
Informatica Address Verification 5.12.0.
Para obtener más información, consulte el capítulo "Flujos de trabajo" en la Guía de flujos de trabajo de
Informatica Developer 10.2.1.
• Puede configurar una operación de búsqueda almacenada en caché para almacenar en caché la tabla de
búsqueda del motor Spark, y una operación de búsqueda no almacenada en caché en el entorno nativo.
• Para el cifrado en el lado del servidor, se puede configurar el identificador de clave maestra de cliente
generado por el servicio de administración de claves de AWS en la conexión del entorno nativo y el motor
Spark.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.1.
• Para el cifrado en el lado del cliente, se puede configurar el identificador de clave maestra de cliente
generado por el servicio de administración de claves de AWS en la conexión del entorno nativo. Para el
cifrado en el lado del servidor, se puede configurar el identificador de clave maestra de cliente generado
por el servicio de administración de claves de AWS en la conexión del entorno nativo y el motor Spark.
• Para el cifrado en el lado del servidor, se puede configurar la clave de cifrado administrada por Amazon
S3 o la clave maestra de cliente administrada por AWS KMS para cifrar los datos mientras se cargan los
archivos en los cubos.
• Puede crear un objeto de datos de archivo de Amazon S3 a partir de los siguientes formatos de origen de
datos en Amazon S3:
- Modelo de estructura inteligente
La característica del modelo de estructura inteligente de PowerExchange for Amazon S3 está disponible
para la inspección técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.
- JSON
- ORC
• Puede comprimir datos ORC en el formato de compresión ZLIB al escribir datos en Amazon S3 en el
entorno nativo y el motor Spark.
• Puede crear un destino de Amazon S3 mediante la opción Crear destino en las propiedades de la sesión
de destino.
• Puede utilizar tipos de datos complejos en el motor Spark para leer y escribir datos jerárquicos en los
formatos de archivo Avro y Parquet.
• Puede utilizar orígenes de Amazon S3 como orígenes dinámicos en una asignación. El soporte de
asignaciones dinámicas para orígenes de PowerExchange for Amazon S3 está disponible para la vista
previa técnica. La funcionalidad de vista previa técnica se admite, pero no está autorizada ni lista para
producción. Informatica recomienda utilizar estas características solo en entornos que no sean de
producción.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.1.
Para habilitar la escritura asincrónica en un sistema operativo Windows, debe agregar la propiedad
EnableAsynchronousWrites al registro de Windows para el nombre de origen de datos de ODBC de
Cassandra y establecer el valor como 1.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Cassandra de Informatica
10.2.1.
La característica de búsqueda para PowerExchange for HBase está disponible para vista previa técnica. La
funcionalidad de vista previa técnica se admite, pero no está lista para producción. Informatica recomienda
utilizarla solo en entornos que no sean de producción.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.1.
Compatibilidad con los modelos de estructura inteligente para objetos de datos de archivos complejos
La característica del modelo de estructura inteligente de PowerExchange for HDFS está disponible para
la inspección técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS
10.2.1.
Puede utilizar orígenes de archivos complejos como orígenes dinámicos en una asignación.
La compatibilidad de las asignaciones dinámicas con los orígenes de archivos complejos está
disponible para la vista previa técnica. La funcionalidad de vista previa técnica se admite, pero no está
autorizada ni lista para producción. Informatica recomienda utilizar estas características solo en
entornos que no sean de producción.
Para obtener más información sobre las asignaciones dinámicas, consulte la Guía de asignación de
Informatica Developer.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Hive 10.2.1.
Las nuevas funcionalidades de PowerExchange for Microsoft Azure Blob Storage están disponibles para la
vista previa técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para producción.
Informatica recomienda utilizarla solo en entornos que no sean de producción.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
10.2.1 .
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2.1.
• Puede configurar una operación de búsqueda en una tabla de Snowflake. También puede habilitar la
caché de búsqueda de una operación de búsqueda para aumentar el rendimiento de la búsqueda. El
servicio de integración de datos almacena en caché el origen de búsqueda y ejecuta la consulta en las
filas de la caché.
• Puede parametrizar la conexión de Snowflake y las propiedades de operación de lectura y escritura de
objetos de datos.
• Puede configurar la creación de particiones de rango de claves para los objetos de datos de Snowflake en
una operación de lectura o escritura. El servicio de integración de datos distribuye los datos basándose
en el puerto o el conjunto de puertos que se define como clave de partición.
• Puede especificar un nombre de tabla en las propiedades de destino avanzadas para reemplazar el
nombre de la tabla en las propiedades de conexión de Snowflake.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.1.
Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2.1.
Complejidad de la contraseña
A partir de la versión 10.2.1, puede habilitar la complejidad de las contraseñas para validar la seguridad de
las contraseñas. Esta opción está deshabilitada de forma predeterminada.
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.1.
Si ejecuta productos tradicionales y de Big Data en el mismo dominio, deberá dividirlo antes de aplicar el
HotFix. Al dividir el dominio, se crea una copia del mismo, de modo que puede ejecutar productos Big Data y
productos tradicionales en dominios separados. Los nodos de cada máquina en el dominio se duplican.
También se duplican los servicios comunes tanto para los productos tradicionales como para los productos
Big Data. Después de dividir el dominio, podrá actualizar el dominio que ejecute productos de Big Data.
Nota: Aunque la versión 10.2.1 no admita productos tradicionales de Informatica, la documentación contiene
algunas referencias a los servicios de PowerCenter y Metadata Manager.
299
Compatibilidad de distribuciones de Hadoop para Big Data
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2.1:
Big Data 5.10, 5.143 3.6.x 5.111, 5.121, 2.5, 2.6 6.x MEP 5.0.x2
Management 5.13, 5.14, 5.15
Big Data Streaming 5.10, 5.143 3.6.x 5.111, 5.121, 2.5, 2.6 6.x MEP 4.0.x
5.13, 5.14, 5.15
1 La compatibilidad de Big Data Management y Big Data Streaming para CDH 5.11 y 5.12 requiere EBF-11719. Consulte
el artículo de la base de conocimientos (KB) 533310.
2 La compatibilidad de Big Data Management para MapR 6.x con MEP 5.0.x requiere EBF-12085. Consulte el artículo de
la base de conocimientos (KB) 553273.
3 La compatibilidad de Big Data Management y Big Data Streaming con Amazon EMR 5.14 requiere EBF-12444.
Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.
Amazon EMR 5.10, 5.14 Se ha incluido compatibilidad con las versiones 5.10 y 5.14.
Compatibilidad cancelada para la versión 5.8.
Cloudera CDH 5.11, 5.12, 5.13, 5.14, Se ha incluido compatibilidad con las versiones 5.13, 5.14, 5.15.
5.15
MapR 6.x MEP 5.0.x Se ha incluido compatibilidad con las versiones 6.x MEP 5.0.x.
Se ha retirado el soporte para las versiones 5.2 MEP 2.0.x y 5.2 MEP
3.0.x.
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
Para ver una lista de las versiones admitidas, consulte la matriz de disponibilidad de productos en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.
Cloudera CDH 5.11, 5.12, 5.13, 5.14, Se ha incluido compatibilidad con las versiones 5.13, 5.14, 5.15.
5.15
MapR 6.x MEP 4.0.x Se ha incluido soporte para las versiones 6.x MEP 4.0.
Se ha retirado el soporte para las versiones 5.2 MEP 2.0.x y 5.2
MEP 3.0.x.
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.
Asignación
Cuando se ejecuta una asignación en el entorno de Hadoop, se seleccionan los motores de tiempo de
ejecución de Blaze y Spark.
Si selecciona Hive para ejecutar una asignación, el servicio de integración de datos usará Tez. Puede usar el
motor de Tez solo en las siguientes distribuciones de Hadoop:
• Amazon EMR
• Azure HDInsight
• Hortonworks HDP
En una futura versión, cuando Informatica deje de ofrecer compatibilidad con MapReduce, el servicio de
integración de datos no tendrá en cuenta la selección del motor de Hive y ejecutará la asignación en el motor
de Blaze o Spark.
Perfiles
A partir de la versión 10.2.1, ha dejado de usarse el motor de tiempo de ejecución de Hive e Informatica
dejará de ofrecer asistencia para él en una próxima versión.
La opción Hive aparece como Hive (obsoleta) en Informatica Analyst, Informatica Developer y Catalog
Administrator. Si lo desea, aún puede ejecutar perfiles en el motor de Hive. Informatica recomienda elegir la
opción Hadoop para ejecutar los perfiles en el motor Blaze.
Opciones de instalación
Al ejecutar el programa de instalación, se pueden elegir las opciones de instalación que se adapten a sus
necesidades.
La siguiente imagen ilustra las opciones de instalación y las diferentes tareas del programa de instalación
para la versión 10.2.1:
Opciones de actualización
Cuando se ejecuta el programa de instalación, se pueden elegir las opciones y acciones de actualización
según la instalación actual. Cuando se elige el producto que se desea actualizar, el programa de instalación
actualiza los productos principales según sea necesario, e instala o actualiza el producto que se elija.
Por ejemplo, si se selecciona Enterprise Data Catalog, el programa de instalación actualizará el dominio si
este ejecuta una versión anterior. Si Enterprise Data Catalog está instalado, el programa de instalación lo
actualizará. Si Enterprise Data Catalog no está instalado, el programa de instalación lo instalará.
La siguiente imagen ilustra las opciones de actualización y las diferentes tareas del programa de instalación
para la versión 10.2.1:
Nota: Cuando el programa de instalación realiza una actualización, es necesario completar la actualización
de algunos servicios de aplicación en la Herramienta del administrador.
• Crear un servicio del repositorio de modelos de supervisión independiente al instalar los servicios del
dominio de Informatica.
• Ajustar la configuración del servicio de integración de datos y el servicio del repositorio de modelos
según el tamaño de la implementación de Big Data Management.
• Crear una configuración de clúster y las conexiones asociadas requeridas por Enterprise Data Lake.
• Habilitar el servicio de preparación de datos para Enterprise Data Lake.
servicios de aplicación
En esta sección se describen los cambios introducidos en los servicios de aplicación en la versión 10.2.1
Antes, se podía utilizar un servicio del repositorio de modelos para almacenar objetos en tiempo de diseño y
en tiempo de ejecución en el repositorio de modelos.
Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.
Si utiliza un clúster con WASB como almacenamiento, puede obtener la clave de la cuenta de
almacenamiento asociada al clúster de HDInsight del administrador, o puede descifrar la clave de la
cuenta de almacenamiento cifrada y, a continuación, reemplazar el valor descifrado en el archivo core-
site.xml de configuración del clúster.
ADLS
Si utiliza un clúster con ADLS como almacenamiento, debe copiar las credenciales del cliente de la
aplicación web y, a continuación, reemplazar los valores en el archivo core-site.xml de configuración del
clúster.
Antes, los archivos se copiaban del clúster de Hadoop en el equipo que ejecutaba el servicio de integración
de datos.
Las propiedades Nombre de distribución y Versión de distribución se rellenan al importar una configuración
de clúster del clúster. Podrá editar la versión de distribución después de finalizar el proceso de importación.
A partir de la versión 10.2.1, la siguiente propiedad se ha eliminado de las propiedades del servicio de
integración de datos:
Para obtener más información sobre las propiedades del nombre y la versión de la distribución, consulte la
Guía del administrador de Big Data Management 10.2.1.
Configuración de MapR
A partir de la versión 10.2.1, ya no es necesario configurar las propiedades del proceso del servicio de
integración de datos para el dominio cuando se usa Big Data Management con MapR. Big Data Management
admite la autenticación Kerberos sin necesidad de ninguna acción por parte del usuario.
Anteriormente, las propiedades de la opción de JVM se configuraban en las propiedades personalizadas del
servicio de integración de datos, así como las variables de entorno, para habilitar la compatibilidad con la
autenticación Kerberos.
Para obtener más información acerca de cómo integrar el dominio con un clúster de MapR, consulte la Guía
de integración de Hadoop de Big Data Management 10.2.1.
Antes, estos pasos se realizaban manualmente en Developer tool para establecer la comunicación entre el
equipo de Developer tool y el clúster de Hadoop en tiempo de diseño:
El servicio de acceso a metadatos elimina la necesidad de configurar cada equipo de Developer tool para la
conectividad en tiempo de diseño con el clúster de Hadoop.
Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.
En esta sección se enumeran los cambios introducidos en la conexión de Hadoop en la versión 10.2.1.
Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del usuario de
Informatica Big Data Management 10.2.1. Para obtener más información sobre la configuración de Big Data
Management, consulte la Guía de integración de Hadoop de Informatica Big Data Management 10.2.1.
• Nombre de la base de datos. Espacio de nombres para las tablas. Utilice el nombre predeterminado para
tablas que no tienen un nombre de base de datos especificado.
• Propiedades avanzadas de Hive/Hadoop. Configura o reemplaza las propiedades del clúster de Hadoop o
Hive en la configuración de hive-site.xml establecida en el equipo en que se ejecuta el servicio de
integración de datos. Puede especificar varias propiedades.
Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del administrador
de Informatica Big Data Management 10.2.1.
Informatica ha estandarizado los nombres de las propiedades relacionadas con los motores en tiempo de
ejecución. En la tabla siguiente se muestran los nombres antiguos y los nuevos:
Antes, las propiedades avanzadas de los motores en tiempo de ejecución se configuraban en los archivos
hadoopRes.properties o hadoopEnv.properties, o en el campo Propiedades personalizadas del motor
Hadoop en las Propiedades comunes de la Herramienta del administrador.
Propiedad Descripción
Etiqueta del nodo La etiqueta de nodo que determina el nodo del clúster de Hadoop donde se ejecuta el motor
de YARN de Blaze Blaze. Si no se especifica una etiqueta de nodo, el motor Blaze se ejecutará en los nodos de la
partición predeterminada.
Si el clúster de Hadoop admite operadores lógicos para etiquetas de nodo, puede especificar
una lista de etiquetas de nodo. Para enumerar las etiquetas de nodo, utilice los operadores &&
(AND), || (OR) y ! (NOT).
Para obtener más información sobre cómo usar las etiquetas de nodos en el motor Blaze, consulte el
capítulo "Asignación en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management
10.2.1.
Antes, estas propiedades estaban obsoletas. A partir de la versión 10.2.1, están obsoletas.
Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del usuario de
Informatica Big Data Management 10.2.1.
Supervisión
En esta sección se describen los cambios introducidos en la supervisión de Big Data Management en la
versión 10.2.1.
Supervisión de Spark
A partir de la versión 10.2.1, los cambios realizado en la supervisión de Spark están relacionados con las
siguientes áreas:
• Cambios de eventos
• Actualizaciones de la vista Resumen de estadísticas
Cambios de eventos
A partir de la versión 10.2.1, la información de supervisión de los eventos de Spark solo se comprueba en el
registro de sesión.
Antes, los eventos de Spark se retransmitían tal cual de la aplicación Spark al ejecutor de Spark. Cuando los
eventos retransmitidos tardaban demasiado, se producían problemas de rendimiento.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
Antes, solo se podían ver las filas de origen y destino y las filas promedio por cada segundo procesado en la
ejecución de Spark.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
Para obtener más información, consulte el capítulo "Asignaciones en el entorno de Hadoop" de la Guía del
usuario de Informatica Big Data Management 10.2.1.
Sqoop
A partir de la versión 10.2.1, se han aplicado los siguientes cambios a Sqoop:
• Cuando se ejecutan asignaciones de Sqoop en el motor Spark, el servicio de integración de datos imprime
los eventos de registro de Sqoop en el registro de asignaciones. Antes, el servicio de integración de datos
imprimía los eventos de registro de Sqoop en el registro de clústeres de Hadoop.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
• Si se agrega o se elimina un archivo JAR del controlador JDBC de tipo 4 requerido para la conectividad de
Sqoop en el directorio externaljdbcjars, los cambios surtirán efecto después de reiniciar el servicio de
integración de datos. Si se ejecuta la asignación en el motor Blaze, los cambios surtirán efecto después
de reiniciar el servicio de integración de datos y Blaze Grid Manager.
Nota: Al ejecutar la asignación por primera vez, no es necesario reiniciar el servicio de integración de
datos ni Blaze Grid Manager. Solo será necesario reiniciar el servicio de integración de datos y Blaze Grid
Manager para las siguientes ejecuciones de la asignación.
Antes, no era necesario reiniciar el servicio de integración de datos ni Blaze Grid Manager después de
agregar o eliminar un archivo JAR de Sqoop.
Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.1.
Si ejecuta una asignación que contiene una transformación del etiquetador o el analizador que se configuró
para el análisis probabilístico, compruebe la versión de Java de los nodos de Hive.
Nota: En un nodo de Blaze o Spark, el servicio de integración de datos utiliza el kit de desarrollo Java que se
instala con el motor de Informatica. Informatica 10.2.1 se instala con la versión 8 del kit de desarrollo de
Java.
Para obtener más información, consulte la Guía de instalación de Informatica 10.2.1 o la Guía de actualización
de Informatica 10.2.1 que corresponda a la versión de Informatica que actualice.
Las propiedades Nombre de distribución y Versión de distribución se rellenan al importar una configuración
de clúster del clúster. Podrá editar la versión de distribución después de finalizar el proceso de importación.
Para obtener más información sobre las propiedades del nombre y la versión de la distribución, consulte la
Guía del administrador de Informatica Big Data Management 10.2.1.
Los siguientes orígenes y destinos utilizan el servicio de acceso a metadatos en tiempo de diseño para
extraer los metadatos:
• HBase
• HDFS
• Hive
• MapR-DB
• MapRStreams
Antes, estos pasos se realizaban manualmente en cada equipo cliente de Developer tool para establecer la
comunicación entre el equipo de Developer tool y el clúster de Hadoop en tiempo de diseño:
El servicio de acceso a metadatos elimina la necesidad de configurar cada equipo de Developer tool para la
conectividad en tiempo de diseño con el clúster de Hadoop.
Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.
Ahora se puede configurar la versión del agente de Kafka en las propiedades de conexión.
Para obtener más información sobre la conexión de Kafka, consulte el capítulo "Conexiones" en la Guía del
usuario de Informatica Big Data Streaming 10.2.1.
En la siguiente tabla se describen los comandos infacmd ihs que se han cambiado:
Comando Descripción
En la siguiente tabla se describen los comandos infacmd ldm que se han cambiado:
Antes, se utilizaba el instalador de contenido para extraer y copiar los archivos en los directorios de
Informatica.
Para obtener más información acerca de la asignación de atributos personalizados, consulte la Guía del
administrador de Informatica Catalog 10.2.1 y la Guía del usuario de Informatica Enterprise Data Catalog
10.2.1.
Asignación de conexión
A partir de la versión 10.2.1, se puede asignar una base de datos a la conexión de un recurso de
PowerCenter.
Para obtener más información sobre la asignación de conexiones, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
Similitud de columnas
A partir de la versión 10.2.1, se pueden detectar columnas similares según los nombres de columna, los
patrones de columna, los valores únicos y las frecuencias de valor de un recurso.
Antes, el recurso del sistema Detección de similitud identificaba las columnas similares en los datos de
origen.
Para obtener más información sobre la similitud de columnas, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise Data
Catalog 10.2.1.
• Hortonworks
• IBM BigInsights
• Azure HDInsight
• Amazon EMR
Recursos de Hive
A partir de la versión 10.2.1, cuando se crea un recurso de Hive y se elige Hive como la opción para Ejecutar
en, es necesario seleccionar una conexión de Hadoop para ejecutar el escáner de perfiles en el motor de
Hive.
Antes no se necesitaba una conexión de Hadoop para ejecutar el escáner de perfiles en los recursos de Hive.
Para obtener más información acerca de los recursos de Hive, consulte la Guía del administrador de
Informatica Catalog 10.2.1.
Resumen Tabulador
A partir de la versión 10.2.1, la vista Detalles del activo se titula Descripción general en Enterprise Data
Catalog.
Ahora se pueden ver los detalles de un activo en la ficha Descripción general. La ficha Descripción general
incluye diferentes secciones, como la descripción del origen, la descripción, las personas, los términos
empresariales, las clasificaciones empresariales, las propiedades del sistema y otras propiedades. Las
secciones que muestra la ficha Descripción general dependen del tipo de activo.
Para obtener más información acerca de la descripción general de los activos, consulte el capítulo "Ver
activos" de la Guía del usuario de Informatica Enterprise Data Catalog 10.2.1.
• El nombre del producto se ha cambiado por Informatica Enterprise Data Catalog. Anteriormente, el
nombre del producto era Enterprise Information Catalog.
• El nombre del programa de instalación se ha cambiado por Enterprise Data Catalog. Anteriormente, el
nombre del programa de instalación era Enterprise Information Catalog.
Antes, se podían agregar reglas de proximidad a un dominio de datos que tenía una regla de datos. Si los
dominios de datos no se encontraban en las tablas de origen, el porcentaje de conformidad de datos del
dominio de datos se reducía en las tablas de origen según el valor especificado.
Para obtener más información acerca de los dominios de datos de proximidad, consulte la Guía del
administrador de Informatica Catalog 10.2.1.
• Ahora puede ordenar los resultados de búsqueda según en el nombre y la relevancia del activo. Antes, los
resultados de búsqueda se ordenaban según el nombre, la relevancia, los atributos del sistema y los
atributos personalizados del activo.
• Ahora puede agregar un título empresarial a un activo desde los resultados de búsqueda. Antes, solo se
podría asociar un término empresarial.
• La página de resultados de búsqueda ahora muestra los detalles de los activos, tales como el nombre del
recurso, la descripción del origen, la descripción, la ruta de acceso al activo y el tipo de activo. Antes, solo
se podían ver detalles como el tipo de activo, el tipo de recurso, la fecha en que se actualizó por última
vez el activo y el tamaño del activo.
Para obtener más información sobre los resultados de búsqueda, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.
Antes, solo los recursos que se ejecutaban en Microsoft Windows requerían que el agente de catálogo
estuviera activo y en ejecución.
Para obtener más información, consulte la Guía del administrador de Informatica Catalog 10.2.1.
Informatica Analyst
En esta sección se describen los cambios introducidos en la Herramienta del analista en la versión 10.2.1.
Cuadros de mando
Esta sección describe los cambios que se han realizado en el comportamiento del cuadro de mando en la
versión 10.2.1.
Antes, las métricas y los grupos de métricas se podían ver y editar al agregar las columnas a un cuadro de
mando existente.
Para obtener más información acerca de los cuadros de mando, consulte la Guía de detección de datos de
Informatica 10.2.1.
Antes, solo se podían configurar valores enteros como valores de umbral para una métrica.
Informatica Developer
En esta sección se describen los cambios introducidos en Developer tool en la versión 10.2.1.
Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la versión
10.2.1.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.11.0 del motor de software Informatica Address
Verification.
Reino Unido
A partir de noviembre de 2017, Informatica dejará de proporcionar archivos de datos de referencia que
contengan los nombres y las direcciones de empresas en el Reino Unido. Informatica dejará de dar soporte a
la verificación de los nombres y las direcciones de empresas.
Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2.1, consulte la Guía de desarrollador de
Informatica Address Verification 5.12.0.
Data Transformation
En esta sección se describen los cambios que se han realizado en la transformación del procesador de datos
en la versión 10.2.1.
A partir de 10.2.1, la transformación del procesador de datos realiza una validación estricta para la entrada
jerárquica. Cuando se aplica una validación estricta, el archivo de entrada jerárquica debe ajustarse
Esta opción no se aplica a las asignaciones con entrada JSON de las versiones anteriores a 10.2.1.
Para obtener más información, consulte la Guía del usuario de Data Transformation 10.2.1.
Si se actualiza desde una versión anterior, la propiedad Conservar orden de las filas de las transformaciones
del generador de secuencias del repositorio no cambiará.
Para obtener más información, consulte el capítulo "Transformación del generador de secuencias" de la Guía
de transformaciones de Informatica Developer 10.2.1.
Transformación de ordenación
En esta sección se describen los cambios en la transformación de ordenación de la versión 10.2.1.
Cachés de ordenación
A partir de la versión 10.2.1, la caché de ordenación de la transformación de ordenación utiliza la longitud
variable para almacenar datos con un tamaño de hasta 8 MB en el entorno nativo y en el motor Blaze en el
entorno de Hadoop.
Antes, la caché de ordenación utilizaba la longitud variable para almacenar datos con un tamaño de hasta 64
KB. Para los datos que superaban los 64 KB, la caché de ordenación almacenaba los datos utilizando la
longitud fija.
Rendimiento de ordenación
A partir de la versión 10.2.1, la transformación de ordenación se optimiza para realizar comparaciones de
claves de ordenación más rápidas para los datos con un tamaño de hasta 8 MB.
Antes, la transformación de ordenación realizaba comparaciones de claves de ordenación más rápidas para
los datos con un tamaño de hasta 64 KB. Para los datos que superaban los 64 KB, la tasa de comparación de
claves de ordenación no se optimizaba.
Antes, era necesario realizar las tareas de los requisitos previos manualmente y reiniciar el servicio de
integración de datos antes de utilizar PowerExchange for Amazon Redshift.
• El nombre y el directorio del archivo del controlador ODBC de Informatica PowerExchange for Cassandra
han cambiado.
En la tabla siguiente se muestran el nombre de archivo y el directorio de archivos del controlador ODBC
de Cassandra basados en los sistemas operativos Linux y Windows:
En los sistemas operativos Linux, se debe actualizar el valor de la propiedad Controlador a <directorio
de instalación de Informatica>\tools\cassandra\lib\libcassandraodbc_sb64.so para los orígenes
de datos de Cassandra existentes en el archivo odbc.ini.
En Windows, se deben actualizar las siguientes propiedades en el registro de Windows para el nombre de
origen de datos de Cassandra existente:
Driver=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Setup=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Para obtener más información, consulte la Guía del usuario de PowerExchange for Cassandra de Informatica
10.2.1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.1.
319
Parte VII: Versión 10.2 a
10.2 HotFix 2
Esta parte incluye los siguientes capítulos:
320
Capítulo 28
Avisos importantes
En esta sección se describen los avisos importantes en la versión 10.2 HotFix 2.
Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2 HotFix 2.
Big Data Management, Big Data Streaming, Big Data Quality y PowerCenter admiten las siguientes
distribuciones de Hadoop:
• Amazon EMR
• Azure HDInsight
• Cloudera CDH
• Hortonworks HDP
• MapR
En cada versión, Informatica puede añadir, aplazar y dejar de brindar compatibilidad para las distribuciones
no nativas y las versiones de las distribuciones. Informatica podría restablecer la compatibilidad con
versiones aplazadas en una próxima versión. Para ver una lista de las últimas versiones compatibles,
consulte la matriz de disponibilidad de los productos en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices
321
OpenJDK
A partir de la versión 10.2 HotFix 2, el programa de instalación de Informatica incluye OpenJDK (AzulJDK). La
versión de Java compatible es Azul OpenJDK 1.8.192.
Las asignaciones de Sqoop en el motor de Spark no usan el Azul OpenJDK que se incluye con el programa de
instalación de Informatica. Las asignaciones de Sqoop en los motores de Spark y Blaze siguen usando la
propiedad infapdo.env.entry.hadoop_node_jdk_home del archivo hadoopEnv.properties.
HADOOP_NODE_JDK_HOME representa el directorio desde el cual se ejecutan los servicios de clúster y la versión
de JDK que utilizan los nodos del clúster.
Anteriormente, el programa de instalación usaba el Oracle Java que se incluía con el programa de
instalación.
Cuando utiliza una conexión ODBC para conectarse a Microsoft SQL Server, puede utilizar el protocolo de
transferencia del servidor SQL de DataDirect 8.0 que se incluye con el programa de instalación de
Informatica o cualquier otro controlador ODBC de un proveedor de terceros.
Las asignaciones existentes que utilizan las bibliotecas RFC SDK 7.20 de SAP NetWeaver no generarán
ningún error. Sin embargo, Informatica recomienda descargar e instalar las bibliotecas RFC SDK 7.50 de SAP
NetWeaver.
Nuevos productos
A partir de la versión 10.2 HotFix 2, puede usar la conexión de Tableau V3 para leer datos de varios
orígenes, generar un archivo de salida .hyper de Tableau y escribir los datos en Tableau.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Tableau
V3 10.2 HotFix 2 para PowerCenter.
Tareas de la versión
Para ejecutar las asignaciones de Snowflake existentes desde Developer tool, debe eliminar la versión 3.6.26
del controlador JDBC de Snowflake y conservar únicamente la versión 3.6.4 en el siguiente directorio del
equipo del servicio de integración de datos: <directorio de instalación de Informatica>\connectors
\thirdparty
Para ejecutar asignaciones existentes de Google BigQuery en el cliente de PowerCenter y permitir las
propiedades Consulta personalizada, Reemplazo de SQL y Carácter de comillas, debe volver a registrar el
complemento bigqueryPlugin.xml en el repositorio de PowerCenter.
Novedades
Comandos pmrep
Puede utilizar la opción -S de los comandos pmrep createconnection y pmrep updateconnection con el
argumento odbc_subtype para habilitar la opción del subtipo ODBC cuando se crea o se actualiza una
conexión ODBC.
Novedades 323
En la siguiente tabla se describe la nueva opción de los comandos pmrep createconnection y pmrep
updateconnection:
Para obtener más información, consulte el capítulo "Referencia de comando pmrep" de la Referencia de
comandos de Informatica 10.2 HotFix 2.
Informatica Analyst
En esta sección se describen las nuevas características de la herramienta del analista en la versión 10.2
HotFix 2.
Cuadros de mando
A partir de la versión 10.2 HotFix 2, puede introducir el número de filas no válidas que quiere exportar a partir
de un gráfico de tendencias de cuadros de mando.
Para obtener más información, consulte el capítulo sobre cuadros de mando en Informatica Analyst en la
Guía de detección de datos de Informatica 10.2 HotFix 2.
Transformaciones de Informatica
En esta sección se describen las nuevas características de las transformaciones de Informatica en la versión
10.2 HotFix 2.
Australia
A partir de la versión 10.2 HotFix 2, puede configurar la transformación del validador de direcciones para que
agregue enriquecimientos de direcciones a direcciones de Australia. Los enriquecimientos sirven para
detectar los sectores geográficos y las regiones a las que el Australia Bureau of Statistics asigna las
direcciones. Los sectores y las regiones incluyen distritos de realización de censo, bloques de malla y áreas
estadísticas.
Israel
A partir de la versión 10.2 HotFix 2, Informatica presenta las siguientes características y mejoras para Israel:
Puede configurar la transformación del validador de direcciones para devolver una dirección de Israel en
idioma inglés o hebreo.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación.
El idioma predeterminado para las direcciones de Israel es el hebreo. Para devolver la información de
dirección en hebreo, establezca la propiedad Idioma preferido en DATABASE o ALTERNATIVE_1. Para
devolver la información de dirección en inglés, establezca la propiedad en ENGLISH o ALTERNATIVE_2.
La transformación del validador de direcciones puede leer y escribir direcciones de Israel en conjuntos
de caracteres en hebreo y latín.
El conjunto de caracteres predeterminado para las direcciones de Israel es Hebreo. Cuando la propiedad
del script preferido se establece en Latin o Latin-1, la transformación transcribe datos de direcciones en
hebreo en caracteres en latín.
Estados Unidos
A partir de la versión 10.2 HotFix 2, Informatica presenta las siguientes características y mejoras para
Estados Unidos:
Novedades 325
Información adicional sobre correos no entregados
Puede configurar la transformación del validador de direcciones para que informe por qué el servicio
postal de Estados Unidos no ha entregado un correo a una dirección que parece ser válida.
El servicio postal de Estados Unidos podría no entregar un correo en una dirección por uno de los
siguientes motivos:
El servicio postal de Estados Unidos mantiene una tabla de direcciones que no admiten la entrega de
correo. Esta tabla se denomina la tabla Sin estadísticas. Para devolver un código que indica por qué
motivo el servicio postal de Estados Unidos añade la dirección a esta tabla, seleccione el puerto Archivo
de secuencia de entrega, segunda generación sin razón de estadísticas. Encuentre el puerto en el grupo
de puertos Específico de EE. UU. en el modelo básico.
La transformación lee los datos de la tabla Sin estadísticas en el archivo de base de datos USA5C131.MD.
Mejor corrección de las direcciones con caracteres iniciales que indican el número de casa
Puede configurar la transformación del validador de direcciones para identificar una dirección de calle
válida que incluye un valor de número de casa con un carácter alfabético inicial no reconocible. Si la
dirección puede generar un punto de entrega válido sin el carácter inicial, la transformación devuelve el
valor TA en los puertos Nota de validación del punto de entrega.
Información sobre las direcciones de calles que reenvían el correo a un buzón postal
Puede configurar la transformación del validador de direcciones para identificar una dirección de calle
en la que el servicio postal de Estados Unidos redirige el correo a un buzón postal. Para identificar la
dirección, seleccione el puerto Confirmación de validación del punto de entrega. Encuentre el puerto en
el grupo de puertos Específico de EE. UU. en el modelo básico.
Información sobre las direcciones que no pueden aceptar correo en uno o varios días de la semana
Puede configurar la transformación del validador de direcciones para identificar direcciones de Estados
Unidos que no reciben correo en uno o varios días de la semana.
Para identificar las direcciones, use el puerto Días de no entrega. El puerto contiene una cadena de siete
dígitos que representa los días de la semana de domingo a sábado. Cada posición de la cadena
representa un día diferente.
Encuentre el puerto Días de no entrega en el grupo de puertos Específico de EE. UU. en el modelo
básico. Para recibir datos en el puerto Días de no entrega, ejecute una transformación del validador de
direcciones en modo certificado. La transformación lee los valores del puerto en los archivos de base de
datos USA5C129.MD y USA5C130.MD.
Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 2.
Para obtener información completa acerca de las características y las operaciones de la versión 10.2 HotFix
2 del motor de software de verificación de direcciones, consulte la Guía de desarrollador de Informatica
Address Verification 5.14.0.
Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager en la versión 10.2 HotFix 2.
Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.
MicroStrategy
A partir de la versión 10.2 HotFix 2, puede configurar la propiedad de configuración Varios para un recurso
de MicroStrategy: Con la propiedad de configuración Varios, especifique varias opciones de distinto tipo
separadas por comas.
Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.
PowerCenter
En esta sección se describen las nuevas características de PowerCenter en la versión 10.2 HotFix 2.
Para obtener más información sobre las transformaciones y las funciones compatibles que puede insertar en
la base de datos de PostgreSQL, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter
10.2 HotFix 2.
Si desea más información sobre las funciones personalizadas, consulte la referencia de idiomas de
transformaciones de Informatica PowerCenter 10.2 HotFix 2.
Novedades 327
Adaptadores de PowerExchange para PowerCenter
En esta sección se describen las nuevas características del adaptador de PowerCenter que se han
introducido en la versión 10.2 HotFix 2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 2 para PowerCenter.
• Puede configurar una consulta SQL personalizada para configurar un origen de Google BigQuery.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada que se
utiliza para extraer datos del origen de Google BigQuery.
• Puede especificar un carácter de comillas que defina los límites de las cadenas de texto en un
archivo .csv. Los parámetros se pueden configurar como una comilla simple o doble.
• Puede configurar la optimización de inserciones completa para insertar la lógica de transformación en
Google BigQuery cuando use el tipo de conexión de ODBC.
Para obtener información acerca de los operadores y las funciones que puede insertar el servicio de
integración de PowerCenter en Google BigQuery, consulte la Guía de flujo de trabajo avanzado de
Informatica PowerCenter 10.2 HotFix 2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2 HotFix 2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.2
HotFix 2 para PowerCenter.
• First()
• Instr()
• Last()
• MD5()
• ReplaceChr()
• ReplaceStr()
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse V310.2 HotFix 2 para PowerCenter.
• Puede utilizar la versión 43.0, 44.0 y 45.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede habilitar la fragmentación de claves principales para consultas sobre un objeto compartido que
representa una entrada que se comparte en el objeto de destino. La fragmentación de claves principales
solo es compatible con los objetos compartidos si el objeto principal es compatible. Por ejemplo, si
quiere consultar sobre CaseHistory, la fragmentación de claves principales debe ser compatible con el
objeto principal Case.
• Puede crear reglas de asignaciones para volver a asignar atributos en registros cuando se insertan,
actualizan o se actualizan e insertan registros para los objetos de destino Lead y Case que utilizan la API
estándar.
• Puede parametrizar la URL del servicio de Salesforce para la conexión OAuth y estándar.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 2 para PowerCenter.
Novedades 329
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 2 para PowerCenter.
Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2 HotFix 2.
Para obtener más información, consulte la Guía de seguridad de Informatica 10.2 HotFix 2.
Cambios
Vista predeterminada
A partir de la versión 10.2 Hotfix 2, la vista predeterminada del archivo sin formato y los objetos de tabla es
la ficha Propiedades. Cuando se crea o se abre un archivo sin formato o un objeto de datos de tabla, el
objeto se abre en la ficha Propiedades. Anteriormente, la vista predeterminada era la ficha Visor de datos.
Para obtener más información, consulte la Guía de la herramienta del analista de Informatica 10.2 HotFix 2.
Cuadros de mando
A partir de la versión 10.2 HotFix 2, se puede exportar un máximo de 100 000 filas no válidas. Cuando se
exportan más de 100 filas no válidas para una medida, el servicio de integración de datos crea una carpeta
para el cuadro de mando, una subcarpeta para la medida y archivos de Microsoft Excel para exportar el resto
de filas no válidas.
Para obtener más información, consulte el capítulo "Cuadros de mando" en la Guía de detección de datos de
Informatica 10.2 HotFix 2.
Comandos de infasetup
A partir de la versión 10.2 HotFix 2, se han modificado los valores válidos de las opciones -srn y -urn que se
utilizan en los comandos de infasetup.
Si configura un dominio para utilizar la autenticación Kerberos, los valores de las opciones -srn y -urn no
tienen que ser idénticos. Si configura un dominio para utilizar la autenticación cruzada entre dominios
Anteriormente, se podía especificar el mismo nombre de dominio Kerberos como el valor para las opciones -
srn y -urn.
Para obtener más información, consulte la Referencia de comando de Informatica 10.2 HotFix 2.
Transformaciones de Informatica
En esta sección se describen los cambios realizados en las transformaciones de Informatica en la versión
10.2 HotFix 2.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.13.0 del motor de software Informatica Address
Verification.
Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 2.
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.14.0.
Metadata Manager
SAP Business Warehouse (obsoleto)
A partir de la versión 10.2 HotFix 2, Informatica ha dejado de utilizar el recurso SAP Business Warehouse en
Metadata Manager.
Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.
Cambios 331
PowerCenter
En esta sección se describen los cambios de PowerCenter que se han introducido en la versión 10.2 HotFix
2.
Para usar el editor del esquema en un equipo con Windows, aplique Informatica EBF-13871.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB 10.2
HotFix 2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
Analytics 10.2 HotFix 2 para PowerCenter.
Anteriormente, PowerExchange for Google Cloud Spanner tenía un programa de instalación independiente.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Spanner 10.2 HotFix 2 para PowerCenter.
Anteriormente, PowerExchange for Google Cloud Spanner tenía un programa de instalación independiente.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.2
HotFix 2 para PowerCenter.
Para usar el editor del esquema en un equipo con Windows, aplique Informatica EBF-13871.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB 10.2
HotFix 2 para PowerCenter.
Anteriormente, los valores nulos del origen se trataban como falsos en el destino.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 2 para PowerCenter.
• Puede reemplazar el nombre del esquema y la base de datos que se utiliza al importar las tablas a través
de la conexión de Snowflake. Para reemplazar, introduzca el nombre del esquema y la base de datos en el
campo Parámetros JDBC de URL adicionales en las propiedades de conexión de Snowflake en el
siguiente formato: DB=<nombre_BD>&Schema=<nombre_esquema>
Anteriormente, solo se podía especificar un reemplazo para el nombre del esquema y la base de datos en
las propiedades de la sesión.
• Puede leer o escribir datos que distingan mayúsculas de minúsculas o que contengan caracteres
especiales. No puede usar los siguientes caracteres especiales: @ ~ \
Anteriormente, tenía que asegurarse de que los nombres de las tablas de origen y destino contenían solo
letras mayúsculas.
• PowerExchange for Snowflake utiliza la versión 3.6.26 del controlador JDBC de Snowflake.
Anteriormente, PowerExchange for Snowflake utilizaba la versión 3.6.4 del controlador JDBC de
Snowflake.
• Cuando ejecuta una consulta personalizada para leer datos en Snowflake, el servicio de integración
ejecuta la consulta, y el rendimiento de la importación de metadatos se optimiza.
Anteriormente, cuando se configuraba una consulta personalizada para leer datos en Snowflake, el
servicio de integración enviaba una consulta al punto final de Snowflake y el número de registros que se
importaban se limitaba a 10.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 2 para PowerCenter.
Cambios 333
PowerExchange para la API del transportador paralelo de Teradata
A partir de la versión 10.2 HotFix 2, puede ejecutar una asignación ODBC de Teradata en el equipo con AIX.
Debe instalar la versión 16.20.00.50 o posterior del controlador ODBC de Teradata cuando utilice la versión
16.20.x del cliente de Teradata.
Anteriormente, no se podía ejecutar una asignación ODBC de Teradata en el equipo con AIX cuando se
utilizaban versiones anteriores a 16.20.00.50 del controlador ODBC de Teradata.
• Novedades, 335
• Cambios, 347
• Tareas de la versión, 354
Novedades
servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2
HotFix 1.
Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2 HotFix 1.
Business Glossary
En esta sección se describen las nuevas características de Business Glossary en la versión 10.2 HotFix 1.
Para obtener más información sobre la exportación y la importación de activos del glosario, consulte el
capítulo "Administración de glosarios" en la Guía de Informatica Business Glossary 10.2 HotFix 1.
335
Programas de la línea de comandos
En esta sección se describen los nuevos comandos de la versión 10.2 HotFix 1.
Comando Descripción
PingDomain Hace ping a un dominio, servicio, host de puerta de enlace del dominio o nodo.
ListWeakPasswordUsers Enumera los usuarios con contraseñas que no cumplen la directiva de contraseñas.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd isp" en la Referencia de
comandos de Informatica 10.2 HotFix 1.
Comando Descripción
pruneOldInstances Elimina los datos del proceso de flujo de trabajo de la base de datos de flujos de trabajo.
Para eliminar los datos del proceso, debe tener el privilegio de administración de servicios en el dominio.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.1.
Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.2 HotFix 1.
• Conexión de Oracle para conectar con Oracle Autonomous Data Warehouse Cloud versión 18C
• Conexión de Oracle para conectar con Oracle Database Cloud Service versión 12C
• Conexión de Microsoft SQL Server para conectar con Azure SQL Database
• Conexión de IBM DB2 para conectar con DashDB
Para obtener más información, consulte la Guía de instalación y configuración de Informatica 10.2 HotFix 1.
Tipos de datos
En esta sección se describen las nuevas características de tipo de datos de la versión 10.2 HotFix 1.
Para obtener más información, consulte el apéndice Referencia de tipo de datos en la Guía de Informatica
Developer Tool 10.2 HotFix 1
Programa de instalación
En esta sección se describe la nueva característica del programa de instalación de la versión 10.2 HotFix 1.
Utilidad Docker
A partir de la versión 10.2 HotFix 1, puede usar la utilidad Informatica PowerCenter Docker para crear
servicios de dominio de Informatica. Puede crear la imagen de Informatica Docker con el sistema operativo
base y los archivos binarios de Informatica, y ejecutar la imagen existente de Docker para crear el dominio de
Informatica dentro de un contenedor.
Para obtener más información acerca de la instalación de la utilidad Informatica PowerCenter Docker para
crear los servicios de dominio de Informatica, consulte
https://kb.informatica.com/h2l/HowTo%20Library/1/1213-InstallInformaticaUsingDockerUtility-H2L.pdf.
Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión 10.2
HotFix 1.
La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:
En las versiones anteriores, la transformación admitía la verificación de direcciones de una sola línea de 26
países.
Para verificar una dirección de una sola línea, introduzca la dirección en el puerto Dirección completa. Si la
dirección identifica un país para el que el alfabeto predeterminado preferido no es un alfabeto latino u
occidental, use la propiedad predeterminada Alfabeto preferido en la transformación con la dirección.
Novedades 337
• La transformación considera ß y ẞ como caracteres igualmente válidos en una dirección. En las
coincidencias de datos de referencia, la transformación puede identificar una coincidencia perfecta
cuando los mismos valores contienen ß o ẞ.
• La transformación considera ẞ y ss como caracteres igualmente válidos en una dirección. En las
coincidencias de datos de referencia, la transformación puede identificar una coincidencia estándar
cuando los valores contienen ẞ o ss.
• Si se establece la propiedad Alfabeto preferido como ASCII_SIMPLIFIED, la transformación devolverá el
carácter alemán ẞ como S.
• Si se establece la propiedad Alfabeto preferido como ASCII_EXTENDED, la transformación devolverá el
carácter ẞ como SS.
Bolivia
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones mejora el análisis y la
validación de las direcciones de Bolivia. Además, Informatica actualiza los datos de referencia de Bolivia.
Canadá
Informatica introduce las siguientes características y mejoras para Canadá:
A partir de la versión 10.2 HotFix 1, puede configurar la transformación para que devuelva la forma corta
o la forma larga de un descriptor de elementos.
La verificación de direcciones puede devolver la forma corta o larga de los siguientes descriptores:
• Descriptores de calle
• Valores direccionales
• Descriptores de edificios
• Descriptores de elementos por debajo del nivel de edificio
Para especificar el formato de salida de los descriptores, configure la propiedad Descriptor global
preferido en la transformación. La propiedad se aplica a los descriptores de los idiomas inglés y francés.
De forma predeterminada, la transformación devuelve el descriptor en el formato que especifiquen los
datos de referencia. Si selecciona la opción PRESERVE INPUT en la propiedad, la propiedad Alfabeto
preferido tendrá prioridad sobre la propiedad Descriptor global preferido.
Compatibilidad de CH y CHAMBER como descriptores de elementos por debajo del nivel de edificio
Colombia
A partir de la versión 10.2 HotFix1, la transformación del validador de direcciones mejora el procesamiento
de los datos de calles en las direcciones de Colombia. Además, Informatica actualiza los datos de referencia
de Colombia.
La transformación del validador de direcciones valida las direcciones en Colombia a nivel de número de
casa. La transformación puede verificar una dirección de Colombia que incluya información de la calle en la
que se encuentra la casa, así como la calle transversal más cercana a la casa.
• La transformación del validador de direcciones puede verificar la dirección tanto con el descriptor de calle
transversal DIAGONAL como sin él.
• La transformación puede verificar la dirección con y sin el símbolo de guion entre el número de la calle
transversal y el número de la casa. La transformación no incluye un símbolo de guion en esta posición en
la dirección de salida.
• La transformación puede reconocer el símbolo de número (#) antes del número de calle transversal en
una dirección de entrada. La transformación reconoce la dirección como coincidencia de datos de
referencia, no como una corrección.
Por ejemplo, la validación de direcciones reconoce la siguiente dirección de entrada como coincidencia
de datos de referencia y omite el símbolo # en la dirección de salida verificada:
AVENIDA 31 #65 29 APTO 1626
Francia
A partir de la versión 10.2 HotFix 1, Informatica introduce las siguientes mejoras para las direcciones de
Francia:
India
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones valida las direcciones de
India a nivel de número de casa.
Perú
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones valida las direcciones de
Perú a nivel de número de casa. Además, Informatica actualiza los datos de referencia de Perú.
Sudáfrica
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones mejora el análisis y la
verificación de los descriptores de servicio de entrega de las direcciones de Sudáfrica.
• Address Verification reconoce el buzón privado, el conjunto de buzones, el buzón de la oficina de correos
y la suite de Postnet como diferentes tipos de servicio de entrega. Address Verification no estandariza un
descriptor de servicio de entrega como otro. Por ejemplo, Address Verification no estandariza la Suite de
Postnet como el buzón de la oficina de correos.
• Address Verification analiza el cuadro de Postnet como un descriptor de servicio de entrega no estándar y
corrige el cuadro de Postnet con el descriptor válido de la Suite de Postnet.
• Address Verification no estandariza el descriptor de subedificio Flat como Fl.
Novedades 339
Corea del Sur
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones introduce las siguientes
características y mejoras para Corea del Sur:
• Los datos de referencia de las direcciones de Corea del Sur incluyen la información de edificio. La
transformación puede leer, verificar y corregir la información de edificio de una dirección de Corea del
Sur.
• La transformación devuelve todas las direcciones actuales de una propiedad que representa una
dirección anterior. La dirección anterior puede representar una sola dirección actual o varias direcciones,
por ejemplo si hay varias residencias que ocupan el sitio de la propiedad.
Para devolver las direcciones actuales, primero debe buscar el identificador de dirección de la propiedad
anterior. Si envía el identificador de dirección con el carácter A al final en el modo de búsqueda de código
de dirección, la transformación devolverá todas las direcciones actuales que coincidan con el
identificador de dirección.
Nota: La transformación del validador de direcciones utiliza la propiedad Recuento máximo de resultados
para determinar el número máximo de direcciones que se devolverán para el identificador de dirección
que se especifique. La propiedad Exceso de recuento indica si la base de datos contiene direcciones
adicionales para el identificador de dirección.
Suecia
A partir de la versión 10.2 HotFix1, la transformación del validador de direcciones mejora la verificación de
los nombres de calles en las direcciones de Suecia.
• La transformación puede reconocer un nombre de calle que termine con el carácter G como alias del
mismo nombre con los caracteres finales GATAN.
• La transformación puede reconocer un nombre de calle que termine con el carácter V como alias del
mismo nombre con los caracteres finales VÄGEN.
• La transformación del validador de direcciones puede reconocer y corregir el nombre de una calle con un
descriptor incorrecto cuando se usan la forma larga o la forma corta del descriptor.
Por ejemplo, la transformación puede corregir RUNIUSV o RUNIUSVÄGEN como RUNIUSGATAN en la
siguiente dirección:
RUNIUSGATAN 7
SE-112 55 STOCKHOLM
Tailandia
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones introduce las siguientes
características y mejoras para Tailandia:
La transformación del validador de direcciones puede leer y escribir direcciones de Tailandia en alfabeto
latino y tailandés nativo. Informatica actualiza los datos de referencia de Tailandia y agrega los datos de
referencia al alfabeto tailandés nativo.
Nota: Si se verifican las direcciones de Tailandia, no se deben instalar los dos tipos de base de datos.
Acepte la opción predeterminada de la propiedad Alfabeto preferido.
Reino Unido
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones puede devolver nombres
de territorios de Reino Unido.
La transformación devuelve el nombre del territorio en el elemento Country_2 y devuelve el nombre de país
en el elemento Country_1. Puede configurar una dirección de salida con ambos elementos o puede omitir el
elemento Country_1 si envía correo en el Reino Unido. El nombre del territorio aparece encima del código
postal en las direcciones del Reino Unido en los sobres o las etiquetas.
Para devolver el nombre de territorio, instale los datos de referencia actuales del Reino Unido.
Estados Unidos
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones puede reconocer hasta
tres niveles de elementos por debajo del nivel de edificio en las direcciones de Estados Unidos.
De conformidad con los requisitos del servicio postal de Estados Unidos, la transformación hace coincidir la
información de un solo elemento por debajo del nivel de edificio con los datos de referencia. Si la
información de Sub-building_1 no coincide, la transformación comparará la información de Sub-building_2. Si
la información de Sub-building_2 no coincide, la transformación comparará la información de Sub-building_3.
La transformación copiará la información de elementos por debajo del nivel de edificio que no coincida de la
dirección de entrada en la dirección de salida.
Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2 HotFix 1, consulte la Guía de
desarrollador de Informatica Address Verification 5.13.0.
Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager en la versión 10.2 HotFix 1.
Para obtener más información, consulte el capítulo "Autenticación de SAML para aplicaciones web de
Informatica" en la Guía de seguridad de Informatica 10.2 HotFix 1.
Novedades 341
Omitir el linaje durante las operaciones de copia de seguridad o restauración
del repositorio de Metadata Manager
A partir de la versión 10.2 HotFix 1, use la opción [<-sl|--skipLineage> skipLineage] de los comandos
backupRepository y restoreRepository para omitir el linaje durante las operaciones de copia de seguridad
y restauración del repositorio de Metadata Manager.
Para obtener más información, consulte la Guía de referencia de comandos de Metadata Manager de
Informatica 10.2 HotFix 1.
PowerCenter
En esta sección se describen las nuevas características de PowerCenter en la versión 10.2 HotFix 1.
Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2
HotFix 1.
Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2
HotFix 1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2 HotFix 1.
• Puede configurar la creación de particiones del rango de claves al leer datos de los objetos de Microsoft
Azure SQL Data Warehouse.
• Puede reemplazar la consulta SQL y definir restricciones al leer datos de un objeto de Microsoft Azure
SQL Data Warehouse.
• Puede configurar consultas de pre-SQL y post-SQL para los objetos de origen y destino de una asignación.
• Puede configurar el filtro de expresiones nativas para la operación del objeto de datos de origen.
• Puede realizar operaciones de actualización, upsert y eliminación en las tablas de Microsoft Azure SQL
Data Warehouse.
• Puede configurar una operación de búsqueda no almacenada en caché en el entorno nativo.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2 HotFix 1.
Cuando configure las asignaciones dinámicas, también podrá crear o reemplazar el destino en tiempo de
ejecución. Puede seleccionar la opción para crear o reemplazar tabla en tiempo de ejecución en las
propiedades avanzadas de la operación de escritura del objeto de datos de Netezza.
Cuando configure las asignaciones dinámicas, también podrá crear o reemplazar el destino de Teradata en
tiempo de ejecución. Puede seleccionar la opción para crear o reemplazar tabla en tiempo de ejecución en
las propiedades avanzadas de la operación de escritura del objeto de datos de Teradata.
Novedades 343
PowerExchange for Amazon Redshift
A partir de la versión 10.2 HotFix 1, PowerExchange for Amazon Redshift incluye estas nuevas
características:
• Además de las regiones existentes, también puede leer datos o escribir datos en la región de AWS
GovCloud.
• Puede especificar el tamaño de las partes de un objeto para descargarlo desde Amazon S3 en varias
partes.
• Puede cifrar datos mientras captura el archivo de Amazon Redshift mediante las claves de cifrado
administradas por AWS o la clave maestra del cliente administrada por AWS KMS para el cifrado en el
servidor.
• Puede proporcionar el número de archivos para calcular el número de archivos de almacenamiento
provisional para cada lote. Si no proporciona el número de archivos, PowerExchange for Amazon Redshift
calcula el número de archivos de almacenamiento provisional.
• Puede usar la opción TRUNCATECOLUMNS en el comando copy para truncar los datos de las columnas
de tipos de datos VARCHAR y CHAR antes de escribir los datos en el destino.
• PowerExchange for Amazon Redshift admite las versiones 11 y 12 del sistema operativo SuSe Linux
Enterprise Server.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 1 para PowerCenter.
• Además de las regiones existentes, también puede leer datos o escribir datos en la región de AWS
GovCloud.
• Puede especificar la línea que desea utilizar como encabezado cuando lee datos de Amazon S3. Puede
especificar el número de línea en la propiedad Número de línea de encabezado en las propiedades de la
sesión de origen.
• Puede especificar el número de línea desde el que desea que el servicio de integración de PowerCenter
empiece a leer los datos. Puede configurar la propiedad Leer datos desde la línea en las propiedades de
la sesión de origen.
• Puede especificar un carácter comodín de asterisco (*) en el nombre del archivo para capturar los
archivos del depósito de Amazon S3. Puede especificar el carácter comodín de asterisco (*) para capturar
todos los archivos o solo los archivos que coinciden con el patrón de nombre.
• Puede agregar una sola etiqueta o varias etiquetas a los objetos almacenados en el depósito de Amazon
S3 para categorizar los objetos. Cada etiqueta contiene un par clave-valor. Puede especificar los pares
clave-valor o especificar la ruta de archivo absoluta que contiene los pares clave-valor.
• Puede especificar el tamaño de las partes de un objeto para descargarlo desde Amazon S3 en varias
partes.
• Puede configurar las particiones para los orígenes de Amazon S3. Las particiones optimizan el
rendimiento de las asignaciones en tiempo de ejecución cuando se leen datos de orígenes de Amazon S3.
• PowerExchange for Amazon S3 admite las versiones 11 y 12 del sistema operativo SuSe Linux Enterprise
Server.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2 HotFix 1 para PowerCenter.
Para habilitar la escritura asincrónica en un sistema operativo Linux, debe agregar el nombre de clave
EnableAsynchronousWrites al archivo odbc.ini y establecer el valor como 1.
Para habilitar la escritura asincrónica en un sistema operativo Windows, debe agregar la propiedad
EnableAsynchronousWrites al registro de Windows para el nombre de origen de datos de ODBC de
Cassandra y establecer el valor como 1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra 10.2
HotFix 1 para PowerCenter.
• Puede seleccionar Servicio de detección o Servicio de organización como tipo de servicio para la
autenticación de pasaportes en la conexión en tiempo de ejecución de Microsoft Dynamics CRM.
• Puede configurar una clave alternativa en las operaciones de actualización, upsert y eliminación.
• Puede especificar una clave alternativa como referencia para los tipos de datos Lookup, Customer, Owner
y PartyList.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.2 HotFix 1 para PowerCenter.
• Puede utilizar la versión 42.0 de la API de Salesforce para crear una conexión de Salesforce y acceder a
los objetos de Salesforce.
• Puede configurar OAuth para las conexiones de Salesforce.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 1 para PowerCenter.
Puede configurar los siguientes parámetros de resistencia de conexión en la sesión de escucha de las
asignaciones de integración de contenido empresarial:
Novedades 345
Compatibilidad de los nuevos tipos de datos de SAP
Puede usar los siguientes tipos de datos de SAP nuevos en función del método de integración que
utilice:
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 HotFix 1 para PowerCenter.
• Puede configurar una consulta SQL personalizada para configurar un origen de Snowflake.
• Puede reemplazar la base de datos y el nombre del esquema cuando cree tablas temporales en la base de
datos de almacenamiento provisional de Snowflake. Debe agregar la base de datos y el nombre del
esquema que desee reemplazar en los parámetros de JDBC URL de la conexión de Snowflake.
• Puede reemplazar el nombre de la tabla de origen de Snowflake importado especificando el nombre de la
tabla en las propiedades de la sesión de Snowflake. También puede configurar un reemplazo de SQL para
reemplazar la consulta de SQL predeterminada utilizada para extraer datos del origen de Snowflake.
• Puede reemplazar el nombre de la tabla de destino de Snowflake especificando el nombre de la tabla en
las propiedades de la sesión de destino de Snowflake.
• Puede configurar la optimización de inserciones completa o de origen para insertar la lógica de
transformación en Snowflake cuando use el tipo de conexión de ODBC. Para obtener información acerca
de los operadores y las funciones que puede insertar el servicio de integración de PowerCenter en
Snowflake, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2 HotFix 1.
• Especifique una condición de combinación para unir varias tablas de origen de Snowflake.
• Puede configurar una transformación de búsqueda sin conexión para el calificador de origen en una
asignación.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 1 para PowerCenter.
Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2 HotFix 1.
Cambios
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2 HotFix 1.
Cambios 347
Distribuciones de Hadoop para Big Data Management
En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en Big
Data Management 10.2 HotFix 1:
MapR 5.2 MEP 3.0.x Compatibilidad cancelada para la versión 5.2 MEP 2.0.x.
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
Para ver una lista de las versiones admitidas, consulte la matriz de disponibilidad de productos en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.
MapR 5.2 MEP 3.0 Compatibilidad cancelada para la versión 5.2 MEP 2.0.
Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.
Antes, se podía utilizar un servicio del repositorio de modelos para almacenar objetos en tiempo de diseño y
en tiempo de ejecución en el repositorio de modelos.
Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2 HotFix 1.
Para obtener más información, consulte el capítulo "Asignaciones en el entorno de Hadoop" de la Guía del
usuario de Informatica Big Data Management 10.2 HotFix 1.
Business Glossary
En esta sección se describen los cambios introducidos en Business Glossary en la versión 10.2 HotFix 1.
Alertas y notificaciones
A partir de 10.2 HotFix 1, la Herramienta del analista muestra el nombre del glosario además de los nombres
del remitente y del activo enviado a revisión. Anteriormente, la Herramienta del analista mostraba solo el
nombre del remitente y el nombre del activo que se enviaba a revisión.
Para obtener más información, consulte el capítulo "Buscar contenido del glosario" en la Guía de Informatica
Business Glossary 10.2 HotFix 1.
Documentación
En esta sección se describen los cambios realizados en las guías de la documentación de Informatica en la
versión 10.2 HotFix 1.
Cambios 349
Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1
A partir de la versión 10.2 HotFix 1, la Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1 incluye
los apéndices Referencia de MX Views y Referencia de informes de PowerCenter. La Guía de informes de
PowerCenter de Informatica PowerCenter 10.2 HotFix 1 y la Guía de Informatica PowerCenter 10.2 HotFix 1
con informes de PowerCenter han pasado a formar parte de la Guía del repositorio de Informatica
PowerCenter 10.2 HotFix 1 como un apéndice.
Para obtener más información, consulte la Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1.
Anteriormente, se podía usar Informatica Connector Toolkit para crear el conector de Informatica Cloud
Services.
Para obtener más información, consulte la Guía del usuario de Informatica Development Platform 10.2 HotFix
1.
Transformaciones de Informatica
En esta sección se describen los cambios en las transformaciones de Informatica en la versión 10.2 HotFix
1.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.11.0 del motor de software Informatica Address
Verification.
Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 1 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 1.
PowerCenter
En esta sección se describen los cambios realizados en PowerCenter en la versión 10.2 HotFix 1.
Anteriormente, Informatica admitía Mapping Analyst for Excel con Microsoft Excel 2007 y Microsoft Excel
2010.
Para obtener más información acerca de la instalación del complemento para Microsoft Excel 2016, consulte
la Guía de Informatica PowerCenter Mapping Analyst for Excel 10.2 HotFix 1.
• Puede proporcionar la cantidad de archivos en el campo Número de archivos por lote en las propiedades
de la sesión de destino para calcular el número de archivos de almacenamiento provisional por cada lote.
Anteriormente, el número de archivos de almacenamiento provisional por cada lote se calculaba según
los valores proporcionados en los campos Tipo de nodo de clúster y Número de nodos en el clúster en
las propiedades de la conexión.
• El registro de la sesión contiene información sobre el tiempo individual necesario para cargar datos al
área de almacenamiento provisional local, cargar datos a Amazon S3 desde el área de almacenamiento
provisional local y después cargar datos a un destino de Amazon Redshift mediante el comando copy.
Anteriormente, el registro de la sesión contenía solo el tiempo transcurrido para escribir datos del origen
al destino.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 1 para PowerCenter.
• El nombre y el directorio del archivo del controlador ODBC de Informatica PowerExchange for Cassandra
han cambiado.
Cambios 351
En la tabla siguiente se muestran el nombre de archivo y el directorio de archivos del controlador ODBC
de Cassandra basados en los sistemas operativos Linux y Windows:
En los sistemas operativos Linux, se debe actualizar el valor de la propiedad Controlador a <directorio
de instalación de Informatica>\tools\cassandra\lib\libcassandraodbc_sb64.so para los orígenes
de datos de Cassandra existentes en el archivo odbc.ini.
En Windows, se deben actualizar las siguientes propiedades en el registro de Windows para el nombre de
origen de datos de Cassandra existente:
Driver=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Setup=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra 10.2
HotFix 1.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2 HotFix 1 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
Analytics 10.2 HotFix 1 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 1 para PowerCenter.
Datos de referencia
En esta sección se describen los cambios en las operaciones de datos de referencia en la versión 10.2
HotFix 1.
Antes, se podía utilizar el programa de instalación de contenido para extraer y copiar los archivos en los
directorios de Informatica.
Para obtener más información, consulte la Guía de contenido de Informatica 10.2 HotFix 1.
PowerCenter lee la información de configuración de los datos de referencia desde los siguientes archivos de
propiedades:
Cambios 353
• IDQTx.cfg. Contiene propiedades de poblaciones de identidad.
• NER.properties. Contiene propiedades de modelos de probabilidades.
El proceso de instalación o actualización del HotFix escribe versiones de copia de seguridad de los archivos
de propiedades en los directorios de Informatica 10.2 HotFix 1. Los archivos de copia de seguridad son las
versiones predeterminadas de los archivos y no contienen ningún valor que se pueda establecer en la
instalación anterior. El nombre de cada archivo de copia de seguridad termina con la extensión .bak.
Antes, la operación de actualización cambiaba el nombre de las propiedades de datos de referencia que
encontraba con la extensión .bak. La operación de actualización también creaba versiones predeterminadas
de los archivos de propiedades en los que cambiaba el nombre.
Nota: Anteriormente, si se instalaba un HotFix para una instalación de modo que la estructura de directorios
de Informatica no cambiaba, el proceso de instalación conservaba el archivo AD50.cfg. De lo contrario, la
instalación del HotFix agregaba la extensión .bak a cada archivo de propiedades de datos de referencia que
encontraba y creaba una versión predeterminada de cada archivo.
Para obtener más información, consulte la Guía de contenido de Informatica 10.2 HotFix 1.
Tareas de la versión
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Netezza 10.2
HotFix 1.
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Teradata Parallel Transporter API.
• Los campos Tipo de nodo de clúster y Número de nodos en el clúster no están disponibles en las
propiedades de la conexión. Después de la actualización, PowerExchange for Amazon Redshift calcula la
cantidad de archivos de almacenamiento provisional y omite el valor especificado en la versión anterior
de la asignación existente.
Puede especificar la cantidad de archivos en el campo Número de archivos por lote en las propiedades
de la sesión de destino para calcular el número de archivos de almacenamiento provisional por cada lote.
• AWS SDK for Java se ha actualizado a la versión 1.11.250.
• Los siguientes jar de terceros se han actualizado a la última versión 2.9.5:
- jackson-annotations
- jackson-databind
- jackson-core
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Amazon Redshift para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Amazon S3 para PowerCenter.
Cuando actualice desde una versión anterior, deberá volver a registrar el complemento TeradataPT.xml con
el servicio de repositorio de PowerCenter para habilitar la propiedad de tamaño de búfer máximo. Después
del registro, podrá definir el tamaño de búfer máximo en las propiedades de la sesión de destino de
Teradata.
Para obtener más información acerca de la configuración del tamaño de búfer máximo, consulte la Guía del
usuario de Informatica PowerExchange for Teradata Parallel Transporter API 10.2 HotFix 1 para PowerCenter.
Nuevos productos
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Data Lake Store.
356
Tareas de la versión
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
Redshift para PowerCenter.
Propiedad Descripción
Clave de El identificador de clave de acceso que se utiliza para acceder a los recursos de la cuenta de
acceso Amazon. Es necesario si no utiliza la autenticación de gestión de identidad y acceso (IAM) de AWS.
Nota: Compruebe que tiene credenciales de AWS válidas antes de crear una conexión.
Clave secreta La clave de acceso secreta que se utiliza para acceder a los recursos de la cuenta de Amazon. Este
valor está asociado con la clave de acceso e identifica la cuenta de forma exclusiva. Debe
especificar este valor si especifica el identificador de clave de acceso. Es necesario si no utiliza la
autenticación de gestión de identidad y acceso (IAM) de AWS.
Clave Opcional. Proporcione una clave de cifrado AES de 256 bits en el formato Base64 cuando habilite el
simétrica cifrado por parte del cliente. La clave se puede generar con una herramienta de terceros.
principal Si especifica un valor, asegúrese de especificar el tipo de cifrado como un cifrado del lado del
cliente en las propiedades de la sesión de destino.
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
S3 para PowerCenter.
• Para el cliente, si actualiza de la versión 9.x a la versión 10.2, copie los archivos local_policy.jar,
US_export_policy.jar y cacerts de la siguiente carpeta de instalación de la versión 9.x <Directorio de
instalación de Informatica>\clients\java\jre\lib\security a la siguiente carpeta de instalación
de la versión 10.2 <Directorio de instalación de Informatica>\clients\java\32bit\jre\lib
\security.
Si actualiza de la versión 10.x a la versión 10.2, copie los archivos local_policy.jar,
US_export_policy.jar y cacerts de la siguiente carpeta de instalación de la versión 10.x <Directorio de
instalación de Informatica>\clients\java\32bit\jre\lib\security a la carpeta correspondiente
de la versión 10.2.
Utilice el protocolo RFC o HTTP para generar e instalar programas ABAP mientras se leen los datos de
las tablas de SAP.
Si actualiza las asignaciones de ABAP que se generaron con el protocolo CPI-C, debe completar las
siguientes tareas:
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 para PowerCenter.
Compatibilidad cancelada para los transportes estándar del lector de tablas ABAP.
A partir de la versión 10.2, Informatica dejó de admitir los transportes estándar del lector de tablas
ABAP. Informatica no enviará los transportes estándar para el lector de tablas ABAP. Informatica solo
enviará transportes seguros para el lector de tablas ABAP.
Si actualiza desde una versión anterior, debe eliminar los transportes estándar e instalar los transportes
seguros.
Para obtener más información, consulte el aviso de instalación para las versiones de transporte de
Informatica PowerExchange for SAP NetWeaver 10.2.
Compatibilidad añadida para la transmisión HTTP para las asignaciones del lector de tablas ABAP.
A partir de la versión 10.2, cuando se ejecutan asignaciones de ABAP para leer datos de tablas de SAP,
puede configurar la transmisión HTTP.
Para utilizar el modo de transmisión HTTP para las asignaciones de ABAP actualizadas, realice las
siguientes tareas:
servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.
360
Importar objetos de versiones anteriores
A partir de la versión 10.2, puede utilizar infacmd para actualizar objetos exportados desde un repositorio de
modelos de Informatica 10.1 o 10.1.1 al formato de metadatos actual y, a continuación, importar los objetos
actualizados a la versión actual de Informatica.
Para obtener más información, consulte el capítulo "Importación y exportación de objetos" de la Guía de
Informatica 10.2 Developer tool o el capítulo "Referencia del comando infacmd MRS" de la Referencia de
comandos de Informatica 10.2.
Big Data
En esta sección se describen las nuevas características de Big Data de la versión 10.2.
Cuando se ejecuta una asignación , el servicio de integración de datos comprueba los archivos binarios del
clúster. Si no existen o si no se sincronizan, el servicio de integración de datos prepara los archivos para
transferirlos. El servicio transfiere los archivos a la memoria caché distribuida a través del directorio de
transferencia provisional de Informatica Hadoop en HDFS. De forma predeterminada, el directorio de
transferencia provisional es /tmp. Este proceso reemplaza el requisito de instalar paquetes de distribución
en el clúster de Hadoop.
Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.
Configuración de clúster
Una configuración de clúster es un objeto en el dominio que contiene información de configuración sobre el
clúster de Hadoop. La configuración del clúster permite al servicio de integración de datos insertar la lógica
de asignación al entorno Hadoop.
Cuando se crea la configuración del clúster, se importan las propiedades de configuración del clúster
incluidas en los archivos del sitio de configuración. Puede importar estas propiedades directamente desde
un clúster o desde un archivo de archivado de configuración de clúster. También puede crear conexiones
para asociarlas a la configuración del clúster.
Anteriormente, se ejecutaba la utilidad Hadoop Configuration Manager para configurar conexiones y otra
información que permitiera al dominio de Informatica comunicarse con el clúster.
Para obtener más información acerca de la configuración de clústeres, consulte el capítulo "Configuración de
clúster" de la Guía del administrador de Informatica Big Data Management 10.2.
Desarrolle asignaciones con puertos, funciones y operadores complejos para realizar las tareas siguientes:
• Para generar datos jerárquicos de tipo struct desde uno o más puertos.
• Para generar datos jerárquicos de tipo struct anidado desde puertos en dos transformaciones.
• Para extraer elementos de datos jerárquicos en un puerto complejo.
• Para combinar datos jerárquicos en un puerto complejo.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos en el motor de
Spark" de la Guía del usuario de Informatica Big Data Management 10.2.
Todas las colas son persistentes de manera predeterminada. Si el nodo del servicio de integración de datos
se cerrase de forma inesperada, la cola no conmutará por error cuando el servicio de integración de datos
conmute por error. La cola permanece en el equipo del servicio de integración de datos y el servicio de
integración de datos reanuda el procesamiento de la cola al reiniciar.
De forma predeterminada, cada cola puede contener 10.000 trabajos a la vez. Cuando la cola está llena, el
servicio de integración de datos rechaza las solicitudes de trabajo y las marca como fallidas. Cuando el
servicio de integración de datos comience a ejecutar trabajos de la cola, podrá implementar más trabajos.
Para obtener más información, consulte el capítulo "Poner en cola" de la Guía del administrador de
Informatica Big Data Management 10.2.
Para obtener más información, consulte el capítulo "Conexiones" en la Guía del usuario de Big Data
Management 10.2.
Propiedad Descripción
Directorio de El directorio HDFS donde el servicio de integración de datos inserta archivos binarios de
transferencia Informatica Hadoop y almacena archivos temporales durante el procesamiento. El
provisional de Hadoop directorio predeterminado es /tmp.
Usuario de Obligatorio si el usuario del servicio de integración de datos está vacío. El usuario HDFS
transferencia que ejecuta operaciones en el directorio de transferencia provisional de Hadoop. El usuario
provisional de Hadoop necesita permisos de escritura en el directorio de transferencia provisional de Hadoop. El
usuario predeterminado es el usuario del servicio de integración de datos.
Ruta de acceso Ruta de acceso local a los archivos binarios de Informatica Hadoop compatibles con el
personalizada para el sistema operativo Hadoop. Obligatoria cuando el clúster de Hadoop y el servicio de
SO de Hadoop integración de datos se encuentran en diferentes sistemas operativos compatibles.
Descargue y extraiga los archivos binarios de Informatica para el clúster de Hadoop en el
equipo que aloja el servicio de integración de datos. El servicio de integración de datos
utiliza los archivos binarios de este directorio para integrar el dominio con el clúster de
Hadoop.
El servicio de integración de datos puede sincronizar los siguientes sistemas operativos:
- SUSE 11 y RedHat 6.5
Los cambios surten efecto después de reciclar el servicio de integración de datos.
Como resultado de los cambios en la integración de clústeres, se eliminan las siguientes propiedades del
servicio de integración de datos:
Para obtener más información, consulte la Guía de integración de Hadoop de Informatica 10.2.
Sqoop
A partir de la versión 10.2, si utiliza objetos de datos de Sqoop, puede utilizar los siguientes conectores de
Sqoop especializados para ejecutar asignaciones en el motor de Spark:
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.
Para obtener información acerca de cómo configurar las asignaciones para el motor de Blaze, consulte el
capítulo "Asignaciones en un entorno Hadoop" en la Guía del usuario de Informatica Big Data Management
10.2.
• Normalizador
• Rango
• Estrategia de actualización
A partir de la versión 10.2, las siguientes transformaciones tienen compatibilidad adicional en el motor de
Spark:
• Búsqueda. Admite la búsqueda sin conexión desde la transformación de filtro, agregador, expresión y
estrategia de actualización.
Para obtener más información, consulte el capítulo "Objetos de la asignación en un entorno Hadoop" de la
Guía del usuario de Informatica Big Data Management 10.2.
Para obtener información acerca de cómo configurar las asignaciones para el motor de Hive, consulte el
capítulo "Asignaciones en un entorno Hadoop" en la Guía del usuario de Informatica Big Data Management
10.2.
Comando Descripción
createConfiguration Crea una nueva configuración de clúster a partir de archivos XML o del
administrador de clúster remoto.
listAssociatedConnections Enumera por tipo las conexiones que están asociadas con la configuración de
clúster especificada.
listConfigurationGroupPermissions Enumera los permisos que tiene un grupo para una configuración de clúster.
listConfigurationUserPermissions Enumera los permisos que tiene un usuario para una configuración de clúster.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando infacmd ipc" en la Referencia de
comandos de Informatica 10.2.
Comando Descripción
getUserActivityLog Devuelve los datos de registro de actividad del usuario, que ahora incluyen los intentos
de inicio de sesión correctos e incorrectos del usuario desde clientes de Informatica.
Los datos de actividad del usuario incluyen las siguientes propiedades para cada intento
de inicio de sesión desde un cliente de Informatica:
- Nombre de la aplicación
- Versión de la aplicación
- Nombre de host o dirección IP del host de la aplicación
Si el cliente establece propiedades personalizadas en solicitudes de inicio de sesión, los
datos incluyen las propiedades personalizadas.
listConnections Enumera los nombres de conexión por tipo. Puede mostrar todos los tipos de conexiones
o filtrar los resultados por un tipo de conexión.
La opción -ct ya está disponible para el comando. Utilice la opción -ct para filtrar los
tipos de conexiones.
purgeLog Purga los eventos de registro y los registros de la base de datos para el uso de la
licencia.
La opción -lu está actualmente obsoleta.
Para obtener más información, consulte el capítulo "Referencia del comando infacmed isp" de la Referencia
de comandos de Informatica 10.2.
Opción Descripción
rejDirOnHadoop Habilita hadoopRejDir. Se utiliza para especificar una ubicación para mover los
archivos de rechazo cuando se ejecutan asignaciones.
hadoopRejDir Directorio remoto al que el servicio de integración de datos mueve los archivos de
rechazo cuando se ejecutan asignaciones. Active el directorio de rechazo mediante
rejDirOnHadoop.
sparkEventLogDir Ruta de acceso opcional a los archivos de HDFS del directorio que utiliza el motor
de Spark para registrar eventos.
sparkYarnQueueName El nombre de cola del programador de YARN que utiliza el motor de Spark que
especifica cuáles son los recursos disponibles en un clúster.
En la tabla siguiente se describen las opciones de conexión de Hadoop cuyo nombre ha cambiado en la
versión 10.2:
En la tabla siguiente se describen las opciones de conexión de Hadoop eliminadas de la interfaz de usuario e
importadas en la configuración del clúster:
Opción Descripción
En la tabla siguiente se describen las opciones de conexión de Hadoop que están obsoletas en la versión
10.2 y que ya no están disponibles en la interfaz de usuario:
Opción Descripción
metastoreDatabaseURI* El URI de la conexión JDBC que se usa para acceder a los datos guardados
en una configuración de metastore local.
* Estas propiedades están obsoletas en la versión 10.2. Al actualizar a la versión 10.2, los valores de propiedad
definidos en una versión anterior se guardan en el repositorio, pero no aparecen en las propiedades de conexión.
Las propiedades siguientes se han eliminado. Si aparecen en cadenas de conexión, no tendrán ningún efecto:
• hadoopClusterInfoExecutionParametersList
• passThroughSecurityEnabled
• hiverserver2Enabled
• hiveInfoExecutionParametersList
• cadiPassword
• sparkMaster
• sparkDeployMode
Conexión de HBase
En la tabla siguiente se describen las opciones de conexión de HBase eliminadas de la conexión e
importadas en la configuración del clúster:
Propiedad Descripción
Conexión a Hive
En la tabla siguiente se describen las opciones de conexión de Hive eliminadas de la conexión e importadas
en la configuración del clúster:
Propiedad Descripción
metastoreDatabaseURI El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.
Comando Descripción
upgradeExportedObjects Actualiza los objetos exportados a un archivo. XML de una versión anterior de Informatica
al formato de metadatos actual. El comando genera un archivo. XML que contiene los
objetos actualizados.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd mrs" en la Referencia
de comando de Informatica 10.2.
Comandos infacmd ms
En la siguiente tabla se describen los nuevos comandos infacmd ms:
Comando Descripción
Comando Descripción
listTasks Enumera las instancias de tarea humana que cumplen los criterios de filtro especificados.
releaseTask Libera una instancia de tarea humana del propietario actual y devuelve la propiedad de la
instancia de tarea al administrador de negocio que la configuración del flujo de trabajo
identifica.
Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.
Comandos de infasetup
En la siguiente tabla se describen los cambios introducidos en los comandos de infasetup:
Comando Descripción
DefineDomain Las opciones siguientes se agregan para configurar la autenticación de lenguaje de marcado
con aserción de seguridad (SAML):
- asca. Nombre de alias especificado al importar el certificado de firma de aserción del
proveedor de identidad en el archivo truststore utilizado para la autenticación de SAML.
- cst. Diferencia horaria permitida entre el reloj del sistema de host de Active Directory
Federation Services (AD FS) y el reloj del sistema del nodo de puerta de enlace maestra.
- std. Directorio que contiene el archivo truststore personalizado necesario para utilizar la
autenticación de SAML en los nodos de puerta de enlace dentro del dominio.
- stp. Contraseña truststore personalizada utilizada para la autenticación de SAML.
Para obtener más información, consulte el capítulo "Referencia del comando infacmed infasetup" de la
Referencia de comandos de Informatica 10.2.
Comandos pmrep
La siguiente tabla describe los nuevos comandos pmrep:
Comando Descripción
Comando Descripción
Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.
Tipos de datos
En esta sección se describen las nuevas características de tipo de datos de la versión 10.2.
En la tabla siguiente se describen los tipos de datos complejos que se pueden utilizar en las
transformaciones:
array Contiene una colección ordenada de elementos. Todos los elementos de la matriz deben ser del
mismo tipo de datos. Los elementos pueden ser de tipo de datos primitivo o complejo.
map Contiene una colección no ordenada de pares de clave-valor. La clave debe ser de tipo de datos
primitivo. El valor puede ser de tipo de datos primitivo o complejo.
struct Contiene una colección de elementos de diferentes tipos de datos. Los elementos pueden ser de
tipo de datos primitivo o complejo.
Para obtener más información, consulte el apéndice "Referencia de tipo de datos" de la Guía del usuario de
Informatica Big Data Management 10.2.
Documentación
En esta sección se describen las guías nuevas o actualizadas en la versión 10.2.
A partir de la versión 10.2, la Guía de seguridad de Informatica Big Data Management pasa a llamarse
Guía del administrador de Informatica Big Data Management. Esta guía contiene la información de
seguridad y las tareas de administrador adicionales para Big Data Management.
Para obtener más información, consulte la Guía del administrador de Informatica Big Data Management
10.2.
A partir de la versión 10.2, la Guía de instalación y actualización de Informatica Big Data Management
pasa a llamarse Guía de integración de Hadoop de Informatica Big Data Management. A partir de la
versión 10.2, el servicio de integración de datos puede instalar automáticamente los archivos binarios
de Big Data Management en el clúster de Hadoop para integrar el dominio con el clúster. Las tareas de
integración de la guía no incluyen la instalación del paquete de distribución.
Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.
A partir de la versión 10.2, la Guía del administrador de Informatica Live Data Map pasa a llamarse Guía
de Informatica Catalog Administrator.
Para obtener más información, consulte la Guía de Informatica Catalog Administrator 10.2.
A partir de la versión 10.2, la Referencia de Informatica Administrator para Live Data Map pasa a llamarse
Referencia de Informatica Administrator para Enterprise Information Catalog.
Para obtener más información, consulte la Referencia de Informatica Administrator para Enterprise
Information Catalog 10.2.
A partir de la versión 10.2, la Guía de instalación y configuración de Informatica Live Data Map pasa a
llamarse Guía de instalación y configuración de Informatica Enterprise Information Catalog.
Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise
Information Catalog 10.2.
A partir de la versión 10.2, puede utilizar las API de REST expuestas por Enterprise Information Catalog.
Para más información, puede consultar la nueva guía, Referencia de la API de REST de Informatica
Enterprise Information Catalog 10.2.
A partir de la versión 10.2, la Actualización de Informatica Live Data Map desde la versión <x> pasa a
llamarse Actualización de Informatica Enterprise Information Catalog desde las versiones 10.1, 10.1.1,
10.1.1 HF1 y 10.1.1 Update 2.
Para obtener más información, consulte la guía de Actualización de Informatica Enterprise Information
Catalog desde las versiones 10.1, 10.1.1, 10.1.1 HF1 y 10.1.1 Update 2.
Puede crear recursos en Informatica Catalog Administrator para extraer metadatos de los siguientes
orígenes de datos:
Apache Atlas
Base de datos relacional basada en la nube para procesar un gran volumen de datos.
Interfaz de los blob de almacenamiento de Windows Azure para cargar datos en blobs de Azure.
Erwin
Informatica Axon
Para obtener más información acerca de los nuevos recursos, consulte la Guía de Informatica Catalog
Administrator 10.2.
Los metadatos personalizados son metadatos definidos por usted. Puede definir un modelo personalizado,
crear un tipo de recurso personalizado y crear un recurso personalizado para introducir metadatos
personalizados desde un origen de datos personalizado. Puede utilizar la integración de metadatos
personalizados para extraer e introducir metadatos de orígenes de datos personalizados para los que
Enterprise Information Catalog no proporciona un modelo.
Para obtener más información acerca de la integración de metadatos personalizados, consulte la Guía de
integración de metadatos personalizados de Informatica Enterprise Information Catalog 10.2.
API de REST
A partir de la versión 10.2, puede utilizar las API de REST de Informatica Enterprise Information Catalog para
acceder a las características relacionadas con los objetos y modelos asociados con un origen de datos y
configurarlas.
Las API de REST permiten recuperar información relacionada con objetos y modelos asociados a un origen
de datos. Además, puede crear, actualizar o eliminar entidades relacionadas con modelos y objetos como
atributos, asociaciones y clases.
Para obtener más información acerca de los orígenes de archivos no estructurados, consulte la Referencia de
la API de REST de Informatica Enterprise Information Catalog 10.2.
Puede ver los dominios de datos compuestos para activos tabulares en la vista Detalles de activos después
de crear y habilitar la detección de dominios de datos compuestos para recursos en Catalog Administrator.
También puede buscar dominios de datos compuestos y ver detalles de los dominios de datos compuestos
en la vista Detalles de activos.
Dominios de datos
En esta sección se describen las nuevas características relacionadas con los dominios de datos de
Enterprise Information Catalog.
• Utilice tablas de referencia, reglas y expresiones regulares para crear una regla de datos o una regla de
columna.
• Utilice el porcentaje mínimo de conformidad o las filas de conformidad mínima para la coincidencia de
dominio de datos.
• Utilice la opción de aceptación automática para aceptar un dominio de datos automáticamente en
Enterprise Information Catalog cuando la coincidencia de dominio de datos supere el porcentaje de
aceptación automática configurado.
Para obtener más información acerca de los dominios de datos en el administrador de catálogo, consulte el
capítulo "Administración de dominios de datos" de la Guía de Informatica Catalog Administrator 10.2.
Para obtener más información acerca de los recursos y dominios de datos, consulte el capítulo "Administrar
recursos" de la Guía de Informatica Catalog Administrator 10.2.
Para obtener más información acerca de los privilegios, consulte el capítulo "Privilegios y funciones" de la
Referencia de Informatica Administrator para Enterprise Information Catalog 10.2.
Para obtener más información acerca de la conservación de dominios de datos, consulte el capítulo "Ver
activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.
Para obtener más información acerca de la exportación e importación de atributos personalizados, consulte
el capítulo "Ver activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.
Para obtener más información acerca de la asignación de valores de atributo personalizados a un activo,
consulte el capítulo "Ver activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.
Lógica de transformación
A partir de la versión 10.2, puede ver la lógica de transformación de activos en la vista de linaje e impacto. La
vista de linaje e impacto muestra la lógica de transformación de los activos que contienen transformaciones.
La vista de transformación muestra la lógica de transformación de estructuras de datos, como tablas y
columnas. La vista también muestra varios tipos de transformaciones, como filtro, combinación, búsqueda,
expresión, clasificador, unión y agregado.
Para obtener más información acerca de la lógica de transformación, consulte el capítulo "Ver linaje e
impacto" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.
Para obtener más información acerca de los tipos de archivos no estructurados, consulte el capítulo
"Administrar recursos" de la Guía de Informatica Catalog Administrator 10.2.
Frecuencia de valores
Configurar y ver la frecuencia de valores
A partir de la versión 10.2, puede habilitar la frecuencia de valores junto con la similitud de datos de columna
en Catalog Administrator para calcular la frecuencia de los valores en un origen de datos. Puede ver la
frecuencia de valores de la columna de visualización, la columna de tabla, el campo CSV, el campo de
archivos XML y los activos de datos de archivos JSON en la vista Detalles de activos tras ejecutar la
frecuencia de valores en un origen de datos en Catalog Administrator.
Para obtener más información acerca de la configuración de la frecuencia de valores, consulte el capítulo
"Conceptos de Catalog Administrator" en la Guía de Informatica Catalog Administrator 10.2. Para ver la
frecuencia de valores de un activo de datos, consulte el capítulo "Ver activos" de la Guía del usuario de
Informatica Enterprise Information Catalog 10.2.
Para obtener más información acerca de los permisos y los privilegios, consulte los capítulos "Introducción a
los privilegios" e "Introducción a los privilegios y funciones" de la Referencia de Informatica Administrator
para Enterprise Information Catalog 10.2 .
Para obtener más información, consulte el capítulo "Crear los servicios de aplicación" de la Guía de
instalación y configuración de Informatica Enterprise Information Catalog 10.2.
Informatica Analyst
En esta sección se describen las nuevas características de la Herramienta del analista de la versión 10.2.
Perfiles
En esta sección se describen las nuevas características de para perfiles y cuadros de mando.
Especificación de regla
A partir de la versión 10.2, puede configurar una especificación de regla en la Herramienta del analista y
utilizar la especificación de regla en el perfil de columna.
Para obtener más información sobre el uso de las especificaciones de reglas en los perfiles de columna,
consulte el capítulo "Reglas en Informatica Analyst" de la Guía de obtención de datos de Informatica 10.2.
Al abrir el cuaderno de visualización por primera vez después de publicar un activo de datos, Intelligent Data
Lake utiliza el motor CLAIRE para crear sugerencias de visualización inteligente en forma de histogramas de
las columnas numéricas creadas por el usuario.
Para obtener más información acerca del cuaderno de visualización, consulte el capítulo "Validar y evaluar
datos mediante visualización con Apache Zeppelin" de la Guía del usuario de Informatica Intelligent Data Lake
10.2.
Para obtener más información, consulte el capítulo sobre la detección de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Para obtener más información, consulte el capítulo sobre la detección de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Para obtener más información, consulte el capítulo sobre la preparación de datos en la guía Informatica
Intelligent Data Lake User Guide.
Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.
Informatica Developer
En esta sección se describen las nuevas características de Developer tool de la versión 10.2.
Para obtener más información, consulte el capítulo "Objetos de datos físicos" en la Guía de Informatica
Developer tool 10.2.
Perfiles
En esta sección se describen las nuevas características de para perfiles y cuadros de mando.
Especificación de regla
A partir de la versión 10.2, puede utilizar las especificaciones de regla cuando cree un perfil de columna en
Developer tool. Para utilizar la especificación de regla, genere un mapplet de la especificación de regla y
valide el mapplet como regla.
Para obtener más información sobre el uso de las especificaciones de reglas en los perfiles de columna,
consulte el capítulo "Reglas en Informatica Developer" de la Guía de obtención de datos de Informatica 10.2.
Instalación de Informatica
En esta sección se describen las nuevas características de instalación de la versión 10.2.
Para obtener más información sobre Upgrade Advisor, consulte las Guías de actualización de Informatica.
Intelligent Streaming
En esta sección se describen las nuevas funciones de Intelligent Streaming en la versión 10.2.
Formato CSV
A partir de la versión 10.2, las asignaciones de transmisión pueden leer y escribir datos en formato CSV.
Para obtener más información acerca del formato CSV, consulte el capítulo "Orígenes y destinos en una
asignación de transmisión" en la Guía del usuario de Informatica Intelligent Streaming 10.2.
Tipos de datos
A partir de la versión 10.2, las asignaciones de transmisión pueden leer, procesar y escribir datos jerárquicos.
Puede utilizar los tipos de datos complejos array, struct y map para procesar los datos jerárquicos.
Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.
• AmazonKinesis. Acceda a Amazon Kinesis Stream como origen o Amazon Kinesis Firehose como
destino. Puede crear y administrar una conexión de AmazonKinesis en Developer tool o mediante
infacmd.
• MapRStreams. Acceda a MapRStreams como destinos. Puede crear y administrar una conexión de
MapRStreams en Developer tool o mediante infacmd.
Para obtener más información, consulte el capítulo "Conexiones" en la Guía del usuario de Informatica
Intelligent Streaming 10.2.
Asignaciones de transferencia
A partir de la versión 10.2, puede pasar cualquier formato de carga directamente desde el origen al destino
en asignaciones de transmisión.
Puede proyectar columnas en formato binario para pasar una carga desde el origen al destino en su forma
original o para pasar un formato de carga incompatible.
Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.
Orígenes y destinos
A partir de la versión 10.2, puede crear los siguientes nuevos objetos de datos físicos:
• AmazonKinesis. Representa datos en una transmisión de entrega de Amazon Kinesis Firehose o Amazon
Kinesis Streams.
• MapRStreams. Representa datos en una transmisión de MapR.
Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.
Para obtener más información, consulte el capítulo "Asignaciones de Intelligent Streaming" en la Guía del
usuario de Informatica Intelligent Streaming 10.2.
Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager de la versión 10.2.
Cloudera Navigator
A partir de la versión 10.2, puede proporcionar la información del archivo truststore para habilitar una
conexión segura a un recurso de Cloudera Navigator. Al crear o editar un recurso de Cloudera Navigator,
Para obtener más información sobre la creación de un recurso de Cloudera Navigator, consulte el capítulo
"Recursos de administración de bases de datos" en la Guía del administrador de Informatica Metadata
Manager 10.2.
PowerCenter
En esta sección se describen las nuevas características de PowerCenter de la versión 10.2.
Registros de auditoría
A partir de la versión 10.2, puede generar registros de auditoría al importar un archivo XML en el repositorio
de PowerCenter. Al importar uno o más objetos del repositorio, puede generar registros de auditoría. Puede
habilitar la opción de configuración Traza de auditoría de seguridad en las propiedades del servicio de
repositorio de PowerCenter de la Herramienta del administrador para generar registros de auditoría al
importar un archivo XML en el repositorio de PowerCenter. Los registros de actividad del usuario capturan
todos los mensajes de auditoría.
Los registros de auditoría contienen la siguiente información sobre el archivo, como el nombre y el tamaño
del archivo, el número de objetos importados y la hora de la operación de importación.
Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comandos de Informatica 10.2, la Guía del servicio de aplicación de Informatica 10.2 y la Guía de Informatica
Administrator 10.2.
Para obtener más información, consulte el capítulo "Trabajar con destinos" en la Guía del diseñador de
PowerCenter de Informatica 10.2.
Consultas de objetos
A partir de la versión 10.2, puede crear y eliminar consultas de objetos con los comandos pmrep.
Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.
También puede actualizar una conexión con o sin un parámetro en contraseña con el comando pmrep.
Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.
• Puede leer o escribir datos en los depósitos de Amazon S3 en las siguientes regiones:
- Asia Pacífico (Bombay)
- Canadá (Central)
- China (Pekín)
- UE (Londres)
Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon Redshift de
Informatica 10.2.
• Puede leer o escribir datos en los depósitos de Amazon S3 en las siguientes regiones:
- Asia Pacífico (Bombay)
- Canadá (Central)
- China (Pekín)
- UE (Londres)
Bzip2 Sí Sí
Deflate No Sí
Gzip Sí Sí
Lzo Sí Sí
Ninguno Sí Sí
Rápido No Sí
• Puede seleccionar el tipo de origen desde el que desea leer los datos en la opción Tipo de origen en las
propiedades avanzadas de una operación de lectura de objeto de datos de Amazon S3. Puede seleccionar
los tipos de origen Directorio o Archivo.
• Puede seleccionar el tipo de orígenes de datos en la opción Formato de recurso en las propiedades de los
objetos de datos de Amazon S3. Puede leer datos de los siguientes formatos de origen:
- Binario
- Plano
- Avro
- Parquet
• Puede conectarse a clústeres de Amazon S3 disponibles en la nube privada virtual (VPC) a través de
extremos de VPC.
• Puede ejecutar asignaciones de Amazon S3 en el motor de Spark. Al ejecutar la asignación, el servicio de
integración de datos inserta la asignación en un clúster de Hadoop y la procesa en el motor de Spark.
• Si lo desea, puede sobrescribir los archivos existentes. Puede seleccionar la opción Sobrescribir archivos
si existen en las propiedades de la operación de escritura de objetos de datos de Amazon S3 para
sobrescribir los archivos existentes.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para controlar de
forma segura el acceso a los recursos de Amazon S3.
• Puede filtrar los metadatos para optimizar el rendimiento de la búsqueda en la vista Explorador de
objetos.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para ejecutar
una sesión en el clúster de EMR.
Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
S3.
• Puede utilizar PowerExchange for HBase para leer desde orígenes y escribir en destinos almacenados en
el sistema de archivos WASB en Azure HDInsight.
Para obtener más información, consulte la Guía del usuario de PowerExchange for HBase de Informatica 10.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Hive de Informatica 10.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.
• Agregar motivo de rechazo de fila. Seleccione esta opción para incluir el motivo del rechazo de filas en l
archivo de rechazo.
• Nombre de la clave alternativa. Indica si la columna es la clave alternativa de una entidad. Especifique el
nombre de la clave alternativa. Puede utilizar la clave alternativa en las operaciones update y upsert.
• Puede configurar PowerExchange for Microsoft Dynamics CRM para que se ejecute en la plataforma AIX.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.2 para PowerCenter.
• Cuando ejecute asignaciones de ABAP para leer datos de tablas de SAP, puede utilizar los tipos de datos
STRING, SSTRING y RAWSTRING. El tipo de datos SSTRING se representa en PowerCenter como SSTR.
• Al leer o escribir datos a través de IDocs, puede utilizar el tipo de datos SSTRING.
• Al ejecutar asignaciones de ABAP para leer datos de tablas de SAP, puede configurar transmisión por
HTTP.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 para PowerCenter.
Especificaciones de regla
A partir de la versión 10.2, puede seleccionar una especificación de regla del repositorio de modelos en
Informatica Developer y agregar la especificación de regla a una asignación. También puede implementar
una especificación de regla como un servicio web.
Una especificación de regla es un objeto de solo lectura en Developer tool. Agregue una especificación de
regla a una asignación de la misma forma que agrega un mapplet a una asignación. Puede continuar
seleccionando un mapplet que haya generado a partir de una especificación de regla y agregar el mapplet a
una asignación.
Agregue una especificación de regla a una asignación cuando desee que la asignación aplique la lógica que
representa la especificación de regla actual. Agregue el mapplet correspondiente a una asignación cuando
desee utilizar o actualizar la lógica del mapplet independientemente de la especificación de regla.
Cuando se agrega una especificación de regla a una asignación, puede especificar el tipo de salidas en la
especificación de regla. De forma predeterminada, una especificación de regla tiene un único puerto de
salida que contiene el resultado final del análisis de la especificación de regla para cada fila de datos de
entrada. Puede configurar la especificación de regla para crear un puerto de salida para cada conjunto de
reglas de la especificación de regla.
Para obtener más información, consulte el capítulo "Mapplets" en la Guía de asignaciones de Informatica
Developer 10.2.
Los datos de actividad del usuario incluyen las siguientes propiedades para cada intento de inicio de sesión
desde un cliente de Informatica:
• Nombre de la aplicación
• Versión de la aplicación
• Nombre de host o dirección IP del host de la aplicación
Si el cliente establece propiedades personalizadas en solicitudes de inicio de sesión, los datos incluyen las
propiedades personalizadas.
Para obtener más información, consulte el capítulo "Usuarios y grupos" de la Guía de seguridad de
Informatica 10.2.
Idioma de transformación
En esta sección se describen las nuevas características del lenguaje de transformación de la versión 10.2.
Funciones complejas
A partir de la versión 10.2, el lenguaje de transformación introduce funciones complejas para tipos de datos
complejos. Utilice funciones complejas para procesar datos jerárquicos en el motor de Spark.
• ARRAY
• CAST
• COLLECT_LIST
• CONCAT_ARRAY
• RESPEC
• SIZE
• STRUCT
• STRUCT_AS
Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.2 Developer.
• Operador de subíndice []
• Operador de punto .
Para obtener más información acerca de los operadores complejos, consulte el capítulo "Operadores" de la
Referencia del lenguaje de transformación para Informatica 10.2 Developer.
Funciones de ventana
A partir de la versión 10.2, el lenguaje de transformación introduce funciones de ventana. Utilice las
funciones de ventana para procesar un pequeño subconjunto de un conjunto más grande de datos en el
motor de Spark.
• LEAD. Proporciona acceso a una fila en un desplazamiento físico dado que se encuentra después de la
fila actual.
• LAG. Proporciona acceso a una fila en un desplazamiento físico dado que se encuentra antes de la fila
actual.
Para obtener más información, consulte el capítulo "Funciones" en la Referencia de lenguaje de
transformación de Informatica 10.2.
Transformaciones
En esta sección se describen las nuevas características de transformación de la versión 10.2.
Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión 10.2.
La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:
Austria
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
un identificador de código de dirección postal para un buzón que tenga dos direcciones de calle válidas. Por
ejemplo, un edificio en una intersección entre dos calles podría tener una dirección en ambas calles. Es
posible que el edificio prefiera recibir correo en una de las direcciones. La otra dirección sigue siendo válida,
pero el proveedor de servicios de correo no la utiliza para entregar el correo.
Transformaciones 391
Austria Post asigna un código de dirección postal a ambas direcciones. Austria Post asigna además un
identificador de código de dirección postal a la dirección que no recibe correo. El identificador de código de
dirección postal es idéntico al código de dirección postal de la dirección preferida. Puede utilizar el
identificador de código de dirección postal para buscar la dirección preferida con la transformación del
validador de direcciones.
Para encontrar el identificador de código de dirección postal de una dirección en Austria, seleccione el
puerto de salida del identificador de código de dirección postal de AT. Busque el puerto en el grupo de
puertos complementarios de AT.
Para buscar la dirección que representa un identificador de dirección postal, seleccione el puerto de entrada
del identificador de código de dirección postal de AT. Busque el puerto en el grupo de puertos Discreto.
República Checa
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para agregar
valores de ID de RUIAN a una dirección válida de la República Checa.
Hong Kong
La transformación del validador de direcciones incluye las siguientes características para Hong Kong:
A partir de la versión 10.2, la transformación del validador de direcciones puede leer y escribir
direcciones de Hong Kong en chino o en inglés.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación. El idioma predeterminado es el chino. Para devolver las direcciones de
Hong Kong en inglés, actualice la propiedad a ENGLISH.
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para devolver
sugerencias válidas para direcciones de Hong Kong que introduzca en una sola línea. Para devolver las
sugerencias, configure la transformación para que se ejecute en el modo de lista de sugerencias.
Envíe la dirección en el idioma nativo chino y en la codificación hanzi. La transformación del validador
de direcciones lee la dirección en la codificación hanzi y devuelve las sugerencias de dirección en el
mismo sistema.
Macao
La transformación del validador de direcciones incluye las siguientes características para Macao:
A partir de la versión 10.2, la transformación del validador de direcciones puede leer y escribir
direcciones de Macao en chino o en portugués.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación. El idioma predeterminado es el chino. Para devolver las direcciones de
Macao en portugués, actualice la propiedad a ALTERNATIVE_2.
Nota: Cuando selecciona un alfabeto latino con la opción de idioma preferido predeterminado, la
validación de direcciones translitera los datos de dirección en chino a cantonés o mandarín. Cuando
selecciona un alfabeto latino con la opción de idioma preferido ALTERNATIVE_2, la validación de
direcciones devuelve la dirección en portugués.
Verificación de direcciones de una sola línea para direcciones nativas de Macao en modo de lista de sugerencias
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que
devuelva sugerencias válidas para una dirección de Macao que escriba en una sola línea en el modo de
lista de sugerencias. Si introduce una dirección incompleta en el modo de lista de sugerencias, la
transformación devuelve una o más sugerencias de direcciones para la dirección introducida. Envíe la
dirección en el idioma chino y en la codificación hanzi. La transformación devuelve sugerencias de
direcciones en el idioma chino y en la codificación hanzi. Introduzca una dirección de Macao con el
siguiente formato:
[Locality] [Street] [House Number] [Building]
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones. El idioma
preferido predeterminado es el chino. Utilice la propiedad Codificación de caracteres preferida para
seleccionar el conjunto de caracteres preferido para los datos de dirección. La codificación preferida
predeterminada es el hanzi. Para verificar las direcciones de una sola línea, introduzca las direcciones
en el puerto de dirección completa.
Taiwán
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
una dirección de Taiwán en chino o en inglés.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que devuelve
la transformación. El idioma predeterminado es el chino tradicional. Para devolver las direcciones de Taiwán
en inglés, actualice la propiedad a ENGLISH.
Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres preferido
para los datos de dirección. El conjunto de caracteres predeterminado es Hanzi. Para devolver las
direcciones de Taiwán en caracteres latinos, actualice la propiedad a la opción Latín o ASCII.
Transformaciones 393
Nota: La estructura de dirección de Taiwán en la codificación nativa enumera todos los elementos de la
dirección en una sola línea. Puede enviar la dirección como una sola cadena en un puerto de línea de
dirección formateada.
Al formatear una dirección de entrada, introduzca los elementos de la dirección en el siguiente orden:
Postal Code, Locality, Dependent Locality, Street, Dependent Street, House or Building
Number, Building Name, Sub-Building Name
Estados Unidos
La transformación del validador de direcciones incluye las siguientes características para Estados Unidos:
Compatibilidad con las versiones que cumplen el algoritmo hash seguro de archivos de datos CASS
A partir de la versión 10.2, el validador de direcciones lee archivos de datos de certificación CASS que
cumplen el estándar SHA-256.
Los archivos de certificación CASS actuales se numeran del USA5C101.MD hasta el USA5C126.MD. Para
verificar las direcciones de Estados Unidos en modo certificado, debe utilizar los archivos actuales.
Nota: Los archivos que cumplen el estándar SHA-256 no son compatibles con versiones anteriores de
Informatica.
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no proporcionan una puerta o punto de entrada al
proveedor de servicios de correo. Es posible que el proveedor de servicios de correo no pueda entregar
un artículo grande en la dirección.
El servicio postal de Estados Unidos (USPS) mantiene una lista de direcciones que disponen de buzón,
pero no así de una entrada física. Por ejemplo, una residencia puede tener un buzón fuera de un portón
cerrado o en un camino rural. Los datos de referencia de dirección incluyen la lista de direcciones
inaccesibles que reconoce USPS. La validación de direcciones puede devolver el estado accesible de
una dirección al verificar la dirección en modo certificado.
Para identificar direcciones sin puerta accesible, seleccione el puerto de validación de punto de entrega
de puerta no accesible. Busque el puerto en el grupo de puertos específico de Estados Unidos.
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no proporcionan un buzón o punto de recepción de correo
seguro. Es posible que el proveedor de servicios de correo no pueda entregar un artículo grande en la
dirección.
El servicio postal de Estados Unidos mantiene una lista de direcciones en las que el buzón de correo no
es seguro. Por ejemplo, un comercio minorista no es una ubicación segura si el proveedor de servicios
de correo puede entrar en el comercio pero no encuentra un buzón ni un empleado que reciban el correo.
Los datos de referencia de la dirección incluyen la lista de direcciones no seguras que reconoce USPS.
La validación de direcciones puede devolver el estado no seguro de una dirección al verificar la dirección
en modo certificado.
Para identificar direcciones no seguras, seleccione el puerto de validación de punto de entrega de
ubicación no segura. Busque el puerto en el grupo de puertos específico de Estados Unidos.
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar códigos postales que contengan exclusivamente direcciones de apartado de correos. Cuando
todas las direcciones de un código postal son direcciones de apartado de correos, el código postal
representa una zona de entrega solo de apartado de correos.
Para identificar las zonas de entrega solo de apartado de correos, seleccione el puerto del indicador de
zona de entrega de apartado de correos. Busque el puerto en el grupo de puertos específico de Estados
Unidos.
Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2.
JsonStreamer
Utilice el objeto JsonStreamer en una transformación del procesador de datos para procesar archivos JSON
de gran tamaño. La transformación divide archivos JSON muy grandes en mensajes JSON completos. La
transformación puede entonces llamar a otros componentes de transformación del procesador de datos, o a
una transformación jerárquica a relacional, para completar el procesamiento.
Para obtener más información, consulte el capítulo "Transmisiones por secuencias" de la Guía del usuario de
Informatica Data Transformation 10.2.
RunPCWebService
Utilice la acción RunPCWebService para llamar a un mapplet de PowerCenter desde una transformación del
procesador de datos.
Para obtener más información, consulte el capítulo "Acciones" de la Guía del usuario de Informatica Data
Transformation 10.2.
Transformaciones de PowerCenter
Evaluar expresión
A partir de la versión 10.2, puede evaluar expresiones que configure en el editor de expresiones de una
transformación de expresión. Para probar una expresión, hay que introducir datos de muestra y, a
continuación, evaluar la expresión.
Para obtener más información sobre la evaluación de una expresión, consulte el capítulo "Cómo trabajar con
transformaciones" y el capítulo "Transformación de expresión" de la Guía de transformación de Informatica
PowerCenter 10.2.
Flujos de trabajo
En esta sección se describen las nuevas características de los flujos de trabajo de la versión 10.2.
La tabla identifica los usuarios o grupos que pueden trabajar en las instancias de la tarea y especifica los
valores de columna que se asociarán a cada usuario o grupo. Puede actualizar la tabla independientemente
de la configuración del flujo de trabajo, por ejemplo, a medida que los usuarios se unen o abandonan el
proyecto. Cuando se ejecuta el flujo de trabajo, el servicio de integración de datos utiliza la información
actual de la tabla para asignar las instancias de la tarea a usuarios o grupos.
También puede especificar un rango de valores numéricos o valores de fecha al asociar usuarios o grupos
con los valores de una columna de datos de origen. Cuando uno o más registros contienen un valor de un
rango que especifique, el servicio de integración de datos asigna la instancia de tarea a un usuario o grupo
que especifique.
Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.
Una tarea humana puede enviar notificaciones de correo electrónico cuando la tarea humana se completa en
el flujo de trabajo y cuando cambia el estado de una instancia de tarea definida por la tarea humana. Para
configurar notificaciones para una tarea humana, actualice las propiedades de notificación en la tarea
humana en el flujo de trabajo. Para configurar notificaciones para una instancia de tarea, actualice las
propiedades de notificación del paso de la tarea humana que defina las instancias de la tarea.
Al configurar notificaciones para una instancia de tarea humana, puede seleccionar una opción para notificar
al propietario de la instancia de la tarea además de a cualquier destinatario que especifique. La opción se
aplica cuando un solo usuario posee la instancia de la tarea. Al seleccionar la opción para notificar al
propietario de la instancia de la tarea, puede dejar el campo de destinatarios vacío
Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.
Para obtener más información acerca de la importación desde PowerCenter, consulte el capítulo "Importar
desde PowerCenter" de la Guía de asignación de Informatica 10.2 Developer y el capítulo "Flujos de trabajo"
de la Guía del flujo de trabajo de Informatica 10.2 Developer.
Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.
398
Compatibilidad de distribuciones de Hadoop para Big Data
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2:
Big Data 5.4, 5.8 3.5, 3.6 5.9, 5.10, 5.11, 2.4, 2.5, 2.6 4.2 5.2 MEP
Management 5.12, 5.13 2.0
5.2 MEP
3.0
Intelligent Data 5.4 3.6 5.11, 5.12 2.6 4.2 5.2 MEP
Lake 2.0
Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.
Amazon EMR 5.8 Compatibilidad añadida para la versión 5.8. Compatibilidad cancelada para
las versiones 5.0 y 5.4.
Nota: Para utilizar Amazon EMR 5.8 con Big Data Management 10.2, debe
aplicar la corrección de errores de emergencia 10571. Consulte el artículo
KB 525399 de la base de conocimientos.
Cloudera CDH 5.10.x Se ha incluido soporte para las versiones 5.12 y 5.13.
5.11.x Compatibilidad cancelada para las versiones 5.8 y 5.9.
5.12.x
5.13.x
Hortonworks HDP 2.5x Compatibilidad cancelada para las versiones 2.3 y 2.4.
2.6x Nota: Para utilizar Hortonworks 2.5 con Big Data Management 10.2, debe
aplicar una corrección de errores de emergencia. Consulte el siguiente
artículo de la base de conocimientos:
- Soporte de Hortonworks 2.5: KB 521847.
MapR 5.2 MEP 3.0.x Compatibilidad añadida para la versión 5.2 MEP 3.0.
Compatibilidad cancelada para las versiones 5.2 MEP 1.x y 5.2 MEP 2.x.
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.
Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.
Hortonworks HDP 2.5.x (versión de Kerberos), 2.6.x Compatibilidad añadida para la versión 2.6 que
(versión no de Kerberos) no es de Kerberos.
Cloudera CDH 5.10 Se ha incluido soporte para las versiones 5.10 y 5.12.
5.11 Compatibilidad cancelada para la versión 5.8.
5.12 Compatibilidad aplazada con la versión 5.9.
MapR 5.2 MEP 2.0 Compatibilidad añadida para la versión 5.2 MEP 2.0.
Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.
Metadata Manager
Custom Metadata Configurator (obsoleto)
A partir de la versión 10.2 de Informatica, Custom Metadata Configurator en Metadata Manager está
obsoleto.
Puede utilizar la plantilla de carga para cargar metadatos de archivos de origen de metadatos en un recurso
personalizado. Cree una plantilla de carga para los modelos que utilicen plantillas de Custom Metadata
Configurator.
Para obtener más información acerca del uso de plantillas de carga, consulte "XConnect personalizado
creado con una plantilla de carga" en la Guía de integración de metadatos personalizados de Informatica
Metadata Manager 10.2.
Anteriormente, se actualizaba el índice de búsqueda antes de ejecutar el comando para que el repositorio de
modelos tuviera una lista actualizada de tablas de referencia. El servicio de administración de contenido
utilizaba la lista de objetos del índice para seleccionar las tablas que eliminar.
Para obtener más información, consulte el capítulo "Servicio de administración de contenido" de la Guía del
servicio de aplicación de Informatica 10.2.
Opciones de ejecución
A partir de la versión 10.2, debe configurar las siguientes opciones de ejecución en la vista Propiedades del
servicio de integración de datos:
• Tamaño máximo del grupo de ejecución a petición. Controla el número de trabajos a petición que pueden
ejecutarse simultáneamente. Los trabajos incluyen previsualizaciones de datos, trabajos de creación de
perfiles, consultas REST y SQL, solicitudes de servicios web y asignaciones que se ejecutan desde
Developer tool.
• Tamaño máximo del grupo de ejecución de lotes nativos. Controla el número de trabajos nativos
implementados que puede ejecutar de forma simultánea cada proceso de servicio de integración de
datos.
• Tamaño máximo del grupo de ejecución de lotes Hadoop. Controla el número de trabajos de Hadoop
implementados que pueden ejecutarse simultáneamente.
Anteriormente, se configuraba la propiedad Tamaño máximo del grupo de ejecución para controlar el
número máximo de trabajos que el proceso del servicio de integración de datos podía ejecutar
simultáneamente.
Al actualizar a 10.2, el valor del tamaño máximo del grupo de ejecución se actualiza a las siguientes
propiedades:
• Tamaño máximo del grupo de lotes a petición. Hereda el valor de la propiedad Tamaño máximo del grupo
de ejecución.
• Tamaño máximo del grupo de ejecución de lotes nativos. Hereda el valor de la propiedad Tamaño
máximo del grupo de ejecución.
• Tamaño máximo del grupo de ejecución de lotes Hadoop. Hereda el valor de la propiedad Tamaño
máximo del grupo de ejecución si el valor original ha variado de 10. Si el valor es 10, el grupo de lotes de
Hadoop conserva el tamaño predeterminado de 100.
Para obtener más información, consulte el capítulo "Servicio de integración de datos" en la Guía del servicio
de aplicación de Informatica 10.2.
Conexión de Hadoop
A partir de la versión 10.2, los siguientes cambios afectan a las propiedades de conexión de Hadoop.
Propiedad Descripción
Escribir archivos de rechazo en Hadoop Seleccione la propiedad para mover los archivos de rechazo a la
ubicación de HDFS que aparece en la propiedad del directorio de
archivo de rechazo al ejecutar asignaciones.
Aparece en las propiedades de directorio de rechazo.
Dirección del supervisor de trabajos de El nombre de host y el número de puerto del supervisor de trabajos de
Blaze Blaze.
Aparece en la configuración de Blaze.
Nombre de cola de YARN El nombre de cola del programador de YARN que utiliza el motor de
Spark que especifica cuáles son los recursos disponibles en un
clúster.
Aparece en la configuración de Blaze.
Nombre de la base de datos Nombre de la base de datos Espacio de nombres para tablas de
de transferencia provisional transferencia provisional de Hive.
de Hive Aparece en las propiedades comunes.
Anteriormente aparecía en las propiedades de
Hive.
Directorio de transferencia Directorio de trabajo temporal en La ruta de archivo HDFS del directorio que usa
provisional de Blaze HDFS el motor Blaze para almacenar archivos
CadiWorkingDirectory temporales.
Aparece en la configuración de Blaze.
Nombre de usuario de Blaze Nombre de usuario del servicio El propietario del servicio Blaze y de los
de Blaze registros del servicio Blaze.
CadiUserName Aparece en la configuración de Blaze.
Nombre de cola de YARN Nombre de cola de YARN El nombre de la cola del programador YARN
CadiAppYarnQueueName utilizada por el motor de Blaze que especifica
los recursos disponibles en un clúster.
Aparece en la configuración de Blaze.
Directorio de almacenamiento Directorio de almacenamiento La ruta de acceso del archivo HDFS del
provisional de Spark provisional de HDFS de Spark directorio que utiliza el motor de Spark para
almacenar archivos temporales para ejecutar
trabajos.
Propiedad Descripción
Dirección de administrador de recursos El servicio de Hadoop que envía las solicitudes de recursos o inicia
las aplicaciones YARN.
Importada en la configuración del clúster como la propiedad
yarn.resourcemanager.address.
Anteriormente aparecía en las propiedades del clúster de Hadoop.
URI del sistema de archivos predeterminado El URI para acceder al sistema de archivos distribuido de Hadoop
predeterminado.
Importada en la configuración del clúster como la propiedad
fs.defaultFS o fs.default.name.
Anteriormente aparecía en las propiedades del clúster de Hadoop.
Propiedad Descripción
URI de la base de datos de metastore* El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.
Anteriormente aparecía en la configuración de Hive.
Controlador de la base de datos de Nombre de clase del controlador del almacén de datos de JDBC.
metastore* Anteriormente aparecía en la configuración de Hive.
URI de metastore remoto* El URI de metastore utilizado para acceder a los metadatos en una
configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la
propiedad hive.metastore.uris.
Anteriormente aparecía en la configuración de Hive.
* Estas propiedades están obsoletas en la versión 10.2. Al actualizar a la versión 10.2, los valores de propiedad
definidos en una versión anterior se guardan en el repositorio, pero no aparecen en las propiedades de conexión.
Propiedad Descripción
Puerto de ZooKeeper El número de puerto del equipo que aloja el servidor de ZooKeeper.
Habilitar conexión de Kerberos Permite que el dominio de Informatica se comunique con el servidor
maestro o el servidor de región de HBase que utilice la autenticación
Kerberos.
Entidad de seguridad de HBase Master Nombre de entidad de seguridad de servicio (SPN) del servidor
maestro de HBase.
Entidad de seguridad de HBase RegionServer Nombre de entidad de seguridad de servicio (SPN) del servidor de
región de HBase.
• No puede utilizar una conexión de PowerExchange for Hive si desea que el controlador de Hive ejecute
asignaciones en el clúster de Hadoop. Para utilizar el controlador de Hive para ejecutar asignaciones en el
clúster de Hadoop, utilice una conexión de Hadoop.
• Las siguientes propiedades se eliminan de la conexión y se importan en la configuración del clúster:
Propiedad Descripción
URI de sistema de archivos predeterminado El URI para acceder al sistema de archivos distribuido de Hadoop
predeterminado.
URI de JobTracker/Administrador de El servicio de Hadoop que envía las tareas de MapReduce a nodos
recursos YARN específicos en el clúster.
Directorio de almacén Hive en HDFS La ruta de acceso absoluta al archivo HDFS de la base de datos
predeterminada para el almacén que es local en el clúster.
URI de la base de datos de metastore El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.
Controlador de la base de datos de Nombre de clase del controlador del almacén de datos de JDBC.
metastore
URI de metastore remoto El URI de metastore utilizado para acceder a los metadatos en una
configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la
propiedad hive.metastore.uris.
Entorno de ejecución
A partir de la versión 10.2, puede configurar el directorio de archivos de rechazo como una nueva propiedad
en el entorno de ejecución de Hadoop.
Nombre Valor
Directorio de El directorio para los archivos de asignación de Hadoop en HDFS cuando se ejecutan las
archivos de asignaciones en el entorno de Hadoop.
rechazo El motor de Blaze puede escribir archivos de rechazo en el entorno de Hadoop para destinos de
archivos sin formato, HDFS y Hive. Los motores de Spark y Hive pueden escribir archivos de
rechazo en el entorno de Hadoop para destinos de archivos sin formato y HDFS.
Especifique una de las siguientes opciones:
- En el equipo del servicio de integración de datos. El servicio de integración de datos almacena
los archivos de rechazo sobre la base del parámetro del sistema RejectDir.
- En el clúster de Hadoop. Los archivos de rechazo se mueven al directorio de rechazo
configurado en la conexión de Hadoop. Si el directorio no está configurado, la asignación
fallará.
- Diferir a la conexión de Hadoop. Los archivos de rechazo se mueven en función de si el
directorio de rechazo está habilitado en las propiedades de conexión de Hadoop. Si el directorio
de rechazo está habilitado, los archivos de rechazo se mueven al directorio de rechazo
configurado en la conexión de Hadoop. De lo contrario, el servicio de integración de datos
almacena los archivos de rechazo sobre la base del parámetro del sistema RejectDir.
Supervisión
A partir de la versión 10.2, la fila AllHiveSourceTables de la vista Resumen de estadísticas de la Herramienta
del administrador incluye registros leídos de los siguientes orígenes:
Para obtener más información, consulte el capítulo "Supervisar asignaciones en el entorno de Hadoop" de la
Guía del usuario de Big Data Management 10.2.
• fs.s3a.access.key
• fs.s3a.secret.key
• fs.s3n.awsAccessKeyId
• fs.s3n.awsSecretAccessKey
• fs.s3.awsAccessKeyId
• fs.s3.awsSecretAccessKey
Anteriormente, configuraba estas propiedades en los archivos de configuración XML de los equipos que
ejecutan el servicio de integración de datos y Developer tool.
Para obtener más información sobre las propiedades sensibles, consulte la Guía del administrador de
Informatica Big Data Management 10.2.
Sqoop
A partir de la versión 10.2, si crea un archivo de contraseña para acceder a una base de datos, Sqoop omite
el archivo de contraseña. Sqoop utiliza el valor que configura en el campo Contraseña de la conexión JDBC.
Anteriormente, podía crear un archivo de contraseña para acceder a una base de datos.
Para obtener más información, consulte el capítulo "Asignación de objetos en el entorno de Hadoop" en la
Guía del usuario de Informatica Big Data Management 10.2.
Comando Descripción
BackupData Realiza una copia de seguridad de los datos de HDFS del clúster de Hadoop interno en un archivo
ZIP. Cuando se realiza una copia de seguridad de los datos, el servicio de clústeres de Informatica
guarda todos los datos que Enterprise Information Catalog ha creado, como los datos de HBase,
los datos del detector y los datos de ingesta.
removesnapshot Quita las instantáneas de HDFS existentes de modo que pueda ejecutar el comando infacmd ihs
BackupData correctamente para realizar una copia de seguridad de los datos de HDFS.
Para obtener más información, consulte el capítulo "Referencia del comando infacmed ldm" de la Referencia
de comandos de Informatica 10.2.
• El producto Informatica Live Data Map ha cambiado de nombre a Informatica Enterprise Information
Catalog.
• La Herramienta del administrador de Informatica Live Data Map ha cambiado de nombre a Informatica
Catalog Administrator.
• El nombre del instalador ha pasado de Live Data Map a Enterprise Information Catalog.
Informatica Analyst
En esta sección se describen los cambios introducidos en la Herramienta del analista en la versión 10.2.
Parámetros
En esta sección se describen los cambios introducidos en los parámetros de la Herramienta del analista.
Para obtener más información acerca de la visualización de objetos de datos, consulte la Guía de la
Herramienta del analista de Informatica 10.2.
Intelligent Streaming
En esta sección se describen los cambios que se han realizado en Informatica Intelligent Streaming en la
versión 10.2.
Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.
Adaptadores de PowerExchange
En esta sección se describen los cambios que se han realizado en los adaptadores de PowerExchange de la
versión 10.2.
• Puede proporcionar la ruta de la carpeta sin especificar el nombre del depósito en las propiedades
avanzadas para la operación de lectura y escritura con el siguiente formato: /<folder_name>. El servicio
de integración de datos anexa esta ruta de carpeta a la ruta de la carpeta especificada en las propiedades
de conexión.
Anteriormente, especificaba el nombre del depósito junto con la ruta de la carpeta en las propiedades
avanzadas para la operación de lectura y escritura con el siguiente formato: <bucket_name>/
<folder_name>.
• Puede ver el directorio de nombres de depósito si sigue la lista de subdirectorios del panel izquierdo y la
lista seleccionada de archivos del panel derecho del explorador de importación de metadatos.
Anteriormente, PowerExchange for Amazon S3 mostraba la lista de nombres de depósito en el panel
izquierdo y la ruta de la carpeta junto con los nombres de archivo en el panel derecho del explorador de
importación de metadatos.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon S3 de Informatica
10.2.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon Redshift de
Informatica 10.2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Email Server de Informatica
10.2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de PowerExchange for JD Edwards EnterpriseOne
de Informatica 10.2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de PowerExchange for JD Edwards World de
Informatica 10.2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for LDAP 10.2 para
PowerCenter.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Lotus Notes de Informatica
10.2 para PowerCenter.
Anteriormente, PowerExchange for Oracle E-Business Suite tenía un programa de instalación independiente.
Para obtener más información, consulte la Guía del usuario de PowerExchange for Oracle E-Business Suite de
Informatica 10.2 para PowerCenter.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Siebel 10.2
para PowerCenter.
Seguridad
En esta sección se describen los cambios en las características de seguridad de la versión 10.2.
Para obtener más información, consulte el capítulo "Autenticación de SAML para aplicaciones web de
Informatica" en la Guía de seguridad de Informatica 10.2.
Transformaciones
En esta sección se describen los cambios en el comportamiento de las transformaciones en la versión 10.2.
Transformaciones de Informatica
En esta sección se describen los cambios en las transformaciones de Informatica en la versión 10.2.
La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:
Anteriormente, la transformación utilizaba la versión 5.9.0 del motor de software Informatica Address
Verification.
Japón
A partir de la versión 10.2, puede configurar una única asignación para devolver el código Choumei Aza de
una dirección actual de Japón. Para devolver el código, seleccione el puerto del código Choumei Aza de JP
actual. Puede utilizar el código para buscar la versión actual de cualquier dirección heredada que Japan Post
reconozca.
Anteriormente, se usaba el puerto del código Choumei Aza de JP nuevo para devolver cambios
incrementales en el código Choumei Aza de una dirección. La transformación no incluía el puerto del código
Choumei Aza de JP actual. Era necesario configurar dos o más asignaciones para verificar un código
Choumei Aza actual y la dirección correspondiente.
Reino Unido
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
información de condado tradicional, administrativa y postal del archivo de dirección postal del Royal Mail. La
transformación devuelve la información sobre los puertos de provincia.
Transformaciones 413
En la tabla siguiente se muestran los puertos que se pueden seleccionar para cada tipo de información:
Postal Provincia 1
Administrativa Provincia 2
Tradicional Provincia 3
Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2.
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification de la versión 5.9.0 a la versión 5.11.0, consulte la Guía de la versión 5.11.0 de Informatica
Address Verification.
Transformación de expresión
A partir de la versión 10.2, puede configurar la transformación de expresión para que sea una transformación
activa en el motor de Spark mediante una función de ventana o una función agregada con propiedades de
ventana.
Para obtener más información, consulte la Guía del administrador de Big Data Management 10.2.
Transformación de normalizador
A partir de la versión 10.2, la opción de deshabilitar la generación de grupos de salida de primer nivel ya no
está disponible en las propiedades avanzadas de la transformación de normalizador.
Anteriormente podía seleccionar esta opción para suprimir la generación de grupos de salida de primer nivel.
Para obtener más información, consulte la Guía de transformación de desarrollador de Informatica Big Data
Management 10.2.
Flujos de trabajo
En esta sección se describen los cambios en el comportamiento del flujo de trabajo en la versión 10.2.
Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.