IN 1051 WhatSNewAndChanged10511 Es

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 415

Informatica®

10.5.1

Novedades y cambios
(10.5.1.1)
Informatica Novedades y cambios (10.5.1.1)
10.5.1
Diciembre 2021
© Copyright Informatica LLC 2003, 2022

Este software y la documentación se proporcionan exclusivamente en virtud de un acuerdo de licencia independiente que contiene restricciones de uso y divulgación.
Ninguna parte de este documento puede ser reproducida o transmitida de cualquier forma o manera (electrónica, fotocopia, grabación o mediante otros métodos) sin
el consentimiento previo de Informatica LLC.

Las bases de datos, el software y los programas de DERECHOS DEL GOBIERNO DE LOS ESTADOS UNIDOS, y la documentación e información técnica relacionadas
entregadas a los clientes del Gobierno de los Estados Unidos constituyen "software informático comercial" o "datos técnicos comerciales" de acuerdo con el
Reglamento de Adquisición Federal y las regulaciones complementarias específicas del organismo que correspondan. Como tales, el uso, la duplicación, la divulgación,
la modificación y la adaptación están sujetos a las restricciones y los términos de licencia establecidos en el contrato gubernamental aplicable, y hasta donde sea
aplicable en función de los términos del contrato gubernamental, a los derechos adicionales establecidos en FAR 52.227-19, Licencia de Software Informático
Comercial.

Informatica, el logotipo de Informatica, PowerCenter, PowerExchange, Big Data Management y Live Data Map son marcas comerciales o marcas comerciales
registradas de Informatica LLC en los Estados Unidos y en muchas otras jurisdicciones de todo el mundo. La lista actual de marcas comerciales de Informatica está
disponible en Internet en https://www.informatica.com/trademarks.html. Otros nombres de productos y empresas pueden ser nombres o marcas comerciales de sus
respectivos titulares.

Las partes de este software o la documentación están sujetas a derechos de autor de terceros. Se incluyen con el producto los avisos obligatorios de terceros.

La información contenida en esta documentación está sujeta a cambios sin previo aviso. Si encuentra algún problema en esta documentación, escríbanos a
[email protected] para notificárnoslo.

Los productos de Informatica gozan de garantía en función de los términos y condiciones de los acuerdos conforme a los cuales se proporcionen. INFORMATICA
PROPORCIONA LA INFORMACIÓN DE ESTE DOCUMENTO "TAL CUAL" SIN GARANTÍA DE NINGÚN TIPO, EXPRESA O IMPLÍCITA, INCLUIDAS LAS GARANTÍAS DE
COMERCIALIZACIÓN, ADAPTACIÓN A UN FIN PARTICULAR Y CUALQUIER GARANTÍA O CONDICIÓN DE NO INCUMPLIMIENTO.

Fecha de publicación: 2022-01-16


Tabla de contenido
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Recursos de Informatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Informatica Network. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Base de conocimiento de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Documentación de Informatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Matrices de disponibilidad de producto de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Informatica Velocity. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Catálogo de soluciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Servicio internacional de atención al cliente de Informatica. . . . . . . . . . . . . . . . . . . . . . . . 27

Parte I: Versión 10.5.1-10.5.1.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Capítulo 1: Versión 10.5.1.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


Novedades (10.5.1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Cambios (10.5.1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

Capítulo 2: Avisos importantes de la versión 10.5.1. . . . . . . . . . . . . . . . . . . . . 32


Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Versión preliminar técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Compatibilidad cancelada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
En desuso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
PowerExchange for Microsoft Dynamics CRM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Programa de instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Documentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Actualización Rutas de acceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Informatica Deployment Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

Capítulo 3: Novedades de la versión 10.5.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Transformaciones en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Modelos de estructura inteligente en Databricks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Etiquetas de infracción de directivas de seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Asignación de tareas de directivas de seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

Tabla de contenido 3
Plantilla de informe DSAR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Compatibilidad con Microsoft Azure SQL Server. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Orígenes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Data Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Data Transformation Biblioteca HIX. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Advanced Scanners. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Requisitos de sudo para el usuario de la puerta de enlace. . . . . . . . . . . . . . . . . . . . . . . . . 40
SELinux en modo impositivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Compatibilidad con RHEL 7.9 en modo FIPS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Data Asset Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Ordenar resultados de búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Informatica Data Quality. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Seguridad (10.5.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Delegación restringida de Kerberos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Tipos de datos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

Capítulo 4: Cambios en la versión 10.5.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44


Data Privacy Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Exportación de información de campos confidenciales. . . . . . . . . . . . . . . . . . . . . . . . . . 44
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Modelos de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Transformación de fechas y horarios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Servicio de clúster de Informatica habilitado para SSL y servicios asociados. . . . . . . . . . . . 46
Requisitos de certificado SSL personalizado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Archivos binarios de escáner para recursos de Informatica Platform. . . . . . . . . . . . . . . . . . 47
Data Asset Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

Parte II: Versiones 10.5-10.5.0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

Capítulo 5: Versión 10.5.0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Advanced Scanners. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4Tabla de contenido
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Enterprise Data Catalog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Capítulo 6: Avisos importantes de la versión 10.5. . . . . . . . . . . . . . . . . . . . . . . 53


Cambios en la compatibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Versión preliminar técnica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
En desuso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Aplazamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
PowerExchange for Kudu para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Programa de instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Actualización Rutas de acceso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Data Engineering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Dominio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Informatica Deployment Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Capítulo 7: Novedades de la versión 10.5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62


CI/CD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Comandos infacmd cluster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Comandos infacmd ics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Comandos infacmd ldm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Comandos infacmd ms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
infasetup defineDomain. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Función EXTRACT_STRUCT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Administrador de archivos para preprocesamiento de archivos en la nube. . . . . . . . . . . . . . 72
Asignación de auditorías. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Perfil en el clúster de Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Recomendaciones e información de datos confidenciales de CLAIRE. . . . . . . . . . . . . . . . . 73
Compatibilidad con grupos intermedios para clústeres efímeros en Databricks. . . . . . . . . . . 73
Data Engineering Quality. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Integración de Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Cassandra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

Tabla de contenido 5
DataProc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Destino de almacenamiento en la nube de Google en Google Dataproc. . . . . . . . . . . . . . . . 74
Google PubSub. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Tipos de datos de alta precisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Kudu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Transformación de Python en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Personalizar el logotipo de la marca. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Dominios de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Compatibilidad con PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Panel de privacidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Orígenes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Data Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Advanced Scanners. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Clonación de un recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Página de inicio mejorada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Panel de filtro mejorado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Resultados de búsqueda mejorados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Nuevos tutoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Mejoras en la página de notificaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Perfil en el clúster de Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Mejoras de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformación de enmascaramiento de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Transformación de búsqueda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Transformación del generador de secuencias en Databricks. . . . . . . . . . . . . . . . . . . . . . . 82
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Modelos de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Compatibilidad con Azure Microsoft SQL Server. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Cifrados compatibles con los servicios de PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . 83
Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Adaptadores de PowerExchange para PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Fortalecimiento del cifrado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Funcionalidad SAML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6Tabla de contenido
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Compatibilidad con PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Ordenar entradas en un diccionario relacional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Test Data Generation para orígenes XSD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

Capítulo 8: Cambios en la versión 10.5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91


Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
infasetup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Data Engineering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Documentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Rendimiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Procesamiento de valores no válidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Data Privacy Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Archivos comprimidos en exploraciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Propiedades del almacén de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Eliminación de solicitudes de asunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Archivo de configuración del registro de asuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Recuento total de asuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Supervisión de actividad de usuarios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Recurso de Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Propagación de términos empresariales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Recursos personalizados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Vista de diagrama de impacto y linaje predeterminado. . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Autenticación de Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Recurso de detección de similitudes de Informatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Recursos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Pestañas de búsqueda reemplazadas por filtros previos de búsqueda. . . . . . . . . . . . . . . . . 95
Cambios terminológicos en la documentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Advanced Scanners utiliza modelos de sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Modelos de estructura inteligente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Autenticación de SAML. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Parte III: Versiones 10.4.1-10.4.1.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

Capítulo 9: Versión 10.4.1.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99


Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Versión preliminar técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

Tabla de contenido 7
Cloudera CDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

Capítulo 10: Versión 10.4.1.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Vista previa técnica iniciada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

Capítulo 11: Versión 10.4.1.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Data Engineering Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Data Privacy Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

Capítulo 12: Avisos importantes de la versión 10.4.1. . . . . . . . . . . . . . . . . . . 113


Cambios en la compatibilidad en la versión 10.4.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Versión preliminar técnica Compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Aplazamiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Compatibilidad con IPv6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Compatibilidad con la distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
PowerExchange for MongoDB JDBC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Cambios del programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Tareas de la versión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Capítulo 13: Novedades de la versión 10.4.1. . . . . . . . . . . . . . . . . . . . . . . . . . 119


Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Controladores ODBC y JDBC para DataDirect. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Oracle Connection Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

8Tabla de contenido
Datos jerárquicos en orígenes y destinos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Autenticación de SAML para ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Puerto FileName para ADLS Gen2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Ingerir datos de CDC desde varios temas de Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Transformación de búsqueda de JDBC V2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Formato de datos Parquet para destinos complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Parámetros de sustitución en destinos de Amazon S3 y ADLS Gen2. . . . . . . . . . . . . . . . . 121
Orígenes y destinos en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Asignaciones de transmisión en AWS Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Almacenes de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Tareas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Panel de privacidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Cifrado de datos del Registro de asunto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Almacenes de datos no estructurados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Asociación de términos empresariales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Configurar la resolución de conflictos para la regla de datos y la regla de nombres de
columna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Información del linaje contextual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Data Asset Analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
Conservación de datos a través de la exportación y la importación. . . . . . . . . . . . . . . . . . 124
Detección de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Tutoriales de Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Extraer los puntos finales de la transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Linaje a nivel de campo para archivos sin formato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Linaje de archivos para Cloud Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Recurso de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Recurso de Informatica MDM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Microsoft SQL Server Recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Recurso de MicroStrategy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Detección de archivos particionados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Recursos de referencia y activos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Permisos a nivel de recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Extraer el nombre de la base de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Recursos de SAP BW y SAP BW/4HANA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Recurso de SSIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Transformación de macro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Cambiar el nodo raíz en una estructura de matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

Tabla de contenido 9
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Configurar la ubicación de Java y el tamaño de heap para los recursos de Business Object. . 130
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

Capítulo 14: Cambios en la versión 10.4.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 135


Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Intelligent Structure Discovery. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Programa de instalación de la administración de Data Privacy. . . . . . . . . . . . . . . . . . . . . 136
Resumen Espacio de trabajo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Informes de trabajos de exploración. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Vistas de la página Archivos confidenciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Documentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Data Privacy Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Seguridad del dominio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Habilitar el acceso a un dominio habilitado para Kerberos. . . . . . . . . . . . . . . . . . . . . . . . 138
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Página de resumen de cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Exportar datos de activos a un archivo de extracción de datos de Tableau. . . . . . . . . . . . . 139
Exportar la ruta de los activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Mostrar términos empresariales activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Ordenar los activos de campo y columna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Nombre de la ficha de inicio en Catalog Administrator. . . . . . . . . . . . . . . . . . . . . . . . . . 140
Informatica Developer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Búsqueda de objetos relacionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Ver el plan de ejecución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Ver el linaje de datos en HTML 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Programa de instalación de Test Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

Parte IV: Versiones 10.4-10.4.0.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

Capítulo 15: Versión 10.4.0.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143


Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Actualizar la versión de distribución de clústeres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

Capítulo 16: Versión 10.4.0.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

10Tabla de contenido
Eliminación de vista previa técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Novedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Capítulo 17: Avisos importantes de la versión 10.4. . . . . . . . . . . . . . . . . . . . . 148


Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Cambios de nombre de producto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
Actualizar a la versión 10.4.0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Versión preliminar técnica Compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Aplazamiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Compatibilidad cancelada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Capítulo 18: Novedades de la versión 10.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 156


CI/CD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
API de REST del servicio de integración de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Comandos infacmd dis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Servidor proxy inverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Comandos infacmd roh. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
Implementación de revisiones de la aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
Conexión a una aplicación en tiempo de ejecución. . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Vista Explorador de objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
Etiquetas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Compatibilidad con nuevos tipos de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Integración de AWS Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
Flujos de trabajo de clúster para el acceso de HDInsight a recursos de ALDS Gen2. . . . . . . . 163
Acceso al almacenamiento de Databricks Delta Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . 163

Tabla de contenido 11
Visualización de los nodos utilizados en una asignación. . . . . . . . . . . . . . . . . . . . . . . . . 164
Agregación de registros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Análisis de datos jerárquicos en el motor Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Creación de perfiles y opciones de muestreo en el motor Spark. . . . . . . . . . . . . . . . . . . . 164
Transformación de Python. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Data Engineering Streaming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Confluent Schema Registry en asignaciones de transmisión . . . . . . . . . . . . . . . . . . . . . . 166
Transformaciones de Data Quality en asignaciones de transmisión. . . . . . . . . . . . . . . . . . 166
Clúster efímero en asignaciones de transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Puerto FileName en Amazon S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Microsoft Azure Data Lake Storage Gen2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Asignaciones de transmisión en Azure Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Asignaciones dinámicas en Data Engineering Streaming . . . . . . . . . . . . . . . . . . . . . . . . 168
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Asignación de atributos personalizados a recursos y clases. . . . . . . . . . . . . . . . . . . . . . 168
Nuevos recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Recursos de referencia y activos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Exportación de activos desde resultados de búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . 169
Filtros de linaje e impacto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Resumen de control de activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Reglas y cuadros de mandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Inferencia de clave única. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Detección del dominio de datos en el tipo de archivo CLOB. . . . . . . . . . . . . . . . . . . . . . . 170
Obtención de datos y opciones de muestreo en el motor Spark. . . . . . . . . . . . . . . . . . . . 170
Seguimiento de la vista previa técnica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Vista previa de datos y aprovisionamiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Tipos de recursos compatibles en la utilidad de escáner independiente. . . . . . . . . . . . . . . 172
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Administración de acceso a Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Microsoft Azure Data Lake Storage como origen de datos. . . . . . . . . . . . . . . . . . . . . . . . 173
Publicación de archivos en Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Carga de archivos en Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Asignaciones de Informatica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Vinculación de salidas de asignación con parámetros de asignación. . . . . . . . . . . . . . . . . 174
Recomendaciones y conclusiones de CLAIRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Actualización del nivel del optimizador de asignaciones. . . . . . . . . . . . . . . . . . . . . . . . . 175
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
Propiedades avanzadas de la tarea Crear clúster en Amazon EMR. . . . . . . . . . . . . . . . . . 176

12Tabla de contenido
Instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
PostgreSQL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Pre-installation (i10Pi) System Check Tool en modo silencioso. . . . . . . . . . . . . . . . . . . . 177
Cifrado de contraseñas en el archivo de propiedades de la instalación silenciosa. . . . . . . . . 177
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Tipos de entrada adicionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Creación de modelos a partir de muestras en tiempo de diseño. . . . . . . . . . . . . . . . . . . . 177
Administración de datos sin identificar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Configuración de aplicaciones web para utilizar proveedores de identidades SAML diferentes 184

Capítulo 19: Cambios en la versión 10.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185


Data Engineering Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Vista previa de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Formato de fecha y hora en Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Valores nulos en el destino. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Transformación de Python. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Administración de valores nulos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Propiedad del puerto Solr. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Mejoras de linaje para el recurso SAP HANA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Creación de perfiles y detección del dominio de datos. . . . . . . . . . . . . . . . . . . . . . . . . . 188
Informatica Data Engineering Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Cambios de nombre de recurso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Búsqueda Sugerencias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Configuración de atributos personalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Importación de objetos de datos relacionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Actualización de metadatos en Designer y Workflow Manager. . . . . . . . . . . . . . . . . . . . . 190
Importar y exportar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192

Tabla de contenido 13
PowerExchange for Microsoft Azure Data Lake Storage Gen1. . . . . . . . . . . . . . . . . . . . . 192
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Servicios de directorio de LDAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Configuraciones de LDAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Autenticación de SAML. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

Parte V: Versión 10.2.2 a 10.2.2 HotFix 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

Capítulo 20: Versión 10.2.2 HotFix1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Programas de la línea de comandos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Data Transformation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

Capítulo 21: Versión 10.2.2 Service Pack 1. . . . . . . . . . . . . . . . . . . . . . . . . . . 203


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Cambios en los nombres de productos y servicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Enterprise Data Preparation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Big Data Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Big Data Transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209

Capítulo 22: Avisos importantes de la versión 10.2.2. . . . . . . . . . . . . . . . . . . 211


Instalación y configuración. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
OpenJDK. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

14Tabla de contenido
Firma de código del programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Reanudar el programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Utilidad de Informatica Docker. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Motor de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Compatibilidad con la distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Cambios en la compatibilidad de Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . 214
Cambios en la compatibilidad de Big Data Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Marco de conectividad universal en Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . 215
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218

Capítulo 23: Novedades de la versión 10.2.2. . . . . . . . . . . . . . . . . . . . . . . . . . 219


servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Servicio de ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Servicio de acceso a metadatos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Servicio del concentrador de operaciones REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Integración de Azure Databricks. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Vista previa de datos en el motor de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
Datos jerárquicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
Alta disponibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
Ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
Supervisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
Destinos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
Big Data Transmisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Objetos de datos de centros de eventos de Azure. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Roles IAM de cuentas cruzadas en Amazon Kinesis Connection. . . . . . . . . . . . . . . . . . . . 225
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
Puertos de encabezado para objetos de datos de Big Data Streaming. . . . . . . . . . . . . . . . 225
Perfil de credenciales de AWS en la conexión de Amazon Kinesis. . . . . . . . . . . . . . . . . . . 226
Transmisión estructurada de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Transformación de ventana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Comandos infacmd dis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Comandos infacmd ihs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

Tabla de contenido 15
Comandos infacmd ipc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Comandos infacmd ldm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Comandos infacmd mi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Comandos infacmd ms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Comandos infacmd oie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Comandos infacmd tools. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
Asignar automáticamente un título empresarial a una columna. . . . . . . . . . . . . . . . . . . . 231
Colaboración del usuario en activos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
Crear servicios de aplicación de Enterprise Data Catalog usando el programa de instalación. 231
Utilidad de validación de metadatos personalizada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Notificaciones de cambio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Business Glossary Informe de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Perfiles de sistema operativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
Filtro de perfiles de datos y metadatos de origen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Utilidad de analizador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Tipos de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
Enterprise Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Aplicar reglas activas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Eliminar filas duplicadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Agrupar y categorizar datos de columna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Recomendaciones basadas en CLAIRE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Agregación condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Enmascaramiento de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Localización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Orígenes y destinos de la partición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Agregar comentarios a pasos de la receta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Guardar una receta como asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Amazon S3, ADLS, WASB, MapR-FS como orígenes de datos. . . . . . . . . . . . . . . . . . . . . . 236
Funciones estadísticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
Funciones de fecha y hora. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones matemáticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones de texto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Funciones de ventana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Purgar eventos de auditoría. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Motor de ejecución de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Asignaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

16Tabla de contenido
Salidas de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
Parámetros de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Niveles del optimizador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Transformación de estrategia de actualización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
PowerExchange for Google BigQuery. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
PowerExchange for MapR-DB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Cosmos DB SQL API. . . . . . . . . . . . . . . . . . . . . . . . 248
PowerExchange for Microsoft Azure Data Lake Store. . . . . . . . . . . . . . . . . . . . . . . . . . . 249
PowerExchange for Microsoft Azure SQL Data Warehouse. . . . . . . . . . . . . . . . . . . . . . . 249
PowerExchange for Salesforce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
PowerExchange para la API del transportador paralelo de Teradata. . . . . . . . . . . . . . . . . . 251

Capítulo 24: Cambios en la versión 10.2.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 252


servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Servicio de acceso a metadatos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Conexión a Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Supervisión de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Transformaciones en el entorno de Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Integración de Big Data Streaming y Big Data Management. . . . . . . . . . . . . . . . . . . . . . . 255
Conexión de Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Transformaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Cambio de kit de desarrollo de Java. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Enterprise Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
Funciones MAX y MIN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Informatica Developer Cambio de nombre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257

Tabla de contenido 17
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Transformación de escritura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for Google Analytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for Google Cloud Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

Parte VI: Versión 10.2.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

Capítulo 25: Novedades de la versión 10.2.1. . . . . . . . . . . . . . . . . . . . . . . . . . 263


servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Servicio de administración de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
Servicio de integración de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Servicio de ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Servicio de acceso a metadatos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Servicio de repositorio de modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Motor de Blaze Conservación de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Flujos de trabajo de clúster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Configuración de aprovisionamiento de nube. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Alta disponibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Funcionalidad de Hive en el entorno Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Importación desde PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Modelo de estructura inteligente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Ingesta masiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Supervisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
Procesamiento de datos jerárquicos en el motor Spark. . . . . . . . . . . . . . . . . . . . . . . . . . 270
Compatibilidad de las especificaciones de regla en el motor Spark. . . . . . . . . . . . . . . . . . 270
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Compatibilidad de las transformaciones en el entorno Hadoop. . . . . . . . . . . . . . . . . . . . . 272
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
Orígenes y destinos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
Computación con estado en las asignaciones de secuencias. . . . . . . . . . . . . . . . . . . . . . 275
Compatibilidad de la transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
Truncamiento de las tablas de destino de Hive con particiones. . . . . . . . . . . . . . . . . . . . 275
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
Comandos infacmd autotune. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275

18Tabla de contenido
Comandos infacmd ccps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Comandos infacmd cluster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
Comandos infacmd cms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd dis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd ihs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Comandos infacmd ldm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
Comandos infacmd mi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
Comandos infacmd mrs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Comandos infacmd wfs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Enterprise Data Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Adición de un título empresarial a un activo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Utilidad de validación de clústeres en el programa de instalación. . . . . . . . . . . . . . . . . . . 280
Tipos de detección del dominio de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Filtro Valores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Informe de enlaces que faltan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Nuevos tipos de recursos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Autenticación SAML para aplicaciones de Enterprise Data Catalog. . . . . . . . . . . . . . . . . . 281
Recurso de SAP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Importación desde ServiceNow. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Columnas similares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Especificación de tipos de carga para el servicio de catálogo. . . . . . . . . . . . . . . . . . . . . . 282
Tipos de recursos admitidos en la detección de datos. . . . . . . . . . . . . . . . . . . . . . . . . . 282
Enterprise Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Datos de columna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Administración de los recursos de Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Operaciones de preparación de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Preparación de archivos JSON. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Pasos de la receta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
Programación de actividades de exportación, importación y publicación. . . . . . . . . . . . . . 285
Autenticación del lenguaje de marcado de aserción de seguridad (SAML). . . . . . . . . . . . . . 285
Visualización de los flujos de proyecto y el historial de proyectos. . . . . . . . . . . . . . . . . . . 285
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Diseño predeterminado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Búsqueda en el editor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
Importación de propiedades de sesión de PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . 287
Vistas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Asignaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Asignaciones dinámicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Parámetros de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

Tabla de contenido 19
Ejecución de asignaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
Truncamiento de las tablas de destino de Hive con particiones. . . . . . . . . . . . . . . . . . . . 290
Lenguaje de transformación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
Funciones complejas para el tipo de datos de asignación. . . . . . . . . . . . . . . . . . . . . . . . 291
Operador complejo para el tipo de datos de asignación. . . . . . . . . . . . . . . . . . . . . . . . . 291
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
Importación de una tarea de comando de PowerCenter . . . . . . . . . . . . . . . . . . . . . . . . . 294
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
PowerExchange for Amazon Redshift. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for Cassandra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
PowerExchange for HBase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
PowerExchange for Microsoft Azure Blob Storage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
PowerExchange for Microsoft Azure SQL Data Warehouse. . . . . . . . . . . . . . . . . . . . . . . 297
PowerExchange for Salesforce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
PowerExchange for SAP NetWeaver. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
Complejidad de la contraseña. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298

Capítulo 26: Cambios en la versión 10.2.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 299


Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
Cambios del soporte de actualización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
Compatibilidad de distribuciones de Hadoop para Big Data. . . . . . . . . . . . . . . . . . . . . . . 300
Motor de tiempo de ejecución de Hive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
Cambios del programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
Cambios de nombre de producto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
Servicio de repositorio de modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Acceso al almacenamiento de Azure. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Configurar la distribución de Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Configuración de Developer tool. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
Conexión de Hadoop Cambios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
Propiedades de conexión de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
Supervisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
Precisión y escala en el motor de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
Compatibilidad de las transformaciones en el motor Hive. . . . . . . . . . . . . . . . . . . . . . . . 309

20Tabla de contenido
Big Data Transmisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Configurar la distribución de Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Configuración de Developer tool. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Propiedades de conexión de Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Programas de la línea de comandos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Programa de instalación de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Enterprise Data Catalog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Sección de propiedades adicionales de la ficha General. . . . . . . . . . . . . . . . . . . . . . . . . 312
Asignación de conexión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Similitud de columnas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Creación de un servicio de catálogo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Mejoras del tipo de recurso HDFS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Recursos de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Escáner de Informatica Platform. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Resumen Tabulador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Cambios de nombre de producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Dominios de datos de proximidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Resultados de la búsqueda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Marco de conectividad universal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Informatica Analyst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Cuadros de mando. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Importación y exportación de objetos en PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformación del validador de direcciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Data Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Transformación de generador de secuencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
Transformación de ordenación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Amazon Redshift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Cassandra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
PowerExchange for Snowflake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

Capítulo 27: Tareas de la versión 10.2.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319


Adaptadores de PowerExchange para Amazon S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319

Parte VII: Versión 10.2 a 10.2 HotFix 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320

Capítulo 28: Versión 10.2 HotFix2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321


Avisos importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
Nuevos productos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

Tabla de contenido 21
Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Herramienta del analista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 332

Capítulo 29: Versión 10.2 HotFix 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335


Novedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
Business Glossary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
Conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
Programa de instalación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
Cambios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Business Glossary. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Documentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
Plataforma de desarrollo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
Datos de referencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354

22Tabla de contenido
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 354

Capítulo 30: Avisos importantes de la versión 10.2. . . . . . . . . . . . . . . . . . . . . 356


Nuevos productos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
Tareas de la versión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 357

Capítulo 31: Novedades de la versión 10.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 360


servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
Servicio de repositorio de modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
Instalación de Big Data Management. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
Configuración de clúster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
Procesamiento de datos jerárquicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
Computación con estado en el motor de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
Servicio de integración de datos Colocación en la cola. . . . . . . . . . . . . . . . . . . . . . . . . . 362
Supervisor de trabajos de Blaze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
Propiedades del servicio de integración de datos para integración de Hadoop. . . . . . . . . . . 363
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
Escalado automático en un clúster de Amazon EMR. . . . . . . . . . . . . . . . . . . . . . . . . . . 364
Compatibilidad de las transformaciones en el motor de Blaze. . . . . . . . . . . . . . . . . . . . . 364
Funcionalidad de Hive para el motor de Blaze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
Compatibilidad de las transformaciones en el motor de Spark. . . . . . . . . . . . . . . . . . . . . 364
Funcionalidad de Hive para el motor de Spark. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
Comandos infacmd cluster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
Opciones de infacmd dis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
Comandos infacmd ipc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
Comandos infacmd isp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
Comandos infacmd mrs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
Comandos infacmd ms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
Comandos infacmd wfs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
Comandos de infasetup. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
Comandos pmrep. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
Tipos de datos de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
Documentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
Enterprise Information Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
Nuevos orígenes de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
Marco de escáner personalizado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
API de REST. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376

Tabla de contenido 23
Dominios de datos compuestos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
Dominios de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
Exportar e importar atributos personalizados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Texto enriquecido como valor de atributo personalizado. . . . . . . . . . . . . . . . . . . . . . . . . 378
Lógica de transformación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Tipos de archivos no estructurados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Frecuencia de valores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
Implementación admitida para Azure HDInsight. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Perfiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Intelligent Data Lake. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
Validar y evaluar datos mediante visualización con Apache Zeppelin. . . . . . . . . . . . . . . . . 379
Evaluar datos mediante filtros durante la vista previa de datos. . . . . . . . . . . . . . . . . . . . . 380
Diseño mejorado del panel de recetas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Aplicar reglas de Data Quality. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Ver términos empresariales para activos de datos en vista previa de datos y vista de hoja
de cálculo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
Preparar datos para archivos delimitados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
Editar combinaciones en una hoja de cálculo combinada. . . . . . . . . . . . . . . . . . . . . . . . 381
Editar configuración de muestreo para la preparación de datos. . . . . . . . . . . . . . . . . . . . 381
Compatibilidad con varios recursos de Enterprise Information Catalog en Data Lake. . . . . . . 381
Utilizar Oracle para el repositorio del servicio de preparación de datos. . . . . . . . . . . . . . . . 381
Escalabilidad mejorada para el servicio de preparación de datos. . . . . . . . . . . . . . . . . . . 381
Informatica Developer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
Objetos de datos no relacionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Perfiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Instalación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Informatica Upgrade Advisor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Intelligent Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Formato CSV. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Tipos de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
Conexiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Asignaciones de transferencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Orígenes y destinos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Compatibilidad con transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
Cloudera Navigator. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
Especificaciones de regla. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390

24Tabla de contenido
Registros de actividad del usuario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Idioma de transformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Lenguaje de transformación de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
Transformaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
Transformaciones de PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Flujos de trabajo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396

Capítulo 32: Cambios en la versión 10.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398


Cambios en la compatibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
Compatibilidad de distribuciones de Hadoop para Big Data. . . . . . . . . . . . . . . . . . . . . . . 399
Metadata Manager. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
servicios de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
Servicio de administración de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
Servicio de integración de datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
Big Data. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
Conexión de Hadoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
Propiedades de conexión de HBase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
Propiedades de conexión de Hive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
Propiedades de conexión de HBase para MapR-DB . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
Propiedades de tiempo de ejecución de asignación. . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
Supervisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
Propiedades de clave secreta y de acceso S3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
Sqoop. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
Programas de la línea de comandos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
Enterprise Information Catalog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Cambios de nombre de producto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Informatica Analyst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Parámetros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Intelligent Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Cambios en objeto de datos Kafka. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Adaptadores de PowerExchange. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Adaptadores de PowerExchange para Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Adaptadores de PowerExchange para PowerCenter. . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
Seguridad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
Autenticación de SAML. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
Transformaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
Transformaciones de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
Flujos de trabajo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
Flujos de trabajo de Informatica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415

Tabla de contenido 25
Prefacio
Consulte Novedades y cambios de Informatica® para conocer las nuevas funciones y los cambios en las
versiones de productos actuales y recientes. También puede leer los avisos importantes para obtener
información relacionada con los cambios de soporte, los nuevos productos y las tareas de lanzamiento que
podría necesitar realizar después de actualizar desde una versión anterior. Novedades y cambios incluye
contenido para todos los productos integrados en la instalación de Informatica Platform.

Recursos de Informatica
Informatica proporciona una variedad de recursos de productos a través de Informatica Network y otros
portales en línea. Use los recursos para sacar el mayor provecho de los productos y las soluciones de
Informatica y aprender de otros expertos en la materia y usuarios de Informatica.

Informatica Network
Informatica Network es la puerta de entrada a muchos recursos, entre ellos, la base de conocimientos de
Informatica y el servicio internacional de atención al cliente de Informatica. Para entrar en Informatica
Network, visite https://network.informatica.com.

Como miembro de Informatica Network, tiene las siguientes opciones:

• Buscar recursos de productos en la base de conocimientos


• Ver la información de disponibilidad del producto
• Crear y revisar casos de soporte
• Buscar su red de grupos de usuarios de Informatica locales y colaborar con sus pares

Base de conocimiento de Informatica


Use la base de conocimientos de Informatica para encontrar recursos de productos como artículos
prácticos, procedimientos recomendados, tutoriales de video y respuestas a preguntas frecuentes.

Para buscar en la base de conocimiento, visite https://search.informatica.com. Si tiene preguntas,


comentarios o ideas relacionadas con la base de conocimiento de Informatica, póngase en contacto con el
equipo de la base de conocimiento de Informatica en [email protected].

26
Documentación de Informatica
Use el portal de documentación de Informatica para recorrer una extensa biblioteca de documentación para
las versiones de productos actuales y recientes. Para recorrer el portal de documentación, visite
https://docs.informatica.com.

Si tiene preguntas, comentarios o ideas acerca de la documentación de los productos, póngase en contacto
con el equipo de la documentación de Informatica en [email protected].

Matrices de disponibilidad de producto de Informatica


Las matrices de disponibilidad de producto (PAM, Product Availability Matrixes) indican las versiones de
sistemas operativos, bases de datos y otros tipos de orígenes y destinos de datos admitidos por la versión
de un producto. Puede recorrer las PAM de Informatica en
https://network.informatica.com/community/informatica-network/product-availability-matrices.

Informatica Velocity
Informatica Velocity es una colección de consejos y procedimientos recomendados desarrollados por los
servicios profesionales de Informatica que se basan en experiencias reales de cientos de proyectos de
administración de datos. Informatica Velocity represente el conocimiento colectivo de los consultores de
Informatica que trabajan con organizaciones de todo el mundo para planificar, desarrollar, implementar y dar
mantenimiento a soluciones de administración de datos exitosas.

Puede encontrar recursos de Informatica Velocity en http://velocity.informatica.com. Si tiene alguna


pregunta, comentario o idea acerca de Informatica Velocity, póngase en contacto con los servicios
profesionales de Informatica en [email protected].

Catálogo de soluciones de Informatica


El catálogo de soluciones de Informatica es un foro donde puede buscar soluciones que aumenten, amplíen
o mejoren sus implementaciones de Informatica. Aproveche cualquiera de los cientos de soluciones de
socios y desarrolladores de Informatica que se encuentran en el catálogo para mejorar su productividad y
acelerar la implementación de los proyectos. Puede encontrar el catálogo de soluciones de Informatica en
https://marketplace.informatica.com.

Servicio internacional de atención al cliente de Informatica


Puede ponerse en contacto con un centro de atención global por teléfono o a través de Informatica Network.

Para encontrar el número de teléfono local del servicio internacional de atención al cliente de Informatica,
visite el sitio web de Informatica en el siguiente vínculo:
https://www.informatica.com/services-and-training/customer-success-services/contact-us.html.

Para buscar recursos de asistencia en línea en Informatica Network, visite https://network.informatica.com y


seleccione la opción eSupport.

Prólogo 27
Parte I: Versión 10.5.1-10.5.1.1
Esta parte incluye los siguientes capítulos:

• Versión 10.5.1.1, 29
• Avisos importantes de la versión 10.5.1, 32
• Novedades de la versión 10.5.1, 37
• Cambios en la versión 10.5.1, 44

28
Capítulo 1

Versión 10.5.1.1
Este capítulo incluye los siguientes temas:

• Novedades (10.5.1.1), 29
• Cambios (10.5.1.1), 30

Novedades (10.5.1.1)
Lea esta sección para conocer las novedades de la versión 10.5.1.1.

Data Engineering Streaming


Lea esta sección para conocer las novedades de Data Engineering Streaming en la versión 10.5.1.1.

Vista previa de datos

A partir de la versión 10.5.1.1, puede obtener una vista previa de los datos de una asignación de
transmisión que se ejecuta en el motor de Spark en Developer tool. Al obtener una vista previa de los
datos, podrá diseñar y depurar asignaciones de transmisión.

Para obtener información sobre la vista previa de datos, consulte la Guía del usuario de Data Engineering
Streaming.

Escalado automático

A partir de la versión 10.5.1.1, puede habilitar el escalado automático y ejecutar una asignación de
transmisión en un clúster de Databricks. Cuando habilita el escalado automático, el clúster de
Databricks suma o resta automáticamente el núcleo del clúster y los nodos de tareas cuando las
asignaciones de Spark activan los umbrales de rendimiento.

Para obtener información sobre el escalado automático, consulte la Guía del usuario de Data Engineering
Integration.

Data Privacy Management


Lea esta sección para conocer las novedades de Data Privacy Management en la versión 10.5.1.1.

Migración del repositorio de Data Privacy Management

A partir de la versión 10.5.1.1, puede utilizar la utilidad DPMRepoMigration para migrar un repositorio de
Data Privacy Management en Oracle a PostgreSQL.

29
Para obtener información sobre cómo ejecutar la utilidad, consulte la Guía del administrador de
Informatica Data Privacy Management.

Orígenes

A partir de la versión 10.5.1.1, puede conectarse a un origen de Workday. Utilice conectores CDATA para
Workday para crear un almacén de datos JDBC para Workday. Puede realizar detección de dominios y
análisis del registro de asuntos en almacenes de datos para aplicaciones de Workday.

Para obtener información sobre cómo configurar la conectividad a los orígenes, consulte la Guía del
administrador de Informatica Data Privacy Management.

Enterprise Data Catalog


Lea esta sección para conocer las novedades de Enterprise Data Catalog en la versión 10.5.1.1.

Nuevos recursos

A partir de la versión 10.5.1.1, el recurso de TIBCO Spotfire se agrega en Enterprise Data Catalog. Puede
utilizar el recurso para extraer metadatos, relaciones e información de linaje del origen de datos de
TIBCO Spotfire.

Nota: Enterprise Data Catalog admite la autenticación OAuth para conectarse al TIBCO Spotfire Server.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.5.1
Enterprise Data Catalog.

Límite superior en la opción de muestreo de porcentaje aleatorio en el recurso de Hive

A partir de la versión 10.5.1.1, puede especificar un límite superior cuando crea un perfil de un recurso
de Hive con porcentaje aleatorio como una opción de muestreo mediante el motor Spark. Para un
rendimiento óptimo, el límite se aplica tanto a las tablas grandes como a las pequeñas.

Cambios (10.5.1.1)
Lea esta sección para conocer los cambios en la versión 10.5.1.1.

Enterprise Data Catalog


Lea esta sección para conocer los cambios en Enterprise Data Catalog en la versión 10.5.1.1.

Opciones de muestreo en el recurso de Google BigQuery

A partir de la versión 10.5.1.1, puede enviar el procesamiento de las opciones de muestreo Primeras N
filas y Porcentaje aleatorio a Google BigQuery. Puede realizar el muestreo en tablas nativas, tablas
agrupadas, tablas particionadas con la opción require_partition_filter establecida en falso y tablas
externas creadas sobre almacenamiento en nube de Google.

Para un rendimiento óptimo, considere la posibilidad de ejecutar el perfil con la opción de muestreo
Primeras N filas.

Requisitos de sudo para el usuario de la puerta de enlace

A partir de la versión 10.5.1.1, los comandos tee y sed no requieren privilegios de sudo. Se requieren
privilegios de sudo para sshd para ejecutar la utilidad de validación del clúster antes de actualizar
Enterprise Data Catalog.

30 Capítulo 1: Versión 10.5.1.1


Validación previa del clúster

A partir de la versión 10.5.1.1, el servicio de clúster de Informatica valida el parámetro MaxStartups en el


archivo de configuración del servidor SSH. El número máximo de conexiones SSH simultáneas no
autenticadas debe establecerse en un valor mayor o igual a 30.

Cambios (10.5.1.1) 31
Capítulo 2

Avisos importantes de la versión


10.5.1
Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad, 32
• Tareas de la versión, 33
• Programa de instalación de Informatica, 34

Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.1.

Versión preliminar técnica


Lea esta sección para obtener información sobre las funcionalidades de vista previa técnica que se inician o
se eliminan en la versión 10.5.1.

Eliminación de vista previa técnica


A partir de la versión 10.5.1, las siguientes funciones se eliminan de la vista previa técnica:
Análisis de flujo de datos

Puede utilizar el análisis de flujo de datos para ver datos analíticos sobre las asignaciones de
PowerCenter en el catálogo. Puede utilizar los datos para mejorar la calidad y la eficiencia de la
asignación en su empresa. También puede ver las asignaciones como diagramas para facilitar su
comprensión.

Los datos analíticos incluyen detalles sobre las siguientes métricas de asignación:

• Asignaciones similares
• Asignaciones duplicadas
• Mapplets, transformaciones y funciones de usuario reutilizables para expresiones complejas

Además, los datos también incluyen los detalles del grupo de asignación y los detalles de detección de
asignación para proporcionar información adicional sobre los datos de asignación. Puede descargar los
datos analíticos como informes para un análisis más detallado o mejorar los informes utilizando
soluciones de informes de terceros.

Para obtener más información, consulte la Guía del usuario de Enterprise Data Catalog 10.5.1.

32
Vista previa de datos en clústeres de Azure HDInsight y MapR

Puede obtener una vista previa de los datos con el motor Spark para las asignaciones configuradas para
ejecutarse en distribuciones de clúster de Azure HDInsight y MapR.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.1.

Compatibilidad cancelada
A partir de la versión 10.5.1, Data Privacy Management canceló la compatibilidad con las extensiones de
protección de Cloudera Sentry y Hortonworks Ranger. No puede crear ni utilizar las extensiones para
proteger datos confidenciales.

Para obtener información sobre cómo utilizar las extensiones de protección para proteger datos
confidenciales, consulte la Guía del usuario de Informatica Data Privacy Management.

Para obtener más información sobre la compatibilidad cancelada, póngase en contacto con el servicio
internacional de atención al cliente de Informatica.

En desuso
A partir de la versión 10.5.1, la siguiente funcionalidad ha caído en desuso:

La funcionalidad en desuso es compatible, pero Informatica quiere dejar de proporcionar soporte en una
versión posterior. Informatica solicita que pase a otra funcionalidad antes de que esta se elimine.

Enterprise Data Catalog

A partir de la versión 10.5.1, los siguientes recursos ya no se usan:

• IBM InfoSphere DataStage


• Oracle Data Integrator

La funcionalidad en desuso es compatible, pero Informatica quiere dejar de proporcionar soporte en una
versión posterior. Informatica solicita que pase a otra funcionalidad antes de que esta se elimine.

Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede
configurar funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales
de linaje.

Tareas de la versión
Lea esta sección para conocer las tareas que debe realizar después de actualizar a la versión 10.5.1.

PowerExchange for Microsoft Dynamics CRM


Microsoft dejó de utilizar el servicio de detección para Microsoft Dynamics CRM Online. A partir de la versión
10.5.1, debe utilizar el servicio de la organización para el tipo de autenticación de contraseña para acceder a
Microsoft Dynamics CRM Online.

Después de actualizar a la versión 10.5.1, las asignaciones fallan cuando usa la URL del servicio de
detección para el tipo de autenticación de contraseña para acceder a Microsoft Dynamics CRM Online. Debe
actualizar la conexión de Microsoft Dynamics CRM para que use la URL del servicio de organización de CRM.

Tareas de la versión 33
Nota: Puede seguir usando la URL de servicio web del servicio de detección para los tipos de autenticación
basados en notificaciones y Active Directory para conectarse a la instancia de Microsoft Dynamics CRM
local.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.5.1 para PowerCenter.

Programa de instalación de Informatica


Lea esta sección para conocer las novedades del programa de instalación de Informatica en la versión
10.5.1.

Documentación
Se han movido algunas instrucciones para aplicar el HotFix para la versión 10.5.1.

La siguiente tabla enumera los documentos donde puede encontrar instrucciones del HotFix para cada
producto:

Producto Documento

Data Engineering, PowerCenter, Data Notas de la versión


Quality

Enterprise Data Catalog Actualización de Enterprise Data Catalog desde las versiones 10.4.0 y
posteriores

Enterprise Data Preparation Guía de actualización de Enterprise Data Preparation

Data Privacy Management Actualización de Data Privacy Management desde las versiones 10.4.0 y
posteriores

Test Data Management Guía de actualización de Test Data Management

34 Capítulo 2: Avisos importantes de la versión 10.5.1


Actualización Rutas de acceso
Las rutas de actualización que tome dependerán de los productos que vaya a actualizar. Si tiene una versión
que no admite una actualización directa, primero debe actualizar a una versión compatible.

La siguiente tabla enumera las rutas de actualización para cada producto que admite el instalador.

Producto Versiones

PowerCenter Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
los paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.

Informatica Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Quality los paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.

Data Engineering Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Integration los paquetes de servicio:
Data Engineering - 10.1.1
Quality - 10.2
- 10.2.1
- 10.2.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering está en el mismo dominio que cualquier otro producto
compatible con el instalador de Informatica, verifique que todos los productos estén
actualizados a la misma versión de actualización compatible antes de actualizar a la 10.5.1.

Data Engineering Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Streaming los paquetes de servicio:
- 10.2.2
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.

Data Privacy Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidas las revisiones y
Management los paquetes de servicio:
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering, Enterprise Data Catalog y Data Privacy Management están en el
mismo dominio de una versión anterior a la 10.4.1, actualícelos todos a la versión 10.4.1 antes
de actualizar a la 10.5.1.

Programa de instalación de Informatica 35


Producto Versiones

Enterprise Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidos los paquetes de
Catalog servicio:
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Enterprise Data Catalog y Data Engineering están en el mismo dominio de una
versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1 antes de actualizar a
10.5.1.

Enterprise Data Puede actualizar a la versión 10.5.1 desde las siguientes versiones, incluidos los paquetes de
Preparation servicio:
- 10.4
- 10.4.1
- 10.5*
*Para actualizar desde la versión 10.5, aplique el HotFix 10.5.1.
Importante: Si Data Engineering, Enterprise Data Catalog y Enterprise Data Preparation están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1
antes de actualizar a la 10.5.1.

Test Data Puede aplicar el HotFix 10.5.1 para actualizar desde la versión 10.5.
Management

Informatica Deployment Manager


A partir de la versión 10.5.1, puede utilizar Informatica Deployment Manager para instalar Enterprise Data
Catalog e Informatica Data Quality en Docker.

Para obtener más información, consulte los artículos de la biblioteca de procedimientos (H2L) Instalar
Enterprise Data Catalog en Docker con Informatica Deployment Manager 10.5.1 e Instalar Data Quality en
Docker con Informatica Deployment Manager 10.5.1.

Enterprise Data Catalog


A partir de la versión 10.5.1, cuando actualiza Enterprise Data Catalog desde una versión compatible o aplica
el HotFix en la versión 10.5, el programa de instalación valida si ha realizado una copia de seguridad del
catálogo. Cuando revierte el HotFix, el programa de instalación valida si existe una copia de seguridad del
catálogo.

36 Capítulo 2: Avisos importantes de la versión 10.5.1


Capítulo 3

Novedades de la versión 10.5.1


Este capítulo incluye los siguientes temas:

• Data Engineering Streaming, 37


• Data Privacy Management, 38
• Data Transformation, 39
• Enterprise Data Catalog, 39
• Informatica Data Quality, 41
• Transformaciones de Informatica, 41
• Adaptadores de PowerExchange, 42
• Seguridad (10.5.1), 42
• Test Data Management, 43

Data Engineering Streaming


Lea esta sección para conocer las novedades de Data Engineering Streaming en la versión 10.5.1.

Transformaciones en Databricks
A partir de la versión 10.5.1, puede agregar las siguientes transformaciones a las asignaciones de
transmisión que se ejecutan en un entorno de Databricks en las plataformas de Azure y AWS:

• Validador de direcciones
• Clasificador
• Analizador
• Estandarizador
Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.1.

Modelos de estructura inteligente en Databricks


A partir de la versión 10.5.1, puede incorporar un modelo de estructura inteligente en un objeto de datos
Confluent Kafka, Kafka, Azure Event Hubs y Amazon Kinesis Stream para las asignaciones de transmisión
que se ejecutan en el motor de Databricks Spark.

El motor de Databricks Spark puede procesar cualquier tipo de entrada que el modelo pueda analizar.

37
Para obtener más información sobre los modelos de estructura inteligente, consulte la Guía del usuario de
Data Engineering Streaming 10.5.1.

Data Privacy Management


Lea esta sección para conocer las novedades de Data Privacy Management en la versión 10.5.1.

Etiquetas de infracción de directivas de seguridad


A partir de la versión 10.5.1, puede aplicar etiquetas a las infracciones de directivas de seguridad.

Para obtener información sobre las infracciones de directivas de seguridad, consulte la Guía del usuario de
Informatica Data Privacy Management.

Asignación de tareas de directivas de seguridad


A partir de la versión 10.5.1, puede configurar la asignación de tareas en una acción Enviar un correo
electrónico en una directiva de seguridad. Cuando cree la directiva de seguridad, puede asignar la tarea a
otro usuario o a usted mismo. Puede ver y actualizar la asignación de tareas cuando edita la directiva de
seguridad.

Para obtener información sobre las directivas de seguridad, consulte la Guía del usuario de Informatica Data
Privacy Management.

Plantilla de informe DSAR


A partir de la versión 10.5.1, puede personalizar la plantilla de un informe DSAR en PDF.

Puede personalizar los logotipos que aparecen en el encabezado y pie de página del informe. También puede
cambiar los colores de fondo y mover o eliminar los valores de campo que aparecen en el informe
predeterminado.

Para obtener información sobre cómo personalizar una plantilla de informe DSAR en PDF, consulte la Guía
del usuario de Informatica Data Privacy Management.

Compatibilidad con Microsoft Azure SQL Server


A partir de la versión 10.5.1, para nuevas instalaciones, puede utilizar una base de datos de Microsoft Azure
SQL Server para crear el repositorio de Data Privacy Management.

Para obtener información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.

Orígenes
A partir de la versión 10.5.1, puede conectarse a los siguientes orígenes:

Google BigQuery

Cree un almacén de datos para conectarse a una base de datos de Google BigQuery. Puede realizar
detección de dominios y análisis del registro de asuntos en almacenes de datos de Google BigQuery.

38 Capítulo 3: Novedades de la versión 10.5.1


SAP

Utilice conectores CDATA para SAP para crear un almacén de datos para conectarse a una aplicación
SAP. Puede realizar exploraciones del registro de asuntos en almacenes de datos de SAP que cree con
conectores CDATA.

MongoDB

Utilice conectores CDATA para MongoDB para crear un almacén de datos JDBC para MongoDB. Puede
realizar detección de dominios y análisis del registro de asuntos en almacenes de datos de MongoDB.

Servicios REST

Utilice conectores CDATA para servicios REST para crear un almacén de datos JDBC para servicios
REST. Puede realizar detección de dominios y análisis del registro de asuntos en almacenes de datos de
servicios REST.

Para obtener información sobre cómo configurar la conectividad a los orígenes, consulte la Guía del
administrador de Informatica Data Privacy Management.

Data Transformation
Lea esta sección para conocer las novedades de Data Transformation en la versión 10.5.1.

Data Transformation Biblioteca HIX


Informatica mejora el rendimiento del procesamiento de mensajes dentro de la biblioteca HIX de Data
Transformation.

Para obtener más información sobre la biblioteca HIX, consulte la Guía de bibliotecas de Data Transformation
10.5.

Enterprise Data Catalog


Lea esta sección para conocer las novedades de Enterprise Data Catalog en la versión 10.5.1.

Advanced Scanners
Nuevos escáneres avanzados
A partir de la versión 10.5.1, puede extraer metadatos utilizando los siguientes escáneres avanzados:

• Azure Data Factory


• Blocs de notas de Databricks
• Servicios de datos de objetos de negocio de SAP (BODS)
• Compatibilidad con procedimientos almacenados para Amazon Redshift

Para obtener más información, consulte la Guía de configuración de Advanced Scanners de Enterprise Data
Catalog.

Data Transformation 39
Ámbitos globales en SSIS
A partir de la versión 10.5.1, puede configurar ámbitos globales y ámbitos de nivel de paquete en el archivo
de valores predeterminados del escáner del servicio de integración de Microsoft SQL Server (SSIS).

Para obtener más información, consulte el artículo de la base de conocimientos "CÓMO: Configurar ámbitos
globales y ámbitos de nivel de paquete en el archivo de valores predeterminados del escáner del servicio de
integración de SQL Server".

Requisitos de sudo para el usuario de la puerta de enlace


A partir de la versión 10.5.1, después de habilitar el servicio de clúster de Informatica por primera vez, puede
optar por deshabilitar la validación de permisos sudo para el usuario de la puerta de enlace. Después de
deshabilitar la validación, no se requieren permisos de sudo para reiniciar el servicio de clúster de
Informatica.

SELinux en modo impositivo


A partir de la versión 10.5.1, Enterprise Data Catalog admite SELinux en modo impositivo. Ya no es necesario
configurar SELinux en los modos deshabilitado o permisivo.

Compatibilidad con RHEL 7.9 en modo FIPS


A partir de la versión 10.5.1, Enterprise Data Catalog es compatible con Red Hat Enterprise Linux 7.9 que se
ejecute en modo FIPS.

Data Asset Analytics


Lea esta sección para conocer las novedades de Data Asset Analytics en la versión 10.5.1.

Rendimiento mejorado de métricas clave


A partir de la versión 10.5.1, se mejora el rendimiento de Data Asset Analytics. Las métricas clave y los
gráficos aparecen más rápido en el panel de Data Asset Analytics.

En la versión 10.5.1, Data Asset Analytics muestra métricas clave y gráficos basados en datos analíticos
almacenados en tablas precalculadas en el repositorio de Data Asset Analytics.

Antes de actualizar a la versión 10.5.1, debe ejecutar la utilidad Data Asset Analytics para rellenar las tablas
precalculadas.

40 Capítulo 3: Novedades de la versión 10.5.1


Filtros adicionales para informes de Data Asset Analytics
A partir de la versión 10.5.1, puede personalizar el Informe de uso de activos, el Informe de asociación de
términos empresariales y el Informe de colaboración de usuarios en Data Asset Analytics mediante el uso de
los siguientes filtros adicionales disponibles en la sección Filtrar por:

Tipo de informe Filtro adicional

Informe de uso de activos Nombre de inicio de sesión de usuario

Informe de asociación de términos empresariales Término empresarial


Fuente del glosario

Informe de colaboración de usuarios Nombre de usuario


Tipo de activo

Ordenar resultados de búsqueda


A partir de la versión 10.5.1, puede ordenar los activos según el nombre de los activos enumerados, la
relevancia o los atributos personalizados o del sistema seleccionados.

Para obtener más información, consulte la Guía del usuario de Informatica Enterprise Data Catalog.

Informatica Data Quality


Lea esta sección para conocer las novedades de Informatica Data Quality en la versión 10.5.1.

Implementación de Docker
A partir de la versión 10.5.1, puede implementar un dominio de Informatica y los servicios de aplicación para
Informatica Data Quality y Data Engineering Quality en un contenedor de Docker.

Base de datos de datos de referencia


A partir de la versión 10.5.1, puede crear una base de datos de datos de referencia en PostgreSQL.

Para obtener más información, consulte la Guía de instalación de Informatica 10.5.1 para PowerCenter y Data
Quality.

Compatibilidad con conexión de Salesforce en Informatica Analyst


A partir de la versión 10.5.1, puede crear una conexión a un sistema de Salesforce e importar objetos de
Salesforce con la Herramienta del analista.

Para obtener más información, consulte la Guía de Informatica 10.5.1 Analyst Tool.

Transformaciones de Informatica
Lea esta sección para conocer las novedades de las transformaciones de Informatica en la versión 10.5.1.

Informatica Data Quality 41


Transformación del validador de direcciones
A partir de la versión 10.5.1, Informatica es un codificador eircode acreditado en Irlanda. La transformación
del validador de direcciones cumple con los requisitos formales que define el programa de acreditación de
eircode para la adición de eircodes a las direcciones.

Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.5.1, consulte la Guía de desarrollador de Informatica
Address Verification 5.16.1.

Adaptadores de PowerExchange
Lea esta sección para conocer las novedades de los adaptadores de PowerExchange en la versión 10.5.1.

Adaptadores de PowerExchange para Informatica


Lea esta sección para conocer las novedades de los adaptadores de Informatica PowerExchange en la
versión 10.5.1.

PowerExchange for Amazon S3


A partir de la versión 10.5.1, PowerExchange for Amazon S3 incluye las siguientes funcionalidades:

• Puede configurar un servidor proxy para conectarse a Amazon S3 y ejecutar una asignación en el motor
de Spark.
• Puede ejecutar una asignación en el motor de Databricks Spark para leer y escribir datos en archivos
Avro, ORC y Parquet que estén particionados en función de directorios.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5.1 PowerExchange for Amazon
S3.

Seguridad (10.5.1)
Lea esta sección para conocer las novedades de la seguridad del dominio en la versión 10.5.1.

Delegación restringida de Kerberos


A partir de la versión 10.5.1, puede configurar un dominio de Informatica que utilice la autenticación
Kerberos para utilizar la delegación restringida.

Configure la delegación restringida cuando desee restringir el acceso a los servicios mediante la
autenticación delegada. Puede utilizar este método para restringir los servicios adicionales a los que puede
solicitar acceso un usuario o servicio autenticado con Kerberos.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.5.1.

42 Capítulo 3: Novedades de la versión 10.5.1


Test Data Management
Lea esta sección para conocer las novedades de Test Data Management en la versión 10.5.1.

Tipos de datos de Hive


A partir de la versión 10.5.1, puede utilizar tipos de datos de Hive adicionales para las conexiones de destino
de Hive y HDFS.

Puede utilizar los siguientes tipos de datos de

Char
Date
Timestamp
Varchar

Para obtener información sobre los tipos de datos, consulte la Guía del usuario de Test Data Management.

Test Data Management 43


Capítulo 4

Cambios en la versión 10.5.1


Este capítulo incluye los siguientes temas:

• Data Privacy Management , 44


• Transformaciones de Informatica, 44
• Modelos de estructura inteligente, 46
• Enterprise Data Catalog, 46

Data Privacy Management


Lea esta sección para conocer los cambios en Data Privacy Management en la versión 10.5.1.

Exportación de información de campos confidenciales


A partir de la versión 10.5.1, la información de campos confidenciales exportada para orígenes no
estructurados incluye un archivo adicional. El archivo Data.zip incluye un archivo
FileSystemClassificationPolicyDetails.csv. El archivo enumera el recuento de impresiones para cada directiva
de clasificación que use en la exploración.

Anteriormente, los datos exportados no incluían información sobre el recuento de impresiones para las
directivas de clasificación.

Para obtener información sobre cómo exportar información de campos confidenciales, consulte la Guía del
usuario de Informatica Data Privacy Management

Transformaciones de Informatica
Lea esta sección para conocer los cambios en las transformaciones de Informatica en la versión 10.5.1.

44
Transformación del validador de direcciones
Lea esta sección para conocer los cambios en la transformación del validador de direcciones en la versión
10.5.1.

Todos los países


A partir de la versión 10.5.1, la transformación del validador de direcciones utiliza la versión 5.16.1 del motor
de software Informatica Address Verification.

Anteriormente, la transformación utilizaba la versión 5.15.0 del motor de software Informatica Address
Verification.

Australia
Informatica presenta las siguientes mejoras para Australia:

Estándar AMAS

A partir de la versión 10.5.1, Informatica es compatible con el estándar 2021 Address Matching Approval
System (AMAS) para el software de verificación de direcciones.

Anteriormente, Informatica era compatible con el estándar 2019 AMAS para el software de verificación
de direcciones.

Actualizaciones del nivel de optimización

A partir de la versión 10.5.1, la transformación del validador de direcciones permite una optimización
AMPLIA cuando verifica datos de Australia en modo certificado.

Anteriormente, la transformación del validador de direcciones deshabilitaba la optimización AMPLIA en


este escenario. Cuando seleccionaba la optimización AMPLIA en una versión anterior y verificaba los
datos de Australia en modo certificado, la transformación del validador de direcciones aplicaba los
criterios definidos por la optimización ESTÁNDAR.

Nota: El estándar de certificación AMAS no admite direcciones que verifique con el nivel de optimización
AMPLIA. Puede establecer el nivel de optimización en modo certificado para evaluar el efecto del nivel
en sus datos. Si planea enviar un conjunto de direcciones al servicio postal australiano como
certificadas según el estándar AMAS, use un nivel de optimización ESTÁNDAR.

Canadá
A partir de la versión 10.5.1, Informatica es compatible con el estándar 2020 Software Evaluation and
Recognition Program (SERP) para el software de verificación de direcciones.

Anteriormente, Informatica era compatible con el estándar 2019 SERP para el software de verificación de
direcciones.

Nueva Zelanda
A partir de la versión 10.5.1, Informatica es compatible con el estándar 2020 SendRight para el software de
verificación de direcciones.

Anteriormente, Informatica era compatible con el estándar 2019 SendRight para el software de verificación
de direcciones.

Estados Unidos
A partir de la versión 10.5.1, la transformación del validador de direcciones puede asignar diferentes
puntuaciones a candidatos de alias de calle para una dirección determinada.

Anteriormente, la transformación del validador de direcciones asignaba una única puntuación común a los
candidatos de alias de calle.

Transformaciones de Informatica 45
Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía del desarrollador de Informatica Address Verification 5.16.1.

Modelos de estructura inteligente


Lea esta sección para conocer los cambios en los modelos de estructura inteligente en la versión 10.5.1.

Transformación de fechas y horarios


A partir de la versión 10.5.1, los modelos de estructura inteligente pueden transformar las fechas y las horas
en formatos de salida que son diferentes a los formatos de salida de las versiones anteriores.

Las diferencias pueden deberse a cambios en las bibliotecas internas de Intelligent Structure Discovery.

Para obtener más información sobre los modelos de estructura inteligente, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.1.

Enterprise Data Catalog


Lea esta sección para conocer los cambios en Enterprise Data Catalog en la versión 10.5.1.

Servicio de clúster de Informatica habilitado para SSL y servicios


asociados
A partir de la versión 10.5.1, los servicios asociados con el servicio de clúster de Informatica, como
MongoDB, Nomad, Apache Solr, ZooKeeper y PostgreSQL, siempre están habilitados para SSL.

Anteriormente, los servicios asociados al servicio de clúster de Informatica solo estaban habilitados para
SSL si habilitaba la comunicación segura para el dominio.

Requisitos de certificado SSL personalizado


A partir de la versión 10.5.1, se realizan los siguientes cambios en los requisitos del certificado SSL
personalizado:

• El parámetro Unidad organizativa (OU) es opcional. Anteriormente, el parámetro OU era un parámetro


obligatorio.
• Puede utilizar diferentes parámetros de nombre común (CN) para los certificados de clúster y de cliente.
• No puede utilizar los certificados de dominio con capacidad de firma para generar certificados de clúster
y de cliente.

46 Capítulo 4: Cambios en la versión 10.5.1


Archivos binarios de escáner para recursos de Informatica
Platform
A partir de la versión 10.5.1, el archivo ScannerBinaries.zip solo incluye los archivos binarios de recursos de
Informatica Platform para la versión actual. Los archivos binarios de versiones anteriores de Informatica se
incluyen en el archivo ExtendedScannerBinaries.zip.

Anteriormente, el archivo ScannerBinaries.zip incluía los archivos binarios de recursos de Informatica


Platform de la versión 10.2.2 a la 10.5.

Data Asset Analytics


Lea esta sección para conocer los cambios en Data Asset Analytics en la versión 10.5.1.

Data Asset Analytics Métricas clave


A partir de la versión 10.5.1, el proceso para calcular las métricas clave que se muestran en las pestañas
Inventario de activos de datos, Enriquecimiento de activos de datos y Colaboración de usuarios ha
cambiado.

Data Asset Analytics muestra las métricas clave basadas en la cantidad total de recursos, activos,
enriquecimientos y colaboraciones creados y disponibles durante el intervalo de tiempo especificado en el
catálogo.

Anteriormente, Data Asset Analytics mostraba las métricas clave basadas en la cantidad total de recursos,
activos, enriquecimientos y colaboraciones agregados al catálogo durante el intervalo de tiempo
especificado.

Enterprise Data Catalog 47


Parte II: Versiones 10.5-10.5.0.1
Esta parte incluye los siguientes capítulos:

• Versión 10.5.0.1, 49
• Avisos importantes de la versión 10.5, 53
• Novedades de la versión 10.5, 62
• Cambios en la versión 10.5, 91

48
Capítulo 5

Versión 10.5.0.1
Este capítulo incluye los siguientes temas:

• Avisos importantes, 49
• Novedades, 49
• Cambios, 50

Avisos importantes
Lea esta sección para conocer los avisos importantes en la versión 10.5.0.1.

Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.0.1.

Aplazamiento

A partir de la versión 10.5.0.1, Informatica levantó el aplazamiento para Cloudera CDH 6.3.

Soporte adicional

A partir de la versión 10.5.0.1, Informatica admite comunicaciones de doble pila para los formatos de
dirección del Protocolo de Internet versión 4 (IPv4) y del Protocolo de Internet versión 6 (IPv6) en
Informatica Data Quality.

Los componentes que admiten comunicaciones de doble pila incluyen el dominio de Informatica, los
servicios de aplicación que utiliza Informatica Data Quality, y Developer tool y la Herramienta del
analista.

Para obtener más información, consulte la Statement of Support for IPv6 in Informatica Products.

Novedades
Lea esta sección para conocer las novedades de la versión 10.5.0.1.

Data Privacy Management


Lea esta sección para conocer las novedades de Data Privacy Management en la versión 10.5.0.1.

49
Almacenes de datos
A partir de la versión 10.5.0.1, puede crear un almacén de datos de Active Directory. Cree el almacén de
datos en la categoría Almacén de datos de aplicación. El almacén de datos crea un recurso JDBC
correspondiente en Enterprise Data Catalog.

Para obtener información sobre los almacenes de datos, consulte la Guía del usuario de Informatica Data
Privacy Management.

Exploraciones
A partir de la versión 10.5.0.1, puede incluir los siguientes almacenes de datos y tipos de archivos en las
exploraciones:

Presentaciones de Google, Hojas de cálculo de Google y Documentos de Google

Puede incluir tipos de archivos de Presentaciones de Google, Hojas de cálculo de Google y Documentos
de Google en las exploraciones de detección de dominios y en las exploraciones del registro de asunto
de un almacén de datos de Google Drive.

Scality Ring 8

Puede incluir sistemas de almacenamiento Scality Ring 8 en un almacén de datos de Amazon S3 que
cree con los tipos de almacenamiento compatibles con Amazon S3. Puede realizar exploraciones de
detección de dominios y exploraciones del registro de asunto de los almacenes de datos de
transacciones.

Active Directory

Puede realizar exploraciones de detección de dominios y exploraciones del registro de asunto de los
almacenes de datos de Active Directory.

Para obtener información sobre las exploraciones, consulte la Guía del usuario de Informatica Data Privacy
Management.

Advanced Scanners
A partir de la versión 10.5.0.1, puede extraer metadatos, incluidos los procedimientos almacenados,
utilizando el escáner avanzado Greenplum:

Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.

Cambios
Lea esta sección para conocer los cambios en la versión 10.5.0.1.

Enterprise Data Catalog


Lea esta sección para conocer las novedades de Enterprise Data Catalog en la versión 10.5.0.1.

50 Capítulo 5: Versión 10.5.0.1


Advanced Scanners
Escáner de Snowflake mejorado
A partir de la versión 10.5.0.1, puede extraer metadatos utilizando una versión mejorada del recurso
Snowflake.

La nueva versión permite extraer el linaje de los siguientes orígenes de datos de Snowflake:

• Procedimientos almacenados
• Funciones
• Canales
• Etapas
El recurso que configuró en Catalog Administrator se ha dejado de usar.

Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.

Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.

Escáner de SAP BW mejorado


A partir de la versión 10.5.0.1, puede extraer metadatos utilizando el escáner avanzado para SAP BW con
soporte de InfoSource que incluye linaje, impacto y relaciones para InfoSource.

Nota: Puede configurar el analizador de SAP BW mejorado directamente en la herramienta Catalog


Administrator.

Para obtener más información, consulte "SAP Business Warehouse (SAP BW)" y "SAP BW/4HANA" en la Guía
de configuración de escáneres de Enterprise Data Catalog 10.5.

Enterprise Data Catalog


Escáner mejorado de Microsoft Power BI
A partir de la versión 10.5.0.1, puede extraer metadatos utilizando una nueva versión del recurso Microsoft
Power BI. La nueva versión proporciona un mejor linaje y admite la conexión de proxy.

Las siguientes características están disponibles para el escáner avanzado de Microsoft Power BI:

• Soporte de proxy habilitado, que le permite proporcionar un host de proxy y un puerto de proxy.
Opcionalmente, puede proporcionar autenticación para el proxy en forma de nombre de usuario y
contraseña.
• Linaje detallado para conjuntos de datos que incluye campos y cálculos dentro de los conjuntos de datos.
• Soporte habilitado para ver el linaje de orígenes externos.
El recurso que configuró en Catalog Administrator se ha dejado de usar.

Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.

Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.

Cambios 51
Servicio de integración de SQL Server mejorado
A partir de la versión 10.5.0.1, puede extraer metadatos utilizando una versión mejorada del recurso servicio
de integración de SQL Server. La nueva versión proporciona un mejor linaje.

El recurso que configuró en Catalog Administrator se ha dejado de usar.

Informatica sugiere configurar escáneres avanzados para estos orígenes en la herramienta Advanced
Scanners antes de que dejemos de admitir los recursos. Cuando crea un escáner avanzado, puede configurar
funciones adicionales, como llamadas de procedimientos integradas y detalles adicionales de linaje.

Para obtener más información, consulte la Guía del administrador de Advanced Scanners de Enterprise Data
Catalog 10.5.

Ver análisis desde la opción en Análisis de activos de datos


A partir de la versión 10.5.0.1, la opción Ver análisis desde se elimina de la página Configuración de la
aplicación en Data Asset Analytics. Cuando selecciona Desde el principio en el menú Intervalo de tiempo,
Data Asset Analytics muestra los informes estadísticos del catálogo a partir del 01/01/2010.

Archivos de registro STDOUT y STDERR


A partir de la versión 10.5.0.1, cuando ejecuta una exploración de los recursos y hace clic en el vínculo
Ubicación del registro para un trabajo de exploración que se encuentra en estado de ejecución, los registro
STDOUT y STDERR ya no aparecen en la interfaz de usuario web de Nomad. Aparece una página con los
vínculos para acceder a los archivos de registro STDOUT y STDERR en una nueva pestaña.

Adaptadores de PowerExchange para Informatica


A partir de la versión 10.5.0.1, cuando actualiza el esquema de origen o de destino en tiempo de ejecución en
una asignación dinámica para un archivo sin formato, el servicio de integración de datos usa el valor que
especifique para la opción de formato de calificador de texto en la pestaña Esquema.

Anteriormente, el servicio de integración de datos omitía el valor del calificador de texto que especificaba y
usaba las comillas dobles predeterminadas en su lugar.

Para conservar el comportamiento anterior, edite la asignación existente, establezca el calificador de texto
en comillas dobles y vuelva a ejecutar la asignación.

El cambio se aplica a los siguientes adaptadores:

• PowerExchange for Amazon S3


• PowerExchange for Microsoft Azure Blob Storage
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2

52 Capítulo 5: Versión 10.5.0.1


Capítulo 6

Avisos importantes de la versión


10.5
Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad , 53
• Nuevos productos, 57
• Programa de instalación de Informatica, 57
• Tareas de la versión, 61

Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.5.

Versión preliminar técnica


Lea esta sección para obtener información sobre las funcionalidades de vista previa técnica que se inician o
se eliminan en la versión 10.5.

Vista previa técnica iniciada


A partir de la versión 10.5, la transformación de Python está disponible en la versión preliminar técnica:
Análisis de flujo de datos

Puede utilizar el análisis de flujo de datos para ver datos analíticos sobre las asignaciones de
PowerCenter en el catálogo. Puede utilizar los datos para mejorar la calidad y la eficiencia de la
asignación en su empresa. También puede ver las asignaciones como diagramas para facilitar su
comprensión.

Los datos analíticos incluyen detalles sobre las siguientes métricas de asignación:

• Asignaciones similares
• Asignaciones duplicadas
• Mapplets, transformaciones y funciones de usuario reutilizables para expresiones complejas

Además, los datos también incluyen los detalles del grupo de asignación y los detalles de detección de
asignación para proporcionar información adicional sobre los datos de asignación. Puede descargar los
datos analíticos como informes para un análisis más detallado o mejorar los informes utilizando
soluciones de informes de terceros.

53
Para obtener más información, consulte la Guía del usuario de Enterprise Data Catalog 10.5.

Instalador gráfico de Informatica

Puede utilizar un instalador basado en interfaz gráfica de usuario para instalar PowerCenter y Data
Engineering Integration en plataformas Linux. El instalador proporciona una interfaz fácil e interactiva
para ejecutar Pre-installation (i10Pi) System Check Tool, instalar el dominio de Informatica y configurar
el dominio y los servicios de aplicación.

Dominio de Informatica en el clúster de Kubernetes

Puede ejecutar el dominio de Informatica en un clúster de Kubernetes de Microsoft Azure. Se admite el


escalado automático de los servicios activo-activo, como el servicio de integración de datos y el servicio
de integración de PowerCenter.

Para obtener más información, consulte Instalar PowerCenter en Kubernetes con Informatica Deployment
Manager o Instalar Data Engineering Integration en Kubernetes con Informatica Deployment Manager.

Modelos de estructura inteligente basados en un archivo XSD

Cuando crea un modelo de estructura inteligente, puede seleccionar un archivo XSD en el cual basar el
modelo.

Asignación de auditorías en el motor de Blaze

El motor de Blaze puede ejecutar asignaciones con reglas y condiciones de auditoría.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.

PowerExchange for Microsoft Azure Data Lake Storage Gen2

La siguiente funcionalidad está disponible para una vista previa técnica:

• Puede leer objetos almacenados en subdirectorios en Microsoft Azure Data Lake Storage Gen2 en el
entorno nativo o en el motor de Spark.
• Puede utilizar caracteres comodín para especificar el nombre del directorio de origen o el nombre del
archivo de origen cuando lee datos de un archivo sin formato o complejo en el entorno nativo o en el
motor de Spark.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Eliminación de vista previa técnica


A partir de la versión 10.5, las siguientes funciones se eliminan de la vista previa técnica:
Copia de seguridad del catálogo

Para Enterprise Data Catalog, puede realizar una copia de seguridad del catálogo sin deshabilitar el
servicio de catálogo. Puede realizar una copia de seguridad del catálogo mediante las API de REST, la
interfaz de Enterprise Data Catalog o Catalog Administrator. Para obtener más información, consulte la
sección Utilidades de recopilación de registros y copia de seguridad del catálogo en la Guía de
Informatica 10.5 Catalog Administrator o la Guía del usuario de Informatica 10.5 Enterprise Data Catalog.

Integración de Cloudera CDP

Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP usa un clúster base y
clústeres de carga de trabajo para ejecutar trabajos de ingeniería de datos. Esta arquitectura permite

54 Capítulo 6: Avisos importantes de la versión 10.5


implementar cargas de trabajo y compartir datos entre componentes usando un catálogo compartido,
seguridad unificada, un gobierno coherente y administración del ciclo de vida de los datos.

Puede usar Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las siguientes
conexiones:

• PowerExchange for Google Cloud Storage


• PowerExchange for Google BigQuery
• PowerExchange for Google Analytics
• PowerExchange for Google Cloud Spanner

Para obtener más información, consulte la Guía de integración de Data Engineering 10.5.

Vista compacta

Puede optar por mostrar la vista compacta de la vista Linaje e impacto. La vista Linaje e impacto
compacta muestra el diagrama de linaje e impacto resumido en el nivel de recursos.

Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la
Guía del usuario de Informatica 10.5 Enterprise Data Catalog.

Parámetros de sustitución para destinos de Amazon S3 y Azure Data Lake Storage Gen2

Para Data Engineering Streaming, puede usar diferentes parámetros de sustitución para destinos
Amazon S3 y Azure Data Lake Storage Gen2 a fin de decidir el tiempo de sustitución o el tamaño para
cada destino. Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming
10.5.

Recurso SAP S/4HANA

Para Enterprise Data Catalog, puede extraer metadatos del origen de datos SAP S/4HANA. Para obtener
más información, consulte la Guía de configuración del escáner de Enterprise Data Catalog 10.5.

Recopilación de registros de recursos y servicios

Para Enterprise Data Catalog, puede recopilar registros para los recursos. Además, puede recopilar
registros para los siguientes servicios:

• Servicios de Enterprise Data Catalog, como el servicio de catálogo, el servicio de clúster de


Informatica, el historial de EBF y PhoneHome
• Apache Solr
• MongoDB
• Servicio de orquestación de Nomad y trabajos de exploración
• Apache ZooKeeper
• Postgres:
Puede recopilar los registros usando las API de REST, la interfaz de Enterprise Data Catalog o Catalog
Administrator. Para obtener más información, consulte la sección Utilidades de recopilación de registros
y copia de seguridad del catálogo en la Guía de Informatica 10.5 Catalog Administrator o la Guía del
usuario de Informatica 10.5 Enterprise Data Catalog.

Inferencia de clave única

Se pueden generar candidatos de clave única a partir de las columnas en el objeto de datos de origen.
Puede ver los resultados de la inferencia de clave única para comprender los problemas de calidad de
los datos identificando las columnas que tienen valores duplicados. Puede aceptar o rechazar los
resultados de inferencia de claves únicas deducidas. Después de aceptar o rechazar una inferencia de
clave única deducida, puede restablecer la inferencia de clave única para restaurar el estado deducido.

Cambios en la compatibilidad 55
Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario
de Informatica 10.4.0 Enterprise Data Catalog.

En desuso
A partir de la versión 10.5, la siguiente funcionalidad ha caído en desuso:

Instalación de Enterprise Data Catalog en clústeres de Hadoop

A partir de la versión 10.5, no puede instalar Enterprise Data Catalog en un clúster de Hadoop.

Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.

Extraer linaje de datos a nivel de columna

A partir de la versión 10.5, la funcionalidad para extraer el linaje de datos a nivel de columna para
procedimientos almacenados en Oracle y SQL Server ha caído en desuso y se eliminará en una versión
futura de Enterprise Data Catalog.

Informatica recomienda que utilice Advanced Scanners para extraer el linaje de datos a nivel de columna
para procedimientos almacenados en Oracle y SQL Server.

Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.

Extraer metadatos para linaje de datos a nivel de columna

A partir de la versión 10.5, la funcionalidad para extraer el linaje de datos a nivel de columna que incluye
la lógica de transformación desde los siguientes orígenes de datos ha caído en desuso y se eliminará en
una versión futura de Enterprise Data Catalog.

• Origen de datos de Oracle Data Integrator


• Origen de datos de IBM InfoSphere DataStage

Informatica recomienda que utilice Advanced Scanners para extraer metadatos para el linaje de datos a
nivel de columna para el origen de datos de Oracle Data Integrator y los orígenes de datos de IBM
InfoSphere DataStage.

Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.

Comando compareMapping DIS

En la versión 10.5, infacmd dis compareMapping ya no se admite y se eliminará en una futura versión.

Si utiliza scripts basados en infacmd dis compareMapping, Informatica recomienda que los actualice
con el nuevo comando infacmd dis compareObject. La funcionalidad en desuso es compatible, pero
Informatica quiere dejar de proporcionar soporte en una versión posterior. Informatica solicita que pase
a otra funcionalidad antes de que esta se elimine.

Marco de conectividad universal

A partir de la versión 10.5, la compatibilidad con Universal Connectivity Framework ha caído en desuso.
Para obtener información adicional, comuníquese con Informatica Global Customer Support.

Aplazamiento
A partir de la versión 10.5, Cloudera CDH 6.3 se aplaza.

La funcionalidad diferida no está disponible o no es compatible con la versión actual. Informatica tiene la
intención de reinstaurarla, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento.

56 Capítulo 6: Avisos importantes de la versión 10.5


Nuevos productos
Lea esta sección para conocer los nuevos productos en la versión 10.5.

PowerExchange for Kudu para Informatica


A partir de la versión 10.5, puede utilizar PowerExchange for Kudu para escribir datos en Kudu. Puede crear
una conexión con Kudu para crear una base de datos de Kudu. Puede validar y ejecutar asignaciones de
Kudu en el motor de Spark en el entorno de Hadoop.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Kudu.

Programa de instalación de Informatica


Lea esta sección para conocer las novedades del programa de instalación de Informatica en la versión 10.5.

Actualización Rutas de acceso


Las rutas de actualización que tome dependerán de los productos que vaya a actualizar. Si tiene una versión
que no admite una actualización directa, primero debe actualizar a una versión compatible.

La siguiente tabla enumera las rutas de actualización para cada producto que admite el instalador.

Producto Versiones

PowerCenter Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1

Informatica Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Quality paquetes de servicio:
- 10.1.1
- 10.2
- 10.4
- 10.4.1

Data Engineering Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Integration paquetes de servicio:
Data Engineering - 10.1.1
Quality - 10.2
- 10.2.1
- 10.2.2
- 10.4
- 10.4.1
Importante: Si Data Engineering está en el mismo dominio que cualquier otro producto
compatible con el instalador de Informatica, verifique que todos los productos estén
actualizados a la misma versión de actualización compatible antes de actualizar a la 10.5.

Nuevos productos 57
Producto Versiones

Data Engineering Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidas las revisiones y los
Streaming paquetes de servicio:
- 10.2.2
- 10.4
- 10.4.1

Data Privacy Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Management servicio:
- 10.4
- 10.4.1
Importante: Si Data Engineering, Enterprise Data Catalog y Data Privacy Management están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 antes
de actualizar a la 10.5.

Enterprise Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Catalog servicio:
- 10.4
- 10.4.1
Importante: Si Enterprise Data Catalog y Data Engineering están en el mismo dominio de una
versión anterior a la 10.4, actualícelos todos a la versión 10.4 o 10.4.1 antes de actualizar a
10.5.

Enterprise Data Puede actualizar a la versión 10.5 desde las siguientes versiones, incluidos los paquetes de
Preparation servicio:
- 10.4
- 10.4.1
Importante: Si Data Engineering, Enterprise Data Catalog y Enterprise Data Preparation están en
el mismo dominio de una versión anterior a la 10.4, actualícelos todos a la versión 10.4 o
10.4.1 antes de actualizar a la 10.5.

Test Data Puede actualizar a la versión 10.5 desde las siguientes versiones:
Management - 10.2.0 HotFix 2
- 10.4 y todos los paquetes de servicios
- 10.4.1 y todos los paquetes de servicios

Data Engineering
A partir de la versión 10.5, las opciones del instalador de Data Engineering incluyen la siguiente actualización
y características adicionales:

Servicio de acceso a metadatos


A partir de la versión 10.5, puede crear el servicio de acceso a metadatos cuando ejecuta el instalador.

Google Dataproc

Puede crear Google DataProc para la configuración del clúster cuando ejecuta el instalador.

Para obtener más información, consulte la Guía de instalación de Informatica 10.5 para Data Engineering.

58 Capítulo 6: Avisos importantes de la versión 10.5


Data Privacy Management
A partir de la versión 10.5, las opciones del instalador de Data Privacy Management incluyen la siguiente
actualización y características adicionales:

Instalación que no es de Hadoop

A partir de la versión 10.5, instale Data Privacy Management en un clúster que no es de Hadoop. El
instalador incluye una base de datos MongoDB empaquetada que se utiliza para los datos del Registro
de asuntos.

Base de datos PostgreSQL como repositorio

Puede crear el repositorio de Data Privacy Management en una base de datos PostgreSQL.

Supervisión de actividad de usuarios

Puede habilitar la supervisión de la actividad de los usuarios y especificar un directorio de


almacenamiento de archivos de eventos durante la instalación.

Elasticsearch con características X-Pack

Puede usar una versión de Elasticsearch con características de X-Pack si desea incluir TLS y
autenticación para Elasticsearch. Debe tener el archivo .tar de la versión de Elasticsearch requerida.

Configuración avanzada

Puede habilitar la configuración avanzada para Data Privacy Management. Si habilita la configuración
avanzada, puede especificar valores para las propiedades de Elasticsearch y Spark. De lo contrario, el
instalador utiliza los valores predeterminados. Data Privacy Management usa Elasticsearch y Spark para
tareas relacionadas con el monitoreo de la actividad del usuario.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.

Dominio
A partir de la versión 10.5, las opciones del instalador del dominio de Informatica incluyen la siguiente
actualización y características adicionales:

SAML

Puede habilitar la firma de solicitudes, la respuesta firmada y las funciones de autenticación SAML de
aserción cifrada durante la creación del dominio.

Clave del sitio

Informatica aumentó el tamaño de la clave del sitio de 128 bits a 256 bits.

Enterprise Data Catalog


A partir de la versión 10.5, la instalación y actualización de Enterprise Data Catalog incluye los siguientes
cambios:

Archivo de instalación común

Puede instalar Enterprise Data Catalog y Enterprise Data Catalog Advanced Scanners con un único
instalador. Durante la instalación de Enterprise Data Catalog, puede elegir si desea instalar Enterprise
Data Catalog Advanced Scanners.

Programa de instalación de Informatica 59


Licencia común

Enterprise Data Catalog y Enterprise Data Catalog Advanced comparten un archivo de licencia común.
Enterprise Data Catalog Advanced Scanners lee los detalles de la licencia del servicio Enterprise Data
Catalog.

Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.

Alta disponibilidad

Puede implementar Enterprise Data Catalog en uno, tres o seis nodos incluidos en un clúster.

Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.

Cambios en el servicio de la aplicación

Se actualizan los parámetros de configuración de Catalog Service y el servicio de clúster de Informatica.


Catalog Service no incluye opciones para especificar el tamaño de los datos del catálogo como bajo,
medio y alto.

Las actualizaciones se deben a los cambios en la implementación, los servicios asociados y el protocolo
de autenticación.

Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.

Cambios en la instalación y la implementación

Las opciones para implementar Enterprise Data Catalog en un clúster integrado o existente ya no
existen.

Enterprise Data Catalog utiliza las siguientes aplicaciones y servicios asociados:


Base de datos PostgreSQL

Base de datos para almacenar información relacionada con el perfil de similitud en lugar de HBase

Nomad

Aplicación de orquestación de servicios en lugar de Apache Hadoop YARN.

MongoDB

Base de datos utilizada como almacén de metadatos en lugar de HBase.

Para obtener más información, consulte Instalación de Informatica 10.5 para Enterprise Data Catalog.

Utilidad de exportación

Debe utilizar la utilidad para realizar una copia de seguridad de los datos del catálogo además de utilizar
el comando LDM BackupContents para hacer una copia de seguridad de los datos del catálogo.

Para más información, consulte Actualización desde las versiones 10.4.0 y posteriores.

Comando para restaurar datos después de la actualización

Debe usar el comando LDM migrateContents para restaurar los datos después de actualizar Enterprise
Data Catalog a la versión 10.5.

Para más información, consulte Actualización desde las versiones 10.4.0 y posteriores y Referencia de
comandos de Informatica.

Informatica Deployment Manager


A partir de la versión 10.5, Container Utility cambia de nombre a Informatica Deployment Manager.
Informatica Deployment Manager utiliza un instalador seguro basado en REST y puede utilizarlo para

60 Capítulo 6: Avisos importantes de la versión 10.5


implementar y gestionar el ciclo de vida completo del dominio de Informatica y sus servicios. Además, puede
aplicar correcciones de errores de emergencia (EBF) a las entidades implementadas mediante el instalador.

Para más información, consulte los artículos de la biblioteca de procedimientos (H2L) Instalar PowerCenter
(10.4.x - 10.5.0) en Docker con Informatica Deployment Manager e Instalar Data Engineering Integration (10.4.x
- 10.5.0) en Kubernetes con Informatica Deployment Manager.

PowerCenter
A partir de la versión 10.5, cuando se une a un dominio, puede crear y configurar el servicio de integración de
PowerCenter y el servicio de repositorio de PowerCenter.

Tareas de la versión
Lea esta sección para conocer las tareas que debe realizar después de actualizar a la versión 10.5.

Test Data Management


A partir de la versión 10.5, Test Data Management utiliza un algoritmo actualizado para optimizar el uso del
diccionario en el enmascaramiento de sustitución. Cuando elige la opción Optimizar uso del diccionario en
un plan de enmascaramiento de sustitución, el plan utiliza el algoritmo actualizado. El algoritmo garantiza un
mejor uso de los valores del diccionario en la salida enmascarada.

Para garantizar la compatibilidad con los planes creados anteriormente y generar una salida enmascarada
coherente después de la actualización, puede crear una propiedad de proyecto para elegir utilizar el
algoritmo anterior. Establezca el valor de la propiedad en true para proyectos que requieran compatibilidad
con versiones anteriores o en false si desea utilizar el algoritmo actualizado.

Para obtener información sobre cómo utilizar la opción en una regla de enmascaramiento y cómo configurar
una propiedad de proyecto, consulte la Guía del usuario de Test Data Management 10.5.

Tareas de la versión 61
Capítulo 7

Novedades de la versión 10.5


Este capítulo incluye los siguientes temas:

• CI/CD, 62
• Programas de la línea de comandos, 66
• Data Engineering Integration, 71
• Data Engineering Quality, 73
• Data Engineering Streaming, 74
• Data Privacy Management, 75
• Data Transformation, 77
• Enterprise Data Catalog, 77
• Enterprise Data Preparation, 81
• Transformaciones de Informatica, 81
• Flujos de trabajo de Informatica, 82
• Modelos de estructura inteligente, 82
• Metadata Manager, 82
• PowerCenter , 83
• Adaptadores de PowerExchange, 84
• Seguridad, 88
• Test Data Management, 89

CI/CD
Lea esta sección para conocer las novedades de CI/CD en la versión 10.5.

Comando DIS compareObject

A partir de la versión 10.5, puede comparar objetos entre el servicio de integración de datos y el servicio
de repositorio de modelos. Puede comparar objetos dentro de un dominio o entre varios dominios.

62
En la siguiente tabla se describen las opciones y los argumentos de infacmd dis compareMapping:

Opción Argumento Descripción

-DomainName domain_name Obligatorio. Nombre del dominio de


-dn Informatica. El nombre de dominio se puede
establecer con la opción -dn o con la
variable de entorno
INFA_DEFAULT_DOMAIN. Si se establece un
nombre de dominio con ambos métodos, la
opción -dn tendrá preferencia.

-ServiceName DIS_service_name Obligatorio. Nombre del servicio de


-sn integración de datos.

-UserName DIS_user_name Es obligatorio si el dominio utiliza


-un autenticación nativa o de LDAP. Nombre de
usuario para conectar con el dominio. El
nombre de usuario se puede establecer con
la opción -un o con la variable de entorno
INFA_DEFAULT_DOMAIN_USER. Si se
establece un nombre de usuario con ambos
métodos, la opción -un tendrá preferencia.

-Password DIS_password Es obligatorio si especifica el nombre de


-pd usuario. Contraseña del nombre de usuario.
La contraseña distingue entre mayúsculas y
minúsculas. Las contraseñas se pueden
establecer con la opción -pd o con la
variable de entorno
INFA_DEFAULT_DOMAIN_PASSWORD. Si se
establece una contraseña con ambos
métodos, la contraseña establecida con la
opción -pd tendrá preferencia.

-SecurityDomain DIS_security_domain Obligatorio si el dominio requiere


-sdn autenticación de LDAP. Opcional si el
dominio usa autenticación nativa. Nombre
del dominio de seguridad al que pertenece
el usuario del dominio. Los dominios de
seguridad se pueden establecer con la
opción -sdn o con la variable de entorno
INFA_DEFAULT_SECURITY_DOMAIN. Si
establece un nombre de dominio de
seguridad con ambos métodos, la opción -
sdn tendrá preferencia. El dominio de
seguridad distingue mayúsculas de
minúsculas.
Si el dominio utiliza autenticación nativa o
de LDAP, el valor predeterminado es Nativo.

-sourceDomainName source_domain_name Obligatorio. Nombre del dominio del objeto


-srcdn de origen.

-sourceRepositoryService source_MRS_name Opcional. Nombre del servicio de


-srcrs repositorio de modelos en el objeto de
origen.

CI/CD 63
Opción Argumento Descripción

- source_DIS_name Opcional. Nombre del servicio de


sourceDataIntegrationService integración de datos para el objeto de
-srcdis origen.

-sourceRepositoryUserName source_MRS_user_name Opcional. Nombre de usuario del servicio de


-srcrsun repositorio de modelos que se utiliza para
acceder al objeto de origen. El nombre de
usuario se puede establecer con la opción -
srcrsun o con la variable de entorno
INFA_SOURCE_REPOSITORY_USER. Si se
establece un nombre de usuario con ambos
métodos, la opción -srcrsun tendrá
preferencia.

-sourceRepositoryPassword source_MRS_password Es obligatorio si especifica el nombre de


-srcrspd usuario. Contraseña del nombre de usuario.
La contraseña distingue entre mayúsculas y
minúsculas. Una contraseña se puede
establecer con la opción -srcrspd o con la
variable de entorno
INFA_SOURCE_REPOSITORY_PASSWORD. Si
se establece una contraseña con ambos
métodos, la contraseña establecida con la
opción -srcrspd tendrá preferencia.

- source_MRS_security_domain Obligatorio si el dominio requiere


sourceRepositorySecurityDom autenticación de LDAP. Opcional si el
ain dominio usa autenticación nativa. Nombre
-srcrssdn del dominio de seguridad al que pertenece
el usuario del dominio. Un dominio de
seguridad se puede establecer con la
opción -srcrssdn o con la variable de
entorno
INFA_DEFAULT_SOURCE_SECURITY_DOMAI
N. Si establece un nombre de dominio de
seguridad con ambos métodos, la opción -
srcrssdn tendrá preferencia. El nombre de
dominio de seguridad distingue mayúsculas
de minúsculas.
Si el dominio utiliza autenticación nativa o
de LDAP, el valor predeterminado es Nativo.

-sourceQuery source_query Obligatorio. Cadena que consulta el objeto


-srcq de origen.

-targetDomainName target_domain_name Obligatorio. Nombre del dominio del objeto


-tgtdn de destino.

-targetRepositoryService target_MRS_name Opcional. Nombre del servicio de


-tgtrs repositorio de modelos en el objeto de
destino.

-targetDataIntegrationService target_DIS_name Opcional. Nombre del servicio de


-tgtdis integración de datos para el objeto de
destino.

64 Capítulo 7: Novedades de la versión 10.5


Opción Argumento Descripción

-targetRepositoryUserName target_MRS_user_name Opcional. Nombre de usuario del servicio de


-tgtrsun repositorio de modelos que se utiliza para
acceder al objeto de destino. El nombre de
usuario se puede establecer con la opción -
tgtrsun o con la variable de entorno
INFA_TARGET_REPOSITORY_USER. Si se
establece un nombre de usuario con ambos
métodos, la opción -tgtrsun tendrá
preferencia.

-targetRepositoryPassword target_MRS_password Es obligatorio si especifica el nombre de


-tgtrspd usuario. Contraseña del nombre de usuario.
La contraseña distingue entre mayúsculas y
minúsculas. Una contraseña se puede
establecer con la opción -tgtrspd o con la
variable de entorno
INFA_TARGET_REPOSITORY_PASSWORD. Si
se establece una contraseña con ambos
métodos, la contraseña establecida con la
opción -tgtrspd tendrá preferencia.

- target_MRS_security_domain Obligatorio si el dominio requiere


targetRepositorySecurityDom autenticación de LDAP. Opcional si el
ain dominio usa autenticación nativa. Nombre
-tgtrssdn del dominio de seguridad al que pertenece
el usuario del dominio. Un dominio de
seguridad se puede establecer con la
opción -tgtrssdn o con la variable de
entorno
INFA_DEFAULT_TARGET_SECURITY_DOMAI
N. Si se establece un nombre de dominio de
seguridad con ambos métodos, la opción -
tgtrssdn tendrá preferencia. El nombre de
dominio de seguridad distingue mayúsculas
de minúsculas.
Si el dominio utiliza autenticación nativa o
de LDAP, el valor predeterminado es Nativo.

-targetQuery target_query Obligatorio. Cadena que consulta el objeto


-tgtq de destino.

-TimeZone time_zone Opcional. El comando utiliza de forma


-tz predeterminada la zona horaria del equipo
que ejecuta el proceso del servicio de
integración de datos. Para obtener una lista
de las zonas horarias válidas, consulte la
clase java.time.ZoneID.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.5.

Parámetros de consulta

A partir de la versión 10.5, puede utilizar los parámetros Tipo y Objeto en consultas de comandos
infacmd para recuperar objetos en tiempo de diseño. Puede utilizar los parámetros con los comandos
infacmd dis compareObject, queryRunTimeObjects, queryDesignTimeObjects, deployObjectsToFile,
replaceAllTag, tag y untag. Para obtener más información, consulte la Referencia de comandos de
Informatica 10.5.

CI/CD 65
Programas de la línea de comandos
Lea esta sección para conocer las novedades de los programas de línea de comandos en la versión 10.5.

Comandos infacmd cluster


Cuando usa el comando infacmd cluster createConfiguration para crear una configuración de clúster,
también puede crear las conexiones Hadoop, HBase, HDFS o Hive asociadas con el clúster.

Utilice la siguiente nueva opción con infacmd cluster createConfiguration:

Nueva opción Argumento Descripción

-createConnections true|false Opcional. Indica si se deben


-cc crear conexiones asociadas
con la configuración del
clúster. El valor
predeterminado es false.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.5.

Comandos infacmd ics


A partir de la versión 10.5, puede utilizar las nuevas opciones del comando shutdownCluster para cerrar el
servicio de clúster de Informatica y los servicios correspondientes, como Nomad, Solr, MongoDB y Postgres
SQL.

Comandos infacmd isp


A partir de la versión 10.5, puede usar nuevas opciones de comando en infacmd isp switchToGatewayNode
para especificar la ubicación y la contraseña del almacén de claves de SAML.

La siguiente tabla describe la nueva opción de comando infacmd isp switchToGatewayNode:

Opción Descripción

-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skp SAML. Contraseña para el almacén de claves de SAML.

Comandos infacmd ldm


A partir de la versión 10.5, puede utilizar las nuevas opciones del comando ldm migrateContents en infacmd
ldm para migrar contenido. Proporcione el directorio de entrada desde donde desea migrar o verificar el
contenido. Ejecute el comando migrateContents cuando el servicio de catálogo, el servicio de clústeres de
Informatica y los almacenes necesarios estén habilitados.

66 Capítulo 7: Novedades de la versión 10.5


Comandos infacmd ms
Puede utilizar infacmd ms runMapping para ejecutar auditorías con su asignación. Después de configurar las
reglas y condiciones de auditoría en Developer tool, use la siguiente opción nueva:

Nueva opción Descripción

-EnableAudit Opcional. Indica si la asignación ejecuta las reglas y condiciones de auditoría configuradas para la
-ea asignación. El valor predeterminado es false.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.5.

Comandos de infasetup
A partir de la versión 10.5, puede usar comandos infasetup para definir o actualizar el dominio o los nodos
de dominio para configurar o mejorar la autenticación SAML para aplicaciones web.

Cada una de las siguientes secciones describe nuevas opciones para los comandos infasetup:

defineDomain
La siguiente tabla describe las nuevas opciones para el comando infasetup defineDomain:

Opción Descripción

-SamlAssertionSigned Opcional. Establezca esta opción en TRUE para habilitar la firma de


-sas aserción por parte del proveedor de identidades. El valor predeterminado es
FALSE.

-AuthnContextComparsion Especifica el método de comparación utilizado para evaluar la declaración


-acc de autorización solicitada. Establezca esta opción en MINIMUM,
MAXIMUM, BETTER o EXACT. El valor predeterminado es Exact.

-AuthnContextClassRef La clase de contexto de autenticación. Establezca esta opción en


-accr PASSWORD o PASSWORDPROTECTEDTRANSPORT.

-SignSamlRequest Establezca esta opción en true para habilitar la solicitud firmada.


-ssr El valor predeterminado es False.

-RequestSigningPrivateKeyAlias Obligatorio si habilita la solicitud firmada. Nombre de alias de la clave


-rspa privada presente en el almacén de claves de SAML del nodo con el que se
debe firmar la solicitud SAML

-RequestSigningPrivateKeyPassword Obligatorio si habilita la solicitud firmada. Contraseña para acceder a la


-rspp clave privada utilizada para firmar la solicitud SAML

-RequestSigningAlgorithm Obligatorio si habilita la solicitud firmada. Algoritmo utilizado para firmar


-rsa la solicitud. Puede establecer uno de varios valores diferentes, incluidos
RSA_SHA256, DSA_SHA1 y DSA_SHA256.

-SamlResponseSigned Establezca esta opción en true para habilitar la respuesta firmada.


-srs El valor predeterminado es False.

Programas de la línea de comandos 67


Opción Descripción

-ResponseSigningCertificateAlias Obligatorio si habilita la respuesta firmada. Nombre de alias del certificado


-rsca presente en el truststore de SAML del nodo de puerta de enlace mediante el
cual se validará la firma de respuesta SAML.

-SamlAssertionEncrypted Obligatorio si habilita la respuesta firmada. Establezca esta opción en true


-sae para habilitar la aserción cifrada.
El valor predeterminado es false.

-EncyptedAssertionPrivateKeyAlias Obligatorio si habilita la aserción cifrada. Nombre de alias de la clave


-espa privada presente en el almacén de claves de SAML del nodo de puerta de
enlace con la clave utilizada para cifrar la aserción que se descifrará.

-EncyptedAssertionPrivateKeyPassword Obligatorio si habilita la aserción cifrada. Contraseña para acceder a la


-espp clave privada utilizada para descifrar la clave de cifrado de aserciones

defineGatewayNode
La siguiente tabla describe las nuevas opciones para el comando infasetup defineGatewayNode:

Opción Descripción

-SamlKeyStoreDir Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skd SAML. Ruta al almacén de claves de SAML.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skp SAML. Contraseña para el almacén de claves de SAML.
Nota: Si actualmente ejecuta scripts que utilizan defineGatewayNode para habilitar un
almacén de claves personalizado para la autenticación SAML, debe actualizarlos para
incluir esta opción.

defineWorkerNode
La siguiente tabla describe las nuevas opciones para el comando infasetup defineWorkerNode:

Opción Descripción

-EnableSaml Opcional. Habilita o deshabilita la autenticación SAML en el domino de Informatica.


-saml Establezca esta opción en true o false. El valor predeterminado es false.

-SamlTrustStoreDir Opcional. El directorio que contiene el archivo de TrustStore personalizado que se


-std necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.
Se utiliza el archivo de TrustStore predeterminado de Informatica si no se especifica
ninguno.

-SamlTrustStorePassword Obligatorio si utiliza un archivo de TrustStore personalizado para la autenticación SAML.


-stp La contraseña del archivo de TrustStore personalizado.

68 Capítulo 7: Novedades de la versión 10.5


Opción Descripción

-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que
-skd se necesita para utilizar la autenticación SAML en el nodo de puerta de enlace.
Especifique solo el directorio, no la ruta de acceso completa al archivo.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skp SAML. Contraseña para el almacén de claves de SAML.
Nota: Si actualmente ejecuta scripts que utilizan defineWorkerNode para habilitar un
almacén de claves personalizado para la autenticación SAML, debe actualizarlos para
incluir esta opción.

updateGatewayNode
La siguiente tabla describe las nuevas opciones para el comando infasetup updateGatewayNode:

Opción Descripción

-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skp SAML. Contraseña para el almacén de claves de SAML.

updateWorkerNode
La siguiente tabla describe las nuevas opciones para el comando infasetup updateWorkerNode:

Opción Descripción

-CipherWhiteList Opcional. Lista separada por comas de los conjuntos de cifrado JSSE que quiere añadir a
-cwl la lista efectiva.
Nota: La lista debe contener al menos un conjunto de cifrado JRE u OpenSSL válido.

-CipherBlackList Opcional. Lista separada por comas de los conjuntos de cifrado JSSE que quiere quitar de
-cbl la lista efectiva.
Nota: La lista efectiva debe contener al menos un conjunto de cifrado JRE u OpenSSL
válido.

-CipherWhiteListFile Opcional. Nombre de archivo absoluto del archivo de texto sin formato que contiene una
-cwlf lista separada por comas de los conjuntos de cifrado que quiere añadir a la lista efectiva.
Nota: La lista debe contener al menos un conjunto de cifrado JRE u OpenSSL válido.

-CipherBlackListFile Opcional. Nombre de archivo absoluto del archivo de texto sin formato que contiene una
-cblf lista separada por comas de los conjuntos de cifrado que quiere quitar de la lista efectiva.
Nota: La lista efectiva debe contener al menos un conjunto de cifrado JRE u OpenSSL
válido.

-EnableSaml Opcional. Habilita o deshabilita la autenticación SAML en el domino de Informatica.


-saml Establezca esta opción en true o false. El valor predeterminado es false.

Programas de la línea de comandos 69


Opción Descripción

-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves personalizado que se
-skd necesita para utilizar la autenticación SAML en el nodo de puerta de enlace. Especifique
solo el directorio, no la ruta de acceso completa al archivo.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la autenticación


-skp SAML. Contraseña para el almacén de claves de SAML.
Nota: Si actualmente ejecuta scripts que utilizan updateWorkerNode para habilitar un
almacén de claves personalizado para la autenticación SAML, debe actualizarlos para
incluir esta opción.

updateDomainSamlConfig
La siguiente tabla describe las nuevas opciones para el comando infasetup updateDomainSamlConfig:

Opción Descripción

-SamlAssertionSigned Opcional. Establezca esta opción en TRUE para habilitar la firma de


-sas aserción por parte del proveedor de identidades. El valor predeterminado es
FALSE.

-SamlKeyStoreDir Opcional. El directorio que contiene el archivo de almacén de claves


-skd personalizado que se necesita para utilizar la autenticación SAML en el
nodo de puerta de enlace. Especifique solo el directorio, no la ruta de
acceso completa al archivo.

-SamlKeyStorePassword Obligatorio si utiliza un archivo de almacén de claves personalizado para la


-skp autenticación SAML. Contraseña para el almacén de claves de SAML.
Nota: Si actualmente ejecuta scripts que utilizan updateDomainSamlConfig
para habilitar un almacén de claves personalizado para la autenticación
SAML, debe actualizarlos para incluir esta opción.

-SignSamlRequest Establezca esta opción en true para habilitar la firma de respuesta


-ssr El valor predeterminado es false.

-RequestSigningPrivateKeyAlias Obligatorio si habilita la solicitud firmada. Nombre de alias de la clave


-rspa privada que utiliza Informatica para firmar la solicitud. Esta clave privada
reside en el almacén de claves del nodo de puerta de enlace. La clave
pública correspondiente, normalmente un certificado, debe importarse al
proveedor de identidad.

-RequestSigningPrivateKeyPassword Contraseña de texto sin formato de la clave privada que utiliza Informatica
-rspp para firmar la solicitud.
El valor predeterminado es la contraseña de la clave privada presente en el
archivo del almacén de claves <inicio de Informatica>\services
\shared\security\infa_keystore.jks con el alias "Informatica LLC".

-RequestSigningAlgorithm Obligatorio si habilita la solicitud firmada. Algoritmo utilizado para firmar


-rsa la solicitud. Puede establecer uno de varios valores diferentes, incluidos
RSA_SHA256, DSA_SHA1 y DSA_SHA256.

-SamlResponseSigned Establezca esta opción en true para especificar si el IDP firma la respuesta
-srs SAML.
Nota: Cuando se establece en TRUE, requiere que el administrador de IDP
configure el proveedor de identificación para firmar la respuesta.
El valor predeterminado es false.

70 Capítulo 7: Novedades de la versión 10.5


Opción Descripción

-ResponseSigningCertificateAlias Obligatorio si habilita la respuesta firmada. Nombre de alias del certificado


-rsca en el truststore de SAML del nodo de puerta de enlace que se utilizará para
verificar la firma.

-SamlAssertionEncrypted Establezca esta opción en true para especificar que el IDP cifra la aserción.
-sae Nota: Cuando se establece en TRUE, requiere que el administrador de IDP
configure el proveedor de identificación para cifrar la aserción.
El valor predeterminado es false.

-EncyptedAssertionPrivateKeyAlias El nombre de alias de la clave privada presente en el almacén de claves de


-espa SAML del nodo de puerta de enlace. La clave privada se utiliza para cifrar
la aserción. El administrador de IDP debe importar la clave pública
correspondiente (generalmente un certificado).

-EncyptedAssertionPrivateKeyPassword Contraseña de texto sin formato.


-espp El valor predeterminado es la contraseña de la clave privada presente en el
archivo del almacén de claves <inicio de Informatica>\services
\shared\security\infa_keystore.jks con el alias "Informatica LLC".

infasetup defineDomain
A partir de la versión 10.5, puede usar una nueva opción de infasetup para requerir que las aplicaciones web
usen HTTPS cuando se comunican con el dominio.

La siguiente tabla describe la nueva opción de comando infasetup defineDomain:

Opción Descripción

EnableHsts Opcional. Establezca esta opción en TRUE para habilitar la seguridad de transporte estricta HTTP. La
-hsts seguridad de transporte estricta de HTTP requiere que las aplicaciones web utilicen HTTPS.

Data Engineering Integration


Lea esta sección para conocer las novedades de Data Engineering Integration en la versión 10.5.

Función EXTRACT_STRUCT
A partir de la versión 10.5, puede utilizar la función EXTRACT_STRUCT en expresiones dinámicas para extraer
todos los elementos de un puerto de estructura dinámica en una transformación de expresión.

La función EXTRACT_STRUCT aplana los puertos de estructura dinámica. La expresión para los puertos de
salida usa el operador de punto para extraer elementos en la estructura dinámica.

Para obtener más información, consulte la Referencia del lenguaje de transformación de Informatica 10.5.

Data Engineering Integration 71


Administrador de archivos para preprocesamiento de archivos en
la nube
A partir de la versión 10.5, puede realizar el preprocesamiento de archivos como enumerar, copiar,
renombrar, mover, eliminar y ver en ecosistemas de nube Microsoft Azure y Amazon AWS.

Comandos de filemanager
La siguiente tabla describe los comandos disponibles para la utilidad filemanager:

Comandos Descripción

copy Utilice el comando copy para copiar archivos en un ecosistema de nube de Amazon AWS.

copyfromlocal Utilice el comando copyfromlocal para copiar archivos de un sistema local a un ecosistema en la
nube.

list Utilice el comando list para enumerar archivos en un ecosistema en la nube.

move Utilice el comando move para mover archivos en un ecosistema en la nube.

remove Utilice el comando remove para eliminar archivos de un ecosistema en la nube.

rename Utilice el comando rename para cambiar el nombre a los archivos en un ecosistema en la nube.

watch Utilice el comando watch para ver archivos que desencadenan un evento de procesamiento de
archivos, asignación o flujo de trabajo en un ecosistema en la nube.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.5.

Asignación de auditorías
Puede crear una auditoría para validar la coherencia y precisión de los datos que se procesan en una
asignación.

Una auditoría se compone de reglas y condiciones. Utilice una regla para calcular un valor agregado para una
sola columna de datos. Utilice una condición para realizar comparaciones entre varias reglas o entre una
regla y valores constantes.

Puede configurar auditorías para las siguientes asignaciones que se ejecutan en el entorno nativo o en el
motor de Spark:

• Leer operaciones en asignaciones de Snowflake, Microsoft Azure SQL Data Warehouse, JDBC V2 y
Amazon S3.
• Leer operaciones para archivos complejos como Avro, Parquet y JSON en asignaciones HDFS.
• Leer y escribir operaciones en asignaciones de Hive y Oracle.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.

Perfil en el clúster de Databricks


A partir de la versión 10.5, puede ejecutar perfiles en el clúster de Databricks.

72 Capítulo 7: Novedades de la versión 10.5


Creación de perfiles en el clúster de Databricks

Puede crear y ejecutar perfiles en el clúster de Databricks en las herramientas Informatica Developer e
Informatica Analyst. Puede realizar la detección de dominios de datos y la creación de cuadros de
mandos en el clúster de Databricks.

Para obtener información sobre los perfiles en el clúster de Databricks, consulte Guía de Informatica 10.5
Data Discovery.

Recomendaciones e información de datos confidenciales de


CLAIRE
A partir de la versión 10.5, la inteligencia artificial CLAIRE detecta datos confidenciales en orígenes de
asignación cuando Enterprise Data Catalog está configurado en el dominio.

Las recomendaciones enumeran columnas de origen que contienen datos confidenciales según las reglas de
calidad de los datos. También puede agregar tipos personalizados a los datos confidenciales que detecta
CLAIRE.

Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.

Compatibilidad con grupos intermedios para clústeres efímeros en


Databricks
A partir de la versión 10.5, puede configurar clústeres de Databricks efímeros con grupos intermedios. Un
grupo intermedio es un grupo de instancias de VM reservadas para la creación de clústeres efímeros.

Cuando configura las instancias de grupo intermedio en el entorno de Databricks, entran en modo de espera
en un estado de ejecución para la creación de un clúster efímero. Puede optar por que las instancias
permanezcan en espera cuando finalicen los clústeres efímeros.

Para obtener más información, consulte el capítulo sobre flujos de trabajo de clústeres en la Guía del usuario
de Data Engineering Integration.

Data Engineering Quality


Lea esta sección para conocer las novedades de Data Engineering Quality en la versión 10.5.

Integración de Databricks
A partir de la versión 10.5, puede agregar las siguientes transformaciones a una asignación que se ejecuta
en un entorno de Azure Databricks o AWS Databricks:

• Validador de direcciones
• Conversión de mayúsculas y minúsculas
• Clasificador
• Consolidación
• Decisión
• Generador de claves

Data Engineering Quality 73


• Etiquetador
• Coincidencia
• Fusión
• Analizador
• Especificación de regla
• Estandarizador
• Analizador basado en peso
Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.5.

Data Engineering Streaming


Lea esta sección para conocer las novedades de Data Engineering Streaming en la versión 10.5.

Cassandra
A partir de la versión 10.5, se puede utilizar Cassandra como destino en las asignaciones de transmisión.

Cassandra es una base de datos NoSQL de código abierto que es altamente escalable y proporciona alta
disponibilidad. Puede utilizar Cassandra para almacenar grandes cantidades de datos distribuidos en
centros de datos o cuando sus aplicaciones requieran una alta velocidad de acceso de escritura.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

DataProc
A partir de la versión 10.5, Data Engineering Streaming admite DataProc para la configuración de clústeres.

Destino de almacenamiento en la nube de Google en Google


Dataproc
A partir de la versión 10.5, puede utilizar Google Cloud Storage como destino en las asignaciones de
transmisión para ejecutar en un clúster de Google Dataproc.

Google Dataproc es una implementación ligera de Hadoop y Apache Spark en la plataforma en la nube de
Google. Cuando integra Informatica Data Engineering Streaming con Dataproc, configura un dominio de
Informatica local para ejecutar trabajos en el clúster de nube de Dataproc. Debe configurar el clúster de
Dataproc antes de integrar el clúster con Data Engineering Streaming.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

Google PubSub
A partir de la versión 10.5, se puede utilizar Google PubSub como destino en las asignaciones de
transmisión.

Utilice un origen de Google PubSub para leer mensajes de la suscripción configurada de Google Cloud
PubSub.

74 Capítulo 7: Novedades de la versión 10.5


Google PubSub es un servicio de mensajería asincrónica que desacopla los servicios que producen eventos
de los servicios que procesan eventos. Puede utilizar Google PubSub como un middleware orientado a la
mensajería o para la ingestión y entrega de eventos para canalizaciones de análisis de transmisión. Google
PubSub ofrece almacenamiento de mensajes duradero y entrega de mensajes en tiempo real con alta
disponibilidad y rendimiento constante a escala. Puede ejecutar servidores Google PubSub en todas las
regiones de Google Cloud disponibles en todo el mundo.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

Tipos de datos de alta precisión


A partir de la versión 10.5, puede habilitar el modo de alta precisión en las asignaciones de transmisión. Con
el motor de Spark, puede procesar los valores decimales con una precisión de hasta 38 dígitos.

En el modo de alta precisión, el motor de Spark admite tipos de datos decimales con precisión de hasta 38
dígitos y una escala máxima de 38. La escala debe ser menor que la precisión.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

Kudu
A partir de la versión 10.5, se puede utilizar Kudu como destino en las asignaciones de transmisión.

Kudu es un administrador de almacenamiento en columnas desarrollado para la plataforma Apache Hadoop.


Puede utilizar Kudu para almacenar datos en tablas. Kudu tiene un modelo de datos simple, donde la tabla
Kudu tiene una clave principal compuesta por una o más columnas, cada una con un tipo definido. Las tablas
Kudu tienen una estructura de columnas que ayuda a vectorizar y comprimir datos fácilmente. Utilice Kudu
para realizar análisis en tiempo real sobre datos rápidos. Puede utilizar Kudu para búsquedas,
actualizaciones e inserciones rápidas de datos.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

Transformación de Python en Databricks


A partir de la versión 10.5, puede agregar la transformación de Python a las asignaciones de transmisión en
el entorno de Databricks en las plataformas AWS o Azure.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.5.

Data Privacy Management


Lea esta sección para conocer las novedades de Data Privacy Management en la versión 10.5.

Personalizar el logotipo de la marca


A partir de la versión 10.5, puede personalizar el logotipo que aparece con el nombre del producto Data
Privacy Management en varias ubicaciones.

Para obtener instrucciones e información sobre cómo personalizar el logotipo, consulte el capítulo
"Configuración del sistema" en la Guía del usuario de Informatica Data Privacy Management 10.5.

Data Privacy Management 75


Dominios de datos
A partir de la versión 10.5, los dominios de datos incluyen una regla adicional para el manejo de conflictos.

Puede configurar un dominio de datos para que devuelva una coincidencia cuando coincidan los metadatos
o la condición de los datos.

Puede utilizar la regla de coincidencia en los dominios de datos que cree en Data Privacy Management e
importe desde un archivo CSV.

Para obtener información, consulte la Guía del usuario de Informatica Data Privacy Management.

Compatibilidad con PostgreSQL


A partir de la versión 10.5, puede utilizar una base de datos PostgreSQL para crear el repositorio de Data
Privacy Management.

Para obtener información, consulte la Guía de instalación y configuración de Informatica Data Privacy
Management.

Panel de privacidad
A partir de la versión 10.5, el panel de privacidad incluye las siguientes características:

Páginas de desglose del indicador

Puede ver información detallada sobre temas y solicitudes de temas en las páginas detalladas sobre los
siguientes indicadores del panel de privacidad:

• Principales almacenes de datos por asunto. Vea información adicional sobre todos los almacenes de
datos del Registro de asuntos y abra las páginas relacionadas desde los valores de columna
seleccionados.
• Datos del asunto por ubicación. Vea información detallada sobre los almacenes de datos que
contienen temas filtrados por ubicación.
• Solicitudes de asunto por tipo. Vea información sobre solicitudes de asunto filtradas por tipo de
solicitud y vea las páginas de tareas correspondientes.
• Solicitudes de asunto por fecha de vencimiento. Vea información sobre solicitudes de asunto
filtradas por fecha de vencimiento y vea las páginas de tareas correspondientes.

Filtros globales y específicos de página

Puede aplicar filtros globales en la página principal del panel de privacidad. Puede aplicar filtros
globales y específicos de página desde cada una de las páginas de indicadores que se abren.

Para obtener información sobre el panel de privacidad y los filtros disponibles en el panel, consulte el
capítulo "Panel de privacidad" en la Guía del usuario de Informatica Data Privacy Management 10.5.

Orígenes
A partir de la versión 10.5, puede incluir los siguientes tipos de archivos y conexiones en los análisis:

Servidor de correo electrónico

Puede crear un almacén de datos y utilizar Informatica Discovery Agent para realizar la detección de
dominios en un servidor de correo electrónico de Office 365 Outlook.

76 Capítulo 7: Novedades de la versión 10.5


Reconocimiento óptico de caracteres para imágenes y PDF escaneados

Puede incluir imágenes y archivos PDF escaneados en exploraciones de detección de dominios que
utilizan Informatica Discovery Agent. Cuando habilita el reconocimiento óptico de caracteres, puede
optar por incluir un tipo de archivo de imagen adicional en un almacén de datos no estructurado. La
página Archivos confidenciales incluye un filtro de imagen adicional Tipo de archivo.

Para obtener información sobre cómo crear un almacén de datos y cómo utilizar los orígenes de datos en un
almacén de datos no estructurado, consulte la Guía del usuario de Informatica Data Privacy Management
10.5.

Data Transformation
Lea esta sección para conocer las novedades de Data Transformation en la versión 10.5.

Validaciones de VRL con servicios de Data Transformation

Puede utilizar un motor de Data Transformation de velocidad mejorada para las validaciones de VRL con
los servicios de Data Transformation. Esta mejora no afecta a los servicios de Data Transformation
existentes que utilizan validaciones de VRL.

Para obtener más información, consulte la Guía del usuario de Data Transformation 10.5.

Atributo Nillable en XSD

Puede usar el atributo xsd:nillable para marcar los elementos XSD como nillable. Cuando marca un
elemento como nillable, el elemento correspondiente en el archivo XML permite valores nulos.

Para obtener más información, consulte la Guía del usuario de Data Transformation 10.5.

Enterprise Data Catalog


Lea esta sección para conocer las novedades de Enterprise Data Catalog en la versión 10.5.

Advanced Scanners
Lea esta sección para conocer las novedades de Advanced Scanners en la versión 10.5:

Compatibilidad con el nuevo Enterprise Data Catalog Advanced Scanners

Puede extraer metadatos utilizando las siguientes instancias de Advanced Scanners:

• Oracle Data Integrator


• Talend Data Integrator
• Metadatos del núcleo de Snowflake

Gestión de conexiones optimizada

Puede extraer el linaje de orígenes ETL y herramientas de informes sin la necesidad de definir
conexiones en vivo a los sistemas vinculados, como bases de datos y sistemas de archivos. En ciertos
casos, esas conexiones son necesarias si los metadatos del sistema de origen no describen
completamente los sistemas vinculados.

Data Transformation 77
Nota: Si no se proporciona la conexión al sistema de origen o de destino, no se procesa el linaje de las
llamadas a procedimientos almacenados.

Edición de bases de datos mejorada

Puede editar una base de datos en el Registro de conexiones seleccionando de una lista de opciones
disponibles y rellenando los campos obligatorios. También puede utilizar la URL de base de datos
sugerida.

Recursos de referencia y activos de referencia

Puede configurar todos los Advanced Scanners para extraer metadatos de orígenes de datos u otros
recursos del catálogo a los que hacen referencia los escáneres.

Para obtener más información, consulte la Guía del administrador de Enterprise Data Catalog Advanced
Scanners.

Clonación de un recurso
A partir de la versión 10.5, puede clonar un recurso mediante Catalog Administrator. La clonación de un
recurso le permite crear una copia de un recurso existente y luego modificar la configuración según sea
necesario.

Para obtener instrucciones e información sobre cómo clonar un recurso, consulte el capítulo "Clonación de
un recurso" en la Guía de Informatica 10.5 Catalog Administrator.

Página de inicio mejorada


A partir de la versión 10.5, la página de inicio de Enterprise Data Catalog se ha mejorado con una imagen de
fondo actualizada. Además, puede obtener resultados de búsqueda que se filtran según criterios
predefinidos aplicando un filtro previo de búsqueda desde el cuadro de búsqueda antes de buscar activos.

Para obtener más información, consulte el capítulo sobre la búsqueda de activos en la Guía del usuario de
Informatica 10.5 Enterprise Data Catalog.

Panel de filtro mejorado


Efectivo en la versión 10.5, en la sección Filtrar en la página de resultados de búsqueda, puede ver una lista
colectiva de todas las selecciones que ha realizado en cada filtro de búsqueda para refinar los resultados de
la búsqueda. Según sea necesario, puede eliminar las selecciones que haya realizado de la lista.

Para obtener más información, consulte el capítulo sobre la personalización de la búsqueda en la Guía del
usuario de Informatica 10.5 Enterprise Data Catalog.

Resultados de búsqueda mejorados


A partir de la versión 10.5, en la página de resultados de búsqueda, puede ver detalles adicionales de un
activo en la sección Información adicional. La sección Información adicional contiene los siguientes detalles:

• La fecha y hora de la exploración de recursos anterior


• El nombre de los usuarios asociados con el activo. (La subsección Personas puede incluir los nombres
del propietario de los datos, el gestor de datos y el experto en la materia).
• Información sobre si existe linaje e impacto dependiendo de si los datos de otro activo fluyen desde o
hacia el activo semilla.
• La descripción del activo seleccionado

78 Capítulo 7: Novedades de la versión 10.5


• Atributos personalizados
• Términos comerciales asociados
• Dominios de datos
• Clasificaciones
• Número de columnas similares
• Información de perfil

Los activos que aparecen en la página de resultados de búsqueda contienen la siguiente información:

• Título empresarial
• Nombre técnico
• Ruta de acceso de activos
• Estado de la certificación
• Tipo de activo
• Calificaciones

Nuevos tutoriales
A partir de la versión 10.5, Enterprise Data Catalog incluye nuevos tutoriales para Enterprise Data Catalog.
También se presentan tutoriales para Catalog Administrator.

Los siguientes nuevos tutoriales están disponibles en Catalog Administrator y Enterprise Data Catalog:
Catalog Administrator

• Descripción general de la página de inicio de Catalog Administrator


• Configurar seguridad y permisos
• Crear recursos
• Crear atributos personalizados
• Crear dominios de datos

Enterprise Data Catalog

• Configuración de la aplicación
• Descripción general del término comercial
• Descripción general del dominio de datos
• Conservar dominios de datos
• Descripción general de recursos

Nota: Antes de acceder a los tutoriales, verifique que tenga acceso a los siguientes dominios de Walkme:

• https://cdn.walkme.com
• https://playerserver.walkme.com
• https://ec.walkme.com
• https://rapi.walkme.com
• https://papi.walkme.com

Enterprise Data Catalog 79


Mejoras en la página de notificaciones
A partir de la versión 10.5, puede filtrar la lista de notificaciones según el tipo de activo, el tiempo de
exploración y los cambios seguidos desde un panel independiente. También puede ordenar la lista según el
nombre del activo y el tiempo de exploración, y descargar la lista de notificaciones en un archivo .csv. Si hay
varios cambios para un activo, puede ver el historial de cambios del activo en la ventana Historial de activos.

Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía
del usuario de Informatica Enterprise Data Catalog 10.5.

Perfil en el clúster de Databricks


A partir de la versión 10.5, puede ejecutar la detección de datos en el clúster de Databricks.

Para obtener más información, consulte el capítulo "Conceptos de Enterprise Catalog" en la Guía de
Informatica 10.5 Enterprise Data Catalog Administrator.

Mejoras de recursos
A partir de la versión 10.5, Enterprise Data Catalog incluye las siguientes mejoras de recursos:

Recursos de SAP BW y SAP BW/4HANA


Puede configurar los recursos de SAP BW y SAP BW/4HANA para conectarse al servidor de SAP mediante la
conexión de comunicaciones de red seguras (SNC).

Recurso SAP S/4HANA


El recurso SAP S/4HANA incluye las siguientes mejoras:
Extraer metadatos de creación de perfiles

Puede utilizar el recurso SAP S/4HANA para extraer la siguiente información de creación de perfiles
para un activo de tabla:

• Detección de dominio
• Creación de perfiles de columna
• Detección de relaciones

Filtrar tipos de activos cargados en el catálogo


Puede configurar el recurso SAP S/4HANA para extraer los tipos de activos que desea cargar en el
catálogo.

Tipo de conexión del servidor SAP

Puede configurar el recurso SAP S/4HANA para conectarse al servidor de SAP mediante la conexión de
comunicaciones de red seguras (SNC).

Recurso de Salesforce
Puede configurar un recurso de Salesforce para utilizar la autenticación OAuth para conectarse a un origen
de datos de Salesforce.

Recurso de Axon
Puede configurar un recurso Axon para extraer y cargar objetos Axon específicos en el catálogo.

80 Capítulo 7: Novedades de la versión 10.5


Enterprise Data Preparation
Lea esta sección para conocer las novedades de Enterprise Data Preparation en la versión 10.5.

Compatibilidad con nuevo origen de datos

A partir de la versión 10.5, puede utilizar los siguientes orígenes de datos:

• Almacén de datos en la nube: Amazon Redshift y Microsoft Azure Synapse


• Lago de datos en la nube: Microsoft Azure Data Lake Storage y Amazon S3
• Base de datos en la nube: Amazon RDS y Microsoft Azure SQL
• Almacén de datos: Teradata
• Base de datos: Oracle y Microsoft SQL Server
Para obtener información sobre los orígenes de datos compatibles, consulte la Guía de administración
de Enterprise Data Preparation 10.5.

Importar datos filtrados para su preparación

A partir de la versión 10.5, puede importar conjuntos de datos filtrados para la preparación de datos.
Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.5.

Caracteres especiales y multibyte en metadatos

A partir de la versión 10.5, puede utilizar caracteres especiales o multibyte en los nombres de esquema,
tabla o columna. Para obtener más información, consulte la Guía del usuario de Enterprise Data
Preparation 10.5.

Transformaciones de Informatica
Lea esta sección para conocer las novedades de las transformaciones de Developer tool en la versión 10.5.

Transformación de enmascaramiento de datos


A partir de la versión 10.5, puede realizar las siguientes tareas en una transformación de enmascaramiento
de datos:

Cifrado

Puede utilizar la técnica de cifrado para cifrar o descifrar los datos de origen. Puede configurar la
técnica para conservar el formato y los metadatos, conservar los metadatos o cambiar los metadatos.

Orden de clasificación
Puede establecer el orden de las entradas en un diccionario relacional que utilice para el
enmascaramiento de sustitución. Establezca el orden de las entradas en el diccionario según la columna
del número de serie para asegurarse de que el orden sea coherente y genere datos enmascarados
coherentes.

Optimizar uso del diccionario

Optimice el uso del diccionario para aumentar el número de valores enmascarados que se utilizan en el
diccionario en una técnica de enmascaramiento de sustitución que configure para una salida repetible.

Para obtener más información, consulte el capítulo "Transformación del enmascaramiento de datos" de la
Guía de transformación de Informatica 10.5 Developer.

Enterprise Data Preparation 81


Transformación de búsqueda
A partir de la versión 10.5, el motor de Spark y el motor de Databricks Spark pueden devolver varias
coincidencias para una transformación de búsqueda.

Transformación del generador de secuencias en Databricks


A partir de la versión 10.5, el motor de Databricks Spark puede procesar la transformación del generador de
secuencia en los clústeres de Amazon Web Services (AWS) o Microsoft Azure Databricks.

La transformación del generador de secuencia es compatible con Databricks cuando el clúster de Databricks
y el dominio de Informatica residen en la misma red virtual.

Flujos de trabajo de Informatica


Lea esta sección para conocer las novedades de los flujos de trabajo en la versión 10.5.

Base de datos de flujo de trabajo

Puede crear la base de datos de flujo de trabajo en PostgreSQL.

Para obtener más información, consulte la Guía del servicio de aplicación de Informatica 10.5.

Modelos de estructura inteligente


Lea esta sección para conocer las novedades de los modelos de estructura inteligentes en la versión 10.5.

Asignaciones dinámicas

Puede utilizar modelos de estructura inteligente en asignaciones dinámicas.

Particionamiento a nivel de directorio en archivos complejos

Cuando crea un objeto de datos de archivo complejo que utiliza un modelo de estructura inteligente y el
archivo de entrada es Avro, Parquet u ORC, puede seleccionar el directorio donde residen los archivos de
entrada.

Modelos de estructura inteligente en Databricks

Puede incorporar un modelo de estructura inteligente en un objeto de datos de Amazon S3 o Microsoft


Azure Data Lake Store para las asignaciones que se ejecutan en el motor de Databricks Spark. El motor
de Databricks Spark puede procesar cualquier tipo de entrada que el modelo pueda analizar.

Para obtener más información sobre los modelos de estructura inteligentes, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.

Metadata Manager
Lea esta sección para conocer las novedades de Metadata Manager en la versión 10.5.

82 Capítulo 7: Novedades de la versión 10.5


Compatibilidad con Azure Microsoft SQL Server
A partir de la versión 10.5, Metadata Manager es compatible con Azure Microsoft SQL Server como
repositorio.

PowerCenter
Lea esta sección para conocer las novedades de PowerCenter en la versión 10.5.

Cifrados compatibles con los servicios de PowerCenter


A partir de la versión 10.5, los servicios de PowerCenter admiten todos los cifrados predeterminados
admitidos por el dominio de Informatica.

Anteriormente, los servicios de PowerCenter solo admitían los siguientes cifrados:


TLS_RSA_WITH_3DES_EDE_CBC_SHA,TLS_RSA_WITH_AES_128_CBC_SHA,TLS_RSA_WITH_AES_128_CBC_SHA25
6,TLS_RSA_WITH_AES_256_CBC_SHA,
and TLS_RSA_WITH_AES_256_CBC_SHA256

Conectividad
A partir de la versión 10.5, PowerExchange Adapters for PowerCenter incluye las siguientes características:

• Puede configurar una sesión de destino de Oracle para actualizar o insertar datos en lotes de matrices.
Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.5 PowerCenter.
• Puede parametrizar la cadena de conexión en la conexión de Oracle y la conexión del cargador externo de
Oracle.
Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.5 PowerCenter.
• Cuando importa una definición de origen para las siguientes conexiones, puede editar los metadatos de
los campos en el calificador de origen:
- PowerExchange for Google Cloud Storage

- PowerExchange for Kafka

Transformaciones
Lea esta sección para conocer las novedades de las transformaciones de PowerCenter en la versión 10.5.

Transformación de enmascaramiento de datos


A partir de la versión 10.5, puede utilizar las siguientes opciones en una transformación de enmascaramiento
de datos:

Cifrado para preservar el formato

Puede utilizar la técnica de cifrado que conserva el formato para cifrar o descifrar los datos de origen.
Puede configurar la técnica para conservar el formato y los metadatos, conservar los metadatos o
cambiar los metadatos.

PowerCenter 83
Orden de clasificación

Puede establecer el orden de las entradas en un diccionario relacional que utilice para el
enmascaramiento de sustitución. Establezca el orden de las entradas en el diccionario según la columna
del número de serie para asegurarse de que el orden sea coherente y genere datos enmascarados
coherentes.

Optimizar uso del diccionario

Optimice el uso del diccionario para aumentar el número de valores enmascarados que se utilizan en el
diccionario en una técnica de enmascaramiento de sustitución que configure para una salida repetible.

Para obtener más información, consulte el capítulo "Transformación del enmascaramiento de datos" de la
Guía de transformación de Informatica PowerCenter 10.5.

Adaptadores de PowerExchange
Lea esta sección para conocer las novedades de los adaptadores de PowerExchange en la versión 10.5.

Adaptadores de PowerExchange para Informatica


Lea esta sección para conocer las novedades de los adaptadores de Informatica PowerExchange en la
versión 10.5.

PowerExchange for Amazon Redshift


A partir de la versión 10.5, PowerExchange for Amazon Redshift incluye las siguientes características:

• Puede leer y escribir datos del tipo de datos TIMESTAMPZ cuando ejecuta una asignación en el entorno
nativo.
• Puede configurar la partición del rango de claves cuando lee datos de un origen de Amazon Redshift y
ejecuta la asignación en el entorno nativo.
• Puede configurar la partición dinámica cuando lee datos de un origen de Amazon Redshift y ejecuta la
asignación en el entorno nativo.

PowerExchange for Amazon S3


A partir de la versión 10.5, PowerExchange for Amazon S3 incluye las siguientes características:

• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están organizados en función de directorios.

• Puede configurar un almacenamiento compatible con Amazon S3 para acceder y administrar los datos
almacenados en una interfaz compatible con S3. Puede utilizar el almacenamiento compatible con Scality
RING S3. Utilice la conexión de Amazon S3 para conectarse a Scality RING y realice operaciones de
lectura y escritura similares a las de Amazon S3.
• Puede configurar la autenticación de inicio de sesión único (SSO) federado para acceder de forma segura
a los recursos de Amazon S3.
• Puede configurar una operación de búsqueda en caché para almacenar en caché los datos de búsqueda
cuando ejecuta una asignación en el motor de Spark.
• Puede leer y escribir archivos sin formato con y sin encabezados.

84 Capítulo 7: Novedades de la versión 10.5


• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
• Puede realizar auditorías para operaciones de lectura en asignaciones de Amazon S3 que se ejecutan en
el entorno nativo o en el motor de Spark.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Amazon
S3.

PowerExchange for Google BigQuery


A partir de la versión 10.5, PowerExchange for Google BigQuery incluye las siguientes características:

• Puede escribir cadenas vacías desde un origen como valores nulos en un destino de Google BigQuery.
• Puede usar la consulta Merge para realizar operaciones de actualización, inserción o eliminación en una
sola declaración cuando escribe en un destino de Google BigQuery.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
BigQuery.

PowerExchange for Google Cloud Storage


A partir de la versión 10.5, PowerExchange for Google Cloud Storage incluye las siguientes características:

• Puede leer la ruta completa y los nombres de los archivos de origen de Google Cloud Storage.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
Cloud Storage.

PowerExchange for HDFS


A partir de la versión 10.5, PowerExchange for HDFS incluye las siguientes características:

• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están particionados en función de directorios.
• Puede realizar auditorías para operaciones de lectura para archivos complejos como Avro, Parquet y
JSON en asignaciones de HDFS que se ejecutan en el entorno nativo o en el motor de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for HDFS.

PowerExchange for Hive


A partir de la versión 10.5, puede realizar auditorías para operaciones de lectura en asignaciones de Hive que
se ejecutan en el entorno nativo o en el motor de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Hive.

PowerExchange for JDBC V2


A partir de la versión 10.5, PowerExchange for JDBC V2 incluye las siguientes características:

• Puede utilizar objetos JDBC V2 como orígenes y destinos dinámicos en las asignaciones.
• Puede configurar una asignación para crear un destino JDBC V2 en tiempo de ejecución.

Adaptadores de PowerExchange 85
• Puede usar una conexión JDBC V2 con el subtipo de base de datos SAP HANA en asignaciones para leer
o escribir en tablas HANA. También puede leer desde las vistas de modelado de datos de HANA, como
las vistas de atributos, analíticas y cálculo. Puede validar y ejecutar asignaciones de JDBC V2 en el motor
de Spark o Databricks Spark.
• Puede realizar auditorías para operaciones de lectura en asignaciones de JDBC V2 que se ejecutan en el
entorno nativo o en el motor de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for JDBC V2.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.5, PowerExchange for Microsoft Azure Blob Storage incluye las siguientes
características:

• Puede leer y escribir archivos sin formato con y sin encabezados.


• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Microsoft
Azure Blob Storage.

PowerExchange for Microsoft Azure Data Lake Storage Gen1


A partir de la versión 10.5, PowerExchange for Microsoft Azure Data Lake Storage Gen1 incluye las
siguientes características:

• Puede leer y escribir archivos sin formato con y sin encabezados.


• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Microsoft
Azure Data Lake Storage Gen1.

PowerExchange for Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.5, PowerExchange for Microsoft Azure Data Lake Storage Gen2 incluye las
siguientes características:

• Cuando ejecuta una asignación en el motor de Spark, puede leer y escribir datos en archivos Avro, ORC y
Parquet que están particionados en función de directorios.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Microsoft
Azure Data Lake Storage Gen2.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.5, PowerExchange para Microsoft Azure SQL Data Warehouse incluye las siguientes
características:

• Puede conectarse a Microsoft Azure Data Lake Storage Gen2 para preparar archivos en tiempo de
ejecución.

86 Capítulo 7: Novedades de la versión 10.5


• Puede organizar los archivos en formato Parquet cuando lee datos de Microsoft Azure SQL Data
Warehouse.
• Puede invalidar el nombre del esquema y el nombre de la tabla cuando lee y escribe datos en Microsoft
Azure SQL Data Warehouse.
• Puede usar la compresión Gzip para comprimir datos en formato Gzip cuando escribe datos en Microsoft
Azure SQL Data Warehouse en el entorno nativo.
• Puede leer y escribir datos del tipo de datos Datetimeoffset cuando ejecuta una asignación en el motor de
Spark.
• Puede realizar auditorías para operaciones de lectura en asignaciones de Microsoft Azure SQL Data
Warehouse que se ejecutan en el entorno nativo o en el motor de Spark.
• Puede leer y escribir datos en bases de datos de Microsoft Azure SQL Data Warehouse que distinguen
entre mayúsculas y minúsculas.
Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Microsoft
Azure SQL Data Warehouse.

PowerExchange for Salesforce Marketing Cloud


A partir de la versión 10.5, puede configurar asignaciones dinámicas para incluir los cambios frecuentes a
orígenes, destinos y la lógica de transformación en tiempo de ejecución basándose en los parámetros y las
reglas que defina.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Salesforce
Marketing Cloud.

PowerExchange for Snowflake


A partir de la versión 10.5, PowerExchange for Snowflake incluye las siguientes características:

• Puede leer y escribir en el almacén de datos de Snowflake que está habilitado para almacenar datos en
Google Cloud Platform.
• Puede realizar auditorías para operaciones de lectura en asignaciones de Snowflake que se ejecutan en el
entorno nativo o en el motor de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for
Snowflake.

Adaptadores de PowerExchange para PowerCenter


Lea esta sección para conocer las novedades de los adaptadores de PowerCenter en la versión 10.5.

PowerExchange for Google BigQuery


A partir de la versión 10.5, PowerExchange for Google BigQuery incluye las siguientes características:

• Cuando realiza una optimización con inserciones con la conexión ODBC de Google BigQuery, puede usar
la versión 2.2.5.1012 del controlador ODBC de Informatica para Google BigQuery para conectarse a
Google BigQuery y enviar las funciones CHR(), DATEDIFF(), DECODE(), LPAD(), y RPAD() a la base de
datos de Google BigQuery.
Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener el
controlador ODBC de Informatica para Google BigQuery.

Adaptadores de PowerExchange 87
• Puede usar la consulta Merge para realizar operaciones de actualización, inserción o eliminación en una
sola declaración cuando escribe en un destino de Google BigQuery.
• Cuando configura una sesión para escribir datos en Google BigQuery, puede escribir cadenas vacías
desde un origen como valores nulos en un destino de Google BigQuery.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Google
BigQuery para PowerCenter.

PowerExchange for Google Cloud Storage


A partir de la versión 10.5, PowerExchange for Google Cloud Storage incluye las siguientes características:

• Puede leer la ruta completa y los nombres de los archivos de origen de Google Cloud Storage.
• Puede leer y escribir archivos sin formato con y sin encabezados.
• Puede configurar el delimitador de fila y definir el alcance del calificador cuando lee y escribe archivos sin
formato.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Google Cloud Storage 10.5
para PowerCenter.

PowerExchange for Greenplum


A partir de la versión 10.5, cuando el subtipo ODBC en una conexión ODBC es Greenplum, puede insertar
funciones, como AVG(), COUNT(), DATE_COMPARE(), DATE_DIFF(), GET_DATE_PART(), IN(), ISNULL(), MAX(),
MIN(), MOD(), STDDEV(), SUM() y VARIANCE(), a la base de datos de Greenplum para su procesamiento
mediante la optimización de inserciones completa.

Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter
10.5.

PowerExchange for Kafka


A partir de la versión 10.5, puede configurar si desea leer los mensajes de un agente de Kafka como una
secuencia o en lotes.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.5
para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.5, puede leer y escribir en el almacén de datos de Snowflake que está habilitado para
almacenar datos en Google Cloud Platform.

Para obtener más información, consulte la Guía del usuario de Informatica 10.5 PowerExchange for Snowflake
para PowerCenter.

Seguridad
Lea esta sección para conocer las novedades de la seguridad del dominio en la versión 10.5.

88 Capítulo 7: Novedades de la versión 10.5


Fortalecimiento del cifrado
A partir de la versión 10.5, puede cifrar las contraseñas del dominio de Informatica y los parámetros de
conexión segura mediante el algoritmo de cifrado AES de 256 bits.

Para fortalecer el cifrado de seguridad, el instalador de Informatica ahora genera una clave de sitio única
cuando instala los servicios de Informatica. No puede volver a generar la clave del sitio. Anteriormente, podía
volver a generar la clave del sitio de cifrado utilizando una palabra clave y un nombre de dominio en el
comando GenerateEncryptionKey.

Después de actualizar a Informatica 10.5, migre la clave de sitio a la nueva clave de sitio única.

Para un dominio multinodo, copie la clave de sitio única en cada nodo o guarde la clave de sitio única en una
ubicación compartida a la que pueda acceder cada nodo.

Puede utilizar las funciones de codificación del lenguaje de transformación, AES_ENCRYPT y AES_DECRYPT para
cifrar o descifrar tablas de almacenamiento con codificación de 256 bits. Use el nuevo argumento, keySize,
para habilitar el cifrado AES de 256 bits.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.5.

Funcionalidad SAML
A partir de la versión 10.5, puede utilizar las siguientes nuevas características de SAML:

• Cuando habilita la autenticación SAML en el dominio, puede habilitar uno o más de los siguientes modos
de autenticación mejorada: solicitud de firma, aserción cifrada y respuesta firmada. Para obtener más
información, consulte la Guía de seguridad de Informatica 10.5.
• Puede usar proveedores de identidad de Azure Active Directory, Oracle Access Manager y Okta SSO para
administrar la autenticación SAML en el dominio para aplicaciones web. Para obtener más información,
consulte el artículo H2L sobre cada proveedor de identidad en el Informatica Documentation Portal.

Test Data Management


Lea esta sección para conocer las novedades de Test Data Management en la versión 10.5.

Compatibilidad con PostgreSQL


A partir de la versión 10.5, puede utilizar una base de datos PostgreSQL para crear el repositorio de Test Data
Management y el repositorio de Test Data Warehouse.

También puede utilizar la base de datos para crear una conexión provisional y una conexión de
almacenamiento.

Para obtener información, consulte la Guía de configuración de Test Data Management 10.5.

Ordenar entradas en un diccionario relacional


A partir de la versión 10.5, puede elegir ordenar el orden de las entradas en un diccionario relacional utilizado
en un plan de enmascaramiento.

Puede ordenar el orden de las entradas en un diccionario según la columna del número de serie o cualquier
otra columna para asegurarse de que el orden sea coherente y genere datos enmascarados coherentes.

Test Data Management 89


Para obtener información sobre cómo configurar la opción, consulte la Guía del usuario de Test Data
Management 10.5.

Test Data Generation para orígenes XSD


A partir de la versión 10.5, Test Data Generation incluye la realización de las siguientes tareas con orígenes
XSD:

Utilizar restricciones condicionales en las reglas de generación de datos

Puede utilizar restricciones condicionales en reglas de generación avanzadas y reglas de generación ad


hoc con orígenes XSD.

Para obtener información sobre cómo crear y aplicar reglas de generación avanzadas y restricciones
condicionales, consulte el capítulo "Generación de datos" en la Guía del usuario de Test Data
Management 10.5

Configurar la administración predeterminada de los valores MaxOccur independientes

Puede habilitar la administración predeterminada de los valores MaxOccurs establecidos como


independientes o infinitos en un XSD. Utilice la propiedad de nivel global Default Value for Unbounded
MaxOccurs in a Source XSD para introducir un valor. El valor se suma al valor MinOccurs del elemento
para calcular el valor MaxOccurs del elemento.

Para obtener información sobre cómo establecer el valor de propiedad y anular el valor de un elemento,
consulte la Guía del administrador de Test Data Management 10.5 y la Guía del usuario de Test Data
Management 10.5.

90 Capítulo 7: Novedades de la versión 10.5


Capítulo 8

Cambios en la versión 10.5


Este capítulo incluye los siguientes temas:

• Programas de la línea de comandos, 91


• Data Engineering , 92
• Data Privacy Management , 92
• Enterprise Data Catalog, 94
• Transformaciones de Informatica, 96
• Modelos de estructura inteligente , 96
• PowerCenter, 97
• Adaptadores de PowerExchange para Informatica, 97
• Seguridad , 97

Programas de la línea de comandos


Lea esta sección para conocer los cambios en los programas de línea de comandos en la versión 10.5.

infasetup
A partir de la versión 10.5, Informatica almacena el alias del certificado de firma de aserción en el dominio.
Puede configurar la opción assertionSigningCertificateAlias, que especifica un alias para el certificado, en
los siguientes comandos:

• infasetup defineDomain
• infasetup updateDomainSamlConfig
• infasetup updateSamlConfig

Anteriormente, el alias se almacenaba en los metadatos del nodo. Como consecuencia, la opción
assertionSigningCertificateAlias se elimina de los comandos defineGatewayNode, switchToGatewayNode y
updateGatewayNode. Actualice cualquier script que use los comandos relacionados con el nodo para usar
los comandos relacionados con el dominio.

Para obtener más información, consulte la Referencia de comando de Informatica.

91
Data Engineering
Lea esta sección para conocer los cambios en los productos de Data Engineering en la versión 10.5.

Documentación
A partir de la versión 10.5, las instrucciones para integrar Informatica con un clúster de Google Dataproc se
encuentran en la Guía de Data Engineering Integration.

Anteriormente, las instrucciones de integración de Dataproc se publicaban en artículos de la biblioteca de


procedimientos (H2L). Puede ver estos artículos, que cubren la integración de Dataproc con Data Engineering
10.4, en la pestaña Biblioteca de procedimientos del Informatica Documentation Portal.

Rendimiento
A partir de la versión 10.5, la función PERCENTILE en el motor de Spark consume menos memoria,
especialmente cuando varias columnas calculan la función PERCENTILE en el mismo conjunto de datos con
diferentes percentiles.

Procesamiento de valores no válidos


A partir de la versión 10.5, el motor de Spark escribe valores NULL en el destino cuando la asignación
contiene ciertos valores no válidos.

El motor de Spark escribe valores NULL en las siguientes situaciones:

• El argumento plazos en las funciones financieras PV, FV, PMT y RATE pasa un valor de 0. El valor de
plazos debe ser un entero mayor que 0.
• El argumento mes de la función MAKE_DATE_TIME pasa un valor no válido. El valor de mes debe ser de 1
a 12.

Anteriormente, el motor de Spark escribía valores aleatorios.

Nota: El servicio de integración de datos rechaza las filas con valores no válidos. Si desea que las filas con
valores no válidos se rechacen y no se escriban en el destino, ejecute la asignación en el entorno nativo.

Data Privacy Management


Lea esta sección para conocer los cambios en Data Privacy Management en la versión 10.5.

Archivos comprimidos en exploraciones


A partir de la versión 10.5, los resultados de la exploración enumeran los archivos comprimidos con
extensiones específicas como carpetas con archivos individuales.

Puede ver los resultados de la exploración en la página Campos confidenciales.

Anteriormente, los resultados de la exploración omitían los archivos o enumeraban estos archivos
comprimidos como archivos individuales y no enumeraban los archivos anidados individuales.

92 Capítulo 8: Cambios en la versión 10.5


Para obtener información sobre la exploración de archivos comprimidos, consulte el capítulo "Exploraciones"
en la Guía del usuario de Informatica Data Privacy Management 10.5.

Propiedades del almacén de datos


A partir de la versión 10.5, las propiedades del almacén de datos incluyen los siguientes cambios:

Propiedades del almacén de datos de IBM DB2 for z/OS

Las propiedades del tipo de almacén de datos IBM DB2 for z/OS incluyen un nuevo campo Opción de
base de datos. Puede elegir cómo desea ingresar a la base de datos de esta lista. Puede incluir todas
las bases de datos, seleccionar de una lista o especificar con una expresión regular. Los campos para
seleccionar de una lista o especificar una expresión regular aparecen según lo que elija.

La propiedad anterior Base de datos cambia de nombre a Ubicación de DDF.

Para obtener información, consulte el capítulo Propiedades del almacén de datos en la Guía del usuario de
Informatica Data Privacy Management.

Eliminación de solicitudes de asunto


A partir de la versión 10.5, no puede eliminar las tareas DSAR y DSR ni siquiera si están en estado Cerrado o
Completado.

Anteriormente, podía eliminar las tareas DSAR y DSR que estaban en estado Cerrado.

Para obtener información sobre las tareas, consulte el capítulo "Tareas" en la Guía del usuario de Informatica
Data Privacy Management 10.5.

Archivo de configuración del registro de asuntos


A partir de la versión 10.5, se actualizan las propiedades del archivo de configuración del Registro de
asuntos.

Debido a que la instalación no es de Hadoop, el archivo de propiedades no incluye las propiedades de


Hadoop y HBase. El archivo incluye propiedades para la configuración de Name3.

Para obtener información sobre cómo crear y actualizar el archivo de configuración del Registro de asuntos,
consulte la Guía del administrador de Informatica Data Privacy Management.

Recuento total de asuntos


A partir de la versión 10.5, Data Privacy Management ha cambiado el método utilizado para calcular el
recuento total de asuntos que aparece en los widgets del panel y en los informes de vulneración de datos.

Debido al cambio, es posible que vea una diferencia en la información del recuento total de asuntos en los
widgets del panel de privacidad y en los informes de vulneración de datos después de la actualización.

Para obtener información sobre cómo ver la información del registro de asuntos, consulte la Guía del usuario
de Informatica Data Privacy Management.

Data Privacy Management 93


Supervisión de actividad de usuarios
A partir de la versión 10.5, puede especificar el directorio donde desea almacenar los archivos de eventos.

Los archivos de eventos se exportan desde una base de datos que configura para la supervisión de la
actividad del usuario. Especifique la ubicación durante la instalación o actualice la propiedad en las
propiedades de Servicio de Data Privacy Management.

Anteriormente, los mensajes se transmitían a un directorio HDFS predeterminado.

Para obtener información sobre cómo especificar el directorio de archivos de eventos, consulte la Guía de
instalación y configuración de Informatica Data Privacy Management 10.5.

Enterprise Data Catalog


Lea esta sección para conocer los cambios en Enterprise Data Catalog en la versión 10.5.

Recurso de Amazon S3
A partir de la versión 10.5, el recurso de Amazon S3 incluye las siguientes mejoras en la pestaña General:

Extracción de metadatos

Puede configurar el recurso de Amazon S3 para extraer metadatos de un almacenamiento compatible


con Amazon S3, como Scality RING.

Compatibilidad con token de sesión temporal

Puede configurar el recurso de Amazon S3 para conectar y extraer metadatos de un origen de datos de
Amazon S3 mediante un token de sesión temporal.

Anteriormente, las mejoras estaban disponibles como opciones de JVM en el recurso de Amazon S3.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica® Enterprise Data
Catalog 10.5.

Propagación de términos empresariales


A partir de la versión 10.5, Enterprise Data Catalog infiere y asocia un término comercial con un activo según
la condición de coincidencia de nombres mejorada. La condición de coincidencia de nombres se basa en los
resultados de la asociación de términos comerciales para proporcionar una mejor inferencia y asociación de
términos comerciales.

Recursos personalizados
A partir de la versión 10.5, puede ejecutar un recurso personalizado que tenga la opción Ejecutar script
habilitada en el dominio de Informatica.

Para ejecutar más de un recurso personalizado en el dominio de Informatica simultáneamente, debe


configurar la opción LdmCustomOptions.orchestration.oop.max.concurrent.jobs personalizada en
Catalog Administrator.

Vista de diagrama de impacto y linaje predeterminado


A partir de la versión 10.5, la vista compacta del diagrama de linaje e impacto es la vista predeterminada.

94 Capítulo 8: Cambios en la versión 10.5


Autenticación de Enterprise Data Catalog
A partir de la versión 10.5, Enterprise Data Catalog utiliza mTLS en lugar de Kerberos para mejorar la
seguridad.

Recurso de detección de similitudes de Informatica


A partir de la versión 10.5, el recurso de detección de similitudes de Informatica incluye los siguientes
cambios:

Crear recurso de detección de similitudes de Informatica

Puede crear el recurso de detección de similitudes de Informatica desde la pestaña Recurso debajo del
grupo de recursos Plataforma de Informatica. Cuando ejecuta el recurso, el escáner detecta columnas
similares según el nombre de la columna, el patrón de datos de la columna y los valores únicos del
recurso. Anteriormente, el recurso de detección de similitudes de Informatica estaba disponible como
recurso del sistema.

Conservar la información calculada en la base de datos PostgreSQL

Enterprise Data Catalog conserva la información calculada sobre columnas similares, patrones de
columna y valores únicos en la base de datos PostgreSQL. Anteriormente, Enterprise Data Catalog
conservaba la información calculada sobre columnas similares en Apache Hbase.

Detectar columnas similares

Enterprise Data Catalog detecta columnas similares según el nombre de la columna, el patrón de datos
de la columna y los valores únicos del recurso. Anteriormente, un trabajo del sistema interno detectaba
columnas similares basadas en el nombre de la columna, el patrón de datos de la columna, los valores
únicos y la frecuencia de los valores en el recurso.

Recursos de referencia
A partir de la versión 10.5, los recursos de referencia incluyen los siguientes cambios:

Objetos de recursos de referencia

Enterprise Data Catalog extrae objetos de recursos de referencia, como orígenes de datos, conjuntos de
datos y elementos de datos.

Nombre del recurso de referencia

El nombre del recurso de referencia se cambia de <nombre de recurso>_<ID de proveedor>_<nombre


de conexión> a <nombre del recurso>$$<ID del proveedor>$$<nombre de la conexión>.

Nombre de la conexión

Enterprise Data Catalog admite caracteres especiales en el nombre de la conexión del recurso de
referencia.

Pestañas de búsqueda reemplazadas por filtros previos de


búsqueda
A partir de la versión 10.5, puede aplicar filtros previos de búsqueda para encontrar rápidamente activos que
coincidan con los criterios de búsqueda predefinidos.

Anteriormente, las pestañas de búsqueda estaban disponibles en la página Resultados de la búsqueda que le
permitió encontrar activos que coincidan con un criterio de búsqueda establecido.

Enterprise Data Catalog 95


Para obtener más información, consulte el capítulo sobre la personalización de la búsqueda en la Guía del
usuario de Informatica 10.5 Enterprise Data Catalog.

Nota: Si actualiza desde una versión anterior, el proceso de actualización convierte las pestañas de
búsqueda personalizadas en filtros previos de búsqueda.

Cambios terminológicos en la documentación


A partir de la versión 10.5, la documentación de Enterprise Data Catalog utiliza los siguientes términos para
referirse a clústeres existentes e integrados:

• Clúster interno en lugar de clúster integrado.


• Clúster externo en lugar de clúster existente.

Advanced Scanners utiliza modelos de sistema


A partir de la versión 10.5, Advanced Scanners usa modelos de sistema en lugar de modelos personalizados.

Anteriormente, Advanced Scanners usaba modelos personalizados para cargar metadatos.

Transformaciones de Informatica
A partir de la versión 10.5, el motor de Spark aumentó el rendimiento de la transformación del enrutador.
Cuando el motor de Spark ejecuta una asignación que incluye una transformación de enrutador, dicho motor
procesa la canalización de asignación ascendente una vez y prepara los datos para que puedan ser
utilizados por cada rama descendente.

Anteriormente, el motor de Spark procesaba la canalización de asignación ascendente por separado para
cada grupo de salida.

Para obtener más información, consulte el capítulo "Transformación de enrutador" en la Guía de


transformación de Informatica 10.5 Developer.

Modelos de estructura inteligente


A partir de la versión 10.5, la salida de los nodos con un tipo de datos de fecha es un tipo de datos de fecha y
hora, en el formato de fecha y hora que se define en el sistema operativo.

Anteriormente, la salida de los nodos con un tipo de datos de fecha era un tipo de datos de cadena.

Nota: Las asignaciones actualizadas continúan generando tipos de datos de cadena.

Para obtener más información sobre los modelos de estructura inteligentes, consulte el capítulo sobre
modelos de estructura inteligente en la Guía del usuario de Data Engineering Integration 10.5.

96 Capítulo 8: Cambios en la versión 10.5


PowerCenter
A partir de la versión 10.5, el nombre del directorio de archivos de datos del servidor en el tipo de conexión
del cargador externo para Sybase IQ en PowerCenter pasa a llamarse Directorio de archivos de datos.

Para obtener más información, consulte la Guía de flujo de trabajo avanzado de PowerCenter 10.5.

Adaptadores de PowerExchange para Informatica


Lea esta sección para conocer los cambios en los adaptadores de Informatica PowerExchange en la versión
10.5.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.5, cuando crea una nueva tabla de destino y si la tabla de destino ya existe en
Microsoft Azure SQL Data Warehouse, los datos se añaden a la tabla existente.

Anteriormente, la asignación fallaba si la tabla de destino ya existía en Microsoft Azure SQL Data Warehouse.

Seguridad
Lea esta sección para conocer los cambios en la seguridad del dominio en la versión 10.5.

Autenticación de SAML
A partir de la versión 10.5, habilita los modos de autenticación SAML mejorados, solicitud firmada, respuesta
firmada y aserción cifrada a través de las propiedades de configuración del dominio.

Anteriormente, habilitaba estas funciones mediante variables de entorno. Para obtener más información,
consulte el capítulo "Autenticación SAML" en la Guía de seguridad de Informatica 10.5.

PowerCenter 97
Parte III: Versiones
10.4.1-10.4.1.3
Esta parte incluye los siguientes capítulos:

• Versión 10.4.1.3, 99
• Versión 10.4.1.2, 100
• Versión 10.4.1.1, 107
• Avisos importantes de la versión 10.4.1, 113
• Novedades de la versión 10.4.1, 119
• Cambios en la versión 10.4.1, 135

98
Capítulo 9

Versión 10.4.1.3
Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad, 99
• Novedades, 99

Cambios en la compatibilidad
Lea esta sección para conocer los cambios de compatibilidad en la versión 10.4.1.3.

Versión preliminar técnica


A partir de la versión 10.4.1.3, Informatica suprimió la versión preliminar técnica para Amazon EMR 6.x.

Novedades
Lea esta sección para conocer las novedades de la versión 10.4.1.3.

Cloudera CDP
A partir de la versión 10.4.1.3 de Data Engineering, puede utilizar el motor de Blaze para ejecutar trabajos en
clústeres de Cloudera CDP Private Cloud y Cloudera CDP Public Cloud.

Cuando el motor de Blaze ejecuta trabajos en un clúster de CDP Private Cloud, puede usar la autenticación
de Kerberos. Cuando el motor de Blaze ejecuta trabajos en un clúster de CDP Public Cloud, puede usar la
autenticación de Apache Knox o Kerberos. Puede usar Apache Ranger, cifrado transparente HDFS o
autorización SSL/TLS para los trabajos que el motor de Blaze ejecuta en un clúster de CDP.

Para obtener más información, consulte la Guía de integración de ® Data Engineering 10.4.1.

99
Capítulo 10

Versión 10.4.1.2
Este capítulo incluye los siguientes temas:

• Avisos importantes, 100


• Novedades, 100
• Cambios, 103

Avisos importantes

Vista previa técnica iniciada


A partir de la versión 10.4.1.2, Informatica incluye la siguiente funcionalidad para la vista previa técnica:

Amazon EMR 6.0

Puede utilizar los productos de Informatica Data Engineering con clústeres de Amazon EMR 6.0.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Novedades

Data Engineering Integration


En esta sección se describen las nuevas características de Data Engineering Integration en la versión
10.4.1.2.

100
Cloudera CDP Public Cloud
A partir de la versión 10.4.1.2, puede ejecutar trabajos de ingeniería de datos en clústeres de Cloudera CDP
Public Cloud en AWS o Azure.

Puede usar la nube pública de CDP cuando ejecute trabajos de ingeniería de datos en el motor de Spark.
Cuando ejecuta una asignación en el entorno de Hadoop, puede usar las mismas conexiones para CDP
Public Cloud que para CDP Private Cloud. Puede configurar la autenticación Kerberos o Apache Knox para
clústeres de nube pública de CDP.

Para obtener información sobre la integración con Cloudera CDP Public Cloud, consulte las Notas de la
versión de Informatica 10.4.1.2 y la Guía de integración de Data Engineering 10.4.1.

Data Privacy Management


En esta sección se describen las nuevas características de Data Privacy Management en la versión 10.4.1.2.

Exploraciones incrementales del registro de asunto en orígenes sin estructura


A partir de la versión 10.4.1.2, puede configurar exploraciones incrementales del registro de asunto para
orígenes sin estructura.

Una exploración incremental actualiza los registros cambiados desde que se ejecutó la última exploración en
lugar de explorar completamente todos los registros.

Para obtener información sobre cómo configurar una exploración del registro de asunto incremental,
consulte la Guía del usuario de Informatica Data Privacy Management y la Guía del administrador de
Informatica Data Privacy Management.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.4.1.2.

Recurso de Amazon S3
A partir de la versión 10.4.1.2, el recurso de Amazon S3 incluye las siguientes mejoras:

Extracción de metadatos

Puede configurar el recurso de Amazon S3 para extraer metadatos de un almacenamiento compatible


con Amazon S3, como Scality RING.

Compatibilidad con token de sesión temporal

Puede configurar el recurso de Amazon S3 para conectar y extraer metadatos de un origen de datos de
Amazon S3 mediante un token de sesión temporal.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.

Recurso de Informatica Axon


A partir de la versión 10.4.1.2, el recurso de Informatica Axon incluye las siguientes mejoras:

Extracción de metadatos

El recurso de Informatica Axon extrae metadatos de los siguientes activos:

• Atributo

Novedades 101
• Directiva
• Sistema
• Conjunto de datos
También puede leer los detalles de los usuarios nativos, usuarios de LDAP y usuarios de SSO asociados
con los activos en el Catálogo.

Ver relaciones

Puede ver las siguientes relaciones en el Catálogo:

• Relación jerárquica entre artefactos Axon y objetos extraídos


• Relación semántica entre los activos del glosario

Compatibilidad con reconciliación de usuarios del dominio


Puede reconciliar a los usuarios del dominio seleccionando la opción Permitir filtrado para el atributo
Sistema de correo electrónico en Catalog Administrator.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.

Conservación masiva de términos empresariales a través de importaciones y


exportaciones
A partir de la versión 10.4.1.2, puede aceptar o rechazar varios términos empresariales deducidos de forma
simultánea en el archivo .csv exportado.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Conservación masiva de dominios de datos


A partir de la versión 10.4.1.2, puede aceptar un dominio de datos y rechazar todos los demás dominios de
datos asignados, deducidos o aceptados para un activo de columna o de campo.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Data Asset Analytics


A partir de la versión 10.4.1.2, Data Asset Analytics incluye las siguientes características:

Informe de uso de activos

Puede utilizar el informe Uso de activos para ver la lista de activos que se utilizan en Enterprise Data
Catalog. Puede filtrar el informe en función del tipo de activo, la fecha del evento, el tipo de recurso o el
nombre del recurso. Además de los detalles de uso de los activos, el informe también incluye las
características de Enterprise Data Catalog que utilizó cuando accedió al activo. Las características
enumeradas incluyen las fichas Resumen, Linaje e impacto y Relaciones, además del resto de
características asociadas al activo.

Gráfico Principales activos vistos

El gráfico Principales activos vistos en la página de la ficha Adopción de usuarios muestra una lista de
los activos más veces vistos en el catálogo.

Gráfico de Valor de uso de características

El gráfico Valor de uso de características en la página de la ficha Valor de datos muestra el valor de las
características de Enterprise Data Catalog en función de su uso a lo largo de un periodo de tiempo.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

102 Capítulo 10: Versión 10.4.1.2


Recurso SAP S/4HANA
A partir de la versión 10.4.1.2, puede utilizar el recurso SAP S/4HANA para ver el linaje detallado entre el
módulo de función y los activos del origen de datos.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.

Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.4.1.2.

Encabezado de respuesta HSTS


A partir de la versión 10.4.1.2, puede optar por habilitar el encabezado de respuesta HTTP Strict Transport
Security HSTS en el dominio para detener las redirecciones de HTTP a HTTPS. Esto evita las amenazas de
seguridad de tipo man-in-the-middle (MITM).

Para obtener más información, consulte la Guía de seguridad de Informatica .

Cambios

Enterprise Data Catalog


En esta sección se describen los cambios que se han realizado en la versión 10.4.1.2 de Enterprise Data
Catalog.

Data Asset Analytics


A partir de la versión 10.4.1.2, Data Asset Analytics incluye los siguientes cambios:
Cálculo del valor del recurso

En la página de la ficha Valor de datos, el Valor del recurso se calcula sumando los siguientes valores:

• Multiplique el valor del tipo de recurso especificado por el número total de activos seleccionados en
función de las palabras clave de activo especificadas.
• Multiplique el valor especificado para el resto de tipos de recurso por el número total de activos
seleccionados en función de las palabras clave de activo especificadas.

Nota: Puede especificar las palabras clave de activo en el cuadro de texto Palabras clave de activo para
el cálculo del valor del recurso en Configuración de la aplicación.

Después de aplicar 10.4.1.2, se pierden toda la configuración y los valores relacionados con los recursos
que configuró anteriormente. Una reversión no conserva los valores que haya configurado
anteriormente. Los valores y la configuración para los tipos de recursos se conservan, y es posible que
observe un aumento en los nuevos valores basado en el método de cálculo actualizado.

Caracteres especiales en el nombre de un informe

En los nuevos informes, puede utilizar los siguientes caracteres especiales en los nombres de los
informes: - (guión), @ (signo de arroba) y _ (carácter de subrayado). Los informes creados con versiones
anteriores que utilicen caracteres especiales no admitidos seguirán estando disponibles con los

Cambios 103
problemas existentes. Si copia un informe existente que incluya caracteres especiales no admitidos
para crear un nuevo informe, Data Asset Analytics muestra un error de validación.

Palabras clave de activo para el cálculo del valor del recurso

En Configuración de la aplicación, puede especificar las palabras clave de activo que desea usar para
seleccionar activos del catálogo y calcular el valor del recurso.

Moneda

En Configuración de la aplicación, puede seleccionar la moneda en la que desea ver los valores de
activo en la página de la ficha Valor de datos.

Columna Enriquecimiento automático

La columna Enriquecimiento automático en los informes Enriquecimiento de activos, Asociación de


dominios de datos y Asociación de términos empresariales enumera los siguientes detalles en función
de cómo se enriquezca un activo:

• Deducido. Los enriquecimientos recomendados para el activo basados en los resultados de perfil.
• Deducido-Aceptado. El enriquecimiento deducido es aceptado por el usuario.
• Deducido-Aceptado automáticamente. El enriquecimiento deducido se acepta automáticamente
basado en las puntuaciones de conformidad especificadas.
• Deducido-Rechazado. El enriquecimiento deducido es rechazado por el usuario.
• Manual. El enriquecimiento del activo se realiza de forma manual.

Nota: Anteriormente, el informe incluía S, No o I para la columna Enriquecimiento automático de los


informes.

Filtro Enriquecimiento automático

El filtro Enriquecimiento automático para el informe Enriquecimiento automático enumera las


siguientes opciones, que puede utilizar para filtrar el informe:

• Deducido
• Deducido-Aceptado
• Deducido-Aceptado automáticamente
• Deducido-Rechazado
• Manual

Nota: Anteriormente, el filtro Enriquecimiento automático mostraba Sí o No como las opciones.

Actualizar

La página Supervisión incluye un icono Actualizar en el que puede hacer clic para actualizar la página y
ver el estado actual de la ejecución del informe.

Intervalo de tiempo

La opción predeterminada en la lista desplegable Intervalo de tiempo de la página de inicio de Analytics


ha cambiado de Por el principio a 1 año.

104 Capítulo 10: Versión 10.4.1.2


Filtro y columna Tipo de grupo de activos

El filtro y la columna de informe Tipo de grupo de activos se eliminan de los siguientes informes:

Informe Eliminado de Filtro, Columna de informe o ambos

Enriquecimiento de activos Ambos

Recuento de activos Columna de informe

Activos con linaje e impacto Columna de informe

Asociación de términos empresariales Columna de informe

Asociación de dominio de datos Ambos

Nota: Para los informes creados con las versiones anteriores, la columna de informe Tipo de grupo de
activos se conserva si descarga los informes.

Calculadora del valor del recurso

Las opciones Tipo de recurso y Recurso se eliminan de la sección Asignar un valor a en la Calculadora
del valor del recurso.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Copia de seguridad parcial del catálogo


A partir de la versión 10.4.1.2, puede realizar copias de seguridad parciales del catálogo en función de sus
requisitos para solucionar problemas específicos.

Puede utilizar la opción -st en el comando backupContents para realizar una copia de seguridad de uno o
varios de los siguientes almacenes de datos en el catálogo:

• Detalles de transferencia provisional


• Base de datos de gráficos
• Detalles de búsqueda
• Detalles de similitud
• Detalles de notificaciones de cambios
• Detalles de ensayos de escáneres
También puede utilizar la API de REST backup para realizar una copia de seguridad de uno o varios de los
siguientes almacenes de datos en el catálogo:

• Detalles de transferencia provisional


• Base de datos de gráficos
• Detalles de búsqueda

Para obtener más información, consulte la Referencia de API de REST de Informatica 10.4.1 Enterprise Data
Catalog y la Referencia de comandos de Informatica 10.4.1.

Cambios 105
Recursos SAP S/4HANA, SAP BW y SAP BW/4HANA
A partir de la versión 10.4.1.2, no puede ver las siguientes fichas en el Catálogo para los recursos SAP BW,
SAB BW/4HANA y SAP S/4HANA si el tipo de activo no incluye información de linaje, jerarquía, categoría y
relación:

• Linaje e impacto
• Relación
• Contiene
Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.

Configurar la resolución de conflictos para la aceptación automática de


dominios de datos
A partir de la versión 10.4.1.2, puede seleccionar la opción Regla de coincidencia de datos o nombre de
columna para aceptar automáticamente un dominio de datos en función de la regla de datos o nombre de
columna. Si selecciona la opción de resolución de conflictos Regla de coincidencia de datos o nombre de
columna, Enterprise Data Catalog acepta automáticamente los dominios de datos cuando los resultados de
la regla de datos o nombre de columna coinciden.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.

106 Capítulo 10: Versión 10.4.1.2


Capítulo 11

Versión 10.4.1.1
Este capítulo incluye los siguientes temas:

• Avisos importantes, 107


• Novedades, 108
• Cambios, 110

Avisos importantes

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.4.1.1.

Eliminación de vista previa técnica


A partir de la versión 10.4.1.1, las siguientes funciones se eliminan de la vista previa técnica:

Integración de Cloudera Data Platform

Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP no se admite en el motor de
Blaze.

Cloudera CDP usa un clúster base y clústeres de carga de trabajo para ejecutar trabajos de ingeniería de
datos. Esta arquitectura permite implementar cargas de trabajo y compartir datos entre componentes
usando un catálogo compartido, seguridad unificada, un gobierno coherente y administración del ciclo
de vida de los datos.

Puede usar Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las siguientes
conexiones:

• PowerExchange for Amazon Redshift


• PowerExchange for Amazon S3
• PowerExchange for HDFS
• PowerExchange for Microsoft Azure Blob Storage
• PowerExchange for Microsoft Azure Cosmos DB SQL API

107
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2
• PowerExchange for Microsoft Azure SQL Data Warehouse
• Sqoop

También puede utilizar Cloudera CDP cuando ejecute una asignación de PowerExchange for HDFS en el
entorno nativo.

Para obtener más información, consulte la Guía de integración de Informatica® Data Engineering 10.4.1.

Compatibilidad con la distribución


En cada versión, Informatica puede añadir, aplazar y dejar de ofrecer compatibilidad con las versiones de
distribuciones nativas y no nativas. Informatica podría restablecer la compatibilidad con versiones aplazadas
en una próxima versión. Para ver una lista de las últimas versiones compatibles, consulte la matriz de
disponibilidad de los productos en el Portal de atención al cliente de Informatica:

https://network.informatica.com/community/informatica-network/product-availability-matrices

Novedades

Data Engineering Integration


A partir de la versión 10.4.1.1, puede acceder a Amazon Glue como metastore de Hive con un clúster de
Amazon EMR 5.29.

Amazon Glue es el servicio de ETL de Amazon.El clúster de Amazon EMR 5.29 puede usar Glue como
metastore de Hive.

Para habilitar la integración con un clúster de EMR con Glue, consulte las Notas de la versión de Informatica
10.4.1.1.

Data Privacy Management


En esta sección se describen las nuevas características de Data Privacy Management en la versión 10.4.1.1.

Se añade compatibilidad con la base de datos NoSQL de Apache Cassandra


A partir de la versión 10.4.1.1, puede realizar la detección de dominios en las bases de datos de Apache
Cassandra.

Puede elegir la categoría NoSQL en el tipo de categoría para crear un almacén de datos que se conecta a una
base de datos Apache Cassandra. Puede utilizar el almacén de datos en las exploraciones para realizar la
detección de dominios.

Para obtener información acerca de cómo crear un almacén de datos o ejecutar una exploración, consulte la
Guía del usuario de Informatica Data Privacy Management.

108 Capítulo 11: Versión 10.4.1.1


Coincidencia exacta en la configuración de búsqueda del registro de asuntos,
indexación y coincidencias
A partir de la versión 10.4.1.1, puede configurar los tipos de reglas de búsqueda, indexación y coincidencia
para que utilicen la coincidencia exacta. Cuando utilice la coincidencia exacta para los índices, en las
búsquedas o en la búsqueda de coincidencias, la tarea tardará menos tiempo en completarse.

Puede usar el valor Exacto para los campos SearchType, IndexType y MatchType en una configuración de
coincidencia.

Si configura la coincidencia exacta para la indexación, configure la propiedad IgnoreNullEmptyValues para


determinar si se deben omitir los valores nulos o vacíos durante una exploración de vinculación de asuntos.

Para obtener información sobre cómo configurar la coincidencia exacta, consulte la Guía del administrador
de Informatica Data Privacy Management.

Exploraciones incrementales del registro de asunto


A partir de la versión 10.4.1.1, puede configurar una exploración del Registro de asunto para que sea
incremental en exploraciones repetidas de una sola vez y en exploraciones periódicas.

Una exploración incremental considera los registros cambiados desde el último tiempo de ejecución de la
exploración y actualiza los resultados en lugar de explorar completamente todos los registros.

Para obtener información sobre cómo configurar una exploración del Registro de asunto para que sea
incremental en exploraciones repetidas o periódicas, consulte la Guía del usuario de Informatica Data Privacy
Management y la Guía del administrador de Informatica Data Privacy Management.

Nuevo tipo de trabajo para la actualización de los datos del panel de


privacidad
A partir de la versión 10.4.1.1, un trabajo de exploración principal del Registro de asunto desencadena un
nuevo trabajo en el panel de privacidad cuando se completa.

El trabajo del panel de privacidad verifica los cambios en la base de datos de HBase del registro de asunto y
actualiza los datos del panel de privacidad que se ven cuando se actualiza el panel.

El trabajo aparte asegura la separación de la tarea de exploración y la actualización de los datos en el panel
de privacidad.

Los trabajos del panel de privacidad no se pueden activar, pausar o detener manualmente.

Para obtener información acerca de los trabajos del panel de privacidad, consulte la Guía del usuario de
Informatica Data Privacy Management.

Campos de búsqueda y exploración del registro de asunto


A partir de la versión 10.4.1.1, puede configurar los campos para su uso en exploraciones, búsquedas o
ambas en el Registro de asunto.

Se recomienda incluir los campos en una exploración, pero que no aparezcan en las páginas de búsqueda y
detalles del Registro de asunto.

Puede incluir la propiedad UsedIn en una configuración de coincidencia de una entidad para determinar si los
campos aparecen en las búsquedas, las exploraciones o ambas en el Registro de asunto.

Para obtener información sobre cómo configurar la propiedad, consulte la Guía del administrador de
Informatica Data Privacy Management.

Novedades 109
Compatibilidad con Informatica Discovery Agent en Windows
A partir de la versión 10.4.1.1, puede utilizar Informatica Discovery Agent para crear un agente en equipos
Windows.

Utilice Informatica Discovery Agent para ejecutar la detección de dominios en orígenes no estructurados y
exploraciones del Registro de asunto.

Para obtener información sobre cómo instalar y utilizar el agente en las exploraciones, consulte la Guía del
usuario de Informatica Data Privacy Management.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.4.1.1.

Elegir factores para propagar dominios de datos inteligentes


A partir de la versión 10.4.1.1, puede elegir uno o más factores para propagar los dominios de datos
inteligentes a otras columnas similares. Los factores incluyen el nombre de la columna, el patrón de datos de
la columna, los valores únicos y los factores de frecuencia de los valores.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.1 Enterprise Data Catalog.

Recopilar los registros de integración de datos para la elaboración de perfiles


A partir de la versión 10.4.1.1, puede utilizar la utilidad de recopilación de registros para recopilar registros
del servicio de integración de datos para la elaboración de perfiles en la página Recopilar registros de
recursos.

Para obtener más información, consulte el capítulo sobre utilidades de copia de seguridad del catálogo y de
la colección de registros en la Guía del administrador de Informatica 10.4.1 Enterprise Data Catalog.

Recurso SAP S/4HANA


A partir de la versión 10.4.1.1, el recurso SAP S/4HANA extrae los metadatos del activo Append View. Puede
ver el linaje y la información de relación del activo Append View en el catálogo. Para obtener más
información, consulte la Guía de configuración del escáner de Informatica 10.4.1 Enterprise Data Catalog.

Tipos de recursos compatibles en la utilidad de escáner independiente


A partir de la versión 10.4.1.1, se pueden extraer metadatos del origen de datos SAP S/4HANA cuando no se
puede acceder a ellos en tiempo de ejecución o sin conexión.

Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.4.1 .

Cambios

Data Privacy Management


En esta sección se describen los cambios introducidos en Data Privacy Management en la versión 10.4.1.1.

110 Capítulo 11: Versión 10.4.1.1


Cambios de la interfaz
A partir de la versión 10.4.1.1, la interfaz de Data Privacy Managementincluye los siguientes cambios:

Campo de opciones de exploración del asunto en la página de creación de exploraciones

Una opción para especificar las opciones de exploración del asunto. Incluye la opción Exploración
completa del asunto que puede seleccionar para configurar exploraciones incrementales en
exploraciones repetidas y periódicas.

Categoría NoSQL y tipo de almacén de datos Apache Cassandra

La lista Categoría de las páginas Nuevo almacén de datos y Nueva exploración incluye una opción
adicional de NoSQL. La lista Tipo de almacén de datos incluye a Apache Cassandra en la categoría
NoSQL.

Para obtener información sobre las opciones del almacén de datos y la creación de exploraciones, consulte
la Guía del usuario de Informatica Data Privacy Management.

Cambios en el archivo de la entidad de registro de asunto


A partir de la versión 10.4.1.1, el archivo de entidad del Registro de asunto incluye propiedades adicionales
para configurar las opciones de una entidad.

El archivo de la entidad del registro de activo tiene las siguientes propiedades adicionales:
UsedIn

Especifica si se debe utilizar una configuración de coincidencia en exploraciones, búsquedas o ambas


en el Registro de asunto.

Anteriormente, no se podían configurar campos aparte para la búsqueda y las exploraciones.

IsIncrementalScan

Agregue este indicador y establezca el valor a true para configurar las exploraciones repetidas y
periódicas del Registro de asunto para que sean incrementales. Agregue el indicador a un campo que
contenga un valor de tiempo. La exploración utiliza el valor en el campo para determinar la última hora
actualizada de una exploración incremental. Aplicable a los orígenes estructurados.

Anteriormente, no se podían configurar exploraciones incrementales del Registro de asunto.

IgnoreNullEmptyValuesForScan

Determina si se omiten los valores vacíos y se continúa, o si se suspende un trabajo al encontrar valores
nulos o vacíos. Se aplica a las exploraciones del Registro de asunto en entidades que incluyen el tipo de
coincidencia Exacta, el tipo de índice o el tipo de búsqueda en una configuración de coincidencia.

Anteriormente, no se podían configurar los tipos de coincidencia exacta, de búsqueda o de índice.

Para obtener información sobre los archivos de entidades, consulte la Guía del administrador de Informatica
Data Privacy Management.

Enterprise Data Catalog


En esta sección se describen los cambios que se han realizado en la versión 10.4.1.1 de Enterprise Data
Catalog.

Cambios 111
Borrar el intervalo de la memoria caché
A partir de la versión 10.4.1.1, la etiqueta Clear Expire Interval cambia de nombre a Clear Cache Interval.

Para obtener más información, consulte el capítulo sobre la configuración de la aplicación de Analytics en la
Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Detección de patrones mediante la similitud de columnas


A partir de la versión 10.4.1.1, la similitud de las columnas no deduce tipos de datos numéricos para la
coincidencia de patrones. Tampoco deduce patrones X, XX y XXX para todos los tipos de datos.

Anteriormente, la similitud de columnas utilizaba la coincidencia de patrones con otros factores para deducir
datos numéricos y también deducía patrones X, XX y XXX para todos los tipos de datos.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.1 Enterprise Data Catalog.

Informe del historial de exploraciones de recursos


A partir de la versión 10.4.1.1, la columna Tipo de exploración muestra Manual, Sin conexión y Programado
como el tipo de exploración de recursos para indicar las exploraciones de recursos.

Anteriormente, la columna Tipo de exploración mostraba En línea para indicar todos los tipos de
exploración. La columna Tipo de exploración muestra Manual para representar todos los tipos de
exploración que se indicaban anteriormente como En línea.

Para obtener más información, consulte el capítulo sobre el análisis de informes en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.

112 Capítulo 11: Versión 10.4.1.1


Capítulo 12

Avisos importantes de la versión


10.4.1
Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad en la versión 10.4.1, 113


• Nuevos productos, 116
• Cambios del programa de instalación, 116
• Tareas de la versión , 117

Cambios en la compatibilidad en la versión 10.4.1


En esta sección, se describen los cambios en la compatibilidad de la versión 10.4.1.

Versión preliminar técnica Compatibilidad


Vista previa técnica iniciada
A partir de la versión 10.4.1, Informatica incluye las siguientes funcionalidades para la vista previa técnica:
Integración de Cloudera Data Platform

Para Data Engineering Integration, puede usar Cloudera Data Platform (CDP) como clúster de cálculo
para ejecutar trabajos de ingeniería de datos en el entorno de Hadoop. Puede usar Cloudera CDP cuando
ejecute trabajos de ingeniería de datos en el motor de Spark. Cloudera CDP no se admite en el motor de
Blaze.

Cloudera CDP usa un clúster base y clústeres de carga de trabajo para ejecutar trabajos de ingeniería de
datos. Esta arquitectura permite implementar cargas de trabajo y compartir datos entre componentes
usando un catálogo compartido, seguridad unificada, un gobierno coherente y administración del ciclo
de vida de los datos.

Puede usar clústeres de Cloudera CDP cuando ejecute una asignación en el entorno de Hadoop con las
siguientes conexiones:

• PowerExchange for Amazon Redshift


• PowerExchange for Amazon S3
• PowerExchange for Microsoft Azure Blob Storage

113
• PowerExchange for Microsoft Azure Cosmos DB SQL API
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2
• PowerExchange for Microsoft Azure SQL Data Warehouse
• PowerExchange for Google Cloud Storage
• PowerExchange for Google BigQuery
• PowerExchange for Google Analytics
• PowerExchange for Google Cloud Spanner
• Sqoop

También puede usar Cloudera CDP cuando ejecute una asignación que utilice una conexión de
PowerExchange for HDFS para leer de un origen en el entorno nativo o en el entorno de Hadoop.

Para obtener más información, consulte la Guía de integración de Informatica® Data Engineering 10.4.1.

Parámetros de sustitución para destinos Amazon S3 y ADLS Gen2

Para Data Engineering Streaming, puede usar diferentes parámetros de sustitución para destinos
Amazon S3 y ADLS Gen2 a fin de decidir el tiempo de sustitución o el tamaño para cada destino.

Recurso SAP S/4HANA


Para Enterprise Data Catalog, puede extraer metadatos del origen de datos SAP S/4HANA. Para obtener
más información, consulte la Guía de configuración del escáner de Informatica® Enterprise Data Catalog
10.4.1.

Recopilación de registros de recursos y servicios

A partir de la versión 10.4.1, puede recopilar registros para los recursos basados en el nombre de
recurso. También puede recopilar registros para los servicios como HBase, Solr, ingesta y el servicio de
catálogo. Puede recopilar los registros usando las API REST, CLI de infacmd o el administrador de
catálogos. Para obtener más información, consulte la sección Utilidades de Enterprise Data Catalog en
la Guía del administrador de Informatica® 10.4.1 Catalog.

Copia de seguridad de catálogo ininterrumpida

A partir de la versión 10.4.1, puede realizar una copia de seguridad del catálogo sin deshabilitar el
servicio de catálogo. Puede realizar una copia de seguridad del catálogo usando las API REST; CLI de
infacmd o el administrador de catálogos. Para obtener más información, consulte la sección Utilidades
de Enterprise Data Catalog en la Guía del administrador de Informatica® 10.4.1 Catalog.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Eliminación de vista previa técnica


A partir de la versión 10.4.1, las siguientes funciones se eliminan de la vista previa técnica:

Transformación de Python en Databricks

Para Data Engineering Integration, puede incluir la transformación de Python en asignaciones


configuradas para ejecutarse en el motor de Databricks Spark.

114 Capítulo 12: Avisos importantes de la versión 10.4.1


Recursos de SAP BW, SAP BW/4HANA e IBM InfoSPhere DataStage

Para Enterprise Data Catalog, puede extraer metadatos de orígenes de SAP BW, SAP BW/4HANA, e IBM
InfoSphere DataStage. Para obtener más información, consulte la Guía de configuración del escáner de
Informatica® Enterprise Data Catalog 10.4.1.

Aplazamiento
En esta sección, se describen los cambios en el aplazamiento de la versión 10.4.1.

Eliminación del aplazamiento


A partir de la versión 10.4.1, las siguientes funciones ya no están aplazadas:

• Varios destinos con origen JMS en una asignación de transmisión.

Compatibilidad con IPv6


A partir de la versión 10.4.1, Informatica admite el formato de direcciones del Protocolo de Internet versión 6
(IPv6) además del formato de direcciones IPv4.

Asegúrese de que el dominio o los servicios tengan el mismo formato de dirección que la instancia de base
de datos correspondiente. Tanto el nodo como el host de la base de datos deben tener el mismo formato de
dirección. También puede usar el Protocolo de Internet versión 6 (IPv6) para conectarse a bases de datos
habilitadas para IPv6 desde instancias de Informatica Developer o PowerCenter hospedadas en equipos
configurados con IPv6.

En la siguiente tabla se enumeran las conexiones admitidas que puede usar desde el cliente de PowerCenter
o Developer tool:

Conexión Herramienta

DB2 Cliente de PowerCenter, Developer tool

JDBC Developer Tool

Microsoft SQL Server Cliente de PowerCenter, Developer tool

ODBC Cliente de PowerCenter, Developer tool

Oracle Cliente de PowerCenter, Developer tool

ASE Sybase Cliente de PowerCenter

Sybase IQ Cliente de PowerCenter

En las propiedades de conexión específicas de la base de datos desde el cliente de PowerCenter o Developer
tool, especifique el nombre de host o la dirección IP para conectar con la base de datos hospedada en la red
IPv6.

Para obtener más información sobre la compatibilidad con IPv6, consulte


https://network.informatica.com/docs/DOC-16182 y
https://kb.informatica.com/proddocs/PAM%20and%20EOL/1/Informatica%20Support%20Statement%20for
%20IPv6.pdf.

Cambios en la compatibilidad en la versión 10.4.1 115


Compatibilidad con la distribución
En cada versión, Informatica puede añadir, aplazar y dejar de ofrecer compatibilidad con las versiones de
distribuciones nativas y no nativas. Informatica podría restablecer la compatibilidad con versiones aplazadas
en una próxima versión. Para ver una lista de las últimas versiones compatibles, consulte la matriz de
disponibilidad de los productos en el Portal de atención al cliente de Informatica:

https://network.informatica.com/community/informatica-network/product-availability-matrices

Enterprise Data Catalog


En esta sección se describen los cambios en la compatibilidad de Enterprise Data Catalog de la versión
10.4.1.

Recursos
En esta sección, se describen los cambios en la compatibilidad de recursos de la versión 10.4.1.

Licencias para recursos


A partir de la versión 10.4.1, necesita una licencia avanzada para utilizar los siguientes recursos:

• SQL Server Integration Service


• SAP BW
• SAP BW/4HANA
• IBM InfoSphere Datastage

Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener una
licencia avanzada.

Nuevos productos

PowerExchange for MongoDB JDBC


A partir de la versión 10.4.1, puede leer datos de MongoDB JDBC y escribir en él mediante el cliente de
PowerCenter. Puede importar objetos de MongoDB como orígenes y destinos para crear asignaciones, y
ejecutar una sesión para leer o escribir datos en MongoDB. Al utilizar objetos de MongoDB en asignaciones,
puede configurar propiedades específicas de MongoDB JDBC.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB
10.4.1 para PowerCenter.

Cambios del programa de instalación


Informatica versión 10.4.1 es una versión de HotFix. Puede aplicar el HotFix a 10.4.0 o pueda actualizar
desde una versión compatible. Puede ejecutar el programa de instalación de Informatica para instalar los

116 Capítulo 12: Avisos importantes de la versión 10.4.1


archivos binarios de instalación del producto 10.4.1 si no están presentes en el equipo donde ejecuta el
programa de instalación.

Informatica versión 10.4.1 también admite productos de Data Privacy Management y Test Data Management
como parte del instalador unificado. Test Data Management y Data Privacy Management requieren de una
actualización de servicios además de aplicar el HotFix. Las instrucciones del HotFix son las mismas, pero
cambian los requisitos previos y posteriores a ella. Consulte sus guías de actualización individuales para
obtener información.

Data Privacy Management

Al instalar Data Privacy Management, puede instalar productos de Data Engineering y Enterprise Data
Catalog, y crear los servicios. Si tiene instalados Data Engineering y Enterprise Data Catalog, puede
ejecutar el programa de instalación para instalar Data Privacy Management sobre dichos productos.

Test Data Management

Cuando crea un dominio, se instalan los archivos binarios de Test Data Management y la estructura del
directorio se crea con ambas carpetas TDM y TDW. Para configurar Test Data Management, consulte la
Guía de configuración de Test Data Management.

Tareas de la versión
En esta sección se describen tareas de la versión 10.4.1. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.4.1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las tareas de la versión de los adaptadores de PowerExchange de la versión
10.4.1.

Cambios posteriores a la actualización para Informatica PowerExchange for


Microsoft Azure Data Lake Storage Gen1
Si actualiza de versiones anteriores a la 10.2.2 a la versión 10.4.1, y las asignaciones existentes se
configuraron para crear una fila de encabezado en el destino, después de actualizar cuando ejecuta las
asignaciones existentes, los encabezados no se crean en el destino.

Para generar los encabezados, puede volver a importar el objeto de destino, habilitar la opción Importar
nombres de columna desde la primera línea y volver a ejecutar la asignación.

Cambios posteriores a la actualización para Informatica PowerExchange for


Snowflake
Después de aplicar el HotFix 10.4.1 o actualizar de versiones anteriores a 10.4.0 a la versión 10.4.1, debe
establecer la propiedad de conexión Parámetros de URL JDBC adicionales como
jdbc_query_result_format=json al usar un equipo de AIX.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las tareas de la versión de los adaptadores de PowerExchange de la versión
10.4.1.

Tareas de la versión 117


Cambios posteriores a la actualización para PowerExchange for Snowflake
para PowerCenter
Después de aplicar el HotFix 10.4.1 o actualizar desde versiones anteriores a la 10.4.0 a la versión 10.4.1,
PowerExchange for Snowflake incluye las siguientes actualizaciones:

• Debe establecer la propiedad de conexión Parámetros JDBC adicionales como


jdbc_query_result_format=json cuando usa un equipo de AIX.
• Debe especificar la memoria de espacio de montón de Java en las propiedades del servicio de integración
de PowerCenter para evitar errores de asignaciones y tareas de asignación que lean datos desde
Snowflake. Se produce un error en la asignación debido a la actualización del controlador JDBC en la
versión 10.4.1.
Configure el valor de tamaño de heap en la propiedad JVMOption1 como 256 MB o superior.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake para PowerCenter.

118 Capítulo 12: Avisos importantes de la versión 10.4.1


Capítulo 13

Novedades de la versión 10.4.1


Este capítulo incluye los siguientes temas:

• Conectividad, 119
• Data Engineering Integration, 119
• Data Engineering Streaming, 120
• Data Privacy Management, 122
• Enterprise Data Catalog, 123
• Transformaciones de Informatica, 129
• Modelo de estructura inteligente, 130
• Metadata Manager, 130
• Adaptadores de PowerExchange, 130

Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.4.1.

Controladores ODBC y JDBC para DataDirect


A partir de la versión 10.4.1, los controladores ODBC y JDBC para DataDirect que se envían con Informatica
corresponden a las últimas versiones disponibles.

Oracle Connection Manager


A partir de la versión 10.4.1, puede utilizar Oracle Connection Manager para conectarse a Oracle. Especifique
la cadena de conexión para la conexión de Oracle en PowerCenter o Developer tool para conectarse a la base
de datos de Oracle.

Para obtener más información, consulte la Guía del administrador de Informatica 10.4.1.

Data Engineering Integration


En esta sección se describen las nuevas características de Data Engineering Integration en la versión 10.4.1.

119
Datos jerárquicos en orígenes y destinos de Hive
A partir de la versión 10.4.1, puede leer tablas de Hive y escribir en ellas, las cuales contienen datos
jerárquicos en una asignación que se ejecuta en el motor de Spark.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.

Autenticación de SAML para ingesta masiva


A partir de la versión 10.4.1, puede configurar la autenticación de SAML para iniciar sesión en la herramienta
de ingesta masiva.

Con la autenticación de SAML, podrá utilizar un proveedor de identidades de terceros para administrar las
credenciales de usuario y la autorización.

Para obtener más información, consulte las siguientes guías:

Guía de ingesta masiva de Data Engineering Integration 10.4.1


Guía de servicios de aplicación de Informatica® 10.4.1
Guía de seguridad de Informatica® 10.4.1

Data Engineering Streaming


En esta sección se describen las nuevas características de Data Engineering Streaming en la versión 10.4.1.

Puerto FileName para ADLS Gen2


A partir de la versión 10.4.1, cuando se crea una operación de escritura en objeto de datos para ADLS Gen2,
el puerto FileName aparece de forma predeterminada.

En tiempo de ejecución, el servicio de integración de datos crea directorios independientes para cada valor
del puerto FileName y añade los archivos de destino en los directorios. Puede utilizar el puerto FileName en
el destino ADLS Gen2 para ingerir los datos CDC desde el editor de PWX CDC.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

Ingerir datos de CDC desde varios temas de Kafka


A partir de la versión 10.4.1, puede ingerir datos de CDC del editor de PWX CDC en varios temas de Kafka
sobre sistemas de Data Engineering en una o varias asignaciones.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

Transformación de búsqueda de JDBC V2


A partir de la versión 10.4.1, puede usar una operación de lectura de objeto de datos de JDBC para buscar
datos en una tabla de JDBC V2.

Puede añadir una operación de lectura de objeto de datos de JDBC V2 como una búsqueda en una
asignación. Después, puede configurar una condición de búsqueda para buscar datos en la tabla de JDBC
V2. Esta asignación se puede ejecutar en un motor de Databricks.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

120 Capítulo 13: Novedades de la versión 10.4.1


Formato de datos Parquet para destinos complejos
A partir de la versión 10.4.1, puede utilizar el formato de datos Parquet para destinos complejos.

Puede utilizar el formato de datos Parquet para destinos complejos, como HDFS, ADLS Gen2 y Amazon S3 en
las asignaciones de transmisión.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

Parámetros de sustitución en destinos de Amazon S3 y ADLS


Gen2
A partir de la versión 10.4.1, puede utilizar otros parámetros de sustitución para los destinos de Amazon S3 y
ADLS Gen2 y, de este modo, decidir el tamaño o la hora de la sustitución para cada destino.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

Orígenes y destinos en Databricks


A partir de la versión 10.4.1, puede utilizar Kafka y Confluent Kafka como orígenes y destinos en las
asignaciones de transmisión en un entorno de Databricks.

Puede ejecutar las asignaciones de transmisión en un entorno de Databricks en los ecosistemas de nube de
AWS y los servicios de nube de Microsoft Azure.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.1.

Asignaciones de transmisión en AWS Databricks


A partir de la versión 10.4.1, puede ejecutar asignaciones de transmisión en el servicio AWS Databricks en
los ecosistemas de nube de AWS.

Puede utilizar AWS Databricks para ejecutar asignaciones con la siguiente funcionalidad:

Orígenes y destinos
Puede ejecutar asignaciones de transmisión en los siguientes orígenes y destinos dentro del entorno de
Databricks:

• Amazon S3
• Kinesis Streams
• Kinesis Firehose

Transformaciones
Puede añadir las siguientes transformaciones a una asignación de transmisión de Databricks en AWS:

Agregación
Expresión
Filtro
Unión
Normalizador
Rango
Enrutador

Data Engineering Streaming 121


Unión
Ventana

Tipos de datos
AWS Databricks admite los mismos tipos de datos que Azure Databricks.

Se admiten los siguientes tipos de datos:

Matriz
Bigint
Fecha/Hora
Decimal
Doble
Entero
Asignar
Struct
Texto
Cadena

Para obtener más información, consulte la siguiente Guía del usuario de Data Engineering Streaming 10.4.1.

Data Privacy Management


En esta sección se describen las nuevas características de Data Privacy Management en la versión 10.4.1.

Almacenes de datos
En esta sección se describen los nuevos orígenes y propiedades de los almacenes de datos.

A partir de la versión 10.4.1, puede analizar los almacenes de datos no estructurados con un agente remoto
de registro de asunto para detectar los datos confidenciales. Es posible configurar una exploración para leer
todas las carpetas, leer carpetas específicas de una lista o leer carpetas basadas en expresiones regulares.

La versión 10.4.1 admite los orígenes de datos de Google Drive, SAP HANA y Snowflake.

Para obtener más información, consulte los capítulos sobre las propiedades de los almacenes de datos y las
exploraciones en la Guía del usuario de Informatica Data Privacy Management.

Tareas
En esta sección se describen los nuevos tipos de trabajos.

La versión 10.4.1 incluye los siguientes tipos de trabajos:

• El trabajo de exploración incremental solo analiza los registros de un almacén de datos que se
modificaron desde que se ejecutó el último trabajo de exploración.
• El trabajo de importación de resultados del catálogo importa recursos desde Enterprise Data Catalog.
• El trabajo de sincronización de actualizaciones del catálogo sincroniza la información importada desde
Enterprise Data Catalog con los almacenes de datos de Data Privacy Management.

122 Capítulo 13: Novedades de la versión 10.4.1


Para obtener más información, consulte el capítulo "Trabajos" en la Guía del usuario de Informatica Data
Privacy Management.

Panel de privacidad
A partir de la versión 10.4.1, Data Privacy Management incluye un panel de privacidad para ver y supervisar
los datos del Registro de asunto.

Utilice los indicadores de resumen y los indicadores de espacio de trabajo del panel para ver información
sobre el recuento total de asuntos, el recuento de retenciones legales, los tipos de asunto y las solicitudes de
asunto. Puede hacer un seguimiento de las solicitudes de asunto y tomar las medidas oportunas en relación
con estas en las páginas de detalles que puede abrir en el panel.

También puede ver información sobre los almacenes de datos que contienen asuntos y su ubicación.

Para obtener más información acerca del panel de privacidad, consulte la Guía del usuario de Informatica
Data Privacy Management.

Cifrado de datos del Registro de asunto


A partir de la versión 10.4.1, Data Privacy Management cifra los datos de registro de comercialización que se
identifican en las exploraciones de asunto y almacena los datos cifrados en el repositorio de HBase.

Los datos se cifran cada vez que se ejecuta una exploración de registro y se actualizan los datos del
repositorio de Registro de asunto.

Almacenes de datos no estructurados


En esta sección se describen los cambios que se han realizado en la forma en que Data Privacy Management
detecta datos personales y confidenciales para almacenes de datos no estructurados.

La versión 10.4.1 incluye las siguientes nuevas características para los almacenes de datos no
estructurados:

• Puede especificar una configuración global para que el tamaño máximo de archivo incluya exploraciones
de almacenes de datos no estructurados que utilizan el escáner de agente remoto.
• Puede utilizar los dominios de datos incluidos en la instalación de Data Privacy Management que
coincidan con las políticas de clasificación configuradas con antelación para escanear almacenes de
datos no estructurados. En el caso de dominios de datos que no estén incluidos en la instalación, puede
configurar dominios de datos con expresiones regulares en un agente proxy de multiplexación (MPA).
• Puede añadir una condición de coincidencia personalizada en las políticas de clasificación para que
coincida con las etiquetas de archivo en almacenes de datos de Google Drive y Microsoft SharePoint.
• Puede descargar informes de trabajos de exploración para análisis de almacenes de datos no
estructurados.
Para obtener más información, consulte la Guía del usuario de Informatica Data Privacy Management.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.4.1.

Enterprise Data Catalog 123


Asociación de términos empresariales
A partir de la versión 10.4.1, puede asociar términos empresariales a activos del recurso de Azure Data Lake
Storage Gen2 del catálogo.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.

Configurar la resolución de conflictos para la regla de datos y la


regla de nombres de columna
A partir de la versión 10.4.1, puede elegir aceptar el resultado de la regla de datos, el resultado de la regla de
nombres de columna o ambas si las reglas entran en conflicto durante la aceptación automática de los
dominios de datos.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.

Información del linaje contextual


A partir de la versión 10.4.1, puede utilizar la ficha Linaje e impacto para ver la información de linaje
contextual de los activos. Cree un recurso personalizado en Catalog Administrator para extraer la
información contextual de los activos que incluyen una definición del proceso o la ejecución de la
asignación.

Si desea más información, consulte el capítulo sobre cómo realizar la ingesta de metadatos personalizados
en el catálogo, en la Guía de Informatica 10.4.1 Catalog Administrator, y el capítulo sobre la visualización del
linaje y su impacto, en la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Data Asset Analytics


A partir de la versión 10.4.1, puede usar Data Asset Analytics para ver datos de análisis relacionados con el
catálogo en forma de informes. Entre los datos de los análisis se incluye información sobre los usuarios
configurados para acceder al catálogo, activos y recursos, uso de activos, y detalles de enriquecimiento y
colaboración asociados con activos.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 Enterprise Data Catalog.

Conservación de datos a través de la exportación y la importación


A partir de la versión 10.4.1, puede aceptar o rechazar los múltiples activos deducidos para los dominios de
datos. Los activos se pueden exportar al archivo separado por comas (CSV) y el archivo CSV actualizado se
puede importar en Enterprise Data Catalog.

Para eliminar los dominios de datos de los activos, puede eliminar los dominios de datos de las columnas de
dominios de datos aceptados o deducidos en el archivo CSV exportado.

Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.

124 Capítulo 13: Novedades de la versión 10.4.1


Detección de datos
A partir de la versión 10.4.1, puede ejecutar perfiles para detectar dominios de datos en los siguientes
recursos y tipos de archivo:

• Recurso de Azure Data Lake Store Gen2.


Puede ejecutar perfiles en los tipos de archivo estructurado, no estructurado y no estructurado ampliado.
• Recurso de Cassandra.
Puede realizar la detección de datos en el motor nativo.
• Archivo Parquet para recursos de Amazon S3 y Azure Data Lake Store.
Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía de
Informatica 10.4.1 Catalog Administrator.

Tutoriales de Enterprise Data Catalog


A partir de la versión 10.4.1, puede acceder a los tutoriales que le ayudarán a conocer Enterprise Data
Catalog y a comenzar a usarlo rápidamente. Los tutoriales son aprendizajes guiados en Enterprise Data
Catalog donde se explica cómo utilizar una funcionalidad específica.

Nota: Antes de acceder a los tutoriales, asegúrese de tener acceso a los siguientes dominios de Walkme:

• https://cdn.walkme.com
• https://playerserver.walkme.com
• https://ec.walkme.com
• https://rapi.walkme.com
• https://papi.walkme.com

Los siguientes tutoriales están disponibles en Enterprise Data Catalog:

• Introducción y presentación de la página de inicio del catálogo


• Introducción a los resultados de búsqueda
• Introducción al resumen de tablas
• Introducción al linaje
• Introducción al resumen de columnas
• Mejora de la credibilidad de activos

Para iniciar un tutorial, haga clic en el icono de ayuda ? de la barra de herramientas y, a continuación, haga
clic en el enlace a los tutoriales.

Extraer los puntos finales de la transformación


A partir de la versión 10.4.1, puede extraer los puntos finales de la transformación para un recurso de
PowerCenter que tenga asignaciones de la transformación del servicio web. En Enterprise Data Catalog, los
puntos finales de la transformación aparecen como conexiones, las cuales vinculan los orígenes o los
destinos de los datos.

Enterprise Data Catalog 125


Linaje a nivel de campo para archivos sin formato
A partir de la versión 10.4.1, puede ver el linaje de nivel de campo para un archivo sin formato de origen o
destino del catálogo.

En la siguiente tabla se incluyen los sistemas de archivos soportados por los recursos que puede configurar
para ver el linaje a nivel de campo:

Recursos Sistemas de archivos compatibles

PowerCenter Linux
Windows

SQL Server Integration Service Windows


Azure Data Lake Store Gen2

Servicio de Informatica Cloud Azure Data Lake Store Gen2


Azure Data Lake Store Gen1
Amazon S3
Azure Blob Storage
Google Cloud Storage
Linux
Windows

IBM InfoSphere DataStage Linux


Windows

Informatica Platform Linux


Windows

Para ver el linaje de nivel de campo para archivos sin formato sin encabezados, debe seleccionar las
propiedades Habilitar recursos de referencia y Conservar los activos de referencia sin resolver durante la
configuración de recursos. Estas propiedades no se requieren para ver el linaje de nivel de campo para
archivos sin formato con encabezados.

Linaje de archivos para Cloud Storage


A partir de la versión 10.4.1, puede utilizar el recurso de Informatica Cloud Service y ver el linaje de archivos
para Cloud Storage.

Puede ver el linaje de archivos para las asignaciones de Informatica Cloud Service que utilizan orígenes de
datos como Amazon S3, Microsoft Azure Blob Storage y Azure Data Lake Store Gen2.

Recurso de Hive
A partir de la versión 10.4.1, el recurso de Hive incluye las siguientes mejoras:

Extraer metadatos de conexión

Puede utilizar el recurso de Hive para extraer los detalles de conexión de las vistas de diferentes
esquemas.

126 Capítulo 13: Novedades de la versión 10.4.1


Asignar automáticamente las conexiones

Cuando cree el recurso, puede elegir asignar automáticamente los esquemas de base de datos al
recurso de Hive. Puede ver la lista de esquemas asignados automáticamente y sus conexiones para el
recurso. Los esquemas se pueden asignar en las conexiones asignadas automáticamente o se pueden
anular las asignaciones en estas.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1 .

Recurso de Informatica MDM


A partir de la versión 10.4.1, el recurso de Informatica MDM extrae los metadatos del origen de datos de
MDM a través de las API.

El recurso de Informatica MDM incluye las siguientes mejoras:

Extracción de metadatos

El recurso de Informatica MDM se puede configurar para extraer metadatos, como objetos base, tablas
de conexión y tablas de transferencia provisional junto con la información de campo y atributo.

Mejoras en el linaje

Es posible ver el linaje entre las tablas de conexión hasta las entidades de negocio. También se pueden
ver los detalles del linaje en las aplicaciones de Informatica Platform.

Para obtener más información, consulte la Guía del escáner de Informatica 10.4.1 Enterprise Data Catalog.

Microsoft SQL Server Recurso


A partir de la versión 10.4.1, cuando crea el recurso de Microsoft SQL Server, puede elegir si desea asignar
automáticamente los esquemas de base de datos al recurso. Puede ver la lista de esquemas asignados
automáticamente y sus conexiones para el recurso. Los esquemas se pueden asignar en las conexiones
asignadas automáticamente o se pueden anular las asignaciones en estas.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.1 Enterprise
Data Catalog.

Recurso de MicroStrategy
A partir de la versión 10.4.1, el recurso de MicroStrategy incluye las siguientes mejoras:

Ver el linaje en el nivel de los informes

Puede ver el linaje en el nivel de informes para un recurso de MicroStrategy. El linaje en el nivel de
informes no incluye contenedores como el encabezado de página, el pie de página, el cuerpo de página
ni elementos agrupados, como columnas, filas y métricas.

Compatibilidad con la carga incremental

Puede habilitar la carga incremental de un recurso de MicroStrategy. Una carga incremental hace que el
origen de datos cargue los cambios recientes en los metadatos en lugar de cargar los metadatos
completos. La carga incremental reduce la cantidad de tiempo que lleva cargar el recurso.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.1 Enterprise
Data Catalog.

Enterprise Data Catalog 127


Detección de archivos particionados
A partir de la versión 10.4.1, puede utilizar los recursos de Amazon S3 y Azure Data Lake Store Gen2 para
identificar y publicar horizontalmente archivos particionados en el mismo directorio, y archivos organizados
en estructuras jerárquicas de directorios basadas en Hive como un único archivo particionado.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1.

Recursos de referencia y activos de referencia


A partir de la versión 10.4.1, puede configurar los recursos de Hive y de Microsoft SQL Server para extraer
metadatos de orígenes de datos u otros recursos del catálogo a los que se hace referencia en el recurso.

Para obtener más información, consulte la Guía de Informatica 10.4.1 Catalog Administrator y la Guía del
usuario de Informatica 10.4.1 Enterprise Data Catalog.

Permisos a nivel de recurso


A partir de la versión 10.4.1, puede asignar permisos de configuración y aplicar restricciones en los recursos
de usuarios o grupos de usuarios.

Nota: También puede aplicar restricciones en los recursos durante la creación de recursos.

Para obtener más información, consulte la Guía de Informatica 10.4.1 Catalog Administrator.

Extraer el nombre de la base de datos


A partir de la versión 10.4.1, puede utilizar el recurso de Oracle para extraer los nombres de las bases de
datos de Oracle que estén configuradas como orígenes de metadatos con la opción Importar nombre de
base de datos. La opción está activada de forma predeterminada.

Puede usar la opción de JVM -DextractDatabaseName=true para extraer el nombre de la base de datos del
origen de metadatos de Oracle.

Nota: Si actualiza desde una versión anterior, la opción Importar nombre de base de datos sustituye a la
opción de JVM -DextractDatabaseName=true en la configuración de recursos de Oracle.

API de REST
A partir de la versión 10.4.1, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:

• API de REST de eventos de catálogo. Además de las API de REST existentes, puede enumerar los tipos de
clase de eventos para los objetos que ha suscrito el usuario.
• API de REST de filtro de linaje. Además de las API de REST existentes, puede crear un filtro de linaje
predeterminado.
• API de REST de información de supervisión. Además de las API de REST existentes, puede llevar a cabo
las siguientes tareas:
- Enumerar los registros de un trabajo.

- Enviar y enumerar trabajos de copia de seguridad, trabajos de registro de exploraciones de recursos y


trabajos de registro de servicios.
- Descargar un registro específico de un trabajo y archivos ZIP de un trabajo de copia de seguridad, un
trabajo de registro de exploraciones de recursos y un trabajo de registro de servicios.

128 Capítulo 13: Novedades de la versión 10.4.1


Para obtener más información sobre las API de REST, consulte la Referencia de las API de REST de
Informatica 10.4.1 Enterprise Data Catalog.

Recursos de SAP BW y SAP BW/4HANA


A partir de la versión 10.4.1, los recursos de SAP BW y SAP BW/4HANA extraen metadatos del activo de
InfoObject como InfoProvider. Puede ver el linaje y la información de relación para el activo InfoObject como
InfoProvider del catálogo.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.4.1 .

Recurso de SSIS
A partir de la versión 10.4.1, el recurso de SSIS incluye las siguientes mejoras:

Ver los detalles de linaje de las transformaciones

Puede ver los detalles de linaje de las transformaciones, como agregado, auditoría y mapa de caracteres
del catálogo.

Extracción de metadatos de la base de datos de SSIS

Puede configurar el recurso de SSIS para extraer metadatos de la base de datos de SSIS.

Compatibilidad de linaje de control y nivel de campo

Puede ver el linaje de nivel de campo de los archivos sin formato y el resumen de control de los activos
de SSIS del catálogo.

Para obtener más información, consulte la Guía del escáner de Informatica 10.4.1 Enterprise Data Catalog.

Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.4.1.

Transformación de macro
A partir de la versión 10.4.1, puede utilizar la transformación de macro en las asignaciones de Informatica.
La transformación de macro añade funcionalidad dinámica a la lógica de transformación que contiene un
mapplet.

Antes de utilizar una transformación de macro, cree un mapplet con la lógica de transformación que desee
para aceptar la entrada dinámica. A continuación, añada la transformación de macro a una asignación
dinámica y utilice el mapplet que creó como la instrucción de macro.

Por ejemplo, desea leer datos de un origen dinámico, realizar el cifrado de datos y después escribir los datos
cifrados en un destino. En primer lugar, cree un mapplet que realice el cifrado mediante una transformación
de enmascaramiento de datos. Después, cree una asignación que lea y escriba en sus orígenes de datos.
Añada una transformación de macro a la asignación dinámica y seleccione el mapplet de enmascaramiento
de datos como la instrucción de macro.

Para obtener más información, consulte el capítulo sobre la transformación de macro en la Guía de
transformación de Informatica 10.4.1 Developer.

Transformaciones de Informatica 129


Modelo de estructura inteligente
En esta sección se describen las nuevas características del modelo de estructura inteligente en la versión
10.4.1.

Cambiar el nodo raíz en una estructura de matriz


A partir de la versión 10.4.1, puede determinar dónde aplana Intelligent Structure Discovery una estructura
seleccionando el elemento equivalente al nodo raíz en la estructura. Por ejemplo, si un modelo de estructura
inteligente en una asignación de transmisión media contiene entradas jerárquicas complejas, seleccione el
nodo de nivel superior como la raíz para evitar la pérdida de datos.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.

Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager de la versión 10.4.1.

Configurar la ubicación de Java y el tamaño de heap para los


recursos de Business Object
A partir de la versión 10.4.1, puede configurar la ubicación de Java y el tamaño de heap en la propiedad
Varios para los recursos de Business Object. Estas opciones se pueden configurar en función del entorno en
tiempo de ejecución de Java SE.

Para obtener más información, consulte el capítulo "Recursos de Business Intelligence" en la Guía del
administrador de Informatica 10.4.1 Metadata Manager.

Adaptadores de PowerExchange
En esta sección se describen las nuevas características del adaptador de PowerExchange de la versión
10.4.1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de PowerExchange de la versión
10.4.1.

PowerExchange for Amazon Redshift


A partir de la versión 10.4.1, PowerExchange for Amazon Redshift incluye las siguientes características:

• El cubo de Amazon S3 que especifique para crear los archivos de transferencia provisional puede estar en
una región distinta a la del clúster de Amazon Redshift.

130 Capítulo 13: Novedades de la versión 10.4.1


• Puede utilizar las claves administradas de cliente de KMS desde una cuenta externa para crear recursos
cifrados. Para ello, debe proporcionar el nombre de recursos de Amazon (ARN) de la cuenta externa en
las propiedades de conexión.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Amazon
Redshift.

PowerExchange for Amazon S3


A partir de la versión 10.4.1, PowerExchange for Amazon S3 incluye las siguientes características:

• Puede leer varios archivos del tipo de formato sin formato en Amazon S3 y escribir datos en un destino
mediante un archivo .manifest.
• La región ap-east-1 (Hong Kong) de AWS se puede utilizar en el entorno nativo y en el motor de Spark.
• Puede utilizar las claves administradas de cliente de KMS desde una cuenta externa para crear recursos
cifrados. Para ello, debe proporcionar el nombre de recursos de Amazon (ARN) de la cuenta externa en
las propiedades de conexión.
• Puede ejecutar una asignación para leer un archivo binario de Amazon S3 mediante el puerto FileName en
el modo nativo.
• Puede leer un archivo binario de Amazon S3 desde un directorio en el modo nativo.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Amazon
S3.

PowerExchange for Google BigQuery


A partir de la versión 10.4.1, PowerExchange for Google BigQuery incluye las siguientes características:

• Puede configurar una operación de búsqueda almacenada en caché en una tabla de Google BigQuery.
• Puede leer los datos de la tabla y escribir datos en ella en un conjunto de datos de Google BigQuery que
esté disponible en una región concreta.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
BigQuery.

PowerExchange for Hive


A partir de la versión 10.4.1, puede utilizar tipos de datos complejos para leer y escribir datos jerárquicos en
tablas de Hive en una asignación que se ejecute en el motor de Spark.

Cuando lea y escriba en tablas de Hive con datos jerárquicos, podrá realizar la vista previa de datos y la
sincronización de esquemas en la asignación.

Solo podrá utilizar tablas de Hive con datos jerárquicos en la distribución de HDP 3.1.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Hive.

PowerExchange for Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.4.1, PowerExchange for Microsoft Azure Data Lake Storage Gen2 incluye las
siguientes características:

• Los siguientes motores en tiempo de ejecución pueden leer y escribir archivos ORC:
- Servicio de integración de datos

- Spark

Adaptadores de PowerExchange 131


- Databricks Spark
• Puede ejecutar asignaciones para leer y escribir archivos JSON en el entorno nativo.
• Puede configurar los puntos finales de Azure Government en las asignaciones del entorno nativo y en el
motor de Spark.
• Puede configurar los ajustes del servidor proxy autenticado para que el servicio de integración de datos
se conecte a Microsoft Azure Data Lake Storage Gen2.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.

PowerExchange for Salesforce


A partir de la versión 10.4.1, PowerExchange for Salesforce incluye las siguientes características:

• Puede utilizar la versión 48.0 de la API de Salesforce para crear una conexión de Salesforce y acceder a
los objetos de Salesforce.
• Puede configurar asignaciones dinámicas para incluir los cambios frecuentes en orígenes, destinos y la
lógica de transformación en tiempo de ejecución en función de los parámetros y reglas que defina.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Salesforce.

PowerExchange for SAP NetWeaver


A partir de la versión 10.4.1, cuando utiliza el modo de transferencia de datos de transmisión HTTP en SAP
Table Reader, puede especificar un tamaño de paquetes de transferencia en MB para datos de lectura en
tablas de SAP.

Después de la actualización, las asignaciones existentes que utilice el modo de transferencia de datos de
transmisión HTTP en SAP Table Reader podrían mostrar una mejora en rendimiento. Para ajustar el
rendimiento, especifique un tamaño de paquete de transferencia adecuado basado en su requisito.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for SAP
NetWeaver.

PowerExchange for Snowflake


A partir de la versión 10.4.1, puede utilizar tablas externas y vistas materializadas como orígenes de
Snowflake y realizar todas las operaciones de lectura.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las nuevas características del adaptador de PowerExchange de la versión
10.4.1.

PowerExchange for Db2 Warehouse


A partir de la versión 10.4.1, PowerExchange for Db2 Warehouse incluye las siguientes características:

• Puede leer y escribir datos para los tipos de datos VarcharForBitData y CharForBitData en Db2
Warehouse.

132 Capítulo 13: Novedades de la versión 10.4.1


• Puede utilizar PowerExchange for Db2 Warehouse en las plataformas de Windows y AIX.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Db2
Warehouse 10.4.1 para PowerCenter.

PowerExchange for Greenplum


A partir de la versión 10.4.1, puede utilizar PowerExchange for Greenplum en la plataforma de Windows.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Greenplum
10.4.1 para PowerCenter.

PowerExchange for Google BigQuery


A partir de la versión 10.4.1, PowerExchange for Google BigQuery incluye las siguientes características:

• Puede crear una transformación de búsqueda de canal para realizar una búsqueda en una tabla de Google
BigQuery.
• Puede crear una sesión para leer los datos modificados o en tiempo real de un origen de Change Data
Capture (CDC) y cargar los datos en Google BigQuery.
• Puede leer los datos de la tabla y escribir datos en ella en un conjunto de datos de Google BigQuery que
esté disponible en una región concreta.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Google
BigQuery para PowerCenter.

PowerExchange for Google Cloud Storage


A partir de la versión 10.4.1, cuando importe una definición de destino de Google Cloud Storage, puede
eliminar la fila de encabezado en un archivo sin formato de Google Cloud Storage.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for Google
Cloud Storage para PowerCenter.

PowerExchange for Kafka


A partir de la versión 10.4.1, PowerExchange for Kafka incluye las siguientes características:

• Cuando escriba datos en un destino de Kafka, puede configurar la recuperación basada en archivos en
una sesión en tiempo real.
• Puede establecer otras propiedades de configuración para conectarse a un agente Kafka a través de SSL.
• Cuando especifique las propiedades de configuración en el campo Propiedades de seguridad adicionales,
el valor que indique se enmascarará.
• Puede configurar la seguridad PLAIN para un agente Kafka.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.4.1
para PowerCenter.

PowerExchange for Microsoft Azure SQL Data Warehouse V3


A partir de la versión 10.4.1, se pueden leer y escribir datos en un extremo de Microsoft Azure SQL Data
Warehouse que resida en una red virtual (VNet).

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Microsoft Azure SQL Data Warehouse V3 para PowerCenter.

Adaptadores de PowerExchange 133


PowerExchange for Salesforce
A partir de la versión 10.4.1, puede utilizar la versión 48.0 de la API de Salesforce para crear una conexión de
Salesforce y acceder a los objetos de Salesforce.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Salesforce para PowerCenter.

PowerExchange for SAP NetWeaver


A partir de la versión 10.4.1, cuando utiliza el modo de transferencia de datos de transmisión HTTP en
PowerExchange for SAP Dynamic ABAP Table Extractor, puede especificar un tamaño de paquetes de
transferencia en MB para optimizar el rendimiento de datos de lectura en tablas de SAP.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for SAP
NetWeaver para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.4.1, PowerExchange for Snowflake incluye las siguientes características:

• Puede utilizar tablas externas y vistas materializadas como orígenes de Snowflake y realizar todas las
operaciones de lectura.
• Puede reemplazar la consulta de actualización predeterminada que genera el servicio de integración de
PowerCenter con la consulta de actualización que especifique.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.1 PowerExchange for
Snowflake para PowerCenter.

134 Capítulo 13: Novedades de la versión 10.4.1


Capítulo 14

Cambios en la versión 10.4.1


Este capítulo incluye los siguientes temas:

• Programas de la línea de comandos, 135


• Data Engineering Integration, 136
• Data Privacy Management, 136
• Documentación, 138
• Seguridad del dominio, 138
• Enterprise Data Catalog, 138
• Informatica Developer , 140
• Metadata Manager, 140
• Test Data Management, 141

Programas de la línea de comandos


En esta sección se describen los cambios de los comandos en la versión 10.4.1.

Comandos infacmd ldm


En la siguiente tabla se describen los comandos infacmd ldm que se han cambiado:

Comando Cambiar descripción

BackupContents Se ha añadido el comando -mode para crear copias de seguridad del contenido. Las copias de
seguridad se pueden crear en los modos sin conexión, hdfs o en línea.

CreateService Se han añadido las siguientes opciones:


- -ed. Habilite Data Asset Analytics.
- -ddt. Seleccione una base de datos para Data Asset Analytics.
- -ddu. Acceda a la base de datos para Data Asset Analytics.
- -ddp. Contraseña para acceder a Data Asset Analytics.
- -ddl. Proporcione la cadena de conexión de la base de datos.
- -dds. Proporcione el nombre de esquema de la base de datos.
- -dsjdbcp. Proporcione el valor para proteger los parámetros de conexión JDBC.

Para obtener más información, consulte la Referencia de comando de Informatica 10.4.1.

135
Data Engineering Integration
En esta sección se describen los cambios introducidos en Data Engineering Integration en la versión 10.4.1.

Intelligent Structure Discovery


A partir de la versión 10.4.1, cuando Intelligent Structure Discovery deduce tipos de datos para archivos Avro,
Parquet y ORC, se utilizan los mismos tipos de datos que utilizan los conectores nativos, lo que da lugar a un
resultado unificado entre las plataformas.

Antes, la inferencia de tipos de datos de Intelligent Structure Discovery no estaba alineada con la inferencia
de los conectores nativos.

Para obtener más información, consulte el capítulo sobre modelos de estructura inteligente en la Guía del
usuario de Data Engineering Integration 10.4.1.

Data Privacy Management


En esta sección se describen los cambios introducidos en Data Privacy Management en la versión 10.4.1.

Programa de instalación de la administración de Data Privacy


A partir de la versión 10.4.1, el programa de instalación de Data Privacy Management se incluye en el
programa de instalación de servicios de Informatica. Puede elegir la opción de instalación que se requiere
para Data Privacy Management entre las opciones de instalación de productos disponibles.

Antes, el programa de instalación de Data Privacy Management era un programa independiente. Podía elegir
la opción de instalación necesaria entre las opciones de instalación disponibles de Data Privacy
Management.

Los archivos del programa de instalación del agente remoto están ahora disponibles en la siguiente
ubicación tras la instalación: <INFA_HOME>/SecureAtSourceService/InformaticaDiscoveryAgent/
InformaticaDiscoveryAgent.zip

El agente remoto se puede utilizar para las exploraciones del Registro de asunto y las exploraciones de
detección de dominios en los orígenes no estructurados.

Antes, los archivos del programa de instalación del agente remoto estaban disponibles en la siguiente
ubicación tras la instalación: <INFA_HOME>/SecureAtSourceService/SubjectRegistryAgent/
SubjectRegistryAgent.zip

El agente solo se podía usar para las exploraciones del Registro de asunto en los orígenes no estructurados.

Para obtener más información sobre cómo utilizar el programa de instalación y cómo instalar el agente
remoto, consulte la Guía de instalación y configuración de Informatica Data Privacy Management.

Resumen Espacio de trabajo


En esta sección se describen los cambios introducidos en el nombre del espacio de trabajo Resumen.

A partir de la versión 10.4.1, la vista del espacio de trabajo Resumen que incluye los indicadores para datos
confidenciales, usuarios y su comportamiento, análisis del panel, ubicaciones y proliferación de datos
confidenciales, y las métricas de protección se denomina Panel de seguridad.

136 Capítulo 14: Cambios en la versión 10.4.1


Cuando inicia sesión por primera vez, el espacio de trabajo Data Privacy ManagementResumen muestra el
Panel de privacidad. Para ver el Panel de seguridad, debe cambiar la configuración predeterminada en el
espacio de trabajo Configuración.

Antes, el espacio de trabajo Resumen solo mostraba la información que aparece ahora en el Panel de
seguridad.

Para obtener más información, consulte el capítulo "Panel de seguridad" en la Guía del usuario de Informatica
Data Privacy Management.

Informes de trabajos de exploración


En esta sección se cubren los cambios que se han introducido en los informes de exploración de almacenes
de datos que puede descargar en la página Detalles de trabajo.

A partir de la versión 10.4.1, puede descargar un informe para el paso del trabajo Cargar catálogo. El paso
del trabajo Creación de perfiles incluye un archivo .zip con dos informes de archivo .csv.

Antes, el paso del trabajo Cargar catálogo no incluía informes y el paso del trabajo Creación de perfiles
contenía un único informe de archivo .csv.

Para obtener más información, consulte el capítulo "Trabajos" en la Guía del usuario de Informatica Data
Privacy Management.

Vistas de la página Archivos confidenciales


En esta sección se describen las nuevas vistas y columnas de la página Archivos confidenciales.

La versión 10.4.1 incluye las siguientes vistas para los almacenes de datos no estructurados:

Vista sin formato

En la vista sin formato se enumeran los archivos y las carpetas de un almacén de datos no
estructurados que contienen dominios de datos confidenciales. Los archivos y las carpetas se muestran
en orden alfabético.

La vista sin formato incluye la nueva columna Confianza. En la columna se muestra el nivel de confianza
para la coincidencia de políticas de clasificación en archivos de almacenes de datos no estructurados
que se analizan con un agente remoto.

Vista de árbol

La vista de árbol enumera el directorio de nivel superior que contiene las carpetas y los archivos no
estructurados que identificó la exploración. Puede obtener los detalles de las carpetas y los archivos.
Para desplazarse a una carpeta anterior del árbol de directorio, haga clic en un nombre de carpeta en la
ruta de archivos que aparece sobre la lista.

Antes, las vistas de campos confidenciales y campos importados mostraban datos confidenciales para
todos los tipos de almacenes de datos. En la versión 10.4.1, estas vistas solo se incluyen en la página
Campos confidenciales para almacenes de datos estructurados.

Para obtener más información, consulte el capítulo "Panel de seguridad" en la Guía del usuario de Informatica
Data Privacy Management.

Data Privacy Management 137


Documentación
En esta sección se describen los cambios realizados en las guías de documentación de Informatica en la
versión 10.4.1.

Data Privacy Management


A partir de la versión 10.4.1, las notas de la versión y la guía de la versión de Data Privacy Management se
han fusionado con las notas de la versión y la guía de la versión de Informatica.

En la guía de la versión de Informatica, encontrará información sobre las características nuevas y las
modificadas de Data Privacy Management y, en las notas de la versión de Informatica, encontrará
información sobre los problemas solucionados y las limitaciones conocidas de Data Privacy Management.

Antes, Data Privacy Management tenía unas notas de la versión y una guía de versión independientes.

Test Data Management


A partir de la versión 10.4.1, las notas de la versión y la guía de la versión de Test Data Management se han
fusionado con las notas de la versión y la guía de la versión de Informatica.

En la guía de la versión de Informatica, encontrará información sobre las características nuevas y las
modificadas de Test Data Management y, en las notas de la versión de Informatica, encontrará información
sobre los problemas solucionados y las limitaciones conocidas de Test Data Management.

Antes, Test Data Management tenía unas notas de la versión y una guía de versión independientes.

Seguridad del dominio


En esta sección se describen los cambios realizados en la seguridad del dominio de Informatica en la versión
10.4.1.

Habilitar el acceso a un dominio habilitado para Kerberos


A partir de la versión 10.4.1, es necesario añadir entradas DNS al archivo krb5.conf cuando el dominio de
Informatica esté habilitado para Kerberos. Con las entradas para dns_lookup_kdc y dns_lookup_realm, los
clientes de Kerberos pueden localizar los KDC y el dominio Kerberos.

Antes, estas entradas no eran necesarias.

Para más información, consulte la sección sobre cómo establecer el archivo de configuración de Kerberos en
la Guía de seguridad de Informatica.

Enterprise Data Catalog


En esta sección se describen los cambios que se han realizado en la versión 10.4.1 de Enterprise Data
Catalog.

138 Capítulo 14: Cambios en la versión 10.4.1


Página de resumen de cambios
A partir de la versión 10.4.1, puede exportar, ordenar y filtrar la lista de notificaciones del resumen de
cambios. La lista se puede filtrar en función de los tipos de activos y la hora de las exploraciones.
Anteriormente, se podía ver la lista de notificaciones del resumen de cambios y se podía filtrar la lista por la
hora de las exploraciones de los recursos.

Para obtener más información, consulte el capítulo "Colaboración del usuario en activos" en la Guía de
Informatica 10.4.1 Enterprise Data Catalog.

Exportar datos de activos a un archivo de extracción de datos de


Tableau
A partir de la versión 10.4.1, esta característica incluye los siguientes cambios:

• La opción Exportar se puede utilizar para exportar los datos de activos a un archivo de extracción de
datos de Tableau si tiene el permiso Todos los permisos o Lectura de datos y metadatos para los
recursos. Antes, los usuarios no necesitaban permisos ni privilegios para utilizar la opción Exportar para
exportar los datos de activos a un archivo de extracción de datos de Tableau.
• La propiedad personalizada LdmCustomOptions.enableTDEExport se puede configurar para el servicio de
catálogo y se puede establecer el valor en false en Informatica Administrator para ocultar la opción
Exportar en el catálogo para todos los usuarios, independientemente de los permisos asignados. Antes,
todos los usuarios del catálogo podían ver la opción Exportar.
Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.4.1.

Exportar la ruta de los activos


A partir de la versión 10.4.1, puede ver la ruta a los activos cuando se exportan activos de los recursos de
Business Glossary, Axon Glossary, Data Domain y Domain User. Antes, el archivo CSV exportado no incluía la
ruta a los activos de estos recursos.

Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.4.1.

Mostrar términos empresariales activos


A partir de la versión 10.4.1, puede elegir si desea mostrar los términos empresariales activos de la lista de
glosarios en el cuadro de diálogo Añadir título empresarial. Antes, la lista de glosarios mostraba los
términos empresariales inactivos junto con los activos.

Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica 10.4.1 Enterprise Data Catalog.

Ordenar los activos de campo y columna


A partir de la versión 10.4.1, puede ordenar los activos de columna y campo delimitado por la posición de
origen en las fichas Columnas y Campos. Antes, los activos de columna y campo delimitado aparecían en
orden ascendente o descendente independientemente de su posición en el origen de datos.

Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.1 Enterprise Data Catalog.

Enterprise Data Catalog 139


Nombre de la ficha de inicio en Catalog Administrator
A partir de la versión 10.4.1, la ficha Inicio cambia su nombre a Resumen en Catalog Administrator.

Para obtener más información, consulte la Guía del administrador de Informatica 10.4.1 Catalog.

Informatica Developer
En esta sección se describen los cambios realizados en Informatica Developer en la versión 10.4.1.

Búsqueda de objetos relacionales


A partir de la versión 10.4.1, se han mejorado las búsquedas relacionales en Developer tool.

Cuando crea un objeto de datos relacional, puede buscar los esquemas disponibles en la conexión.
Developer tool muestra el número de esquemas disponibles y el número de tablas que coinciden con la
búsqueda. La lista de recursos disponibles está organizada por tipo de recurso. Los tipos que no tengan
miembros no aparecerán en la lista. Por ejemplo, si el recurso no contiene vistas, el nodo Vistas no se
mostrará en la lista de selección.

Para obtener más información, consulte la sección sobre cómo importar un objeto de datos relacional en la
Guía de Developer Tool.

Ver el plan de ejecución


A partir de la versión 10.4.1, puede ver el plan de ejecución para las asignaciones que se ejecutan en el
entorno no nativo desde la asignación.

Antes, el plan de ejecución se veía desde la vista Visor de datos.

Para obtener más información, consulte el capítulo sobre planes de ejecución de asignaciones en la Guía del
usuario de Data Engineering Integration 10.4.1.

Metadata Manager
En esta sección se describen los cambios introducidos en Metadata Manager en la versión 10.4.1.

Ver el linaje de datos en HTML 5


A partir de la versión 10.4.1, puede ver el diagrama de linaje de datos en HTML 5.

Antes, podía verlo en el reproductor de Adobe Flash.

Para obtener más información, consulte el capítulo "Trabajar con linajes de datos" de la Guía del usuario de
Informatica 10.4.1 Metadata Manager.

140 Capítulo 14: Cambios en la versión 10.4.1


Test Data Management
En esta sección se describen los cambios introducidos en Test Data Management en la versión 10.4.1.

Programa de instalación de Test Data Management


A partir de la versión 10.4.1, el programa de instalación de Test Data Management se incluye en el programa
de instalación de servicios de Informatica. Los archivos binarios de Test Data Management se instalan tanto
con productos tradicionales como con productos de Data Engineering.

Para instalar Test Data Management, elige instalar los servicios de Informatica en las opciones de
instalación de producto disponibles.

Antes, el programa de instalación de Test Data Management era un programa independiente. Podías elegir la
opción de instalación necesaria en las opciones de instalación disponibles de Test Data Management.

Para información sobre cómo instalar Test Data Management, consulte Instalación de Informatica para
PowerCenter y Data Quality e Instalación de Informatica para Data Engineering.

Si desea información sobre cómo configurar Test Data Management, consulte la Guía de configuración de
Test Data Management .

Test Data Management 141


Parte IV: Versiones 10.4-10.4.0.2
Esta parte incluye los siguientes capítulos:

• Versión 10.4.0.2, 143


• Versión 10.4.0.1, 144
• Avisos importantes de la versión 10.4, 148
• Novedades de la versión 10.4, 156
• Cambios en la versión 10.4, 185

142
Capítulo 15

Versión 10.4.0.2
• Novedades, 143

Novedades
Lea esta sección para conocer las novedades de la versión 10.4.0.2.

Actualizar la versión de distribución de clústeres


A partir de la versión 10.4.0.2, puede utilizar el comando infacmd dis updateClusterDistributionVersion para
actualizar la versión de distribución para tareas de creación de clústeres en flujos de trabajo.

Cuando aplique el service pack 10.4.0.2, la propiedad de versión del clúster de la tarea de creación de clúster
no se actualiza a la última versión compatible. Utilice el comando para actualizar la versión de distribución
del clúster para todos los flujos de trabajo en una aplicación.

Si necesita más información, consulte el artículo de la Base de conocimiento


"HOW TO: Update cluster distribution version after you apply service pack 10.4.0.2".

143
Capítulo 16

Versión 10.4.0.1
Este capítulo incluye los siguientes temas:

• Avisos importantes, 144


• Novedades , 145
• Cambios, 146

Avisos importantes

Eliminación de vista previa técnica


A partir de la versión 10.4.0.1, las siguientes funciones se eliminan de la vista previa técnica:

Tabla delta de Databricks como destino de asignación de transmisión

Para Data Engineering Streaming, puede utilizar una tabla delta de Databricks como destino de una
asignación de transmisión para la ingesta de datos de transmisión.

Asignación de transmisión dinámica

Puede configurar asignaciones de transmisión dinámicas para cambiar orígenes y destinos Kafka en
tiempo de ejecución basándose en los parámetros y las reglas que defina en un Confluent Schema
Registry.

Hive Warehouse Connector y LLAP de Hive

Para los productos de Data Engineering, utilice Hive Warehouse Connector y LLAP de Hive con clústeres
de Azure HDInsight 4.x y Hortonworks HDP 3.x para habilitar el código de Spark para que interactúe con
las tablas de Hive y permitir las tablas de Hive habilitadas para ACID en el motor de Spark.

Para obtener más información, consulte el capítulo de optimizaciones de asignaciones en la Guía del
usuario de Data Engineering Integration 10.4.1.

Snowflake como destino de asignación de transmisión

Para Data Engineering Streaming, puede configurar Snowflake como destino en una asignación de
transmisión para escribir datos en Snowflake.

144
Novedades

Data Engineering Integration


En esta sección se describen las nuevas características de Data Engineering Integration en la versión
10.4.0.1.

Recomendaciones y conclusiones de CLAIRE


A partir de la versión 10.4.0.1, puede ejecutar análisis de CLAIRE en asignaciones individuales que seleccione
en grupo.

Puede seleccionar a la vez más de una asignación y, a continuación, hacer clic con el botón derecho y elegir
Analizar para leer datos de CLAIRE sobre similitudes entre las asignaciones seleccionadas.

Anteriormente, los análisis solo se podían ejecutar en un proyecto o una carpeta.

Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.4.0.1.

Nuevos recursos
A partir de la versión 10.4.0.1, los siguientes recursos nuevos se añaden a Enterprise Data Catalog:

• Apache Kafka
• Qlik Sense
• MongoDB

Puede extraer información de metadatos, relaciones y linaje de todos estos recursos. Para obtener más
información, consulte la Guía de configuración del escáner de Informatica 10.4.0.1 Enterprise Data Catalog.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica de la versión 10.4.0.1.

PowerExchange for Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.4.0.1, cuando crea una operación de lectura o escritura de un objeto de datos, puede
leer los datos presentes en el puerto FileName que contiene el nombre del extremo y la ruta de origen del
archivo.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.

Novedades 145
Cambios

Enterprise Data Catalog


En esta sección se describen los cambios introducidos en Enterprise Data Catalog en la versión 10.4.0.1.

Vista compacta
A partir de la versión 10.4.0.1, puede ver la lógica de transformación en la vista compacta. Anteriormente, no
era posible ver la lógica de transformación en esta vista.

Para obtener más información, consulte la Guía del usuario de Informatica® 10.4.0 Enterprise Data Catalog.

Data Engineering Integration


En esta sección se describen los cambios introducidos en Data Engineering Integration en la versión
10.4.0.1.

Vista previa de datos en el motor de Spark


A partir de la versión 10.4.0.1, puede utilizar HTTPS cuando obtenga una vista previa de los datos en el motor
de Spark mediante el servidor de trabajos de Spark.

Si habilita el protocolo HTTPS en el servicio de integración de datos, el servidor de trabajos de Spark también
utilizará este protocolo. El servidor de trabajos de Spark utiliza la misma configuración de almacén de claves
HTTPS que ha establecido en las propiedades del proceso del servicio de integración de datos en la
Herramienta del administrador.

Para obtener más información, consulte la Guía del servicio de aplicación de Informatica® 10.4.0.

Hive Warehouse Connector y LLAP de Hive


A partir de la versión 10.4.0.1, puede habilitar Hive Warehouse Connector y LLAP de Hive cuando ejecute las
asignaciones en el motor de Spark. Anteriormente, estos estaban disponibles para una vista previa técnica.

Utilice Hive Warehouse Connector y LLAP de Hive para ejecutar con mayor rapidez las consultas de Hive
cuando lea tablas de Hive y escriba en ellas con el motor de Spark. Puede usar Hive Warehouse Connector y
LLAP de Hive con clústeres de Hortonworks HDP 3.x y Microsoft Azure HDInsight 4.x en el motor de Spark.

Para habilitar Hive Warehouse Connector y LLAP de Hive, configure las siguientes propiedades avanzadas de
Spark para la conexión de Hadoop:

• infaspark.useHiveWarehouseAPI=true
• spark.datasource.hive.warehouse.load.staging.dir=<Directorio temporal de HDFS para
escribir en tablas de Hive>
• spark.datasource.hive.warehouse.metastoreUri=<URI para el metastore de Hive>
Use el valor para hive.metastore.uris de las propiedades de configuración del clúster hive_site_xml.
• spark.hadoop.hive.llap.daemon.service.hosts=<Nombre de aplicación para el servicio de
LLAP>
Use el valor para hive.llap.daemon.service.hosts de las propiedades de configuración del clúster
hive_site_xml.
• spark.hadoop.hive.zookeeper.quorum=<Hosts de Zookeeper que utiliza LLAP de Hive>

146 Capítulo 16: Versión 10.4.0.1


Use el valor para hive.zookeeper.quorum de las propiedades de configuración del clúster hive_site_xml.
• spark.sql.hive.hiversever2.jdbc.url=<URL de HiveServer2 Interactive.
Use el valor en Ambari para HiveServer2 JDBC URL.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica de la versión
10.4.0.1.

PowerExchange for Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.4.0.1, aparece el puerto FileName para los orígenes y los destinos que se utilizan en
las asignaciones dinámicas de 10.4.0 existentes. Para ejecutar las asignaciones dinámicas existentes
correctamente, añada transformaciones como la expresión para eliminar el puerto FileName desde los
objetos de origen y destino.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.

Cambios 147
Capítulo 17

Avisos importantes de la versión


10.4
Este capítulo incluye los siguientes temas:

• Nuevos productos, 148


• Cambios de nombre de producto, 150
• Actualizar a la versión 10.4.0, 150
• Cambios en la compatibilidad, 151
• Tareas de la versión, 154

Nuevos productos

Adaptadores de PowerExchange para Informatica


En esta sección se describen los nuevos adaptadores de Informatica de la versión 10.4.0.

PowerExchange for JDBC V2


A partir de la versión 10.4.0, se puede crear una conexión JDBC V2 para conectar con Aurora PostgreSQL,
Azure SQL Database o cualquier base de datos que admita el controlador JDBC de tipo 4. Debe seleccionar el
subtipo de base de datos requerido en las propiedades de conexión de JDBC V2. Puede utilizar la conexión
JDBC V2 en asignaciones para leer o escribir datos en bases de datos con el controlador JDBC de tipo 4.
Puede validar y ejecutar asignaciones JDBC V2 en el entorno nativo o en el entorno no nativo. En el entorno
no nativo, puede ejecutar asignaciones en el motor de Spark en el entorno Hadoop o en Databricks.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for JDBC
V2.

PowerExchange for Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.4.0, se puede crear una conexión Microsoft Azure Data Lake Storage Gen2 para
conectar con Microsoft Azure Data Lake Storage Gen2. Puede utilizar la conexión Microsoft Azure Data Lake
Storage Gen2 en asignaciones para leer o escribir en objetos de Microsoft Azure Data Lake Storage Gen2.
Puede validar y ejecutar asignaciones Microsoft Azure Data Lake Storage Gen2 en el entorno nativo o en el

148
entorno no nativo. En el entorno no nativo, puede ejecutar asignaciones en el motor de Spark en el entorno
Hadoop o en Databricks.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen2.

PowerExchange for Salesforce Marketing Cloud


A partir de la versión 10.4.0, se puede crear una conexión Salesforce Marketing Cloud para conectar con
Salesforce Marketing Cloud. Puede utilizar la conexión Salesforce Marketing Cloud en asignaciones para leer
o escribir datos de contactos en Salesforce Marketing Cloud. Utilice las extensiones de datos de Salesforce
Marketing Cloud como orígenes o destinos en una asignación. Puede validar y ejecutar asignaciones de
Salesforce Marketing Cloud en el entorno nativo.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce Marketing Cloud.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los nuevos adaptadores de PowerCenter en la versión 10.4.0.

PowerExchange for Db2 Warehouse


A partir de la versión 10.4.0, se puede crear una conexión Db2 Warehouse para conectarse a IBM Db2
Warehouse desde PowerCenter. Puede importar objetos de Db2 Warehouse como orígenes y destinos para
crear asignaciones, y ejecutar una sesión para leer o escribir datos en Db2 Warehouse.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Db2
Warehouse.

PowerExchange for Microsoft Dynamics 365 for Sales


A partir de la versión 10.4.0, se puede crear una conexión Microsoft Dynamics 365 for Sales para conectar
con Microsoft Dynamics 365 for Sales desde PowerCenter. Puede importar objetos de Microsoft Dynamics
365 for Sales como orígenes y destinos para crear asignaciones, y ejecutar una sesión para extraer datos de
lectura de Microsoft Dynamics 365 for Sales o escribir datos en él. Al utilizar objetos de Microsoft Dynamics
365 for Sales en asignaciones, puede configurar propiedades específicas de Microsoft Dynamics 365 for
Sales.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Dynamics 365 for Sales.

PowerExchange for PostgreSQL


A partir de la versión 10.4.0, se puede crear una conexión PostgreSQL para conectar con Aurora PostgreSQL
desde PowerCenter. Puede importar objetos de PostgreSQL como orígenes y destinos para crear
asignaciones, y ejecutar una sesión para extraer datos de lectura de PostgreSQL o escribir datos en él. Al
utilizar objetos de PostgreSQL en asignaciones, puede configurar propiedades específicas de PostgreSQL.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
PostgreSQL.

Nuevos productos 149


Cambios de nombre de producto
A partir de la versión 10.4.0, Informatica implementó algunos cambios de nombres.

La familia de productos Big Data ha cambiado a Data Engineering. Se han modificado los siguientes nombres
de producto:

• Big Data Management ha cambiado a Data Engineering Integration.


• Big Data Quality ha cambiado a Data Engineering Quality.
• Big Data Streaming ha cambiado a Data Engineering Streaming.
• Big Data Masking ha cambiado a Data Engineering Masking.

Enterprise Data Catalog y Enterprise Data Preparation están alineados dentro de la familia de productos de
Data Catalog.

Actualizar a la versión 10.4.0


Cambios del programa de instalación
A partir de la versión 10.4.0, el programa de instalación de Informatica presenta los siguientes cambios:

• El programa de instalación de la versión 10.4.0 se puede ejecutar para instalar productos tradicionales, de
Data Engineering y de Data Catalog. Aunque los productos tradicionales se pueden instalar en el mismo
dominio que los de Data Engineering y Data Catalog, Informatica recomienda hacerlo en dominios
independientes.
• El programa de instalación de la versión 10.4.0 se puede ejecutar para actualizar productos tradicionales,
de Data Engineering y de Data Catalog.
• Al crear un dominio, puede optar por crear también el servicio de repositorio de PowerCenter y el servicio
de integración de PowerCenter.

A partir de la versión 10.4.0, las actualizaciones de Informatica presentan el siguiente cambio:

• El servicio de búsqueda crea una carpeta de índice y vuelve a indexar los objetos de búsqueda. Por lo
tanto, no es necesario volver a indexar después de actualizar.

Ejecutar asignaciones con alta o baja precisión


A partir de la versión 10.2.2, las asignaciones que utilicen el motor de Spark se ejecutarán en modo de alta
precisión de forma predeterminada.

La configuración de alta precisión se puede deshabilitar en Developer tool en los ajustes avanzados de las
configuraciones de tiempo de ejecución de las asignaciones:

1. En Developer tool, seleccione Ventana > Preferencias.


2. Seleccione Informatica > Ejecutar configuraciones > Asignación.
3. Seleccione la ficha Avanzado.
4. Anule la selección de Alta precisión.

Es posible que quiera llevar a cabo este cambio para ejecutar asignaciones en el motor de Spark que se
hayan desarrollado en una versión anterior y que prefiera ejecutar con baja precisión. En algunos casos,
como una asignación en la que no se especifica la escala, las asignaciones generan errores en la
configuración predeterminada de alta precisión y se requiere una baja precisión para ejecutarla.

150 Capítulo 17: Avisos importantes de la versión 10.4


A partir de la versión 10.4.0, los siguientes cambios adicionales afectan a las asignaciones que se ejecutan
en el motor de Spark:

• La conversión de decimal a cadena ya no anexa un decimal a los números enteros. Por ejemplo, el valor
de entero 1 en formato decimal sigue siendo "1" en el formato de cadena.
• En la conversión de decimal a cadena, se eliminan los ceros al final que aparecen tras la coma decimal.
Por ejemplo, el valor de 1 000 en formato decimal se convierte en "1" en formato de cadena.
• Cuando se ejecuta una asignación en modo de baja precisión, la conversión de decimal a cadena de una
configuración de precisión de más de 15 deriva en una notación exponencial.

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.4.0.

Versión preliminar técnica Compatibilidad


Vista previa técnica iniciada
A partir de la versión 10.4.0, Informatica incluye las siguientes funcionalidades para la vista previa técnica:
Conectar con una cadena de bloques

Para Data Engineering Integration, puede conectarse a una cadena de bloques para utilizar orígenes y
destinos de cadena de bloques en asignaciones que se ejecutan en el motor de Spark.

Vista previa de los datos con el servicio de integración de datos ejecutándose en una cuadrícula

Para Data Engineering Integration, puede ver previamente los datos jerárquicos en el motor de Spark
cuando el servicio de integración de datos se ejecuta en una cuadrícula.

Tabla delta de Databricks como destino de asignación de transmisión

Para Data Engineering Streaming, puede utilizar una tabla delta de Databricks como destino de una
asignación de transmisión para la ingesta de datos de transmisión.

Asignación de transmisión dinámica


Puede configurar asignaciones de transmisión dinámicas para cambiar orígenes y destinos Kafka en
tiempo de ejecución basándose en los parámetros y las reglas que defina en un Confluent Schema
Registry.

Entrada HL7 en modelos de estructura inteligente

Intelligent Structure Discovery puede procesar entradas HL7.

Transformación de Python en Databricks

Para Data Engineering Integration, puede incluir la transformación de Python en asignaciones


configuradas para ejecutarse en el motor de Databricks Spark.

Snowflake como destino de asignación de transmisión

Para Data Engineering Streaming, puede configurar Snowflake como destino en una asignación de
transmisión para escribir datos en Snowflake.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las

Cambios en la compatibilidad 151


circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Eliminación de vista previa técnica


A partir de la versión 10.4.0, las siguientes funciones se eliminan de la vista previa técnica:

Vista previa de datos en el motor de Spark

En Data Engineering Integration, se puede obtener una vista previa de los datos de una asignación que
se ejecuta en el motor de Spark desde Developer tool en asignaciones configuradas para ejecutarse con
Amazon EMR, Cloudera CDH y Hortonworks HDP. La vista previa de datos en asignaciones configuradas
para ejecutarse con Azure HDInsight y MapR sigue estando disponible para la vista previa técnica.

PowerExchange for Amazon S3

Para Data Engineering Integration, puede utilizar modelos de estructura inteligente al importar un objeto
de datos.

PowerExchange for Microsoft Azure Cosmos DB SQL API

Para Data Engineering Integration, puede desarrollar y ejecutar asignaciones en el entorno de Azure
Databricks.

PowerExchange for Microsoft Azure SQL Data Warehouse

Para Data Engineering Integration, puede utilizar las siguientes funciones:

• Crear y ejecutar asignaciones dinámicas.


• Utilice la optimización de inserciones completa cuando una conexión ODBC se use para conectar con
una base de datos de Microsoft Azure SQL Data Warehouse.

Conexiones Kafka habilitadas para SSL

Para Data Engineering Streaming, puede utilizar conexiones Kafka habilitadas para SSL para
asignaciones de transmisión.

Aplazamiento
En esta sección, se describen los cambios en el aplazamiento de la versión 10.4.0.

Eliminación del aplazamiento


A partir de la versión 10.4.0, las siguientes funciones ya no están aplazadas:

• Transformación de enmascaramiento de datos en asignaciones de transmisión.


• Autenticación entre dominios Kerberos.
• Estadísticas de supervisión para trabajos de supervisión.

Compatibilidad cancelada
A partir de la versión 10.4.0, Informatica ya no ofrece compatibilidad con Solaris. Si utiliza Solaris,
Informatica requiere que se actualice y utilice un sistema operativo compatible.

Para obtener más información sobre cómo actualizarse a un sistema operativo compatible, consulte las
guías de actualización de Informatica 10.4.0. Para obtener información sobre los sistemas operativos
compatibles, consulte la tabla de disponibilidad de productos en Informatica Network:

https://network.informatica.com/community/informatica-network/product-availability-matrices

152 Capítulo 17: Avisos importantes de la versión 10.4


PowerCenter
En esta sección se describen los cambios de compatibilidad con PowerCenter en la versión 10.4.0.

Conectividad
En esta sección, se describen los cambios en la compatibilidad de conectividad de la versión 10.4.0.

Licencias para SAP HANA


A partir de la versión 10.4.0, es necesaria una licencia de SAP HANA para leer datos de orígenes SAP HANA y
escribir datos en destinos SAP HANA.

En la conexión ODBC, si ODBC subtype no está establecido en SAP HANA y la licencia de SAP HANA no está
disponible, se produce un error en las sesiones en tiempo de ejecución.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HANA 10.4.0
para PowerCenter.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los cambios de compatibilidad realizados en los adaptadores de PowerCenter
en la versión 10.4.0.

PowerExchange for SAP NetWeaver


A partir de la versión 10.4.0, PowerExchange for SAP NetWeaver incluye los siguientes cambios:

• Informatica ya no ofrece compatibilidad con los transportes que no sean Unicode.


Anteriormente, Informatica admitía los transportes que no eran Unicode.
• Informatica envía los transportes para las versiones 5.0 y posteriores de Unicode de SAP en las
siguientes carpetas:
• Coarchivos
de Unicode: archivo zip del programa de instalación de Informatica/saptrans/
mySAP/cofiles
• Archivos
de datos de Unicode: archivo zip del programa de instalación de Informatica/
saptrans/mySAP/data
Anteriormente, Informatica empaquetaba los transportes para las versiones 5.0 y posteriores de Unicode
de SAP en las siguientes carpetas:
• Coarchivos
de Unicode: Archivo zip del programa de instalación de Informatica/saptrans/
mySAP/UC/cofiles
• Archivos
de datos de Unicode: Archivo zip del programa de instalación de Informatica/
saptrans/mySAP/UC/data
• Informatica ya no ofrece compatibilidad con la lectura de datos de tablas SAP mediante transmisiones
HTTP/HTTPS con PowerExchange for SAP NetWeaver. Utilice el extractor de tablas ABAP dinámicas de
PowerExchange for SAP para leer datos de tablas SAP mediante transmisiones HTTP/HTTPS.
Anteriormente, Informatica admitía la lectura de datos de tablas SAP mediante transmisiones HTTP/
HTTPS con PowerExchange for SAP NetWeaver.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for SAP
NetWeaver y el aviso de instalación para las versiones de transporte de PowerExchange for SAP NetWeaver
10.4.0.

Cambios en la compatibilidad 153


Adaptadores de PowerExchange para Informatica
En esta sección se describen los cambios de compatibilidad realizados en los adaptadores de Informatica en
la versión 10.4.0.

PowerExchange for SAP NetWeaver


A partir de la versión 10.4.0, PowerExchange for SAP NetWeaver incluye los siguientes cambios:

• Informatica envía los transportes para las versiones 5.0 y posteriores de Unicode de SAP en las
siguientes carpetas:
- Coarchivos de Unicode: archivo zip del programa de instalación de Informatica/saptrans/
mySAP/cofiles
- Archivos de datos de Unicode: archivo zip del programa de instalación de Informatica/
saptrans/mySAP/data
Anteriormente, Informatica empaquetaba los transportes para las versiones 5.0 y posteriores de Unicode
de SAP en las siguientes carpetas:
• Coarchivos
de Unicode: Archivo zip del programa de instalación de Informatica/saptrans/
mySAP/UC/cofiles
• Archivos
de datos de Unicode: Archivo zip del programa de instalación de Informatica/
saptrans/mySAP/UC/data

Para obtener más información, consulte el aviso de instalación para las versiones de transporte de
PowerExchange for SAP NetWeaver 10.4.0.

Tareas de la versión
En esta sección se describen tareas de la versión 10.4.0. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.4.0.

Data Engineering Integration


En esta sección se describen las tareas de la versión de Data Engineering Integration en la versión 10.4.0.

Transformación de Python
A partir de la versión 10.4.0, el componente de código Python en la transformación de Python se divide en las
siguientes fichas:

• Previo a la entrada. Define el código que puede interpretarse una vez y compartirse entre todas las filas
de datos.
• En entrada. Define el comportamiento de una transformación de Python cuando recibe una fila de entrada
mientras procesa una partición.
• Al final. Define el comportamiento de una transformación de Python después de procesar todos los datos
de entrada de una partición.
En las asignaciones actualizadas, el código que haya introducido en el componente de código Python
aparece en la ficha En entrada.

154 Capítulo 17: Avisos importantes de la versión 10.4


Revise el código para comprobar que funciona según lo esperado. Si es necesario, refactorice el código
utilizando las fichas Previo a la entrada, En entrada y Al final.

Para obtener información sobre cómo configurar el código en cada ficha, consulte el capítulo
"Transformación de Python" en la Guía del usuario de Informatica Data Engineering Integration 10.4.0.

Tareas de la versión 155


Capítulo 18

Novedades de la versión 10.4


Este capítulo incluye los siguientes temas:

• CI/CD, 156
• Programas de la línea de comandos, 161
• Data Engineering Integration, 162
• Data Engineering Streaming , 166
• Enterprise Data Catalog, 168
• Enterprise Data Preparation, 173
• Asignaciones de Informatica , 174
• Transformaciones de Informatica, 176
• Flujos de trabajo de Informatica, 176
• Instalación de Informatica, 176
• Modelo de estructura inteligente, 177
• PowerCenter, 178
• Adaptadores de PowerExchange, 179
• Seguridad, 184

CI/CD
En esta sección se describen las mejoras realizadas en CI/CD en la versión 10.4.0.

CI/CD, o integración continua y entrega continua, es una práctica que automatiza las operaciones de
integración y entrega en un canal de CI/CD. En la versión 10.4.0, puede incorporar las mejoras en su canal de
CI/CD para mejorar la forma en que implementa, prueba y proporciona objetos en el entorno de producción.

API de REST del servicio de integración de datos


A partir de la versión 10.4.0, puede utilizar la API de REST del servicio de integración de datos para
automatizar tareas en un canal de CI/CD.

Algunas de las tareas que puede automatizar la API de REST incluyen las siguientes:

Consultar objetos.

Consultar objetos, incluidos los objetos en tiempo de diseño en un repositorio de modelos y objetos en
tiempo de ejecución que se implementan en un servicio de integración de datos.

156
Puede pasar la consulta a otras solicitudes de la API de REST. Por ejemplo, puede pasar una consulta a
una operación de control de versiones para realizar un control de versiones en un conjunto de objetos
específico. También puede pasar una consulta para implementar objetos en tiempo de diseño
específicos en un archivo de almacenamiento de revisiones de aplicación.

Realizar operaciones de control de versiones.

Realice operaciones de control de versiones para proteger, desproteger, deshacer una desprotección o
reasignar un objeto en tiempo de diseño desprotegido a otro desarrollador.

Administrar etiquetas.

Administre las etiquetas asignadas a objetos en tiempo de diseño. Puede asignar una nueva etiqueta o
sustituir las etiquetas de un objeto. También puede eliminar las etiquetas de un objeto.

Actualizar aplicaciones.

Implemente objetos en tiempo de diseño en un archivo de almacenamiento de revisiones de aplicación e


implemente el archivo en un servicio de integración de datos para actualizar una aplicación incremental
implementada.

Administrar aplicaciones.

Inicie, anule la implementación o detenga una aplicación en función de los requisitos del proyecto o de
la organización.

Ejecutar asignaciones implementadas.

Ejecute una asignación implementada para probar la salida de la aplicación.

Comparar asignaciones.

Compare dos asignaciones en el mismo dominio.

Por ejemplo, puede comparar dos asignaciones en tiempo de diseño o una asignación en tiempo de
diseño y otra en tiempo de ejecución.

Para ver las solicitudes de API de REST que puede utilizar y los parámetros de cada solicitud, acceda a la
documentación de API de REST a través de las propiedades de proceso del servicio de integración de datos o
las propiedades del servicio del concentrador de operaciones REST en la Herramienta del administrador.

En comparación con los programas de línea de comandos infacmd, la API de REST no tiene ningún requisito
de configuración y puede ejecutarla en entornos sin servicios de Informatica instalados en el equipo cliente.

Para obtener información sobre la API de REST, consulte el capítulo "API de REST del servicio de integración
de datos" en la Guía del servicio de aplicación de Informatica 10.4.0.

Comandos infacmd dis


A partir de la versión 10.4.0, puede utilizar los comandos infacmd dis para realizar operaciones en objetos en
tiempo de diseño, en objetos en tiempo de ejecución en una aplicación y en asignaciones implementadas.

CI/CD 157
También puede utilizar los comandos infacmd dis para ejecutar utilidades del servicio de integración de
datos.

La siguiente tabla describe los nuevos comandos infacmd dis:

Comando Descripción

compareMappi Compara dos asignaciones consultadas. Consulte las asignaciones para comparar propiedades de
ng asignación, propiedades de transformación y puertos en transformaciones. Para consultar
asignaciones de tiempo de diseño, especifique el repositorio de modelos de tiempo de diseño. Para
consultar asignaciones de tiempo de ejecución, no especifique un repositorio de modelos. La
consulta utilizará el servicio de integración de datos que especifique para ejecutar el comando.

deployObjects Implementa los objetos en tiempo de diseño para un archivo de almacenamiento de revisión de
ToFile aplicación.

queryDesignTi Consulta los objetos en tiempo de diseño de un servicio de repositorio de modelos.


meObjects

queryRunTime Consulta los objetos en tiempo de ejecución que están implementados en un servicio de integración
Objects de datos y devuelve una lista de objetos.

replaceAllTag Reemplaza las etiquetas con las etiquetas especificadas en los objetos consultados en el servicio
de repositorio de modelos.

tag Asigna una etiqueta en los objetos consultados en el servicio de repositorio de modelos.

untag Elimina una etiqueta en los objetos consultados en el servicio de repositorio de modelos.

listPatchName Enumera todas las revisiones que se han realizado a una aplicación incremental.
s

Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comandos de Informatica® 10.4.0.

Servidor proxy inverso


A partir de la versión 10.4.0, se puede utilizar el concentrador de operaciones REST para iniciar el servidor
proxy inverso que realiza el equilibrio de carga para las solicitudes de API del servicio de integración de
datos en los nodos de una cuadrícula del servicio de integración de datos.

El concentrador de operaciones REST está habilitado para cuadrículas.

Para obtener información acerca del servidor proxy inverso, consulte el capítulo "Servicios del sistema" en la
Guía del servicio de aplicación de Informatica 10.4.0.

158 Capítulo 18: Novedades de la versión 10.4


Comandos infacmd roh
A partir de la versión 10.4.0, puede utilizar los siguientes comandos infacmd roh para actualizar el proceso
del servicio del concentrador de operaciones REST.

En la siguiente tabla se describen los nuevos comandos infacmd roh:

Comandos Descripción

listReverseProxyServerOptions Enumera las propiedades del servidor proxy inverso.

listServiceProcessOptions Enumera las propiedades del proceso del servicio del concentrador de
operaciones REST.

updateServiceOptions Actualiza las propiedades del servicio del concentrador de operaciones REST.

updateReverseProxyServerOption Actualiza las propiedades del servidor proxy inverso en el dominio.


s

A partir de la versión 10.4.0, se ha cambiado el nombre de los siguientes comandos infacmd roh:

• listROHProperties a listProcessProperties.
• updateROHService a updateServiceProcessOptions.

Nota: Actualice todos los scripts que utilice con el nombre de comando anterior.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd roh" en la Referencia
de comandos de Informatica 10.4.0.

Implementación de revisiones de la aplicación


A partir de la versión 10.4.0, la implementación de revisiones de la aplicación tiene nuevas funciones en las
siguientes áreas:

Asistente de implementación incremental


A partir de la versión 10.4.0, se pueden realizar las siguientes tareas en el asistente de implementación
incremental:

• De forma opcional, puede introducir una descripción de la revisión.


• De forma opcional, puede optar por conservar o descartar la información de estado.
La información de estado hace referencia a las propiedades de la asignación y las propiedades de los
objetos en tiempo de ejecución, tales como las salidas de asignación o la transformación de generador
de secuencia.
Para obtener más información sobre el asistente de implementación incremental, consulte el capítulo
"Implementación de revisiones de la aplicación" en la Guía de Informatica 10.4.0 Developer Tool.

Para obtener más información sobre la información de estado, consulte el capítulo "Implementación de
aplicaciones" en la Guía de Informatica 10.4.0 Developer Tool.

Historial de revisiones
A partir de la versión 10.4.0, el historial de revisiones en el asistente de implementación incremental muestra
tanto el nombre como la descripción de las revisiones que se implementaron para actualizar la aplicación
incremental. La hora de creación de la revisión se anexa al principio de la descripción de la revisión.

Además, puede utilizar la Herramienta del administrador para ver el historial de revisiones de una aplicación
incremental implementada.

CI/CD 159
Para obtener más información sobre el historial de revisiones, consulte el capítulo "Implementación de
revisiones de la aplicación" en la Guía de Informatica 10.4.0 Developer Tool.

Para obtener más información sobre las aplicaciones implementadas, consulte el capítulo "Aplicaciones del
servicio de integración de datos" en la Guía del servicio de aplicación de Informatica 10.4.0.

Archivos de almacenamiento de revisiones de aplicación


A partir de la versión 10.4.0, los archivos de almacenamiento de revisiones de aplicación también almacenan
la descripción de la revisión e indican si la información de estado se conserva.

Para obtener más información sobre el historial de revisiones, consulte el capítulo "Implementación de
revisiones de la aplicación" en la Guía de Informatica 10.4.0 Developer Tool.

Comandos infacmd tools


A partir de la versión 10.4.0, el comando infacmd tools patchApplication tiene la siguiente opción nueva:

Opción Argumento Descripción

-RetainStateInformation True | False Opcional. Indica si la información de estado se conserva o se descarta. La


-rsi información de estado hace referencia a las propiedades de la asignación y
las propiedades de los objetos en tiempo de ejecución, tales como las
salidas de asignación o la transformación de generador de secuencia.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd tools" en la Referencia
de comandos de Informatica 10.4.0.

Conexión a una aplicación en tiempo de ejecución


A partir de la versión 10.4.0, puede conectarse a una aplicación en tiempo de ejecución en Developer tool.
Después de conectarse a una aplicación en tiempo de ejecución, puede expandir la aplicación en la vista
Explorador de objetos y abrir copias de solo lectura de los objetos en tiempo de ejecución en el Editor.

Después de conectarse a una aplicación en tiempo de ejecución, las búsquedas que realice en Developer tool
pueden ubicar objetos en tiempo de ejecución en la aplicación.

Para obtener más información sobre la conexión a una aplicación en tiempo de ejecución y la visualización
de los objetos en tiempo de ejecución, consulte el capítulo "Implementación de aplicaciones" en la Guía de
Informatica 10.4.0 Developer Tool.

Vista Explorador de objetos


A partir de la versión 10.4.0, la vista Explorador de objetos de Developer tool muestra el dominio después de
que se conecte a un repositorio de modelos o a una aplicación en tiempo de ejecución. Puede expandir el
dominio para ver los objetos en tiempo de diseño en el repositorio de modelos o los objetos en tiempo de
ejecución en la aplicación en tiempo de ejecución.

160 Capítulo 18: Novedades de la versión 10.4


La siguiente imagen muestra la vista Explorador de objetos:

1. Dominio
2. Servicio de integración de datos
3. Aplicación en tiempo de ejecución
4. Repositorio de modelos

Para obtener más información sobre la interfaz de usuario de Developer tool, consulte el capítulo
"Informatica Developer" en la Guía de Informatica 10.4.0 Developer Tool.

Etiquetas
A partir de la versión 10.4.0, las etiquetas tienen la siguiente funcionalidad:

• Cuando implementa una asignación que está asociada a una etiqueta, la etiqueta se propaga a la versión
en tiempo de ejecución de la asignación en el servicio de integración de datos.
• Si actualiza la asignación implementada mediante una revisión de la aplicación, el nombre de la revisión
se asocia como una etiqueta a la versión en tiempo de ejecución de la asignación.
Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica 10.4.0
Developer Tool.

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.4.0.

Programas de la línea de comandos 161


Comandos infacmd isp
En la siguiente tabla se describen los nuevos comandos infacmd isp:

Comando Descripción

addCustomLDAPType Agrega un tipo LDAP personalizado que define un servicio de directorio de LDAP.

listAllCustomLDAPTypes Enumera la información de configuración de todos los tipos LDAP personalizados


utilizados por el dominio especificado.

listAllLDAPConnectivity Enumera la información de configuración de todas las configuraciones de LDAP utilizadas


por el dominio especificado.

listCustomLDAPType Enumera la información de configuración de un tipo LDAP personalizado.

removeCustomLDAPType Elimina el tipo LDAP personalizado especificado del dominio especificado.

removeLDAPConnectivity Elimina la configuración de LDAP especificada del dominio especificado.

updateCustomLDAPType Actualiza el tipo LDAP personalizado especificado.

updateLDAPConnectivity Actualiza la configuración de LDAP especificada.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.4.0.

Data Engineering Integration


En esta sección se describen las nuevas características de Data Engineering Integration en la versión 10.4.0.

Compatibilidad con nuevos tipos de datos


A partir de la versión 10.4.0, puede utilizar los siguientes tipos de datos nuevos para los archivos complejos:

• Cuando ejecuta una asignación que lee o escribe en objetos de archivos complejos de Avro y Parquet en
el entorno nativo o en el entorno Hadoop, puede utilizar los siguientes tipos de datos:
- Date

- Decimal

- Timestamp
• Puede utilizar el tipo de datos Time para leer y escribir en objetos de archivos complejos de Avro o
Parquet en el entorno nativo o en el motor de Blaze.
• Puede utilizar los tipos de datos Date, Time, Timestamp y Decimal cuando ejecuta una asignación en el
motor de Databricks Spark.
Los nuevos tipos de datos se aplican a los siguientes adaptadores:

• PowerExchange for HDFS


• PowerExchange for Amazon S3
• PowerExchange for Google Cloud Storage

162 Capítulo 18: Novedades de la versión 10.4


• PowerExchange for Microsoft Azure Blob Storage
• PowerExchange for Microsoft Azure Data Lake Storage Gen1
• PowerExchange for Microsoft Azure Data Lake Storage Gen2

Para obtener más información sobre los tipos de datos, consulte el capítulo "Referencia de tipos de datos" en
la Guía del usuario de Data Engineering Integration 10.4.0.

Integración de AWS Databricks


A partir de la versión 10.4.0, se puede integrar el dominio de Informatica con Databricks on AWS.

Puede utilizar AWS Databricks para ejecutar asignaciones con la siguiente funcionalidad:

• Puede ejecutar asignaciones en orígenes y destinos de Amazon Simple Storage Service (S3) y Amazon
Redshift dentro del entorno de Databricks.
• Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros mediante Databricks on AWS.
• Puede agregar la transformación de Python a una asignación configurada para ejecutarse en el motor de
Databricks Spark.
La transformación de Python solo es compatible para la vista previa técnica.

AWS Databricks admite los mismos tipos de datos que Azure Databricks.

Para obtener más información, consulte las siguientes guías:

Guía de integración de Data Engineering 10.4.0


Guía del administrador de Data Engineering 10.4.0
Guía del usuario de Data Engineering Integration 10.4.0
Guía de flujo de trabajo de Informatica 10.4.0 Developer

Flujos de trabajo de clúster para el acceso de HDInsight a recursos


de ALDS Gen2
A partir de la versión 10.4.0, puede crear un flujo de trabajo de clúster para ejecutar en un clúster de Azure
HDInsight y acceder a recursos de ADLS Gen2.

Para obtener más información sobre los flujos de trabajo de clúster, consulte la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.

Acceso al almacenamiento de Databricks Delta Lake


A partir de la versión 10.4.0, puede acceder al almacenamiento de Databricks Delta Lake como orígenes y
destinos.

Las asignaciones pueden acceder a los recursos de Delta Lake en las plataformas AWS y Azure.

Para obtener información sobre la configuración del acceso a las tablas de Delta Lake, consulte la Guía de
Data Engineering Integration. Para obtener información sobre la creación de asignaciones para acceder a
tablas de Delta Lake, consulte la Guía del usuario de Data Engineering Integration.

Data Engineering Integration 163


Visualización de los nodos utilizados en una asignación
A partir de la versión 10.4.0, puede ver el número máximo de nodos de clúster utilizados por una asignación
en un tiempo determinado.

Puede utilizar la API del concentrador de operaciones REST ClusterStats(startTimeInmillis=[value],


endTimeInmillis=[value]) para ver el número máximo de nodos de Hadoop en una configuración de clústeres
utilizada por una asignación en un tiempo determinado.

Para obtener más información sobre la API de REST, consulte el capítulo "Referencia de la API de REST de
supervisión" en la Guía del administrador de Data Engineering 10.4.0.

Agregación de registros
A partir de la versión 10.4.0, se pueden obtener registros agregados para las asignaciones implementadas
que se ejecutan en el entorno Hadoop.

Puede recopilar los registros de clústeres agregados de una asignación basándose en el ID del trabajo en la
Herramienta de supervisión o mediante el comando infacmd ms fetchAggregatedClusterLogs. Puede obtener
un archivo .zip o tar.gz de los registros de clústeres agregados de una asignación basándose en el ID del
trabajo y escribir el archivo de registros agregados en un directorio de destino.

Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0.

Análisis de datos jerárquicos en el motor Spark


A partir de la versión 10.4.0, se pueden utilizar funciones complejas para analizar hasta 5 MB de datos
intermedios en una asignación.

El motor Spark puede analizar datos de origen de cadenas sin formato mediante las siguientes funciones
complejas:

• PARSE_JSON
• PARSE_XML
Las funciones complejas analizan los datos JSON o XML en la cadena de origen y generan datos de destino
estructurados.

Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos" en la Guía del
usuario de Informatica Data Engineering Integration 10.4.0.

Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.4.0 Developer.

Creación de perfiles y opciones de muestreo en el motor Spark


A partir de la versión 10.4.0, puede ejecutar perfiles y seleccionar opciones de muestreo en el motor de
Spark.

Creación de perfiles en el motor Spark

Puede crear y ejecutar perfiles en el motor Spark en las herramientas Informatica Developer e
Informatica Analyst. Puede realizar la detección de dominios de datos y la creación de cuadros de
mandos en el motor Spark.

164 Capítulo 18: Novedades de la versión 10.4


Opciones de muestreo en el motor Spark

Puede seleccionar las siguientes opciones de muestreo para ejecutar perfiles en el motor de Spark:

• La opción de muestreo Limit n ejecuta un perfil basado en el número de filas en el objeto de datos.
Cuando decide ejecutar un perfil en el entorno Hadoop, el motor Spark recopila muestras de varias
particiones del objeto de datos y las envía a un único nodo para calcular el tamaño de la muestra. No
puede aplicar las opciones de muestreo Limit n en los perfiles con un filtro avanzado.
Se admite en la base de datos de Oracle a través de la conexión de Sqoop.
• La opción de muestreo Random percentage ejecuta un perfil en un porcentaje de las filas del objeto
de datos.

Para obtener información sobre los perfiles y las opciones de muestreo en el motor Spark, consulte la Guía
de Informatica 10.4.0 Data Discovery.

Transformación de Python
A partir de la versión 10.4.0, la transformación de Python tiene la siguiente funcionalidad:

Modo activo
Puede crear una transformación de Python activa. Como transformación activa, la transformación de Python
puede cambiar el número de filas que pasan por ella. Por ejemplo, la transformación de Python puede
generar múltiples filas de salida a partir de una única fila de entrada, o la transformación puede generar una
única fila de salida a partir de múltiples filas de entrada.

Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.

Datos particionados
Puede ejecutar código Python para procesar datos entrantes basándose en el esquema de particionamiento
predeterminado de los datos, o puede volver a particionar los datos antes de ejecutar el código Python. Para
volver a particionar los datos antes de ejecutar el código Python, seleccione uno o varios puertos de entrada
como clave de la partición.

Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.

Sqoop
A partir de la versión 10.4.0, puede configurar los siguientes argumentos de Sqoop en la conexión JDBC:

• --update-key
• --update-mode
• --validate
• --validation-failurehandler
• --validation-threshold
• --validator
• --mapreduce-job-name
• --bindir
• --class-name
• --jar-file
• --outdir

Data Engineering Integration 165


• --package-name

Para obtener más información sobre cómo configurar estos argumentos de Sqoop, consulte la
documentación de Sqoop.

Data Engineering Streaming


En esta sección se describen las nuevas características de Data Engineering Streaming en la versión 10.4.0.

Confluent Schema Registry en asignaciones de transmisión


A partir de la versión 10.4.0, se puede utilizar Confluent Kafka como orígenes y destinos en las asignaciones
de transmisión que utilizan Schema Registry.

Puede utilizar Confluent Kafka para almacenar y recuperar esquemas de Apache Avro en asignaciones de
transmisión. Schema Registry utiliza Kafka como mecanismo de almacenamiento subyacente.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.

Transformaciones de Data Quality en asignaciones de transmisión


A partir de la versión 10.4.0, se pueden utilizar transformaciones de Data Quality en las asignaciones de
transmisión.

Puede utilizar las siguientes transformaciones de Data Quality en las asignaciones de transmisión para
aplicar el proceso de calidad de datos en los datos de transmisión:

• Transformación del validador de direcciones


• transformación de clasificador
• Transformación de analizador
• Transformación de estandarizador

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.

Clúster efímero en asignaciones de transmisión


A partir de la versión 10.4.0, se puede ejecutar un flujo de trabajo para crear un clúster efímero que ejecute
asignaciones y otras tareas en un clúster de plataforma en la nube.

Para reanudar el procesamiento de los datos desde el punto en que se elimina un clúster, puede ejecutar
asignaciones de transmisión en un clúster efímero especificando un almacenamiento externo y un directorio
de puntos de comprobación.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.

166 Capítulo 18: Novedades de la versión 10.4


Puerto FileName en Amazon S3
A partir de la versión 10.4.0, cuando se crea una operación de escritura en objeto de datos para archivos de
Amazon S3, el puerto FileName aparece de forma predeterminada.

En tiempo de ejecución, el servicio de integración de datos crea directorios independientes para cada valor
del puerto FileName y agrega los archivos de destino en los directorios.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.

Microsoft Azure Data Lake Storage Gen2


A partir de la versión 10.4.0, se puede utilizar Microsoft Azure Data Lake Storage Gen2 como destino en las
asignaciones de transmisión.

Azure Data Lake Storage Gen2 está basado en Azure Blob Storage. Azure Data Lake Storage Gen2 tiene las
capacidades tanto de Azure Data Lake Storage Gen1 como de Azure Blob Storage. Puede utilizar Azure
Databricks 5.4 o Azure HDInsight 4.0 para acceder a los datos almacenados en Azure Data Lake Storage
Gen2.

Para obtener más información, consulte la Guía del usuario de Data Engineering Streaming 10.4.0.

Asignaciones de transmisión en Azure Databricks


A partir de la versión 10.4.0, puede ejecutar asignaciones de transmisión en el servicio Azure Databricks en
los servicios en la nube de Microsoft Azure.

Orígenes y destinos

Puede ejecutar asignaciones de transmisión en los siguientes orígenes y destinos dentro del entorno de
Databricks:

Microsoft Azure Event Hubs


Azure Data Lake Storage Gen2 (ADLS Gen2)

Transformaciones

Puede agregar las siguientes transformaciones a una asignación de transmisión de Databricks:

Agregación
Expresión
Filtro
Unión
Normalizador
Rango
Enrutador
Unión
Ventana

Tipos de datos

Se admiten los siguientes tipos de datos:

Matriz
Bigint

Data Engineering Streaming 167


Fecha/Hora
Decimal
Doble
Entero
Asignar
Struct
Texto
Cadena

Flujos de trabajo

Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros en el entorno de Databricks.
Utilice Azure Data Lake Storage Gen1 (ADLS Gen1) y Azure Data Lake Storage Gen2 (ADLS Gen2) para
crear clústeres efímeros en el entorno de Databricks.

Para obtener más información sobre las asignaciones de transmisión en Azure Databricks, consulte la Guía
del usuario de Data Engineering Streaming 10.4.0.

Asignaciones dinámicas en Data Engineering Streaming


A partir de la versión 10.4.0, la compatibilidad con las asignaciones dinámicas en Data Engineering
Streaming está disponible para la vista previa técnica.

Puede usar objetos de datos de Confluent Kafka como orígenes y destinos dinámicos en una asignación de
transmisión.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.4.0.

Asignación de atributos personalizados a recursos y clases


A partir de la versión 10.4.0, se pueden asignar atributos personalizados a recursos y clases específicos del
catálogo o a todos los recursos y clases del catálogo. Puede realizar esta tarea cuando cree o modifique un
atributo personalizado.

Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog.

168 Capítulo 18: Novedades de la versión 10.4


Nuevos recursos
A partir de la versión 10.4.0, los siguientes recursos nuevos se añaden a Enterprise Data Catalog:

• AWS Glue
• Microsoft Power BI
• Apache Cassandra
• Snowflake
• Google Cloud Storage

Puede extraer información de metadatos, relaciones y linaje de todos estos recursos. Para obtener más
información, consulte la Guía de configuración del escáner de Informatica 10.4.0 Enterprise Data Catalog.

Recursos de referencia y activos de referencia


A partir de la versión 10.4.0, puede configurar recursos para extraer metadatos de orígenes de datos u otros
recursos del catálogo al que hace referencia el recurso. Algunos ejemplos son las tablas de origen y de
destino en las asignaciones de PowerCenter, y las tablas y los archivos de origen de los informes de Tableau.
Estos orígenes de datos referenciados se conocen como "recursos de referencia" y los activos incluidos en
los orígenes de datos, como "activos de referencia". Puede ver los recursos y los activos de referencia en las
aplicaciones de Enterprise Data Catalog. Para ver el linaje completo en Enterprise Data Catalog, puede
realizar asignaciones de conexión para los recursos de referencia. Puede realizar asignaciones de conexión
entre los recursos de referencia y los recursos que configure en Enterprise Data Catalog para los orígenes de
datos de los recursos de referencia.

Puede configurar los siguientes recursos para extraer metadatos de orígenes de datos u otros recursos del
catálogo al que hace referencia el recurso:

• PowerCenter
• AWS Glue
• Tableau Server
• Coudera Navigator
• Apache Atlas
• Informatica Intelligent Cloud Services
• Informatica Platform
• SQL Server Integration Service

Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog y la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.

Exportación de activos desde resultados de búsqueda


A partir de la versión 10.4.0, se pueden exportar todos los activos que aparecen en los resultados de
búsqueda a un archivo de valores separados por comas (CSV) y volver a importar el archivo CSV en
Enterprise Data Catalog. Exporte los activos después de refinar los resultados de búsqueda en cualquier
ficha de búsqueda.

Para obtener más información, consulte el capítulo sobre tareas de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.

Enterprise Data Catalog 169


Filtros de linaje e impacto
A partir de la versión 10.4.0, puede crear y aplicar filtros a la vista Linaje e impacto. Utilice los filtros para
restringir los resultados en la vista Linaje e impacto. Cree filtros personalizados utilizando distintas
combinaciones de opciones de filtro basadas en los tipos de activos disponibles en la vista Linaje e impacto.

Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.

Resumen de control de activos


A partir de la versión 10.4.0, puede ver activos del flujo de control en la ficha Resumen de control de activos
para los tipos de activos de tabla y archivo. Un flujo de control coloca restricciones o condiciones en el flujo
de datos. Por ejemplo, una consulta SQL puede contener restricciones en la cláusula WHERE o las
asignaciones pueden contener transformaciones.

Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía del
usuario de Informatica 10.4.0 Enterprise Data Catalog.

Reglas y cuadros de mandos


A partir de la versión 10.4.0, se pueden extraer resultados de reglas y cuadros de mandos del almacén de
creación de perfiles y verlos en Enterprise Data Catalog. Puede ver los resultados de columna de una regla y
un cuadro de mando para medir la calidad de los datos de un origen de datos.

Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.

Inferencia de clave única


A partir de la versión 10.4.0, se pueden generar candidatos de clave única a partir de las columnas en el
objeto de datos de origen. Puede ver los resultados de la inferencia de clave única para comprender los
problemas de calidad de los datos identificando las columnas que tienen valores duplicados.

Puede aceptar o rechazar los resultados de inferencia de claves únicas deducidas. Después de aceptar o
rechazar una inferencia de clave única deducida, puede restablecer la inferencia de clave única para
restaurar el estado deducido.

Para obtener más información, consulte el capítulo sobre visualización de activos en la Guía del usuario de
Informatica 10.4.0 Enterprise Data Catalog.

Detección del dominio de datos en el tipo de archivo CLOB


A partir de la versión 10.4.0, se puede realizar la detección del dominio de datos en el tipo de archivo CLOB.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.0 Enterprise Catalog.

Obtención de datos y opciones de muestreo en el motor Spark


A partir de la versión 10.4.0, puede ejecutar perfiles para detectar dominios de datos y seleccionar opciones
de muestreo en el motor Spark.

Detección de dominios de datos en el motor Spark

Puede realizar la detección de dominios de datos en el motor Spark.

170 Capítulo 18: Novedades de la versión 10.4


Opciones de muestreo en el motor Spark

Puede seleccionar las siguientes opciones de muestreo para detectar dominios de datos en el motor
Spark:

• La opción de muestreo Limit n ejecuta un perfil basado en el número de filas en el objeto de datos.
Cuando decide detectar dominios de datos en el entorno Hadoop, el motor Spark recopila muestras
de varias particiones del objeto de datos y las envía a un único nodo para calcular el tamaño de la
muestra.
• La opción de muestreo Random percentage ejecuta un perfil en un porcentaje de las filas del objeto
de datos.

Para obtener más información, consulte el capítulo Conceptos de Enterprise Data Catalog en la Guía del
administrador de Informatica 10.4.0 Enterprise Catalog.

Seguimiento de la vista previa técnica


La versión 10.4.0 de Enterprise Data Catalog incluye funcionalidad que está disponible para la vista previa
técnica.

La funcionalidad de vista previa técnica es compatible, pero no se garantiza ni está preparada para usarla en
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión de disponibilidad general (GA)
para poder usarla en producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento. Para obtener más información, póngase en
contacto con el servicio internacional de atención al cliente de Informatica.

• A partir de la versión 10.4.0, puede optar por mostrar la vista compacta de la vista Linaje e impacto. La
vista Linaje e impacto compacta muestra el diagrama de linaje e impacto resumido en el nivel de
recursos.
Para obtener más información, consulte el capítulo sobre la visualización del linaje y su impacto en la Guía
del usuario de Informatica 10.4.0 Enterprise Data Catalog.
• A partir de la versión 10.4.0, puede extraer metadatos de orígenes de SAP Business Warehouse, SAP BW/
4HANA, IBM InfoSphere DataStage y Oracle Data Integrator cuando no se puede acceder a ellos en tiempo
de ejecución o sin conexión.
Para obtener más información, consulte la Guía del administrador de Informatica 10.4.0 Catalog.
• A partir de la versión 10.4.0, puede extraer metadatos de los orígenes de datos de SAP Business
Warehouse y SAP BW/4HANA.
Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.4.0
Enterprise Data Catalog.

Vista previa de datos y aprovisionamiento


A partir de la versión 10.4.0, se puede realizar el aprovisionamiento de datos después de completar la
obtención de datos en el catálogo. Gracias al aprovisionamiento de datos, podrá mover los datos a un
destino para realizar otros análisis. Puede obtener una vista previa de los datos para que los orígenes
relacionales evalúen los datos antes de transferirlos al destino.

Para obtener más información sobre la obtención de una vista previa y el aprovisionamiento de los datos,
consulte la Guía del administrador de Informatica 10.4.0 Catalog y la Guía del usuario de Informatica 10.4.0
Enterprise Data Catalog.

Enterprise Data Catalog 171


Tipos de recursos compatibles en la utilidad de escáner
independiente
A partir de la versión 10.4, se pueden extraer metadatos de los siguientes orígenes externos cuando no se
pueda acceder a ellos en tiempo de ejecución o cuando estén desconectados:

• Amazon Redshift
• Amazon S3
• Apache Cassandra
• Axon
• Azure Data Lake Store
• Azure Microsoft SQL Data Warehouse
• Azure Microsoft SQL Server
• Business Glossary
• Linaje personalizado
• Scripts de la base de datos
• Erwin
• Glue
• Google BigQuery
• Google Cloud Storage
• Informatica Cloud Service
• IBM Cognos
• Microsoft Azure Blob Storage
• Microsoft SQL Server Integration Services
• PowerBI
• QlikView Business Intelligence
• Salesforce
• SAP HANA
• SAP PowerDesigner
• Snowflake
• Workday

Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.4 .

API de REST
A partir de la versión 10.4, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:

• API de REST de provisión de datos. Además de las API de REST existentes, puede ver si el
aprovisionamiento de datos está disponible para el usuario y enumerar los recursos que admiten
aprovisionamiento de datos.
• API de REST de filtro de linaje. Puede crear, actualizar, enumerar o eliminar un filtro de linaje.

172 Capítulo 18: Novedades de la versión 10.4


• API de REST de información de modelo. Además de las API de REST existentes, puede enumerar las
facetas predefinidas del control deslizante, la definición de la faceta del control deslizante y las
definiciones del filtro de linaje.
• API de REST de modificación de modelo. Además de las API de REST existentes, puede crear, actualizar y
eliminar una definición de faceta del control deslizante.
• API de REST de información de supervisión. Puede enviar o enumerar trabajos que incluyan trabajos de
tipo de exportación de objeto, tipo de importación de objeto, tipo de exportación de recurso y tipo de
exportación de búsqueda.
• API de REST de recuento de activos secundarios de un objeto. Puede enumerar el total de activos
secundarios de un objeto.
• API de REST de información del producto. Puede enumerar los detalles de Enterprise Data Catalog, que
incluyen la versión de lanzamiento, la versión de compilación y la fecha de compilación.
Para obtener más información sobre las API de REST, consulte la Referencia de las API de REST de
Informatica Enterprise Data Catalog 10.4.

Enterprise Data Preparation


En esta sección se describen las nuevas características de Enterprise Data Preparation en la versión 10.4.0.

Administración de acceso a Data Lake


A partir de la versión 10.4.0, puede administrar el acceso a Data Lake mediante la asignación de permisos en
los recursos de Enterprise Data Catalog que representan esquemas de Hive y ubicaciones de HDFS en Data
Lake a los usuarios y grupos de usuarios de Enterprise Data Preparation.

Cuando se conceden permisos en esquemas o ubicaciones específicos a un usuario o grupo de usuarios, la


aplicación solo muestra aquellos esquemas o ubicaciones en los que el usuario tiene permiso para realizar
operaciones de importación, publicación o carga.

Para obtener más información, consulte la Guía del administrador de Enterprise Data Preparation 10.4.0.

Microsoft Azure Data Lake Storage como origen de datos


A partir de la versión 10.4.0, se puede utilizar una ubicación de Microsoft Azure Data Lake Storage Gen2
como origen de datos.

Publicación de archivos en Data Lake


A partir de la versión 10.4.0, puede publicar datos preparados en un archivo en una ubicación de HDFS en
Data Lake.

Cuando publica datos, puede seleccionar el tipo de archivo en el que escribir los datos en Data Lake. Por
ejemplo, si decide publicar datos como un archivo de valores separados por comas, la aplicación escribe los
datos en Data Lake como un archivo .csv.

Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.

Enterprise Data Preparation 173


Carga de archivos en Data Lake
A partir de la versión 10.4.0, se pueden cargar varios formatos de archivo desde la unidad local a Data Lake.

Puede elegir una de las siguientes opciones de carga:

Cargar un archivo directamente en Data Lake.

Puede cargar en Data Lake un archivo delimitado por comas, un archivo Avro, un archivo JSON o un
archivo Parquet en formato UTF-8 directamente desde la unidad local, sin obtener una vista previa de los
datos. Podría optar por esta opción si desea cargar un archivo sin obtener una vista previa de los datos.

Permitir a CLAIRE determinar la estructura del archivo y luego cargar el archivo en Data Lake.

Puede cargar los datos en un archivo delimitado por comas o una hoja de cálculo de Microsoft Excel en
Data Lake. Cuando se carga el archivo, Enterprise Data Preparation utiliza el motor de detección
integrado de CLAIRE para determinar la estructura del archivo y muestra una vista previa de los datos.

Cuando utiliza esta opción para cargar una hoja de cálculo de Excel, el motor de CLAIRE detecta las
hojas y las tablas en la hoja de cálculo. Puede seleccionar la hoja y la tabla de las que quiere obtener
una vista previa.

Nota: Cargar una hoja de cálculo de Excel es una característica de vista previa.

Definir la estructura del archivo y luego cargar el archivo en Data Lake.

Puede cargar los datos en un archivo delimitado por comas de la unidad local en Data Lake. Cuando se
carga el archivo, puede obtener una vista previa de los datos, especificar la estructura del archivo y
configurar atributos de columna que cumplan sus requisitos. Puede optar por esta opción si necesita
modificar atributos de columna antes de cargar el archivo.

Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.

Asignaciones de Informatica
En esta sección se describen las nuevas características para las asignaciones de Informatica en la versión
10.4.0.

Vinculación de salidas de asignación con parámetros de


asignación
A partir de la versión 10.4.0, puede conservar y enlazar salidas de asignación en asignaciones que estén
implementadas para ejecutarse en el entorno nativo o en el motor Spark.

Cree una salida de asignación. Enlace la salida con un parámetro de asignación para utilizar el valor en
ejecuciones subsiguientes de la asignación. Cuando ejecute la asignación, el servicio de integración de datos
pasará el valor de la salida de asignación al parámetro de asignación. Para conservar salidas de asignación,
debe especificar un nombre de instancia en tiempo de ejecución mediante la opción -RuntimeInstanceName
para el comando infacmd ms runMapping.

Developer tool incluye ahora una columna Enlace en la vista Propiedades de las asignaciones para enlazar
una salida de asignación con un parámetro.

Para obtener información sobre las salidas de asignación en asignaciones implementadas, consulte el
capítulo "Salidas de asignación" en la Guía de asignaciones de Informatica 10.4.0 Developer.

174 Capítulo 18: Novedades de la versión 10.4


Comandos infacmd ms
En la siguiente tabla se describen los nuevos y actualizados comandos infacmd ms:

Comando Descripción

deleteMappingPersistedOutputs Nuevo comando que elimina todas las salidas de asignación persistentes de una
asignación implementada. Especifique las salidas que se deban eliminar con el
nombre de la aplicación y el nombre de instancia en tiempo de ejecución de la
asignación. Para eliminar salidas específicas, use la opción -
OutputNamesToDelete.

getMappingStatus Comando actualizado que ahora devuelve el nombre del trabajo. Si ha definido un
nombre de instancia en tiempo de ejecución en infacmd ms runMapping, el nombre
del trabajo es el nombre de la instancia en tiempo de ejecución.

listMappingPersistedOutputs Nuevo comando que enumera las salidas de asignación persistentes de una
asignación implementada. Las salidas se enumeran de acuerdo con el nombre de
la aplicación y del nombre de instancia en tiempo de ejecución de la asignación.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed ms" de la Referencia
de comandos de Informatica 10.4.0.

Recomendaciones y conclusiones de CLAIRE


A partir de la versión 10.4.0, puede utilizar la inteligencia artificial de CLAIRE para ajustar y corregir las
asignaciones durante el desarrollo.

Cuando habilita las recomendaciones, CLAIRE se ejecuta automáticamente en las asignaciones conforme las
desarrolla, y muestra recomendaciones que le permiten corregir o ajustar la asignación.

También puede ejecutar análisis de CLAIRE en las asignaciones de un proyecto o en la carpeta del proyecto.
Cuando analiza un grupo de asignaciones, CLAIRE muestra conclusiones acerca de las similitudes entre las
asignaciones.

Para obtener más información sobre las recomendaciones y las conclusiones, consulte la Guía del usuario de
Data Engineering Integration.

Actualización del nivel del optimizador de asignaciones


A partir de la versión 10.4.0, se puede utilizar el comando infacmd ms UpdateOptimizationDefaultLevel para
establecer el nivel del optimizador de las asignaciones en una aplicación en el nivel predeterminado: Auto.

Cuando ejecute el comando, debe especificar un nombre de aplicación. UpdateOptimizationDefaultLevel


establece el nivel del optimizador para todas las asignaciones de la aplicación con el nivel de optimización
Normal. El comando no afecta a las asignaciones de la aplicación que tengan un nivel de optimización
diferente a Normal.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.4.0 y la Guía de
asignaciones de Informatica 10.4.0 Developer.

Asignaciones de Informatica 175


Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.4.0.

Transformación del validador de direcciones


En esta sección se describen las nuevas características de la transformación del validador de direcciones.

La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Estados Unidos
A partir de la versión 10.4, el validador de direcciones reconoce MC como una versión alternativa de MSC
(Mail Stop Code) en las direcciones de Estados Unidos.

Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.4, consulte la Guía de desarrollador de Informatica
Address Verification 5.15.0.

Flujos de trabajo de Informatica


En esta sección se describen las nuevas características de los flujos de trabajo de Informatica en la versión
10.4.0.

Propiedades avanzadas de la tarea Crear clúster en Amazon EMR


A partir de la versión 10.4.0, hay nuevas propiedades avanzadas disponibles cuando se configura una tarea
Crear clúster con una conexión Amazon EMR en un flujo de trabajo.

Puede configurar la siguiente funcionalidad en una tarea Crear clúster:

• Tamaño de volumen de EBS de dispositivo raíz. El número de GB del volumen del dispositivo raíz de EBS.
• ID de AMI personalizada. ID de una imagen de máquina de Amazon (Amazon Machine Image, AMI)
personalizada de Amazon Linux.
• Configuración de seguridad. El nombre de una configuración de seguridad para la autenticación y el
cifrado en el clúster.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0 y la Guía de
flujo de trabajo de Informatica® 10.4.0 Developer.

Instalación de Informatica
En esta sección se describen las nuevas características de instalación de la versión 10.4.0.

176 Capítulo 18: Novedades de la versión 10.4


PostgreSQL
A partir de la versión 10.4.0, se puede utilizar la base de datos de PostgreSQL para el repositorio de
configuración del dominio, el repositorio de modelos y el repositorio de PowerCenter. Para Enterprise Data
Preparation, solo puede utilizar la base de datos de PostgreSQL en el servicio de repositorio de modelos
adicional.

También puede instalar la versión 10.6 de la aplicación cliente psql para que PostgreSQL funcione en Linux o
en Windows.

Para obtener más información sobre PostgreSQL, consulte las guías de instalación de Informatica 10.4.0.

Pre-installation (i10Pi) System Check Tool en modo silencioso


A partir de la versión 10.4.0, es posible ejecutar Pre-installation (i10pi) System Check Tool en modo
silencioso. Puede ejecutar i10pi en modo silencioso para comprobar si la máquina cumple los requisitos del
sistema para realizar la instalación sin interacción por parte del usuario.

Para obtener más información sobre cómo ejecutar i10Pi en modo silencioso, consulte la Guía de instalación
de Informatica 10.4.0.

Cifrado de contraseñas en el archivo de propiedades de la


instalación silenciosa
A partir de la versión 10.4.0, el programa de instalación de Informatica incluye una utilidad que se puede usar
para cifrar contraseñas que se establecen en el archivo de propiedades que contiene las opciones
necesarias para instalar los servicios en modo silencioso.

Cuando el programa de instalación se ejecuta en modo silencioso, el marco de la instalación descifra las
contraseñas cifradas.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica .

Modelo de estructura inteligente


En esta sección se describen las nuevas características del modelo de estructura inteligente en la versión
10.4.0.

Tipos de entrada adicionales


A partir de la versión 10.4.0, Intelligent Structure Discovery puede procesar entradas de ORC, Avro y Parquet.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.

Creación de modelos a partir de muestras en tiempo de diseño


A partir de la versión 10.4.0, Intelligent Structure Discovery puede crear un modelo basado en un archivo de
ejemplo que seleccione al crear un objeto de datos complejo. Puede refinar el modelo más adelante en la
integración de datos de Informatica Intelligent Cloud Services.

Esta funcionalidad es compatible con archivos de ejemplo XML, JSON, ORC, AVRO y Parquet.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.

Modelo de estructura inteligente 177


Administración de datos sin identificar
A partir de la versión 10.4.0, Intelligent Structure Discovery ordena la salida de los datos sin identificar en el
modelo con formato JSON estructurado.

Para obtener más información, consulte la Guía del usuario de Data Engineering Integration 10.4.0.

PowerCenter
En esta sección se describen las nuevas características de PowerCenter de la versión 10.4.0.

Transformación de HTTP
A partir de la versión 10.4.0, la transformación de HTTP también incluye los siguientes métodos para la
construcción de URL final: SIMPLE PATCH, SIMPLE PUT y SIMPLE DELETE.

Puede realizar una actualización parcial y los datos de entrada no necesitan formar un cuerpo completo con
el método SIMPLE PATCH. Puede utilizarlo para actualizar los datos del puerto de entrada como una revisión
del recurso.

Puede realizar un reemplazo completo del documento con el método SIMPLE PUT. Puede crear datos desde
un puerto de entrada como un único bloque de datos para un servidor HTTP. Si los datos ya existen, puede
actualizar los datos de un puerto de entrada como un único bloque de datos para un servidor HTTP.

Puede eliminar datos del servidor HTTP con el método SIMPLE DELETE.

También puede parametrizar la URL base de la transformación HTTP.

Anteriormente, solo se podía especificar la construcción de URL final para estos dos métodos: SIMPLE GET y
SIMPLE POST. Tampoco se podía parametrizar la URL final para la transformación HTTP.

Para obtener más información, consulte el capítulo "Transformación HTTP" de la Guía de transformación de
PowerCenter 10.4.0.

Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.4.0.

Suplantación de usuario para conexiones de Oracle


A partir de la versión 10.4.0, puede especificar el nombre del usuario suplantado en la conexión de Oracle en
PowerCenter para conectar con orígenes y destinos de Oracle. Cuando especifica un usuario suplantado,
puede conectarse a Oracle en nombre de ese usuario y realizar operaciones de lectura o escritura.

Para obtener más información, consulte la Guía de conceptos básicos de flujos de trabajo de Informatica
10.4.0 PowerCenter.

Compatibilidad con las vistas de modelos de base de datos de SAP HANA


A partir de la versión 10.4.0, puede leer datos de los siguientes tipos de vistas de modelos de base de datos
de SAP HANA:

• Vistas de análisis
• Vistas de atributos
• Vistas calculadas

Para obtener más información, consulte la Guía de Informatica 10.4.0 PowerCenter Designer.

178 Capítulo 18: Novedades de la versión 10.4


Adaptadores de PowerExchange
En esta sección se describen las nuevas características del adaptador de PowerExchange en la versión
10.4.0.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica de la versión 10.4.0.

PowerExchange for Amazon Redshift


A partir de la versión 10.4.0, PowerExchange for Amazon Redshift incluye las siguientes características:

• Puede ejecutar asignaciones en el entorno de AWS Databricks.


• Puede seleccionar un nombre de región de clúster en la propiedad de conexión Región del clúster, incluso
aunque haya especificado el nombre de la región de clúster en la propiedad de conexión de URL de JDBC.
• Puede conservar valores nulos cuando lee datos de Amazon Redshift.
• Puede especificar el número de archivos de transferencia provisional por lote, cuando escribe datos en
Amazon Redshift.
• Puede conservar el orden de los registros, cuando escribe datos desde un origen CDC a un destino de
Amazon Redshift.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
Redshift.

PowerExchange for Amazon S3


A partir de la versión 10.4.0, PowerExchange for Amazon S3 incluye las siguientes características:

• Puede ejecutar asignaciones en el entorno de AWS Databricks.


• Puede utilizar las credenciales de seguridad temporales que emplean AssumeRole para acceder a los
recursos de AWS.
• Puede parametrizar el tipo de formato y el esquema de datos en las propiedades de las operaciones de
lectura y escritura en tiempo de ejecución.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
S3.

PowerExchange for Google BigQuery


A partir de la versión 10.4.0, PowerExchange for Google BigQuery incluye las siguientes características:

• Puede utilizar un clúster de Google Dataproc para ejecutar asignaciones en el motor Spark.
• Puede aumentar el rendimiento de la asignación ejecutándola en el modo Spark optimizado. Cuando
utiliza el modo Spark optimizado para leer datos, puede especificar el número de particiones que se
utilizarán. Puede especificar si la asignación se ejecutará en modo Genérico u Optimizado en las
propiedades avanzadas de las operaciones de lectura y escritura. El modo Spark optimizado aumenta el
rendimiento de las asignaciones.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada que se
utiliza para extraer datos del origen de Google BigQuery.

Adaptadores de PowerExchange 179


• Puede leer o escribir datos de tipo de datos NUMERIC en Google BigQuery. El tipo de datos NUMERIC es
un valor numérico exacto con 38 dígitos de precisión y 9 dígitos de escala. Cuando lee o escribe el tipo de
datos NUMERIC, el servicio de integración de datos asigna el tipo de datos NUMERIC al tipo de datos
Decimal transformation y la precisión permitida es hasta 38 y la escala, hasta 9.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
BigQuery.

PowerExchange for Google Cloud Storage


A partir de la versión 10.4.0, PowerExchange for Google Cloud Storage incluye las siguientes características:

• Puede utilizar un clúster de Google Dataproc para ejecutar asignaciones en el motor Spark.
• Puede configurar las siguientes propiedades avanzadas de operación de lectura de objeto de datos de
Google Cloud Storage cuando lee datos de un origen de Google Cloud Storage:
Ruta de Google Cloud Storage

Reemplaza la ruta de Google Cloud Storage al archivo que seleccionó en el objeto de datos de Google
Cloud Storage.
Use el siguiente formato:
gs://<bucket name> o gs://<bucket name>/<folder name>

Nombre del archivo de origen

Reemplaza el nombre del archivo de origen de Google Cloud Storage especificado en el objeto de
datos de Google Cloud Storage.

Es un directorio

Lee todos los archivos disponibles en la carpeta especificada en la propiedad avanzada de operación
de lectura de objeto de datos de Ruta de Google Cloud Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
Cloud Storage.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.4.0, PowerExchange for Microsoft Azure Blob Storage incluye las siguientes
características:

• Puede parametrizar el tipo de formato y el esquema de datos en las propiedades de las operaciones de
lectura y escritura en tiempo de ejecución.
• Puede utilizar la autenticación con firmas de acceso compartido mientras crea una conexión con
Microsoft Azure Blob Storage.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Blob Storage.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.4.0, se pueden leer y escribir datos en un endpoint de Microsoft Azure SQL Data
Warehouse que resida en una red virtual (VNet).

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure SQL Data Warehouse.

180 Capítulo 18: Novedades de la versión 10.4


PowerExchange for Salesforce
A partir de la versión 10.4.0, PowerExchange for Salesforce incluye las siguientes características:

• Puede utilizar la versión 45.0, 46.0 y 47.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede habilitar la fragmentación de claves principales para consultas sobre un objeto compartido que
representa una entrada que se comparte en el objeto de destino. La fragmentación de claves principales
solo es compatible con los objetos compartidos si el objeto principal es compatible. Por ejemplo, si
quiere consultar sobre CaseHistory, la fragmentación de claves principales debe ser compatible con el
objeto principal Case.
• Puede crear reglas de asignaciones para volver a asignar atributos en registros cuando se insertan,
actualizan o se actualizan e insertan registros para los objetos de destino Lead y Case que utilizan la API
estándar.
Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce.

PowerExchange for SAP NetWeaver


A partir de la versión 10.4.0, PowerExchange for SAP NetWeaver incluye las siguientes características:

• Puede configurar la transmisión HTTPS para las asignaciones de lector de tablas de SAP.
• Puede leer datos de las vistas de ABAP CDS utilizando el extractor de tablas de SAP si utiliza la versión
7.50 o posterior del sistema SAP NetWeaver.
• Puede leer datos de tablas de SAP con campos que tengan los siguientes tipos de datos:
- DF16_DEC

- DF32_DEC

- DF16_RAW

- DF34_RAW

- INT8

- RAWSTRING

- SSTRING

- STRING

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.4.0.

PowerExchange for Snowflake


A partir de la versión 10.4.0, PowerExchange for Snowflake incluye las siguientes características:

• Puede ejecutar asignaciones de Snowflake en el entorno de Databricks.


• Puede utilizar objetos de Snowflake como orígenes y destinos dinámicos en una asignación.
• Puede crear un destino de Snowflake mediante la opción Crear destino.
• Puede configurar una estrategia de esquema de destino para un destino de Snowflake en una asignación.
Puede seleccionar entre las opciones disponibles para conservar el esquema de destino existente o crear
un destino si no existe. También puede especificar las opciones de la estrategia de esquema de destino
como un valor de parámetro.

Adaptadores de PowerExchange 181


• Puede especificar un nombre de archivo y una ruta rechazados en las propiedades de destino avanzadas
de Snowflake que el servicio de integración de datos utiliza para escribir registros que se rechazan al
escribir en el destino.
• Cuando el tipo de proveedor ODBC en la conexión ODBC de Snowflake es Snowflake, puede configurar la
optimización de inserciones para insertar la lógica de transformación en la base de datos de Snowflake.
• Puede leer o escribir datos de tipo de datos Decimal con una precisión y una escala de 38 bits
configurando el indicador personalizado EnableSDKDecimal38 en las propiedades del servicio de
integración de datos.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Snowflake.

PowerExchange for HDFS


A partir de la versión 10.4.0, PowerExchange for HDFS incluye las siguientes características:

• Puede parametrizar el tipo de formato y el esquema de datos en las propiedades de las operaciones de
lectura y escritura en tiempo de ejecución.
• Puede dar formato al esquema de un objeto de datos de un archivo complejo para una operación de
lectura o escritura.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for HDFS.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las nuevas características del adaptador de PowerCenter en la versión 10.4.0.

PowerExchange for Google BigQuery


A partir de la versión 10.4.0, se pueden leer o escribir datos de tipo de datos NUMERIC en Google BigQuery.
El tipo de datos NUMERIC es un valor numérico exacto con 38 dígitos de precisión y 9 dígitos de escala.
Cuando lee o escribe el tipo de datos NUMERIC, el servicio de integración de PowerCenter asigna el tipo de
datos NUMERIC al tipo de datos Decimal transformation y la precisión permitida es hasta 28 y la escala,
hasta 9.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
BigQuery para PowerCenter.

PowerExchange for Google Cloud Storage


A partir de la versión 10.4.0, puede configurar las siguientes propiedades avanzadas de operación de lectura
de objeto de datos de Google Cloud Storage cuando lee datos de un origen de Google Cloud Storage:
Ruta de Google Cloud Storage

Reemplaza la ruta de Google Cloud Storage al archivo que seleccionó en el objeto de datos de Google
Cloud Storage.

Use el siguiente formato:

gs://<nombre de cubo> o gs://<nombre de cubo>/<nombre de carpeta>

Nombre del archivo de origen

Reemplaza el nombre del archivo de origen de Google Cloud Storage especificado en el objeto de datos
de Google Cloud Storage.

182 Capítulo 18: Novedades de la versión 10.4


Es un directorio

Lee todos los archivos disponibles en la carpeta especificada en la propiedad avanzada de operación de
lectura de objeto de datos de Ruta de Google Cloud Storage.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Google
Cloud Storage para PowerCenter.

PowerExchange for Greenplum


A partir de la versión 10.4.0, puede utilizar PowerExchange for Greenplum para leer datos de Greenplum.
Puede configurar propiedades específicas de sesión para los orígenes de Greenplum para determinar cómo
extraer datos de Greenplum.

Cuando ejecuta una sesión de Greenplum para leer datos, el servicio de integración de PowerCenter invoca el
servidor de archivos paralelos de la base de datos de Greenplum, gpfdist, que es el programa de distribución
de archivos, para leer los datos.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Greenplum
10.4.0 para PowerCenter.

PowerExchange for JD Edwards EnterpriseOne


A partir de la versión 10.4.0, puede utilizar la versión 9.2 de la API de JD Edwards EnterpriseOne para crear
una conexión de JD Edwards EnterpriseOne y acceder a los objetos de JD Edwards EnterpriseOne.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for JD
Edwards EnterpriseOne para PowerCenter.

PowerExchange for Kafka


A partir de la versión 10.4.0, se pueden utilizar las siguientes propiedades SSL para habilitar una conexión
segura a un agente de Kafka:

• Modo SSL
• Ruta de acceso de archivo del TrustStore SSL
• Contraseña del TrustStore SSL
• Ruta de acceso de archivo de almacén de claves SSL
• Contraseña del almacén de claves SSL

Puede configurar el agente de mensajería de Kafka para utilizar la versión 0.10.1.1 o superior del agente de
Kafka.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.4.0
para PowerCenter.

PowerExchange for Salesforce


A partir de la versión 10.4.0, puede utilizar las versiones 46.0 y 47.0 de la API de Salesforce para crear una
conexión de Salesforce y acceder a los objetos de Salesforce.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Salesforce para PowerCenter.

Adaptadores de PowerExchange 183


PowerExchange for SAP NetWeaver
A partir de la versión 10.4.0, puede utilizar el extractor de tablas ABAP dinámicas de PowerExchange for SAP
para leer datos de tablas de SAP y vistas de ABAP Core Data Services (CDS) a través de transmisiones
HTTP/HTTPS. Puede leer datos de las vistas de ABAP CDS utilizando el extractor de tablas ABAP dinámicas
de PowerExchange for SAP si utiliza la versión 7.50 o posterior del sistema SAP NetWeaver.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.4.0.

Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.4.0.

Configuración de aplicaciones web para utilizar proveedores de


identidades SAML diferentes
A partir de la versión 10.4.0, puede configurar aplicaciones web de Informatica que se ejecuten en un
dominio para utilizar proveedores de identidades de lenguaje de marcado de aserción de seguridad (Security
Assertion Markup Language, SAML). Por ejemplo, podría configurar Informatica Administrator para utilizar
Active Directory Federation Services como el proveedor de identidades, y configurar Informatica Analyst para
utilizar PingFederate como el proveedor de identidades.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.4.0.

184 Capítulo 18: Novedades de la versión 10.4


Capítulo 19

Cambios en la versión 10.4


Este capítulo incluye los siguientes temas:

• Data Engineering Integration, 185


• Enterprise Data Preparation, 187
• Enterprise Data Catalog, 188
• Informatica Developer, 189
• Transformaciones de Informatica, 189
• PowerCenter, 190
• Adaptadores de PowerExchange para Informatica, 191
• Seguridad, 192

Data Engineering Integration


En esta sección se describen los cambios introducidos en Data Engineering Integration en la versión 10.4.0.

Vista previa de datos


A partir de la versión 10.4.0, el servicio de integración de datos utiliza el servidor de trabajos de Spark para
obtener una vista previa de los datos en el motor de Spark. El servidor de trabajos de Spark permite una
visualización de los datos más rápida porque mantiene un contexto de Spark en ejecución en lugar de
actualizar el contexto para cada trabajo. Las asignaciones configuradas para ejecutarse con Amazon EMR,
Cloudera CDH y Hortonworks HDP utilizan el servidor de trabajos de Spark para obtener una vista previa de
los datos.

Antes, el servicio de integración de datos utilizaba scripts spark-submit para todos los trabajos de vista
previa de datos en el motor de Spark. Las asignaciones configuradas para ejecutarse con Azure HDInsight y
MapR utilizan scripts spark-submit para obtener una vista previa de los datos en el motor de Spark. La vista
previa de datos en las asignaciones configuradas para ejecutarse con Azure HDInsight y MapR está
disponible para la vista previa técnica.

Para obtener más información, consulte el capítulo "Vista previa de datos" en la Guía del usuario de Data
Engineering Integration 10.4.0.

Transformación de unión
A partir de la versión 10.4.0, puede seleccionar una transformación de unión como punto de vista previa al
obtener una vista previa de los datos. Anteriormente, la transformación de unión no se admitía como punto
de vista previa.

185
Comandos infacmd dp
Puede utilizar el complemento infacmd dp para realizar operaciones de vista previa de datos. Utilice los
comandos infacmd dp para iniciar y detener manualmente el servidor de trabajos de Spark.

En la siguiente tabla se describen los comandos infacmd dp:

Comando Descripción

startSparkJobServer Inicia el servidor de trabajos de Spark en la máquina del servicio de integración.


De forma predeterminada, el servidor de trabajos de Spark se inicia cuando se obtiene una
vista previa de los datos jerárquicos.

stopSparkJobServer Detiene el servidor de trabajos de Spark que se ejecuta en el servicio de integración


especificado.
De forma predeterminada, el servidor de trabajos de Spark se detiene si está inactivo durante
60 minutos o cuando el servicio de integración de datos se detiene o se recicla.

Para obtener más información, consulte el capítulo "Referencia de comandos infacmd dp" en la Referencia de
comandos de Informatica 10.4.0.

Formato de fecha y hora en Databricks


A partir de la versión 10.4.0, cuando el motor de Databricks Spark lee o escribe valores de fecha y hora,
utiliza el formato YYYY-MM-DD HH24:MM:SS.US.

Anteriormente, el formato se establecía en las propiedades de asignación para las preferencias de tiempo de
ejecución de Developer tool.

Es posible que deba realizar tareas adicionales para seguir utilizando datos de fecha y hora en el motor de
Databricks. Para obtener más información, consulte el capítulo "Integración con Databricks" en la Guía de
integración de Data Engineering 10.4.0.

Valores nulos en el destino


A partir de la versión 10.4.0, se aplican los siguientes cambios cuando se escriben datos en un archivo
complejo:

• Si el origen de la asignación contiene valores nulos y utiliza la opción Crear destino para crear un archivo
Parquet de destino, el esquema predeterminado contiene campos opcionales y puede insertar valores
nulos en el destino.
Anteriormente, todos los campos se creaban como REQUIRED en el esquema predeterminado y había que
actualizar manualmente el tipo de datos en el esquema de destino de "Required" a "Optional" para escribir
las columnas con valores nulos en el destino.
• Si el origen de la asignación contiene valores nulos y utiliza la opción Crear destino para crear un archivo
Avro de destino, los valores nulos se definen en el esquema predeterminado y puede insertar valores
nulos en el archivo de destino.
Anteriormente, los valores nulos no se definían en el esquema predeterminado y había que actualizar
manualmente el esquema de destino predeterminado para agregar el tipo de datos "null" al esquema.

Nota: Puede editar manualmente el esquema si no desea permitir valores nulos en el destino. No puede
editar el esquema para impedir valores nulos en el destino con flujo de asignación habilitado.

186 Capítulo 19: Cambios en la versión 10.4


Estos cambios se aplican a los siguientes adaptadores:

• PowerExchange for HDFS


• PowerExchange for Amazon S3
• PowerExchange for Google Cloud Storage
• PowerExchange for Microsoft Azure Blob Storage
• PowerExchange for Microsoft Azure Data Lake Storage Gen1

Transformación de Python
A partir de la versión 10.4.0, se accede a los archivos de recursos en el código Python haciendo referencia a
un índice en la matriz resourceFilesArray. Utilice resourceFilesArray en las nuevas asignaciones que
cree en la versión 10.4.0.

Anteriormente, la matriz se llamaba resourceJepFile. Las asignaciones actualizadas que utilizan


resourceJepFile seguirán ejecutándose correctamente.

Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía del usuario de
Informatica Data Engineering Integration 10.4.0.

Enterprise Data Preparation


En esta sección se describen los cambios que se han realizado en la versión 10.4.0 de Enterprise Data
Preparation.

Administración de valores nulos


A partir de la versión 10.4.0, Enterprise Data Preparation administra los valores nulos siguiendo el
comportamiento de procesamiento de Informatica Data Engineering. Después de actualizar la aplicación, las
fórmulas en recetas que operan en columnas de hojas de trabajo que contienen un valor nulo o un valor de
error devuelven un valor nulo.

Cuando se abre un proyecto creado en una versión anterior, aparece un cuadro de diálogo que le pide que
actualice las hojas de trabajo del proyecto. Si decide actualizar las hojas de trabajo, la aplicación recalcula
las fórmulas en cada hoja de trabajo del proyecto y, a continuación, las actualiza con los resultados de las
nuevas fórmulas.

Para obtener más información, consulte la Guía del usuario de Enterprise Data Preparation 10.4.0.

Propiedad del puerto Solr


A partir de la versión 10.4.0, la propiedad de puerto Solr se ha eliminado del servicio de preparación de datos
interactivos.

Anteriormente, la aplicación Enterprise Data Preparation utilizaba Apache Solr para recomendar pasos para
agregar a una receta durante la preparación de datos. Ahora, la aplicación utiliza un algoritmo interno para
recomendar pasos para agregar a una receta.

Enterprise Data Preparation 187


Enterprise Data Catalog
En esta sección se describen los cambios que se han realizado en la versión 10.4.0 de Enterprise Data
Catalog.

Mejoras de linaje para el recurso SAP HANA


A partir de la versión 10.4.0, es posible utilizar el recurso SAP HANA para ver el linaje de las siguientes
vistas:

• Tablas y vistas normales


• Vistas de cálculo
• Vistas analíticas

A partir de la versión 10.4.0, Enterprise Data Catalog ahora admite la creación de perfiles de las tablas y las
vistas de las bases de datos de SAP HANA para extraer estadísticas de detección de dominios y creación de
perfiles de columna.

Creación de perfiles y detección del dominio de datos


A partir de la versión 10.4.0, se puede habilitar la creación de perfiles de columnas y la detección del dominio
de datos para el recurso Google BigQuery.

Informatica Data Engineering Streaming


A partir de la versión 10.4.0, el recurso Informatica Platform admite la extracción de metadatos de una
asignación de transmisión que incluya orígenes de transmisión. Los orígenes de datos de transmisión se
crean como objetos de referencia.

El origen de transmisión admitido es Apache Kafka. Se admiten objetos de referencia de tipo seguro para los
orígenes de datos de Apache Kafka y Hive.

Cambios de nombre de recurso


A partir de la versión 10.4.0, el recurso Almacén de creación de perfiles pasa a llamarse Informatica Data
Quality.

Búsqueda Sugerencias
A partir de la versión 10.4.0, Enterprise Data Catalog ahora muestra tanto los títulos empresariales como los
nombres de activos como coincidencias probables en las sugerencias de búsqueda. Anteriormente,
Enterprise Data Catalog solo mostraba los nombres de activos como coincidencias probables en las
sugerencias de búsqueda.

Configuración de atributos personalizados


A partir de la versión 10.4.0, ahora es posible priorizar el rango de búsqueda de atributos personalizados
utilizando las opciones Alto y Bajo. Anteriormente, se podía priorizar el rango de búsqueda de atributos
personalizados utilizando las opciones Alto, Medio y Bajo.

188 Capítulo 19: Cambios en la versión 10.4


Informatica Developer
En esta sección se describen los cambios realizados en Informatica Developer en la versión 10.4.0.

Importación de objetos de datos relacionales


A partir de la versión 10.4.0, cuando se importa un recurso con el mismo nombre que un objeto de datos
físico existente, Developer tool permite elegir cómo solucionar el conflicto. Puede optar por crear un objeto
con otro nombre, reutilizar el objeto existente o sustituir el recurso para el objeto existente.

Anteriormente, Developer tool no importaba la tabla ni intentaba importar ninguna otra tabla subsiguiente.

Para obtener más información, consulte la Guía de Informatica 10.4.0 Developer Tool.

Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la
versión 10.4.0.

Transformación del validador de direcciones


En esta sección se describen los cambios en la transformación del validador de direcciones.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Todos los países


A partir de la versión 10.4, la transformación del validador de direcciones utiliza la versión 5.15.0 del motor
de software Informatica Address Verification.

Anteriormente, la transformación utilizaba la versión 5.14.0 del motor de software Informatica Address
Verification.

A partir de la versión 10.4, la transformación del validador de direcciones conserva la información de


provincia en una dirección de salida cuando los datos de referencia no contienen información de provincia
para el país. Si la dirección de salida es válida sin los datos de provincia, Address Verification devuelve una
puntuación de coincidencia V2 para indicar que la dirección de entrada es correcta, pero que la base de
datos de referencia no contiene todos los elementos de la dirección.

Anteriormente, si los datos de referencia de una dirección no contenían información de provincia para el país,
Address Verification movía la información de provincia al campo Residuo y devolvía una puntuación Cx.

España
A partir de la versión 10.4, la transformación del validador de direcciones devuelve un estado Ix para las
direcciones de España que requieren una corrección significativa para producir una coincidencia en los datos
de referencia.

Anteriormente, Address Verification podía corregir una dirección que requiriera cambios significativos y
devolver una puntuación de coincidencia excesivamente optimista para la dirección.

Informatica Developer 189


Estados Unidos
A partir de la versión 10.4, la transformación del validador de direcciones puede validar una dirección de
Estados Unidos cuando la información de organización precede a la información de calle en una línea de
dirección de entrega. Los tipos de organización reconocidos por la transformación incluyen universidades,
hospitales y oficinas corporativas. Address Verification reconoce la información de organización cuando la
operación de análisis también encuentra un número de casa y un tipo de calle en la información de calle de
la línea de dirección de entrega.

Anteriormente, Address Verification devolvía una puntuación de coincidencia Ix cuando la información de


organización precedía a la información de calle en una línea de entrega.

Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.15.0.

PowerCenter
En esta sección se describen los cambios introducidos en PowerCenter en la versión 10.4.0.

Actualización de metadatos en Designer y Workflow Manager


A partir de la versión 10.4.0, se puede actualizar el repositorio y la carpeta en Workflow Manager y Designer
sin perturbar el estado de la conexión. Las actualizaciones de repositorios y carpetas tienen lugar cuando se
crea, elimina o modifica una carpeta, o cuando se importan objetos en el cliente de PowerCenter.

Para actualizar la lista de carpetas en un repositorio, haga clic con el botón derecho en él y seleccione
Actualizar lista de carpetas. Para actualizar la carpeta y todo su contenido, haga clic con el botón derecho en
la carpeta y seleccione Actualizar.

Anteriormente, era necesario desconectar y reconectar los clientes de PowerCenter para ver las
actualizaciones en el repositorio o en la carpeta.

Para obtener más información, consulte las guías PowerCenter 10.4.0 Repository Guide, PowerCenter 10.4.0
Designer Guide y PowerCenter 10.4.0 Workflow Basics Guide.

Importar y exportar
A partir de la versión 10.4.0, es posible importar y exportar asignaciones, sesiones, flujos de trabajo y
worklets.

Para importar datos de PowerCenter al repositorio de modelos, complete las siguientes tareas:

1. Exporte los objetos de PowerCenter a un archivo mediante el cliente de PowerCenter o con el siguiente
comando:
pmrep ExportObject
2. Convierta el archivo de exportación en un archivo del repositorio de modelos mediante el siguiente
comando:
infacmd ipc importFromPC
3. Importe los objetos mediante Developer tool o con el siguiente comando:
infacmd tools importObjects

190 Capítulo 19: Cambios en la versión 10.4


Para exportar datos del repositorio de modelos al repositorio de PowerCenter, complete las siguientes
tareas:

1. Exporte los objetos del repositorio de modelos a un archivo mediante Developer tool o con el siguiente
comando:
infacmd tools ExportObjects
O bien, puede ejecutar infacmd ipc ExportToPC directamente para realizar la exportación.
2. Convierta el archivo de exportación en un archivo de PowerCenter mediante el siguiente comando:
infacmd ipc ExporttoPC
3. Importe los objetos mediante PowerCenter o con el siguiente comando:
pmrep importObjects

En las versiones 10.2.2 y 10.2.1, era posible importar desde PowerCenter con los parches del programa de
instalación, pero no se podía exportar a PowerCenter. Antes de la versión 10.2.1, se podía importar y exportar
a PowerCenter.

Para obtener más información, consulte la Guía de Informatica 10.4.0 Developer Tool, la Guía de asignaciones
de Informatica 10.4.0 Developer, la Guía de flujo de trabajo de Informatica 10.4.0 Developer y la Guía de
referencia de comandos de Informatica 10.4.0.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica en la versión 10.4.0.

PowerExchange for Amazon Redshift


A partir de la versión 10.4.0, PowerExchange for Amazon Redshift incluye los siguientes cambios:

• No necesita agregar el permiso GetBucketPolicy en la directiva de cubo de Amazon S3 para conectarse a


Amazon Redshift. Anteriormente, tenía que agregar el permiso GetBucketPolicy en la directiva de cubo
de Amazon S3 para conectarse a Amazon Redshift. Las directivas de cubo de Amazon S3 existentes con
el permiso GetBucketPolicy siguen funcionando sin cambios.
• Se han modificado las siguientes propiedades avanzadas para una operación de lectura de objeto de
datos de Amazon Redshift:

Propiedad anterior Nueva propiedad

Cifrado en el lado del servidor de S3 Tipo de cifrado


Cifrado en el lado del cliente de S3 Puede seleccionar uno de los siguientes valores:
- Ninguno
- SSE-S3
- SSE-KMS
- CSE-SMK

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
Redshift.

Adaptadores de PowerExchange para Informatica 191


PowerExchange for Amazon S3
A partir de la versión 10.4.0, no es necesario agregar el permiso GetBucketPolicy en la directiva de cubo de
Amazon S3 para conectarse a Amazon S3.

Anteriormente, tenía que agregar el permiso GetBucketPolicy en la directiva de cubo de Amazon S3 para
conectarse a Amazon S3.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for Amazon
S3.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.4.0, cuando se ejecuta una asignación de transferencia en el motor de Databricks
Spark, solo los campos conectados se escriben en el destino del archivo sin formato. Anteriormente, el
servicio de integración de datos rellenaba con valores vacíos los nombres de campos no conectados al
destino del archivo sin formato.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Blob Storage.

PowerExchange for Microsoft Azure Data Lake Storage Gen1


A partir de la versión 10.4.0, cuando se ejecuta una asignación de transferencia en el motor de Databricks
Spark, solo los campos conectados se escriben en el destino del archivo sin formato. Anteriormente, el
servicio de integración de datos rellenaba con valores vacíos los nombres de campos no conectados al
destino del archivo sin formato.

Para obtener más información, consulte la Guía del usuario de Informatica 10.4.0 PowerExchange for
Microsoft Azure Data Lake Storage Gen1.

Seguridad
En esta sección se describen los cambios introducidos en las características de seguridad en la versión
10.4.0.

Comandos infacmd isp


En la siguiente tabla se describen los comandos infacmd isp modificados:

Comando Descripción

addNameSpace La opción -ln requerida se agrega al comando. Esta opción se emplea para especificar el
nombre de la configuración de LDAP.

listLDAPConnectivity La opción -ln requerida se agrega al comando.

192 Capítulo 19: Cambios en la versión 10.4


Comando Descripción

setLDAPConnectivity El nombre del comando ha cambiado a addLDAPConnectivity. Actualice todos los scripts que
utilicen setLDAPConnectivity con la nueva sintaxis del comando.
La opción -ln requerida se agrega al comando.

updateNameSpace La opción -ln requerida se agrega al comando.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.4.0.

Servicios de directorio de LDAP


A partir de la versión 10.4.0, Informatica admite los siguientes servicios de directorio de LDAP:

• Oracle Directory Server (ODSEE)


• Oracle Unified Directory (OUD)
También puede configurar un dominio para que utilice un servicio de directorio de LDAP no certificado por
Informatica.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.4.0.

Configuraciones de LDAP
A partir de la versión 10.4.0, es posible configurar un dominio de Informatica para permitir a los usuarios
importados de uno o varios servicios de directorio de LDAP iniciar sesión en nodos, servicios y clientes de
aplicación de Informatica.

Anteriormente, se podía configurar un dominio de Informatica para importar usuarios de un único servicio de
directorio de LDAP.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.4.0.

Autenticación de SAML
A partir de la versión 10.4.0, Informatica admite los siguientes proveedores de identidades:

• Microsoft Active Directory Federation Services (AD FS) 2.0


• Microsoft Active Directory Federation Services (AD FS) 4.0
• PingFederate 9.2.2
Anteriormente, Informatica solo admitía el proveedor de identidades AD FS 2.0.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.4.0.

Seguridad 193
Parte V: Versión 10.2.2 a 10.2.2
HotFix 1
Esta parte incluye los siguientes capítulos:

• Versión 10.2.2 HotFix1, 195


• Versión 10.2.2 Service Pack 1, 203
• Avisos importantes de la versión 10.2.2, 211
• Novedades de la versión 10.2.2, 219
• Cambios en la versión 10.2.2, 252

194
Capítulo 20

Versión 10.2.2 HotFix1


Este capítulo incluye los siguientes temas:

• Avisos importantes, 195


• Novedades, 196
• Cambios, 200

Avisos importantes

Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2.2 HotFix 1 Service Pack 1.

Versión preliminar técnica Compatibilidad


Versión preliminar técnica iniciada
A partir de la versión 10.2.2 HotFix 1 Service Pack 1, Informatica incluye la siguiente funcionalidad de versión
preliminar técnica:

Hive Warehouse Connector y LLAP de Hive

Para los productos de Big Data, utilice Hive Warehouse Connector y LLAP de Hive con Azure HDInsight
4.x y Hortonworks HDP 3.x para habilitar el código de Spark para que interactúe con las tablas de Hive y
permitir las tablas de Hive habilitadas para ACID en el motor de Spark.

La funcionalidad de vista previa técnica se admite para fines de evaluación, pero no está justificada y no es
compatible con entornos de producción ni ningún entorno que planee enviar a producción. Informatica tiene
la intención de incluir la funcionalidad de vista previa en una próxima versión para poder usarla en
producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del mercado o las
circunstancias técnicas en ese momento. Para obtener más información, póngase en contacto con el
servicio internacional de atención al cliente de Informatica.

Eliminación de versión preliminar técnica


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, Hortonworks HDP 3.1 ya no forma parte de la versión
preliminar técnica.

La actualización a HDP 3.1 podría afectar las tablas Hive administradas. Antes de actualizar, revise la
información de actualización de HDP 3.1 y las limitaciones conocidas de Cloudera en el artículo de la base
de conocimiento What Should Big Data Customers Know About Upgrading to Hortonworks HDP 3.1?.

195
Póngase en contacto con Informatica Global Customer Services o Cloudera Professional Services para
validar sus planes de actualización a HDP 3.1.

Novedades

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.2.2 HotFix 1.

Comandos infacmd ldm


En la siguiente tabla se describen las nuevas opciones de comando infacmd ldm:

Nueva opción Descripción

-Force Opcional. Si desea forzar la copia de seguridad cuando el modo de copia de seguridad es sin
-fr conexión. Realiza a la fuerza la copia de seguridad y sobrescribe la copia de seguridad existente.

-Force Opcional. Si desea limpiar el contenido existente de HDFS y Apache Zookeeper. Restaura a la fuerza
-fr los datos de la copia de seguridad.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ldm" en la Referencia
de comandos de Informatica 10.2.2 HotFix 1.

Big Data Management


En esta sección se describen las nuevas características de Big Data Management en la versión 10.2.2 HotFix
1 Service Pack 1.

Azure Data Lake Storage Gen2


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, las asignaciones pueden leerse y escribirse en una
cuenta de almacenamiento de Azure Data Lake Storage Gen2 asociada con un clúster de HDInsight.

Para obtener más información sobre cómo integrar Big Data Management con un clúster que usa el
almacenamiento ADLS Gen2, consulte la Guía de integración de Big Data Management. Para obtener
información sobre cómo usar asignaciones con orígenes y destinos ADLS Gen2, consulte la Guía del usuario
de Big Data Management.

Enterprise Data Catalog


En esta sección se describen las nuevas características de la versión 10.2.2 HotFix 1 de Enterprise Data
Catalog.

196 Capítulo 20: Versión 10.2.2 HotFix1


Azure Data Lake Storage Gen2
A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos desde un origen de Azure Data Lake
Storage Gen2. Puede acceder a los metadatos de los archivos y las carpetas, así como extraerlos en una
cuenta de almacenamiento de Azure Data Lake Storage Gen 2 para Enterprise Data Catalog.

Para obtener más información, consulte el capítulo "Azure Data Lake Store" de la Guía de configuración del
escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.

Vinculación sin distinción entre mayúsculas y minúsculas


A partir de la versión 10.2.2 HotFix 1, los recursos se pueden configurar para que no distingan entre
mayúsculas y minúsculas. Esta opción le permite ver el linaje vinculado entre los orígenes y los destinos
independientemente del uso de minúsculas y mayúsculas en los nombres de los recursos.

Para obtener información sobre la vinculación sin distinción entre mayúsculas y minúsculas, consulte el
capítulo sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2
HotFix 1.

Extensión Tableau de Enterprise Data Catalog


A partir de la versión 10.2.2 HotFix 1, la extensión Tableau de Enterprise Data Catalog es una extensión
nativa del panel de Tableau que se puede utilizar dentro de Tableau.

La extensión Tableau de Enterprise Data Catalog se puede utilizar en Tableau Desktop, Tableau Server y en
todos los navegadores web que sean compatibles con Tableau. Descargue la extensión desde la aplicación
de Enterprise Data Catalog y añádala a un panel en Tableau.

Para obtener más información sobre la extensión, consulte la guía de la extensión de Informatica Enterprise
Data Catalog 10.2.2 HotFix 1 para Tableau.

Nuevos recursos
A partir de la versión 10.2.2 HotFix 1, los siguientes recursos nuevos se añaden a Enterprise Data Catalog:

• SAP PowerDesigner. Se puede extraer información de los metadatos, la relación y el linaje de un origen de
datos de SAP PowerDesigner.
• SAP HANA. Se pueden extraer metadatos de linaje y objetos de una base de datos de SAP HANA.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.2.2 HotFix 1.

Escáner de almacén de creación de perfiles


A partir de la versión 10.2.2 HotFix 1, se puede crear uno o varios recursos del almacén de creación de
perfiles. Puede asociar un almacén de creación de perfiles y elegir esquemas en el recurso. Cuando ejecuta
el recurso, el escáner extrae y migra los resultados del perfil para los esquemas seleccionados desde el
almacén de creación de perfiles asociado al catálogo.

Para obtener más información, consulte el capítulo sobre la configuración de escáneres de Informatica
Platform en la Guía de configuración del escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.

API de REST
A partir de la versión 10.2.2 HotFix 1, puede usar las siguientes API de REST de Informatica Enterprise Data
Catalog:

• API de REST de provisión de datos. Puede devolver, actualizar o eliminar conexiones y recursos.

Novedades 197
• API de REST del modelo de catálogo. Además de las API de REST existentes, puede acceder, actualizar o
eliminar las facetas de campos, las facetas de consultas y las fichas de búsqueda.
• API de objetos. Además de las API de REST existentes, puede enumerar las sugerencias y la búsqueda de
catálogo.
Para obtener más información sobre las API de REST, consulte la Referencia de la API de REST de Informatica
Enterprise Data Catalog 10.2 .2 HotFix 1.

Búsqueda Mejoras
A partir de la versión 10.2.2 HotFix 1, se pueden realizar mejores búsquedas en Enterprise Data Catalog en
función de las siguientes mejoras:

Búsqueda de comillas dobles

Se puede realizar una búsqueda de activos mediante las comillas dobles ("") para buscar activos que
tengan exactamente el nombre del activo que se incluya entre las comillas dobles, pero no las
variaciones del nombre del activo en el catálogo.

Operadores de búsqueda

Se pueden utilizar nuevos operadores de búsqueda para que los resultados de la búsqueda sean más
precisos. Los operadores de búsqueda son AND, OR, NOT, título y descripción.

Rango de búsqueda

Enterprise Data Catalog utiliza un algoritmo de clasificación para clasificar los activos de datos en la
página de resultados de búsqueda. La clasificación de la búsqueda hace referencia a la precedencia de
un activo cuando se compara con otros activos que forman parte de los resultados de búsqueda
específicos.

Búsqueda relacionada

La opción Mostrar búsqueda relacionada se puede habilitar en la página Resultados de búsqueda para
ver los activos relacionados.

Si desea más información sobre las mejoras en las búsquedas, consulte el capítulo "Buscar activos" en la
Guía del usuario de Informatica Enterprise Data Catalog 10.2.2 Hotfix 1.

Búsqueda Tabuladores
A partir de la versión 10.2.2 HotFix 1, se pueden usar las fichas de búsqueda para buscar activos sin tener
que establecer continuamente los mismos criterios de búsqueda cuando se realice una búsqueda para los
activos. Las fichas de búsqueda son filtros predefinidos en el catálogo.

Si desea más información sobre las fichas de búsqueda, consulte el capítulo "Personalizar búsqueda" en la
Guía del usuario de Informatica Enterprise Data Catalog 10.2.2 Hotfix 1.

Tipos de recursos compatibles en la utilidad de escáner independiente


A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos de los siguientes orígenes externos
cuando no se pueda acceder a ellos en tiempo de ejecución o cuando estén desconectados:

• Apache Atlas
• Cloudera Navigator
• Sistema de archivos
• HDFS

198 Capítulo 20: Versión 10.2.2 HotFix1


• Hive
• Informatica Platform
• MicroStrategy
• OneDrive
• Oracle Business Intelligence
• SharePoint
• Sybase
• Tableau

Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.

Versión preliminar técnica


La versión 10.2.2 HotFix 1 de Enterprise Data Catalog incluye la funcionalidad que está disponible para la
versión preliminar técnica.

La funcionalidad de versión preliminar técnica es compatible, pero no se garantiza ni está preparada para
usarla en producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.
Informatica tiene la intención de incluir la funcionalidad de versión preliminar en una próxima versión de
disponibilidad general (GA) para poder usarla en producción, pero podría decidir no hacerlo en función de
cuáles sean los requisitos del mercado o las circunstancias técnicas en ese momento. Para obtener más
información, póngase en contacto con el servicio internacional de atención al cliente de Informatica.

A partir de la versión 10.2.2 HotFix 1, las siguientes funciones están disponibles para la versión preliminar
técnica:

• A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos para el linaje de datos en el nivel de
columna, incluida la lógica de transformación de un origen de datos de Oracle Data Integrator.
• A partir de la versión 10.2.2 HotFix 1, se pueden extraer metadatos para el linaje de datos en el nivel de
columna, incluida la lógica de transformación de un origen de datos de IBM InfoSphere DataStage.
• A partir de la versión 10.2.2 HotFix 1, se puede extraer el linaje de datos en el nivel de columna para los
procedimientos almacenados en Oracle y SQL Server.
• A partir de la versión 10.2.2 HotFix 1, se puede realizar el aprovisionamiento de datos después de
completar la obtención de datos en el catálogo. Gracias al aprovisionamiento de datos, podrá mover los
datos a un destino para realizar otros análisis.
Si desea más información sobre la obtención de una vista previa de los datos, consulte la Guía del
administrador de Informatica Catalog 10.2.2 HotFix 1 y la Guía del usuario de Informatica Enterprise Data
Catalog 10.2.2 Hotfix 1.
• A partir de la versión 10.2.2 HotFix 1, se puede obtener una vista previa de los datos para evaluarlos antes
de trasladarlos al destino. Solo se pueden obtener vistas previas de los datos para los activos tabulares
de los recursos de Oracle y Microsoft SQL Server.
Si desea más información sobre la obtención de una vista previa de los datos, consulte la Guía del
administrador de Informatica Catalog 10.2.2 HotFix 1 y la Guía del usuario de Informatica Enterprise Data
Catalog 10.2.2 Hotfix 1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica en la versión
10.2.2 HotFix 1 Service Pack 1.

Novedades 199
PowerExchange for Google Analytics
A partir de la versión 10.2.2 HotFix 1 Service Pack 1, puede ejecutar asignaciones de PowerExchange for
Google Analytics en el motor de Spark en las siguientes distribuciones:

• Amazon EMR versión 5.20


• Google Cloud Dataproc versión 1.3
• Hortonworks HDP versión 3.1

PowerExchange for Google BigQuery


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, puede ejecutar asignaciones de PowerExchange for
Google BigQuery en el motor de Spark en las siguientes distribuciones:

• Amazon EMR versión 5.20


• Google Cloud Dataproc versión 1.3
• Hortonworks HDP versión 3.1

PowerExchange for Google Cloud Spanner


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, puede ejecutar asignaciones de PowerExchange for
Google Cloud Spanner en el motor de Spark en las siguientes distribuciones:

• Amazon EMR versión 5.20


• Google Cloud Dataproc versión 1.3
• Hortonworks HDP versión 3.1

PowerExchange for Google Cloud Storage


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, puede ejecutar asignaciones de PowerExchange for
Google Cloud Storage en el motor de Spark en las siguientes distribuciones:

• Amazon EMR versión 5.20


• Google Cloud Dataproc versión 1.3
• Hortonworks HDP versión 3.1

Cambios

Data Transformation
En esta sección se describen los cambios realizados en la versión 10.2.2 HotFix 1 de Data Transformation.

Herramientas de creación de informes e inteligencia empresarial (BIRT)


A partir de la versión 10.2.2 HotFix 1, las herramientas de creación de informes e inteligencia empresarial
(BIRT) ya no se incluyen en el paquete con Data Transformation.

Podrá descargar BIRT desde la ubicación mencionada en el siguiente archivo:

200 Capítulo 20: Versión 10.2.2 HotFix1


<directorio de instalación de Data Transformation>/readme_Birt.txt

Si intenta utilizar BIRT desde Data Transformation antes de descargarlo, podría obtener el siguiente error:

No se encontró el motor de informes de Birt. Vea las instrucciones de descarga en [DT-home]/


readme_Birt.txt.

Anteriormente, BIRT se incluía en el paquete con Data Transformation.

Enterprise Data Preparation


En esta sección se describen los cambios que se han realizado en la versión 10.2.2 HotFix 1 de Enterprise
Data Preparation.

Búsqueda de activos de datos


A partir de la versión 10.2.2 HotFix 1, las funcionalidades de búsqueda de activos de datos y la interfaz de
usuario se actualizan para reflejar los cambios realizados en Enterprise Data Catalog.

Para obtener más información, consulte la Guía del usuario de Informatica Enterprise Data Preparation 10.2.2
HotFix 1.

Enterprise Data Catalog


En esta sección se describen los cambios que se han realizado en la versión 10.2.2 HotFix 1 de Enterprise
Data Catalog.

Propagación de términos empresariales


A partir de la versión 10.2.2 HotFix 1, ahora puede configurar los valores de Asociación de términos
empresariales para que un recurso pueda asociar automáticamente títulos empresariales asociados con los
activos. Anteriormente, para asociar automáticamente los títulos empresariales con los activos, tenía que
configurar la opción Ejecutar perfil de similaridad. También se pueden asociar automáticamente los títulos
empresariales con tablas y activos de archivo. Anteriormente, solo se podían asociar automáticamente
títulos empresariales con columnas y activos de campo.

Para obtener información sobre la propagación de términos empresariales, consulte el capítulo sobre los
conceptos de Enterprise Data Catalog en la Guía del administrador de Informatica Catalog 10.2.2 HotFix 1.

Recursos personalizados
A partir de la versión 10.2.2 HotFix 1, los recursos personalizados incluyen las siguientes mejoras:
Ver el resumen o los detalles del linaje para las transformaciones de ETL

Puede configurar los recursos personalizados de ETL para ver el resumen o los detalles del linaje para
las transformaciones de ETL entre varios orígenes de datos.

Especificar una ruta de archivo remota para el archivo .zip de metadatos

Cuando configura un recurso personalizado, puede proporcionar una ruta de acceso remota al
archivo .zip que incluye los metadatos personalizados que desea incluir en el catálogo. Puede utilizar la
ruta de archivo remota para automatizar y programar exploraciones de recursos personalizados.

Configurar el recurso personalizado para utilizar un script definido por el usuario para extraer metadatos

Si ha automatizado el proceso mediante el cual se preparan los metadatos personalizados y se genera


el archivo .zip mediante un script o una secuencia de comandos, puede proporcionar los detalles cuando
configure el recurso. Enterprise Data Catalog ejecuta el script antes de ejecutar el recurso.

Cambios 201
Configurar iconos personalizados para activos de datos de recursos personalizados

Es posible personalizar y configurar iconos para las clases que defina en el modelo personalizado. Los
iconos aparecen en Enterprise Data Catalog para representar los activos de datos desde un recurso
personalizado.

Configurar las vistas de relaciones para los recursos personalizados

La página Vistas de relaciones se puede configurar en Enterprise Data Catalog para los recursos
personalizados. Como parte de la configuración, se puede definir un conjunto de configuraciones para
clases en el modelo personalizado. En función de las definiciones, puede filtrar o agrupar objetos
relacionados para cada tipo de clase y ver los objetos en la página Vistas de relaciones.

Para obtener más información, consulte la Guía del administrador de Informatica Catalog 10.2.2 HotFix 1.

Documentación Cambios
A partir de la versión 10.2.2 HotFix 1, toda la información relacionada con la creación y la configuración de
recursos se trasladará desde la Guía del administrador de Catalog a una nueva guía llamada Guía de
configuración del escáner de Informatica Enterprise Data Catalog 10.2.2 HotFix 1.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica Enterprise Data
Catalog 10.2.2 HotFix 1.

Microsoft SQL Server Recurso


A partir de la versión 10.2.2 HotFix 1, el recurso de Microsoft SQL Server admite la autenticación basada en
Windows mediante el agente de Enterprise Data Catalog.

Para obtener más información, consulte la Guía de configuración del escáner de Informatica 10.2.2 HotFix 1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica en la versión 10.2.2
HotFix 1 Service Pack 1.

PowerExchange for Amazon Redshift


A partir de la versión 10.2.2 HotFix 1 Service Pack 1, no necesita agregar el permiso GetBucketPolicy en la
directiva de cubo de Amazon S3 para conectarse a Amazon Redshift.

Anteriormente, tenía que agregar el permiso GetBucketPolicy en la directiva de cubo de Amazon S3 para
conectarse a Amazon Redshift.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2 HotFix 1.

202 Capítulo 20: Versión 10.2.2 HotFix1


Capítulo 21

Versión 10.2.2 Service Pack 1


Este capítulo incluye los siguientes temas:

• Avisos importantes, 203


• Novedades, 205
• Cambios, 207

Avisos importantes

Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2.2 Service Pack 1.

Compatibilidad diferida
A partir de la versión 10.2.2 Service Pack 1, Informatica postergó la compatibilidad con las siguientes
funcionalidades:

Transmisión de la transformación de enmascaramiento de datos

Con los cambios en la compatibilidad transmisiones, se ha pospuesto la transformación de


enmascaramiento de datos en las asignaciones de transmisión.

Informatica tiene la intención de reinstaurarla en una próxima versión, pero podría decidir no hacerlo en
función de cuáles sean los requisitos del mercado o las circunstancias técnicas en ese momento.

Versión preliminar técnica Compatibilidad


A partir de la versión 10.2.2 Service Pack 1, Informatica incluye la siguiente funcionalidad de vista previa
técnica:

Conexiones de Kafka habilitadas con SSL para transmisiones

Al crear una conexión de Kafka, puede usar propiedades de conexión SSL para configurar el agente de
Kafka.

Compatibilidad con Hortonworks HDP 3.1

Puede utilizar productos de Informatica Big Data con Hortonworks HDP versión 3.1.

La funcionalidad de vista previa técnica se puede utilizar con fines de evaluación, pero no se garantiza ni
está preparada para usarla en producción. Informatica recomienda utilizarla solo en entornos que no sean de

203
producción. Informatica tiene la intención de incluir la funcionalidad de vista previa en una próxima versión
para poder usarla en producción, pero podría decidir no hacerlo en función de cuáles sean los requisitos del
mercado o las circunstancias técnicas en ese momento. Para obtener más información, póngase en
contacto con el servicio internacional de atención al cliente de Informatica.

Cambios en los nombres de productos y servicios


En esta sección se describen los cambios introducidos en los nombres de productos y servicios en la versión
10.2.2 Service Pack 1.

Se han modificado los siguientes nombres de productos y servicios:

• El producto Enterprise Data Lake ha cambiado su nombre a Enterprise Data Preparation.


• El servicio Enterprise Data Lake Service ha cambiado su nombre a Enterprise Data Preparation Service.
• El servicio Data Preparation Service ha cambiado su nombre a Interactive Data Preparation Service.

Tareas de la versión
En esta sección se describen las tareas de la versión en la versión 10.2.2 Service Pack 1. Las tareas de la
versión son tareas que se deben realizar después de actualizar a la versión 10.2.2 Service Pack 1.

Sqoop Conectividad
A partir de la versión 10.2.2 Service Pack 1, las siguientes tareas de la versión son de aplicación en Sqoop:

• Cuando se utiliza Cloudera Connector Powered by Teradata para ejecutar asignaciones existentes de
Sqoop en el motor de Spark o Blaze y en Cloudera CDH versión 6.1.x, debe descargar los archivos
junit-4.11.jar y sqoop-connector-teradata-1.7c6.jar.
Antes de ejecutar las asignaciones existentes de Sqoop en Cloudera CDH versión 6.1.x, realice las
siguientes tareas:
1. Descargue y copie el archivo junit-4.11.jar desde la siguiente dirección URL:
http://central.maven.org/maven2/junit/junit/4.11/junit-4.11.jar
2. En el nodo donde se ejecuta el servicio de integración de datos, añada el archivo junit-4.11.jar al
siguiente directorio: <directorio de instalación de Informatica>\externaljdbcjars-
3. Descargue y extraiga el paquete de Cloudera Connector Powered by Teradata del sitio web de
Cloudera y copie el siguiente archivo: sqoop-connector-teradata-1.7c6.jar.
4. En el nodo donde se ejecuta el servicio de integración de datos, añada el archivo sqoop-connector-
teradata-1.7c6.jar al siguiente directorio: <directorio de instalación de Informatica>
\externaljdbcjars.
• Para ejecutar asignaciones de Sqoop en el motor de Blaze o Spark y en Cloudera CDH, ya no necesita
establecer las entradas de mapreduce.application.classpath en el archivo mapred-site.xml de
aplicaciones MapReduce.
Si utiliza Cloudera CDH versión 6.1.x para ejecutar las asignaciones de Sqoop existentes, quite las
entradas de mapreduce.application.classpath del archivo mapred-site.xml.
Para obtener más información, consulte la Guía de integración de Informatica Big Data Management
10.2.2 Service Pack 1.

204 Capítulo 21: Versión 10.2.2 Service Pack 1


Novedades

Big Data Management


En esta sección se describen las nuevas características de Big Data Management en la versión
10.2.2 Service Pack 1.

Sqoop
A partir de la versión 10.2.2 Service Pack 1, puede utilizar las siguientes nuevas características de Sqoop.

Conexión con bases de datos de Oracle y Microsoft SQL Server habilitadas con SSL
Puede configurar Sqoop para que se conecte con bases de datos relacionales seguras como Oracle y
Microsoft SQL Server.

Utilice el argumento de conexión y la cadena de conexión de JDBC adecuados en la conexión JDBC para
conectarse a una base de datos de Oracle o Microsoft SQL Server habilitada con SSL.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management
10.2.2 Service Pack 1.

Compatibilidad con el argumento connection-param-file de Sqoop


Puede definir el argumento connection-param-file para conectarse con una base de datos de Oracle
habilitada con SSL. El argumento connection-param-file es un archivo de propiedad que especifica los
parámetros JDBC adicionales que Sqoop debe utilizar para conectarse con la base de datos habilitada con
SSL.

El contenido de este archivo se analiza como una propiedad Java estándar y pasa al controlador cuando se
crea una conexión.

El argumento connection-param-file se puede especificar en el campo Argumentos de Sqoop de la


conexión JDBC.

Utilice la siguiente sintaxis:

--connection-param-file <nombre_archivo_parámetro>

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management
10.2.2 Service Pack 1.

Big Data Transmisión


En esta sección se describen las nuevas características de Big Data Streaming en la versión 10.2.2 Service
Pack 1.

Destino de Amazon S3
A partir de la versión 10.2.2 Service Pack 1, puede crear una asignación de transmisión para escribir datos en
Amazon S3.

Cree un objeto de datos de Amazon S3 para escribir datos en Amazon S3. Puede crear una conexión de
Amazon S3 para utilizar Amazon S3 como destinos. Una conexión de Amazon S3 se puede crear y
administrar en Developer tool o a través de infacmd.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2 Service
Pack 1.

Novedades 205
Función TIME_RANGE
A partir de la versión 10.2.2 Service Pack 1, puede utilizar la función TIME_RANGE en una transformación de
combinación que determina el intervalo de tiempo de los eventos de transmisión que se van a unir.

La función TIME_RANGE es válida únicamente en transformaciones de combinación en una asignación de


transmisión.

Sintaxis
TIME_RANGE(EventTime1,EventTime2,Format,Interval)
Si desea más información sobre la función TIME_RANGE, consulte la Guía de referencia de lenguaje de
transformación de Informatica 10.2.2 Service Pack 1.

Escritura de datos en varios archivos HDFS


A partir de la versión 10.2.2 Service Pack 1, puede utilizar un objeto de datos de archivo complejo para
escribir los datos de origen en varios archivos HDFS. Según los valores de puerto del encabezado FileName
del objeto de datos de archivo complejo, el servicio de integración de datos crea varios archivos HDFS en
tiempo de ejecución en la ubicación de destino.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2 Service
Pack 1.

Enterprise Data Catalog


En esta sección se describe la nueva característica de Enterprise Data Catalog en la versión 10.2.2 Service
Pack 1.

Tipos de recursos compatibles en la utilidad de escáner independiente


A partir de la versión 10.2.2 Service Pack 1, puede extraer metadatos de los siguientes orígenes externos
cuando no se pueda acceder a ellos en tiempo de ejecución o cuando estén desconectados:

• IBM DB2
• IBM DB2 for z/OS
• IBM Netezza
• JDBC
• PowerCenter
• SQL Server Integration Services

Para obtener más información, consulte el capítulo sobre extracción de metadatos de recursos inaccesibles
o sin conexión en la Guía del administrador de Enterprise Data Catalog en Informatica 10.2.2 Service Pack 1.

Enterprise Data Preparation


En esta sección se describen las nuevas características de Enterprise Data Preparation en la versión
10.2.2 Service Pack 1.

Revertir todos los tipos de datos inferidos


A partir de la versión 10.2.2 Service Pack 1, todos los dominios de datos y tipos inferidos que se han
aplicado a las columnas de origen de una hoja de trabajo se pueden revertir a sus tipos originales.

206 Capítulo 21: Versión 10.2.2 Service Pack 1


Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Enterprise Data Preparation de Informatica 10.2.2 Service Pack 1.

Preparar archivos Avro y Parquet


A partir de la versión 10.2.2 Service Pack 1, puede muestrear los datos jerárquicos de los archivos Avro y
Parquet que agregue al proyecto como primer paso en la preparación de datos. Enterprise Data Preparation
convierte la estructura del archivo Avro o Parquet en una estructura sin formato, y presenta los datos en una
hoja de cálculo que sirve para preparar los datos.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Enterprise Data Preparation de Informatica 10.2.2 Service Pack 1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica en la versión
10.2.2 Service Pack 1.

PowerExchange for Hive


A partir de la versión 10.2.2 Service Pack 1, cuando importe una tabla de Hive, puede utilizar la opción
Mostrar solo esquema predeterminado para borrar los resultados de búsqueda y mostrar solo las tablas que
usan el esquema predeterminado, o para buscar las tablas que usan un esquema que no sea el esquema
predeterminado.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Hive
10.2.2 Service Pack 1.

Cambios

Big Data Management


En esta sección se describen los cambios introducidos en Big Data Management en la versión 10.2.2 Service
Pack 1.

Servicio de integración de datos Colas


A partir de la versión 10.2.2 Service Pack 1, el servicio de integración de datos utiliza una cola distribuida
para almacenar información de trabajos de forma predeterminada.

La cola local solo se puede habilitar mediante una propiedad personalizada. Si requiere esta funcionalidad,
póngase en contacto con el servicio internacional de atención al cliente de Informatica.

Antes, el servicio de integración de datos utilizaba de forma predeterminada una cola local en cada nodo, y
solo utilizaba la cola distribuida en trabajos de Spark cuando estaba habilitada la recuperación de Big Data.

Para obtener más información, consulte el capítulo sobre procesamiento del servicio de integración de datos
en la Guía del administrador de Informatica Big Data Management 10.2.2 Service Pack 1.

Cambios 207
Ingesta masiva
A partir de la versión 10.2.2 Service Pack 1, puede seleccionar el valor predeterminado del clúster como el
formato de almacenamiento de una especificación de ingesta masiva que ingiere datos en un destino de
Hive. Si selecciona el valor predeterminado del clúster, la especificación utilizará el formato de
almacenamiento predeterminado en el clúster de Hadoop.

Antes, la especificación utilizaba el formato de almacenamiento predeterminado en el clúster cuando se


seleccionaba el formato de almacenamiento de texto. En 10.2.2 Service Pack 1, al seleccionar el formato de
almacenamiento de texto, los datos se ingieren en un archivo de texto estándar.

Big Data Transmisión


En esta sección se describen los cambios introducidos en Big Data Streaming en la versión 10.2.2 Service
Pack 1.

Transformaciones
En esta sección se describen los cambios en las transformaciones que se han introducido en la versión
10.2.2 Service Pack 1 de Big Data Streaming.

Transformación de rango
A partir de la versión 10.2.2 Service Pack 1, una asignación de transmisión debe cumplir con los siguientes
requisitos adicionales si contiene una transformación de rango:

• Una asignación de transmisión no puede contener una transformación de rango y una transformación de
búsqueda pasiva que esté configurada con una condición de búsqueda de desigualdad en el mismo
canal. Antes, se podía utilizar una transformación de rango y una transformación de búsqueda pasiva que
estuviera configurada con una condición de búsqueda de desigualdad en el mismo canal.
• Una transformación de rango en una asignación de transformación no puede tener una transformación de
combinación de nivel inferior. Antes, se podía utilizar una transformación de rango en cualquier parte
antes de una transformación de combinación en una asignación de transmisión.
• Una asignación de transmisión no puede contener más de una transformación de rango en el mismo
canal. Antes, se podían utilizar varias transformaciones de rango en una asignación de transmisión.
• Una asignación de transmisión no puede contener una transformación de agregación y una
transformación de rango en el mismo canal. Antes, se podía utilizar una asignación de agregación y una
transformación de rango en el mismo canal.

Transformación de ordenación
A partir de la versión 10.2.2 Service Pack 1, una asignación de transmisión debe cumplir con los siguientes
requisitos adicionales si contiene una transformación de ordenación:

• Una asignación de transmisión se ejecuta en el modo de salida completo si contiene una transformación
de ordenación. Antes, una asignación de transmisión se ejecutaba en el modo de salida de anexión si
contenía una transformación de ordenación.
• Una transformación de ordenación en una asignación de transmisión debe tener una transformación de
agregación de nivel superior. Antes, se podía utilizar una transformación de ordenación sin una
transformación de agregación de nivel superior.
• La transformación de ventana en el nivel superior de una transformación de agregación se ignorará si la
asignación contiene una transformación de ordenación. Antes, la transformación de ventana en el nivel
superior de una transformación de agregación no se ignoraba si la asignación contenía una
transformación de ordenación.

208 Capítulo 21: Versión 10.2.2 Service Pack 1


Informatica Analyst
En esta sección se describen los cambios introducidos en la versión 10.2.2 Service Pack 1 de la Herramienta
del analista.

Vista predeterminada
A partir de la versión 10.2.2 Service Pack 1, la vista predeterminada del archivo sin formato y los objetos de
tabla es la ficha Propiedades. Cuando se crea o se abre un archivo sin formato o un objeto de datos de tabla,
el objeto se abre en la ficha Propiedades. Antes, la vista predeterminada era la ficha Visor de datos.

Para obtener más información, consulte la Guía de la Herramienta del analista de Informatica 10.2.2 Service
Pack 1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica en la versión
10.2.2 Service Pack 1.

PowerExchange for Amazon Redshift


A partir de la versión 10.2.2 Service Pack 1, PowerExchange for Amazon Redshift incluye los siguientes
cambios:

• PowerExchange for Amazon Redshift admite el tipo de cifrado Cifrado en el lado del servidor con KMS en
las siguientes distribuciones:
- Amazon EMR versión 5.20

- Cloudera CDH versiones 5.16 y 6.1

Antes, el servicio de integración de datos admitía el tipo de cifrado Cifrado en el lado del servidor con
KMS en las siguientes distribuciones:
• Amazon EMR versión 5.16
• Cloudera CDH versión 5.15
• Las siguientes distribuciones no se pueden utilizar para ejecutar asignaciones de Amazon Redshift:
- MapR versión 5.2

- IBM BigInsight

Antes, se podían utilizar las distribuciones de MapR versión 5.2 e IBM BigInsight para ejecutar
asignaciones de Amazon Redshift.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2 Service Pack 1.

PowerExchange for Amazon S3


A partir de la versión 10.2.2 Service Pack 1, PowerExchange for Amazon S3 incluye los siguientes cambios:

• PowerExchange for Amazon S3 admite el tipo de cifrado Cifrado en el lado del servidor con KMS en las
siguientes distribuciones:
- Amazon EMR versión 5.20

- Cloudera CDH versiones 5.16 y 6.1

Cambios 209
Antes, PowerExchange for Amazon S3 admitía el tipo de cifrado Cifrado en el lado del servidor con KMS
en las siguientes distribuciones:
• Amazon EMR versión 5.16
• Cloudera CDH versión 5.15
• Las siguientes distribuciones no se pueden utilizar para ejecutar asignaciones de Amazon S3:
- MapR versión 5.2

- IBM BigInsight

Antes, se podían utilizar las distribuciones de MapR versión 5.2 e IBM BigInsight para ejecutar
asignaciones de Amazon S3.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2 Service Pack 1.

210 Capítulo 21: Versión 10.2.2 Service Pack 1


Capítulo 22

Avisos importantes de la versión


10.2.2
Este capítulo incluye los siguientes temas:

• Instalación y configuración, 211


• Cambios en la compatibilidad, 213
• Tareas de la versión, 215
• Nuevos productos, 218

Instalación y configuración
En esta sección se describen los avisos relacionados con la instalación y configuración de Big Data en la
versión 10.2.2.

OpenJDK
A partir de la versión 10.2.2, el programa de instalación de Informatica incluye OpenJDK (AzulJDK). La
versión de Java compatible es Azul OpenJDK 1.8.192.

Puede usar OpenJDK para implementar Enterprise Data Catalog en un clúster incrustado. Para implementar
Enterprise Data Catalog en un clúster existente, debe instalar JDK 1.8 en todos los nodos del clúster.

Informatica ya no admite las propiedades del servicio de integración de datos para la opción de ejecución,
Directorio de inicio de JDK. Las asignaciones de Sqoop en el motor de Spark usan el kit de desarrollo de Java
(JDK) que se incluye con el programa de instalación de Informatica.

Anteriormente, el programa de instalación usaba el Oracle Java que se incluía con el programa de
instalación. También tenía que instalar y después especificar el directorio de instalación de JDK en el equipo
del servicio de integración de datos para ejecutar asignaciones de Sqoop, especificaciones de ingesta
masiva que usan una conexión de Sqoop en el motor de Spark o para procesar una transformación de Java
en el motor de Spark.

211
Firma de código del programa de instalación
A partir de la versión 10.2.2, Informatica usa una firma digital basada en certificados para firmar el código de
software de Informatica. La firma de código ayuda a validar y asegurar el código contra cualquier forma de
manipulación después de la firma digital del código del programa de instalación.

Informatica empaqueta la clave pública, la firma y el hash del archivo en el paquete del programa de
instalación. Una vez que Informatica firme el paquete de software, puede ponerse en contacto con el servicio
internacional de atención al cliente de Informatica para acceder a la clave pública.

Para obtener más información acerca del proceso de firma de código del programa de instalación o sobre
cómo un cliente puede comprobar que el código firmado es auténtico, consulte la Guía de instalación y
configuración de Informatica Big Data Suite 10.2.2.

Reanudar el programa de instalación


A partir de la versión 10.2.2, puede reanudar el proceso de instalación desde el punto en el que salió o se
produjo el error. Si se produce un error con el servicio o con el proceso de instalación durante la creación de
un servicio, puede reanudar dicho proceso con el programa de instalación del servidor. No puede reanudar el
programa de instalación si lo está ejecutando para configurar servicios después de que estos se hayan
creado. Tampoco puede reanudarlo cuando se une al dominio.

Para obtener más información acerca de cómo reanudar el programa de instalación, consulte la Guía de
instalación y configuración de Informatica Big Data Suite 10.2.2.

Utilidad de Informatica Docker


A partir de la versión 10.2.2, puede usar la utilidad de Informatica Docker para instalar rápidamente el
dominio de Informatica.

Al ejecutar la utilidad de Informatica Docker, puede crear la imagen de Informatica Docker con el sistema
operativo base y los archivos binarios de Informatica. Puede ejecutar la imagen de Informatica Docker para
configurar el dominio de Informatica. Al ejecutar la imagen de Informatica Docker, puede crear un dominio o
unirse a uno. Puede crear el servicio de repositorio de modelos, el servicio de integración de datos y la
configuración del clúster durante la creación del contenedor.

Para obtener más información sobre la utilidad Informatica Docker, consulte el artículo
How to Install Big Data Management 10.2.2 Using a Docker Utility en Informatica Network.

Programa de instalación
En esta sección se describen los cambios en el programa de instalación de Informatica en la versión 10.2.2.

Configurar Enterprise Data Catalog


Si instala los archivos binarios de Enterprise Data Catalog en un nodo en el que están instalados los servicios
de Informatica, puede usar el programa de instalación para configurar los servicios de Enterprise Data
Catalog en el nodo.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica Big Data Suite
10.2.2.

Configurar Enterprise Data Lake


Si instala los archivos binarios de Enterprise Data Lake en un nodo en el que están instalados los servicios
de Informatica, puede usar el programa de instalación para configurar los servicios de Enterprise Data Lake
en el nodo.

212 Capítulo 22: Avisos importantes de la versión 10.2.2


Para obtener más información, consulte la Guía de instalación y configuración de Informatica Big Data Suite
10.2.2.

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.2.

Motor de Hive
A partir de la versión 10.2.2, Informatica ya no admite el modo de ejecución de Hive para la ejecución de
trabajos en el entorno de Hadoop. No puede configurar ni ejecutar trabajos en el motor de Hive.

Informatica sigue admitiendo los motores de Blaze y Spark en el entorno de Hadoop, e incorporó
compatibilidad con el motor de Databricks Spark en el entorno de Databricks.

Debe actualizar todas las asignaciones y los perfiles configurados para ejecutarlos en el motor de Hive antes
de actualizar.

Para obtener más información, consulte las guías de actualización de Informatica 10.2.2.

Compatibilidad con la distribución


Los productos de Informatica Big Data admiten entornos de Hadoop y Databricks. En cada versión,
Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

Big Data Management añadió compatibilidad para los entornos de Databricks y admite la versión de
distribución 5.1 de Databricks.

En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2.2:

Producto EMR HDI CDH HDP MapR

Big Data 5.16 3.6.x 5.15 2.6.x 6.0.x MEP 5.0


Management 5.16

Big Data Streaming 5.16 3.6.x 5.15 2.6.x Compatibilidad


Nota: HDI solo 5.16 diferida
se admite para
ADLS no
Kerberos.

Cambios en la compatibilidad 213


Producto EMR HDI CDH HDP MapR

Enterprise Data N/A 3.6.x 5.15 2.6.x N/A


Catalog Nota: HDI solo 5.16
se admite para Nota: Puede
WASB no usar OpenJDK
Kerberos. 1.8.0 solo en
Enterprise Data
Catalog
implementado
en una
distribución de
Hadoop CDH
5.16.

Enterprise Data 5.16 3.6.x 5.15 2.6.x 6.0.x MEP 5.0


Preparation Nota: HDI solo 5.16
se admite para
ADLS y WASB no
Kerberos.

Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.

Cambios en la compatibilidad de Big Data Management


En esta sección se describen los cambios en la compatibilidad introducidos en Big Data Management en la
versión 10.2.2.

Transformación de Python

A partir de la versión 10.2.2, la compatibilidad con puertos binarios en la transformación de Python se ha


diferido. La compatibilidad volverá a establecerse en una versión futura.

Cambios en la compatibilidad de Big Data Streaming


En esta sección se describen los cambios introducidos en Big Data Streaming en la versión 10.2.2.

Centros de eventos de Azure

A partir de la versión 10.2.2, las asignaciones de transmisión actualizadas son inválidas. Debe volver a
crear los objetos de datos físicos para ejecutar las asignaciones en el motor de Spark que usa la
transmisión estructurada de Spark. Después de volver a crear los objetos de datos físicos, las siguientes
propiedades no están disponibles para los objetos de datos de los centros de eventos de Azure:

• Propiedades del consumidor


• Recuento de particiones

Para obtener más información, consulte la Guía de actualización de Informatica 10.2.2.

Tipos de objeto de datos

A partir de la versión 10.2.2, se ha diferido la compatibilidad con algunos tipos de objetos de datos. La
compatibilidad volverá a establecerse en una versión futura.

214 Capítulo 22: Avisos importantes de la versión 10.2.2


La siguiente tabla describe la compatibilidad diferida para los tipos de objeto de datos en la versión
10.2.2:

Tipo de objeto Objeto

Origen JMS
MapR Streams

Destino MapR Streams

Transformación Enmascaramiento de datos


Combinación (outer principal, outer detallado y tipos de outer join completo)
Rango
Ordenación

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Marco de conectividad universal en Enterprise Data Catalog


A partir de la versión 10.2.2, se ha dejado de usar el marco de conectividad universal en Enterprise Data
Catalog.

Para obtener más información, consulte la Declaración de compatibilidad para el uso del marco de
conectividad universal (UCF) con Informatica Enterprise Data Catalog.

Tareas de la versión
En esta sección se describen tareas de la versión 10.2.2. Las tareas de la versión son tareas que debe
realizar después de actualizar a la versión 10.2.2.

Big Data Management


En esta sección se describen las tareas de la versión de Big Data Management en la versión 10.2.2.

Tipos de datos decimal


Si actualiza a la versión 10.2.2, las asignaciones que están habilitadas para el modo de alta precisión y se
ejecutan en el motor de Spark deben usar un argumento de escala para las funciones TO_DECIMAL y
TO_DECIMAL38. Si las funciones no tienen un argumento de escala, las asignaciones fallarán.

Por ejemplo, si una asignación previamente actualizada usa el modo de alta precisión y contiene la expresión
TO_DECIMAL(3), debe especificar un argumento de escala antes de poder ejecutar la asignación actualizada
en el motor de Spark. Cuando la expresión tiene un argumento de escala, es posible que la expresión sea
TO_DECIMAL(3,2).

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.

Tareas de la versión 215


Ingesta masiva
A partir de la versión 10.2.2, puede usar la herramienta de ingesta masiva para ingerir datos usando una
carga incremental.

Si actualiza a la versión 10.2.2, las especificaciones de ingesta masiva se actualizan para que tengan
deshabilitada la carga incremental. Antes de poder ejecutar cargas incrementales en especificaciones
existentes, complete las siguientes tareas:

1. Editar la especificación.
2. En la página Definición, seleccione Habilitar carga incremental.
3. En las páginas Origen y Destino, configure las opciones de carga incremental.
4. Guarde la especificación.
5. Vuelva a implementar la especificación en el servicio de integración de datos.

Nota: La especificación de ingesta masiva que se vuelve a implementar se ejecuta en el motor de Spark.

Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.

Transformación de Python
Si actualiza a la versión 10.2.2, la transformación de Python puede procesar datos de forma más efectiva en
Big Data Management.

Para disfrutar de mejoras en el rendimiento, configure las siguientes propiedades avanzadas de Spark en la
conexión de Hadoop:
infaspark.pythontx.exec

Es necesario para ejecutar una transformación de Python en el motor de Spark para Data Engineering
Integration. La ubicación del archivo binario ejecutable de Python en los nodos de trabajo en el clúster
de Hadoop.

Por ejemplo, establézcalo en:


infaspark.pythontx.exec=/usr/bin/python3.4
Si usa la instalación de Python en el equipo del servicio de integración de datos, establezca el valor en el
archivo binario ejecutable de Python en el directorio de instalación de Informatica del equipo del servicio
de integración de datos.

Por ejemplo, establézcalo en:


infaspark.pythontx.exec=INFA_HOME/services/shared/spark/python/lib/python3.4
infaspark.pythontx.executorEnv.PYTHONHOME

Es necesario para ejecutar una transformación de Python en el motor de Spark para Data Engineering
Integration y Data Engineering Streaming. La ubicación del directorio de instalación de Python en los
nodos de trabajo del clúster de Hadoop.

Por ejemplo, establézcalo en:


infaspark.pythontx.executorEnv.PYTHONHOME=/usr
Si usa la instalación de Python en el equipo del servicio de integración de datos, use la ubicación del
directorio de instalación de Python en el equipo del servicio de integración de datos.

Por ejemplo, establézcalo en:


infaspark.pythontx.executorEnv.PYTHONHOME=
INFA_HOME/services/shared/spark/python/

216 Capítulo 22: Avisos importantes de la versión 10.2.2


Después de configurar las propiedades avanzadas, el motor de Spark no usa Jep para ejecutar el código de
Python en la transformación de Python.

Para obtener información acerca de cómo instalar Python, consulte la Guía de integración de Informatica Big
Data Management 10.2.2.

Big Data Transmisión


En esta sección se describen las tareas de la versión de Big Data Streaming en la versión 10.2.2.

Destino de Kafka
A partir de la versión 10.2.2, el tipo de datos del puerto de encabezado de claves en el destino de Kafka es
binario. Anteriormente, el tipo de datos del puerto de encabezado de claves era cadena.

Después de actualizar, para ejecutar una asignación de transmisión existente, debe volver a crear el objeto
de datos y actualizar la asignación de transmisión con el objeto de datos recientemente creado.

Para obtener más información acerca de cómo volver a crear el objeto de datos, consulte la Guía de
integración de Big Data Management 10.2.2.

Propiedades de conexión de Kafka


Después de actualizar, para una conexión de Kafka, configure la versión del agente de mensajería de Kafka
como 0.10.1.x-2.0.0.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las tareas de las versiones de los adaptadores de Informatica de la versión
10.2.2.

PowerExchange for HBase


A partir de la versión 10.2.2, debe ejecutar una asignación en el motor de Spark para buscar datos en un
recurso de HBase.

Si anteriormente configuraba una asignación para ejecutarla en el entorno nativo para buscar datos en un
recurso de HBase, debe actualizar el motor de ejecución a Spark después de actualizar a la versión 10.2.2.
De lo contrario, se produce un error en la asignación.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.

PowerExchange for Microsoft Azure SQL Data Warehouse


Después de actualizar desde una versión anterior a la versión 10.2.2, se produce un error con las
asignaciones existentes que contienen los siguientes tipos de datos en el motor de Spark en tiempo de
ejecución:

• Binary
• Varbinary
• Datetime2
• Datetimeoffset

Tareas de la versión 217


Para ejecutar las asignaciones existentes correctamente, debe asignar estos tipos de datos al tipo de datos
de cadena o reimportar el objeto.

• Binary -> String (n)


• Varbinary -> String (n)
• Datetime2 -> String (27)
• Datetimeoffset -> String (34)

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.2.

Nuevos productos

Adaptadores de PowerExchange para Informatica


En esta sección se describen los nuevos adaptadores de Informatica de la versión 10.2.2.

PowerExchange for Cassandra JDBC


A partir de la versión 10.2.2, puede crear una conexión de Cassandra para conectarse con un espacio de
claves de Cassandra e incluir tablas de Cassandra en un objeto de datos. Puede usar la conexión de
Cassandra para leer datos desde orígenes de Cassandra y escribirlos en destinos de Cassandra. Puede
validar y ejecutar asignaciones en el motor de Spark en el entorno de Hadoop.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra
JDBC.

PowerExchange for Google Cloud Spanner


A partir de la versión 10.2.2, puede crear una conexión de Google Cloud Spanner para conectarse con una
instancia de Google Cloud Spanner e incluir tablas de Google Cloud Spanner en un objeto de datos. Puede
usar la conexión de Google Cloud Spanner para leer datos desde orígenes de Google Cloud Spanner y
escribirlos en destinos de Google Cloud Spanner. Puede validar y ejecutar asignaciones de Google Cloud
Spanner en el entorno nativo o en el motor de Spark en el entorno de Hadoop.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Spanner.

PowerExchange for Tableau V3


A partir de la versión 10.2.2, puede usar la conexión de Tableau V3 para leer datos desde varios orígenes,
generar un archivo de salida .hyper de Tableau y escribir los datos en Tableau. Puede validar y ejecutar
asignaciones en el entorno nativo.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Tableau V3 de Informatica.

218 Capítulo 22: Avisos importantes de la versión 10.2.2


Capítulo 23

Novedades de la versión 10.2.2


Este capítulo incluye los siguientes temas:

• servicios de aplicación, 219


• Big Data Management, 220
• Big Data Transmisión , 225
• Programas de la línea de comandos, 226
• Enterprise Data Catalog, 231
• Enterprise Data Lake, 234
• Informatica Developer, 239
• Asignaciones de Informatica, 239
• Transformaciones de Informatica, 241
• Adaptadores de PowerExchange para Informatica, 244

servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.2.

Servicio de ingesta masiva


A partir de la versión 10.2.2, puede habilitar la comunicación segura entre un proceso de servicio de ingesta
masiva y componentes externos. Puede especificar el número de puerto HTTPS para el protocolo HTTPS y
un archivo de almacén de claves para el certificado SSL.

Para obtener más información, consulte el capítulo "Servicio de ingesta masiva" en la Guía del servicio de
aplicación de Informatica 10.2.2.

Servicio de acceso a metadatos


A partir de la versión 10.2.2, puede configurar el servicio de acceso a metadatos para usar perfiles del
sistema operativo. Use perfiles del sistema operativo para aumentar la seguridad y aislar el entorno del
usuario en tiempo de diseño cuando se importan metadatos y se obtiene una vista previa de ellos desde un
clúster de Hadoop.

Para obtener más información, consulte el capítulo sobre usuarios y grupos en la Guía de seguridad de
Informatica 10.2.2.

219
Servicio del concentrador de operaciones REST
A partir de la versión 10.2.2, puede configurar el servicio del concentrador de operaciones REST. Se trata de
un servicio de sistema REST en el dominio de Informatica que expone la funcionalidad de los productos de
Informatica a clientes externos mediante las API de REST.

Puede configurar el servicio del concentrador de operaciones REST a través de la Herramienta del
administrador o infacmd. Puede usar el servicio del concentrador de operaciones REST para ver estadísticas
de ejecución de asignaciones para los trabajos de asignación implementados en la aplicación.

Puede usar el servicio del concentrador de operaciones REST para obtener estadísticas de ejecución de
asignaciones para asignaciones de Big Data que se ejecutan en el servicio de integración de datos o en el
entorno de Hadoop.

Para obtener más información acerca de la API de REST, consulte la Guía del administrador de Big Data
Management 10.2.2.

Big Data Management


En esta sección se describen las nuevas características de Big Data Management en la versión 10.2.2.

Integración de Azure Databricks


A partir de la versión 10.2.2, puede integrar el dominio de Informatica con el entorno de Azure Databricks.

Azure Databricks es una plataforma de nube de análisis que está optimizada para los servicios de nube de
Microsoft Azure. Incorpora las funciones y tecnologías de clúster de Apache Spark de código abierto.

El dominio de Informatica puede instalarse en una máquina virtual de Azure o en las instalaciones. El
proceso de integración es similar a la integración con el entorno de Hadoop. Se pueden realizar tareas de
integración, incluso la importación de la configuración del clúster desde el entorno de Databricks. El dominio
de Informatica usa autenticación de token para acceder al entorno de Databricks. El ID del token de
Databricks se almacena en la conexión de Databricks.

Orígenes y destinos
Puede ejecutar asignaciones contra los siguientes orígenes y destinos dentro del entorno de Databricks:

Microsoft Azure Data Lake Store


Microsoft Azure Blob Storage
Almacén de datos de Microsoft Azure SQL
Microsoft Azure Cosmos DB

Transformaciones
Puede agregar las siguientes transformaciones a una asignación de Databricks:

Agregación
Expresión
Filtro
Unión
Búsqueda

220 Capítulo 23: Novedades de la versión 10.2.2


Normalizador
Rango
Enrutador
Ordenación
Unión

El motor de Databricks Spark procesa la transformación de una manera muy similar a como lo hace el motor
de Spark en el entorno de Hadoop.

Tipos de datos
Se admiten los siguientes tipos de datos:

Array
Bigint
Date/time
Decimal
Doble
Entero
Map
Struct
Text
String

Asignaciones
Cuando se configura una asignación, puede elegir validar y ejecutar la asignación en el entorno de
Databricks. Cuando ejecuta la asignación, el servicio de integración de datos genera un código de Scala y lo
pasa al motor de Databricks Spark.

Flujos de trabajo
Puede desarrollar flujos de trabajo de clúster para crear clústeres efímeros en el entorno de Databricks.

Para obtener más información, consulte las siguientes guías:

Guía de integración de Big Data Management 10.2.2


Guía del administrador de Informatica Big Data Management 10.2.2
Guía del usuario de Big Data Management 10.2.2

Vista previa de datos en el motor de Spark


A partir de la versión 10.2.2, puede obtener una vista previa de los datos de una asignación que se ejecuta en
el motor de Spark en Developer tool. Al obtener una vista previa de los datos, podrá diseñar y depurar
asignaciones de Big Data.

Puede elegir orígenes y transformaciones como puntos de vista previa en una asignación que contiene los
siguientes tipos jerárquicos:

• Matriz
• Struct
• Asignación

Big Data Management 221


La vista previa de datos está disponible para la vista previa técnica. La funcionalidad de vista previa técnica
se admite para fines de evaluación, pero no está justificada y no es compatible con entornos de producción
ni ningún entorno que planee enviar a producción. Informatica tiene la intención de incluir la funcionalidad de
vista previa en una próxima versión para poder usarla en producción, pero podría decidir no hacerlo en
función de cuáles sean los requisitos del mercado o las circunstancias técnicas en ese momento. Para
obtener más información, póngase en contacto con el servicio internacional de atención al cliente de
Informatica.

Para obtener más información, consulte la Guía del usuario de Informatica® Big Data Management 10.2.2.

Datos jerárquicos
En esta sección se describen las nuevas características para los datos jerárquicos en la versión 10.2.2.

Puertos complejos dinámicos


A partir de la versión 10.2.2, puede agregar puertos complejos dinámicos a una asignación dinámica que se
ejecuta en el motor de Spark. Use puertos complejos dinámicos para administrar cambios de esquema
frecuentes a datos jerárquicos en archivos complejos.

Un puerto complejo dinámico recibe elementos nuevos o cambiados de un puerto complejo según los
campos de esquema en tiempo de ejecución. Las reglas de entrada determinan los elementos de un puerto
complejo dinámico. Según las reglas de entrada, un puerto complejo dinámico recibe uno o varios elementos
de un puerto complejo desde la transformación de nivel superior. Puede usar puertos complejos dinámicos
como matriz dinámica, asignación dinámica y estructura dinámica en algunas transformaciones en el motor
de Spark.

Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos con cambios en el
esquema" de la Guía del usuario de Informatica Big Data Management 10.2.2.

Alta disponibilidad
En esta sección se describen las nuevas características de alta disponibilidad de la versión 10.2.2.

Big Data Recuperación de trabajos


A partir de la versión 10.2.2, el servicio de integración de datos puede recuperar un trabajo de Big Data
configurado para ejecutarse en el motor de Spark cuando un nodo del servicio de integración de datos se
detiene inesperadamente. Cuando el nodo del servicio de integración de datos falla antes de completarse un
trabajo, este servicio envía el trabajo a otro nodo, el cual reanuda las tareas de procesamiento del trabajo
desde el punto en el que se produjo el error en el nodo.

Para recuperar asignaciones de Big Data, debe habilitar la recuperación de trabajos de Big Data en las
propiedades del servicio de integración de datos y ejecutar el trabajo desde infacmd.

Para obtener más información, consulte el capítulo sobre procesamiento del servicio de integración de datos
en la Guía del administrador de Informatica Big Data Management 10.2.2.

Colas distribuidas del servicio de integración de datos


A partir de la versión 10.2.2, el servicio de integración de datos usa una cola distribuida para almacenar
información de trabajos cuando está habilitada la recuperación de Big Data para trabajos de Big Data
implementados. La cola distribuida se almacena en el repositorio de modelos, y cualquier servicio de
integración de datos disponible puede ejecutar trabajos desde la cola cuando los recursos están disponibles.

222 Capítulo 23: Novedades de la versión 10.2.2


Para obtener más información, consulte el capítulo sobre procesamiento del servicio de integración de datos
en la Guía del administrador de Informatica Big Data Management 10.2.2.

Modelo de estructura inteligente


En esta sección se describen las nuevas características del modelo de estructura inteligente en la versión
10.2.2.

Alias en archivos XML


A partir de la versión 10.2.2, Intelligent Structure Discovery puede procesar archivos XML que usan diferentes
alias para identificar el mismo espacio de nombres, como se utiliza en el archivo XML con el que se creó un
modelo de estructura inteligente.

Tipos de datos
A partir de la versión 10.2.2 y desde la versión de invierno de marzo de 2019 de Informatica Intelligent Cloud
Services, cuando un lector de archivos complejos usa un modelo de estructura inteligente, Intelligent
Structure Discovery pasa los tipos de datos a los puertos de datos de salida.

Por ejemplo, cuando Intelligent Structure Discovery detecta que un campo contiene una fecha, pasa los datos
a los puertos de datos de salida como fecha, no como cadena.

Nombres de campo
A partir de la versión 10.2.2 y desde la versión de invierno de marzo 2019 de Informatica Intelligent Cloud
Services, los nombres de campo en los objetos de datos de archivo complejo que se importan desde un
modelo de estructura inteligente pueden comenzar con números y palabras reservadas, y pueden contener
los siguientes caracteres especiales \. [ ] { } ( ) * + - ? . ^ $ |

Cuando un campo comienza con un número o una palabra reservada, la asignación de Big Data Management
agrega un guion bajo (_) al comienzo del nombre del campo. Por ejemplo, si un campo en un modelo de
estructura inteligente comienza con OR, la asignación importa el campo como _OR. Cuando el nombre del
campo contiene un carácter especial, la asignación convierte el carácter en un guion bajo.

Procesar archivos XML grandes


A partir de la versión 10.2.2, Intelligent Structure Discovery puede transmitir archivos XML y procesar datos
para elementos repetitivos en fragmentos. De este modo, el procesamiento de archivos XML grandes se
realiza de forma más eficaz.

Desfase de datos
A partir de la versión 10.2.2 y desde la versión de invierno de marzo de 2019 de Informatica Intelligent Cloud
Services, Intelligent Structure Discovery mejora la gestión de los desfases de datos.

En Intelligent Structure Discovery, los desfases de datos se producen cuando los datos de entrada contienen
campos que no contenía el archivo de muestra. En este caso, Intelligent Structure Discovery pasa los datos
sin definir a un puerto de datos no asignado en el destino, en lugar de descartarlos.

Ingesta masiva
A partir de la versión 10.2.2, puede ejecutar una carga incremental para ingerir datos incrementales. Cuando
ejecuta una carga incremental, el motor de Spark captura datos incrementales según una marca de tiempo o

Big Data Management 223


una columna de ID, y los carga en el destino de Hive o HDFS. Si ingiere los datos en un destino de Hive, el
motor de Spark también puede propagar los cambios de esquema que se realizaron en las tablas de origen.

Si ingiere datos incrementales, el servicio de ingesta masiva aprovecha el modo de importación incremental
de Sqoop.

Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.

Supervisión
En esta sección se describen las nuevas características relacionadas con la supervisión en Big Data
Management en la versión 10.2.2.

Supervisión de Spark
A partir de la versión 10.2.2, puede ver tanto las tareas previas al trabajo como las tareas posteriores al
trabajo dentro del panel Estadísticas de resumen para la supervisión de Spark.

Para obtener más información sobre el uso de las tareas previas al trabajo y las tareas posteriores al trabajo,
consulte la Guía del usuario de Informatica Big Data Management 10.2.2.

Seguridad
En esta sección se describen las nuevas características relacionadas con la seguridad en Big Data
Management en la versión 10.2.2.

Paquete de seguridad empresarial


A partir de la versión 10.2.2, Informatica admite un clúster de Azure HDInsight con paquete de seguridad
empresarial.

Este paquete usa Kerberos para autenticación y Apache Ranger para autorización.

Para obtener más información sobre el paquete de seguridad empresarial, consulte la Guía del administrador
de Informatica Big Data Management 10.2.2.

Destinos
En esta sección se describen las nuevas características para los destinos en la versión 10.2.2.

Destinos de archivos sin formato HDFS


A partir de la versión 10.2.2, puede anexar datos de salida a archivos de destino HFS y archivos de rechazo.
Para anexar los datos de salida, elija hacerlo si existe el destino HDFS.

Para ayudar a administrar los archivos que contienen datos anexados, el servicio de integración de datos
anexa el ID de la ejecución de la asignación a los nombres de los archivos de destino y los archivos de
rechazo.

Para obtener más información, consulte el capítulo "Destinos" en la Guía del usuario de Informatica Big Data
Management 10.2.2.

224 Capítulo 23: Novedades de la versión 10.2.2


Big Data Transmisión
En esta sección se describen las nuevas características de Big Data Streaming en la versión 10.2.2.

Objetos de datos de centros de eventos de Azure


A partir de la versión 10.2.2, puede implementar una asignación de transmisión que tenga un centro de
eventos como origen en las siguientes distribuciones:

• Amazon EMR
• Azure HDInsight con almacenamiento de ADLS
• Cloudera CDH
• Hortonworks HDP

Roles IAM de cuentas cruzadas en Amazon Kinesis Connection


A partir de la versión 10.2.2, puede usar el rol IAM de cuentas cruzadas para autenticar un origen de Amazon
Kinesis.

Use el rol IAM de cuentas cruzadas para compartir recursos en una cuenta de AWS con usuarios de una
cuenta de AWS diferente sin crear usuarios en cada cuenta.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Modelo de estructura inteligente


A partir de la versión 10.2.2, puede utilizar modelos de estructura inteligente en Big Data Streaming.

Puede incorporar un modelo de estructura inteligente en un objeto de datos de centros de eventos de Azure,
Kinesis o Kafka. Cuando se agrega el objeto de datos a una asignación, se puede procesar cualquier tipo de
entrada que el modelo pueda analizar.

El objeto de datos puede aceptar y analizar archivos de entrada de formularios PDF, JSON, Microsoft Excel,
tablas de Microsoft Word, CSV, texto o XML, según el archivo que se utilizó para crear el modelo.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Puertos de encabezado para objetos de datos de Big Data


Streaming
A partir de la versión 10.2.2, algunos objetos de datos contienen puertos de encabezado predeterminados
que representan metadatos asociados con eventos. Por ejemplo, el puerto de marca de tiempo contiene la
hora a la que se generó el evento. Puede usar los puertos de encabezado para agrupar y procesar los datos.

Para obtener más información acerca de los puertos de encabezado, consulte la Guía del usuario de
Informatica Big Data Streaming 10.2.2.

Big Data Transmisión 225


Perfil de credenciales de AWS en la conexión de Amazon Kinesis
A partir de la versión 10.2.2, puede usar la autenticación basada en perfiles de credenciales de AWS en la
conexión de Amazon Kinesis.

Cuando crea una conexión de Amazon Kinesis, puede introducir un nombre de perfil de credenciales de AWS.
La asignación accede a las credenciales de AWS a través del nombre del perfil que aparece en el archivo de
credenciales de AWS durante el tiempo de ejecución.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Transmisión estructurada de Spark


A partir de la versión 10.2.2, Big Data Streaming usa le transmisión estructurada de Spark para procesar los
datos de transmisión.

La transmisión estructurada de Spark es un motor de procesamiento de transmisiones de código abierto con


tolerancia a errores y escalable desarrollado a partir del motor de Spark. Puede administrar la recepción
tardía de eventos de transmisión y procesar datos de transmisión según la marca de tiempo de origen.

El motor de Spark ejecuta continuamente la asignación de transmisión. Lee los datos, los divide en
microlotes, procesa dichos microlotes, publica los resultados y después escribe en un destino.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Transformación de ventana
A partir de la versión 10.2.2 puede usar las siguientes características cuando crea una transformación de
ventana:

Retraso de marca de agua

El retraso de marca de agua define el tiempo de umbral para que un evento retrasado se acumule en un
grupo de datos.

El retraso de marca de agua es un umbral donde puede especificar el tiempo necesario para que los
datos que llegan con retraso puedan agruparse y procesarse. Si los datos del evento llegan dentro del
tiempo de umbral, los datos se procesan y se acumulan en el grupo de datos correspondiente.

Puerto de ventana

El puerto de ventana especifica la columna que contiene los valores de marca de tiempo según los que
puede agrupar los eventos. Los datos acumulados contienen el valor de marca de tiempo. Use la
columna Puerto de ventana para agrupar los datos de tiempo del evento que se reciben con retraso.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.2.2.

Comandos infacmd dis


En este tema se describen las nuevas opciones de comando infamcd dis y las opciones de ejecución.

226 Capítulo 23: Novedades de la versión 10.2.2


Actualizar opciones del servicio
El comando Actualizar opciones del servicio actualiza las propiedades de servicio de integración de datos.

En la siguiente tabla se describen las nuevas opciones de comando infacmd dis updateServiceOptions:

Nueva opción Descripción

-RecycleMode Opcional. El modo de reciclaje reinicia el servicio y aplica


-rm el último servicio y las propiedades de este. Seleccione
Anular o Completar.
- Completar. Detiene todas las aplicaciones y cancela
todos los trabajos dentro de cada aplicación. Espera a
que todos los trabajos se cancelen antes de
deshabilitar el servicio.
- Anular. Detiene todas las aplicaciones e intenta
cancelar todos los trabajos antes de anularlas y
deshabilitar el servicio.
Predeterminado: Completar

En la siguiente tabla se describen las nuevas opciones de ejecución del comando infacmd dis
updateServiceOptions:

Nueva opción Descripción

ExecutionOptions.BigDataJobRecovery Se habilita Big Data Job Recovery. Establezca en "true" o


"false".
Predeterminado: false.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.2.

Comandos infacmd ihs


En la siguiente tabla se describen las nuevas opciones de comando infacmd ihs:

Nueva opción Descripción

-PrimaryNode Opcional. Nodo principal en que se ejecuta el servicio.


-nm

-BackupNodes Opcional. Los nodos en los que se puede ejecutar el servicio cuando el nodo principal no está
-bn disponible. Puede configurar nodos de copia de seguridad si dispone de alta disponibilidad.

En la siguiente tabla se describen los nuevos comandos infacmd ihs:

Comando Descripción

cleanCluster Limpia el servicio de clúster de Informatica.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ihs" de la Referencia de
comandos de Informatica 10.2.2.

Programas de la línea de comandos 227


Comandos infacmd ipc
En la siguiente tabla se describen los comandos infacmd ipc obsoletos:

Comando Descripción

ExportToPC Exporta objetos desde el repositorio de modelos o un archivo de exportación y los convierte en objetos
de PowerCenter.

Comandos infacmd ldm


En la siguiente tabla se describen las nuevas opciones de comando infacmd ldm:

Nueva opción Descripción

-PrimaryNode Opcional. Si quiere configurar la alta disponibilidad para Enterprise Data Catalog,
-nm especifique el nodo principal.

-BackupNodes Opcional. Si quiere configurar la alta disponibilidad para Enterprise Data Catalog,
-bn especifique una lista de nombres de nodo de copia de seguridad separada por comas.

-isNotifyChangeEmailEnabled Opcional. Especifique True si quiere habilitar las notificaciones de cambio de activo.
-cne El valor predeterminado es false.

-ExtraJarsPath Opcional. Ruta al directorio en el equipo donde instaló el dominio de Informatica. El


-ejp directorio debe incluir los archivos JAR necesarios para implementar Enterprise Data
Catalog en un clúster existente con WANdisco Fusion.

-ExtraJarsPath Opcional. Ruta al directorio en el equipo donde instaló el dominio de Informatica. El


-ejp directorio debe incluir los archivos JAR necesarios para implementar Enterprise Data
Catalog en un clúster existente con WANdisco Fusion.

En la siguiente tabla se describen los nuevos comandos infacmd ldm:

Comando Descripción

collectAppLogs Recopila archivos de registro para aplicaciones YARN que se ejecutan para habilitar el servicio de
catálogo.

publishArchive Crea un recurso en modo sin conexión y ejecuta la exploración.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ldm" de la Referencia
de comandos de Informatica 10.2.2.

228 Capítulo 23: Novedades de la versión 10.2.2


Comandos infacmd mi
En la tabla siguiente se describen los cambios introducidos en los comandos infacmd mi:

Comando Cambiar descripción

createService A partir de la versión 10.2.2, puede usar las opciones -HttpsPort, -KeystoreFile y -
KeystorePassword para especificar si los procesos del servicio de ingesta masiva usan una
conexión segura para comunicarse con componentes externos.

extendedRunStats A partir de la versión 10.2.2, debe usar la opción -RunID para especificar el RunID de la
especificación de ingesta masiva y la opción -SourceName para especificar el nombre de una
tabla de origen para ver las estadísticas de ejecución extendida para la tabla de origen. Si la
tabla de origen se ingestó usando una carga incremental, la estadística de ejecución mostrará la
clave incremental y el valor de inicio.
Anteriormente, especificaba el JobID para el trabajo de asignación de ingesta que ingestaba la
tabla de origen.
Si actualiza a 10.2.2, debe actualizar cualquier script que ejecute infacmd mi extendedRunStats
para usar las nuevas opciones.

listSpecRuns A partir de la versión 10.2.2, el comando devuelve adicionalmente el tipo de carga que el motor
de Spark usa para ejecutar una especificación de ingesta masiva.

runSpec A partir de la versión 10.2.2, puede usar la opción -LoadType para especificar el tipo de carga
para ejecutar una especificación de ingesta masiva. El tipo de carga puede ser una carga
completa o una carga incremental.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd mi" de la Referencia de
comandos de Informatica 10.2.2.

Comandos infacmd ms
En la siguiente tabla se describen los nuevos comandos infacmd ms:

Comando Descripción

abortAllJobs Anula todos los trabajos de asignación que están configurados para ejecutarse en
el motor de Spark. Puede elegir anular trabajos en cola, trabajos en ejecución o
ambos.

createConfigurationWithParams Crea una configuración de clúster mediante parámetros de clúster que se


especifican en la línea de comandos.

listMappingOptions Enumera las opciones de asignación de una aplicación.

purgeDatabaseWorkTables Purga la información de todos los trabajos desde la cola cuando habilita la
recuperación de Big Data para el servicio de integración de datos.

updateMappingOptions Actualiza las opciones de asignación de una aplicación.

updateOptimizationLevel Actualiza el nivel de optimización para varias asignaciones de una aplicación.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ms" de la Referencia de
comandos de Informatica.

Programas de la línea de comandos 229


Comandos infacmd oie
A partir de la versión 10.2.2, ha dejado de usarse el complemento oie y la compatibilidad con este
complemento se eliminará en una versión futura. Los comandos infacmd oie se han migrado al
complemento tools. Para obtener detalles, consulte “Comandos infacmd tools” en la página 230.

Comandos infacmd tools


A partir de la versión 10.2.2, el complemento de infacmd tools reemplaza al complemento oie. El
complemento tools realiza las operaciones de importación y exportación de objetos que lleva a cabo el
complemento oie, y puede usarse para realizar algunas operaciones adicionales.

La siguiente tabla enumera los comandos infacmd oie que migraron al complemento tools:

Comando anterior Comando actual

infacmd oie deployApplication infacmd tools deployApplication

infacmd oie ExportObjects infacmd tools exportObjects

infacmd oie exportResources infacmd tools exportResources

infacmd oie ImportObjects infacmd tools importObjects

En la siguiente tabla se describen los nuevos comandos infacmd tools:

Comando Descripción

patchApplication Implementa una revisión de aplicación con un archivo .piar en un servicio de integración de datos.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd tools" en la Referencia
de comandos de Informatica 10.2.2.

Comandos de infasetup
La siguiente tabla describe los comandos infasetup cambiados:

Comando Descripción

DefineDomain A partir de la versión 10.2.2, la opción -spid se ha agregado al comando DefineDomain.

updateDomainSamlConfig A partir de la versión 10.2.2, la opción -spid se ha agregado al comando


updateDomainSamlConfig.

Para obtener más información, consulte el capítulo "Referencia de comando infasetup" de la Referencia de
comandos de Informatica 10.2.2.

230 Capítulo 23: Novedades de la versión 10.2.2


Enterprise Data Catalog
En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.2.2.

Asignar automáticamente un título empresarial a una columna


A partir de la versión 10.2.2, Enterprise Data Catalog infiere un término empresarial como el título
empresarial para los activos de columna. Un término empresarial con puntuación de confianza del 80 por
ciento o más se infiere como un título empresarial de una columna. La puntuación de confianza se calcula
mediante un algoritmo interno basado en términos empresariales aceptados en dominios de datos, la
similitud del nombre de columna y la similitud del nombre entre la columna y el término empresarial.

Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía del
usuario de Informatica Enterprise Data Catalog 10.2.2.

Colaboración del usuario en activos


A partir de la versión 10.2.2, puede colaborar con otros usuarios de Enterprise Data Catalog en los activos.
La colaboración en activos le permite interactuar con otros usuarios, compartir comentarios acerca de los
activos, hacer consultas relacionadas con estos, realizar un seguimiento de todos los cambios en ellos y
certificarlos.

Puede colaborar en activos de las siguientes maneras:

Seguir activos

Puede seguir activos para supervisar los cambios en activos en el catálogo. Siga un activo para estar
informado acerca de los cambios que otros usuarios realizan a fin de poder supervisar el activo y
realizar las acciones que sean necesarias.

Calificar y revisar un activo

Puede calificar y revisar activos según una escala de cinco estrellas en el catálogo. Califique y revise un
activo para proporcionar comentarios acerca de este según diferentes aspectos, como la calidad, la
aplicabilidad, la posibilidad de uso y la disponibilidad del activo.

Consultas de activos

Puede realizar preguntas acerca de un activo si quiere obtener un mejor conocimiento del activo en el
catálogo. Realice preguntas que sean descriptivas, exploratorias, predictivas o causales por naturaleza.

Certificar activo

Puede certificar un activo para aprobarlo a fin de que otros usuarios puedan usarlo como confiable en
contraposición a los que no están certificados.

Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía de
Informatica Enterprise Data Catalog 10.2.2.

Crear servicios de aplicación de Enterprise Data Catalog usando el


programa de instalación
A partir de la versión 10.2.2, puede usar el programa de instalación para crear los servicios de aplicación de
Enterprise Data Catalog después de instalar Enterprise Data Catalog. Puede usar el programa de instalación
si había instalado Enterprise Data Catalog sin crear los servicios de aplicación.

Para obtener más información acerca de cómo usar el programa de instalación para crear los servicios de
aplicación, consulte la Guía de instalación y configuración de Informatica Enterprise Data Catalog 10.2.2.

Enterprise Data Catalog 231


Utilidad de validación de metadatos personalizada
A partir de la versión 10.2.2, puede usar una utilidad independiente de línea de comandos de validación
basada en Java para validar la sintaxis y la semántica de metadatos personalizados que quiera ingerir en el
catálogo. Los metadatos personalizados representan los metadatos que quiere ingerir desde orígenes de
datos personalizados para los que Enterprise Data Catalog no proporciona un recurso.

Para obtener más información acerca de cómo usar la utilidad, consulte el artículo de la base de
conocimientos Procedimientos para validar metadatos personalizados antes de ingerirlos en el catálogo.
Póngase en contacto con el servicio internacional de atención al cliente de Informatica para obtener
instrucciones para descargar la utilidad.

Notificaciones de cambio
A partir de la versión 10.2.2, Enterprise Data Catalog muestra notificaciones cuando se realizan cambios en
los activos seguidos. Los tipos de notificaciones incluyen notificaciones de aplicación, notificación de
cambio por correo electrónico y notificación de resumen por correo electrónico.

Para obtener más información, consulte el capítulo sobre la colaboración del usuario en activos en la Guía de
Informatica Enterprise Data Catalog 10.2.2.

Business Glossary Informe de asignación


A partir de la versión 10.2.2, puede aceptar o rechazar varios términos empresariales recomendados para un
recurso.

Para obtener más información, consulte el capítulo sobre la realización de tareas de activo en la Guía de
Informatica Enterprise Data Catalog 10.2.2.

Perfiles de sistema operativo


A partir de la versión 10.2.2, puede elegir un perfil del sistema operativo si no tiene un perfil del sistema
operativo predeterminado. El servicio de integración de datos usa las credenciales de usuario del perfil del
sistema operativo para realizar la detección de datos. La detección de datos incluye perfiles de columna y
perfiles de detección del dominio de datos.

Para obtener más información acerca de cómo usar los perfiles del sistema operativo en Enterprise Data
Catalog, consulte el capítulo sobre los conceptos de Enterprise Data Catalog en la Guía del administrador de
Informatica Catalog 10.2.2

API de REST
A partir de la versión 10.2.2, puede usar las siguientes API de REST de Informatica Enterprise Data Catalog:

• API de REST de términos empresariales. Puede devolver, actualizar o eliminar un término empresarial
aceptado, inferido o rechazado.
• API de REST de eventos de catálogo. Puede acceder, actualizar o eliminar la configuración del usuario, la
configuración del correo electrónico y las suscripciones de usuario.
• API de certificación de objetos. Puede enumerar, actualizar y eliminar las propiedades de certificación
para un objeto.
• API de comentarios de objetos. Puede enumerar, crear, actualizar y eliminar comentarios, respuestas y
votos para un objeto de datos.

232 Capítulo 23: Novedades de la versión 10.2.2


• API de revisiones de objetos. Puede enumerar, crear, actualizar y eliminar revisiones, calificaciones y
votos para una revisión.
Para obtener más información acerca de las API de REST, consulte la Referencia de la API de REST de
Informatica 10.2.2 Enterprise Data Catalog.

Filtro de perfiles de datos y metadatos de origen


A partir de la versión 10.2.2, puede usar el filtro de metadatos de origen y filtro de perfiles de datos para
especificar vistas y tablas de origen en la ejecución de un recurso. Cuando use estos filtros, Enterprise Data
Catalog extraerá los metadatos de origen y del perfil de vistas y tablas específicas.

Para obtener más información acerca del filtro de perfiles de datos y metadatos de origen, consulte el
capítulo sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2.

Utilidad de analizador
A partir de la versión 10.2.2, Informatica brinda una utilidad de analizador independiente que se puede usar
para extraer metadatos de recursos inaccesibles o sin conexión. La utilidad contiene un script que debe
ejecutarse junto con los comandos asociados en una secuencia.

Para obtener más información acerca de la utilidad de analizador independiente, consulte el apéndice
"Extracción de metadatos de recursos inaccesibles o sin conexión" de la Guía del administrador de
Informatica Catalog 10.2.2

Tipos de recursos
A partir de la versión 10.2.2, puede crear recursos para los siguientes tipos de origen de datos:

Google BigQuery

Puede extraer información de los metadatos, la relación y el linaje desde los siguientes activos en un
origen de datos de Google BigQuery:

• Proyecto
• Conjunto de datos
• Tabla
• Ver

Para obtener más información acerca de cómo configurar un origen de datos de Google BigQuery,
consulte la Guía del administrador de Informatica Catalog 10.2.2.

Workday

Puede extraer información de los metadatos, la relación y el linaje desde los siguientes activos en un
origen de datos de Workday:

• Servicio
• Entidad
• Informe
• Operación
• Origen de datos
• Propiedad

Enterprise Data Catalog 233


• Objetos de negocio

Para obtener más información acerca de cómo configurar un origen de datos de Workday, consulte la
Guía del administrador de Informatica Catalog 10.2.2.

Enterprise Data Lake


En esta sección se describen las nuevas características de Enterprise Data Lake en la versión 10.2.2.

Aplicar reglas activas


A partir de la versión 10.2.2, puede usar reglas activas en proyectos.

Las reglas activas son mapplets desarrollados mediante el uso de Developer tool. Puede usar reglas activas
para aplicar transformaciones complejas como transformaciones de agregador y calidad de datos a hojas de
cálculo para coincidencia y consolidación.

Una regla activa usa todas las filas dentro de un conjunto de datos como entrada. Puede seleccionar varias
hojas de cálculo para usar como entradas en la regla. La aplicación agrega una hoja de cálculo que contiene
la salida de la regla para el proyecto.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Eliminar filas duplicadas


A partir de la versión 10.2.2, puede eliminar las filas que contengan valores duplicados de una hoja de
cálculo.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Agrupar y categorizar datos de columna


A partir de la versión 10.2.2, puede agrupar los valores similares en una columna y categorizarlos después
según las recomendaciones de Enterprise Data Lake. La aplicación usa un algoritmo fonético para agrupar
los valores similares y sugiere después que reemplace los valores menos frecuentes con el valor más
frecuente.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Recomendaciones basadas en CLAIRE


A partir de la versión 10.2.2 la aplicación usa el motor de detección de aprendizaje del equipo CLAIRE
incrustado para proporcionar recomendaciones al preparar los datos.

Cuando ve la página del proyecto, la aplicación muestra recomendaciones alternativas y adicionales


derivadas de los orígenes de datos de nivel superior según un linaje de datos, así como relaciones de clave
externa y principal.

Al seleccionar una columna en una hoja de cálculo durante la preparación de los datos, la aplicación muestra
sugerencias para mejorar los datos según el tipo de datos de columna en el panel Resumen de columna.

234 Capítulo 23: Novedades de la versión 10.2.2


Al realizar una operación de combinación en dos hojas de cálculo, la aplicación utiliza relaciones de clave
externa y primaria para indicar un muestreo incompatible cuando se produce una superposición baja para los
pares de claves deseados.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Agregación condicional
A partir de la versión de 10.2.2, puede usar la lógica de AND y OR para aplicar varias condiciones sobre los
cálculos de IF que se usan cuando se crea una hoja de cálculo agregada en un proyecto.

• Use AND con todos los operadores para incluir más de una columna en una condición.
• Use OR con los operadores IS, IS NOT e IS BETWEEN para incluir más de un valor dentro de una columna
en una condición.
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Enmascaramiento de datos
A partir de la versión 10.2.2, Enterprise Data Lake se integra con Informatica Dynamic Data Masking, un
producto de seguridad de datos, para habilitar el enmascaramiento de datos confidenciales en los activos de
datos.

Para habilitar el enmascaramiento de datos en Enterprise Data Lake, configure el servidor de Dynamic Data
Masking para aplicar reglas de enmascaramiento a activos de datos en Data Lake. También debe configurar
el dominio de Informatica para habilitar Enterprise Data Lake para que se conecte con dicho servidor.

Dynamic Data Masking intercepta solicitudes enviadas a Data Lake desde Enterprise Data Lake y aplica las
reglas de enmascaramiento a columnas en el activo solicitado. Cuando los usuarios de Enterprise Data Lake
ven o realizan operaciones en columnas que contienen datos enmascarados, los datos reales se confunden
total o parcialmente según las reglas de enmascaramiento aplicadas.

Para obtener más información, consulte el capítulo sobre datos de enmascaramiento confidenciales en la
Guía del administrador de Informatica Enterprise Data Lake 10.2.2.

Localización
A partir de la versión 10.2.2, la interfaz de usuario admite el japonés. También puede usar caracteres no
latinos en nombres y descripciones de proyecto.

Orígenes y destinos de la partición


A partir de la versión 10.2.2, Enterprise Data Lake puede leer datos desde orígenes particionados durante las
operaciones de importación, publicación o copia. La aplicación también puede anexar datos a destinos
particionados en Data Lake durante las operaciones de carga, copia, publicación e importación.

Agregar comentarios a pasos de la receta


A partir de la versión 10.2.2, puede agregar un comentario a un paso de la receta. Use comentarios para
mejorar la colaboración y proporcionar detalles para cumplir con los requisitos de auditoría.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Enterprise Data Lake 235


Guardar una receta como asignación
A partir de la versión 10.2.2, puede guardar una receta como asignación en lugar de publicar la receta y crear
una nueva tabla de salida.

Puede guardar la asignación en el repositorio de modelos asociado con el servicio de Enterprise Data Lake o
puede guardar la asignación en un archivo .xml. Los desarrolladores pueden usar Developer tool para revisar
y modificar la asignación, y ejecutarla después cuando sea conveniente según la disponibilidad de recursos
del sistema.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Amazon S3, ADLS, WASB, MapR-FS como orígenes de datos


A partir de la versión 10.2.2, puede preparar los datos en archivos almacenados en los siguientes orígenes de
datos:

• Amazon S3
• MapR-FS
• Almacenamiento de Microsoft Azure Data Lake
• Windows Azure Storage Blob
Debe crear un recurso en Enterprise Data Catalog para cada origen de datos que contenga los datos que
quiera preparar. Un recurso es un objeto de repositorio que representa un repositorio de metadatos u origen
de datos externo. Los analizadores adjuntados a un recurso extraen los metadatos del recurso y los
almacenan en Enterprise Data Catalog.

Para obtener información acerca de cómo crear recursos en Enterprise Data Catalog, consulte el capítulo
sobre la administración de recursos en la Guía del administrador de Informatica Catalog 10.2.2.

Funciones estadísticas
A partir de la versión 10.2.2, puede aplicar las siguientes funciones estadísticas a columnas de una hoja de
cálculo cuando prepara datos:

• AVG
• AVGIF
• COUNT
• COUNTIF
• COUNTDISTINCT
• COUNTDISTINCTIF
• MAX
• MAXIF
• MIN
• MINIF
• STDDEV
• STDDEVIF
• SUM
• SUMIF

236 Capítulo 23: Novedades de la versión 10.2.2


• VARIANCE
• VARIANCEIF
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Funciones de fecha y hora


A partir de la versión 10.2.2, puede aplicar las siguientes funciones de fecha y hora a las columnas de la hoja
de cálculo cuando prepara los datos:

• ADD_TO_DATE
• CURRENT_DATETIME
• DATETIME
• DATE_DIFF
• DATE_TO_UNIXTIME
• EXTRACT_MONTH_NAME
• UNIXTIME_TO_DATE
• Convertir fecha en texto
• Convertir texto en fecha
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Funciones matemáticas
A partir de la versión 10.2.2, puede aplicar las siguientes funciones matemáticas a las columnas cuando
prepara los datos:

• EXP
• LN
• LOG
• PI
• POWER
• SQRT
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Funciones de texto
A partir de la versión 10.2.2, puede aplicar las siguientes funciones de texto a las columnas cuando prepara
los datos:

• ENDSWITH
• ENDSWITH_IGNORE_CASE
• FIND_IGNORE_CASE
• FIND_REGEX
• FIRST_CHARACTER_TO_NUMBER

Enterprise Data Lake 237


• NUMBER_TO_CHARACTER
• PROPER_CASE
• REMOVE_NON_ALPHANUMERIC_CHARACTERS
• STARTSWITH
• STARTSWITH_IGNORE_CASE
• SUBSTITUTE_REGEX
• TRIM_ALL
• Convertir fecha en texto
• Convertir número en texto
• Convertir texto en fecha
• Convertir texto en número
Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Funciones de ventana
A partir de la versión 10.2.2 puede usar las funciones de ventana para realizar operaciones en grupos de fila
dentro de una hoja de cálculo. El grupo de filas sobre el cuál actúa una función se llama "ventana", y se
define con una clave de partición, un orden por clave y desplazamientos opcionales. Una función de ventana
calcula un valor de devolución para cada fila de entrada dentro del contexto de la ventana.

Puede utilizar funciones de ventana para realizar las siguientes tareas:

• Recuperar datos de filas anteriores o posteriores.


• Calcular una suma acumulada o un porcentaje acumulado según un grupo de filas.
• Asignar un número de filas secuencial a cada fila de un grupo de filas.
• Reemplazar valores nulos en las filas con el valor no nulo precedente dentro de un grupo de filas.
• Generar identificadores de sesión que pueda usar para agrupar filas según un período de tiempo
específico, como visitas a un sitio web registradas en un archivo de registro.
Puede aplicar varias funciones de ventana a una hoja de cálculo. Por ejemplo, es posible aplicar una función
para calcular la suma de valores de cada fila a continuación de la fila actual dentro de una ventana y aplicar
después otra función para calcular el promedio de los mismos valores.

Enterprise Data Lake agrega una columna que contiene los resultados de cada función que se aplica a la hoja
de cálculo.

Para obtener más información, consulte el capítulo sobre preparación de datos en la Guía del usuario de
Informatica Enterprise Data Lake 10.2.2.

Purgar eventos de auditoría


A partir de la versión 10.2.2, puede ejecutar el comando infacmd edl purgeevents para eliminar eventos de
actividad del usuario de la base de datos de historial de auditorías. También puede ejecutar el comando para
eliminar eventos del historial de proyectos de la base de datos.

Motor de ejecución de Spark


A partir de la versión 10.2.2, Enterprise Data Lake usa el motor de Spark para actividades de consumo alto de
recursos como la publicación de un activo o para ejecutar mapplets de reglas activos que usen la

238 Capítulo 23: Novedades de la versión 10.2.2


transformación de Python. El uso del motor de Spark para actividades de consumo alto de recursos brinda
un mejor rendimiento y habilita una implementación de Enterprise Data Lake en Amazon Elastic MapReduce
(EMR) para aprovechar el ajuste de escala automático.

Informatica Developer
En esta sección se describen las nuevas características de Developer tool en la versión 10.2.2.

Aplicaciones
A partir de la versión 10.2.2, puede crear aplicaciones incrementales. Una aplicación incremental es una
aplicación que puede actualizarse mediante la implementación de una revisión de aplicación que actualiza
un subconjunto de objetos. El servicio de integración de datos actualiza los objetos de la revisión mientras
siguen ejecutándose los objetos de aplicación.

Si actualiza a la versión 10.2.2, las aplicaciones existentes se marcan como "aplicaciones completas". Puede
seguir creando aplicaciones completas en la versión 10.2.2, pero no puede convertir una aplicación completa
en una aplicación incremental.

Para obtener más información, consulte los capítulos sobre implementación de aplicaciones e
implementación de revisiones de aplicación en la Guía de Informatica Developer Tool 10.2.2.

Asignaciones de Informatica
En esta sección se describen las nuevas características de las asignaciones de Informatica en la versión
10.2.2.

Tipos de datos
A partir de la versión 10.2.2, puede habilitar el modo de alta precisión en asignaciones por lote que se
ejecutan en el motor de Spark. Con el motor de Spark, puede procesar los valores decimales con una
precisión de hasta 38 dígitos.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.

Salidas de asignación
A partir de la versión 10.2.2, puede usar salidas de asignación en asignaciones por lote que se ejecuten
como tareas de asignación en flujos de trabajo en el motor de Spark. Puede conservar las salidas de
asignación en el repositorio de modelos o vincular las salidas de asignación a variables de flujo de trabajo.

Para obtener más información, consulte el capítulo "Salidas de asignación" en la Guía de asignaciones de
Informatica Developer 10.2.2 y el capítulo "Tarea de asignación" en la Guía de flujos de trabajo de Informatica
Developer 10.2.2.

Informatica Developer 239


Parámetros de asignación
A partir de la versión 10.2.2, puede asignar parámetros de expresión a las expresiones de puerto en las
transformaciones de agregación, expresión y clasificación que se ejecutan en los entornos nativos y no
nativos.

Para obtener más información, consulte el capítulo sobre dónde se asignan los parámetros y "Asignaciones
dinámicas" en la Guía de asignaciones de Informatica Developer 10.2.2.

Niveles del optimizador


A partir de la versión 10.2.2, puede configurar el nivel automático del optimizador para las asignaciones y las
tareas de asignación. Con el nivel de optimizador automático, el servicio de integración de datos aplica
optimizaciones según el modo de ejecución y los contenidos de la asignación.

El valor predeterminado del nivel del optimizador para las aplicaciones nuevas es Automático.

Cuando actualiza a la versión 10.2.2, los niveles del optimizador configurados en las asignaciones siguen
siendo los mismos. Para usar el nivel automático del optimizador con asignaciones de actualización, debe
cambiar manualmente el nivel del optimizador.

Para obtener más información, consulte el capítulo "Niveles del optimizador" en la Guía de asignaciones de
Informatica Developer 10.2.2.

Sqoop
A partir de la versión 10.2.2, puede utilizar las siguientes nuevas características de Sqoop:

Compatibilidad con la extracción de datos incrementales

Puede configurar una asignación de Sqoop para realizar una extracción de datos incrementales según
un ID o una marca de tiempo. Con la extracción de datos incrementales, Sqoop extrae solamente los
datos que hayan cambiado desde la última extracción de datos. La extracción de datos incrementales
aumenta el rendimiento de la asignación.

Soporte de conectividad de Vertica

Puede configurar Sqoop para que lea datos desde un origen de Vertica o escriba datos en un destino de
Vertica.

Optimización del motor de Spark para asignaciones de transferencia de Sqoop

Cuando ejecuta una asignación de transferencia con un origen de Sqoop en el motor de Spark, el
servicio de integración de datos optimiza el rendimiento de la asignación en los siguientes escenarios:

• Escribe datos en un destino de Hive que se creó con una consulta de DDL personalizada.
• Escribe datos en un destino de Hive existente que está particionado con una consulta de DLL
personalizada o particionada, y con depósitos con una consulta de DDL personalizada.
• Escribe datos en un destino de Hive existente que está particionado y tiene depósitos.

Compatibilidad con el argumento --infaownername

Puede configurar el argumento --infaownername para indicar si Sqoop debe ajustarse al nombre del
propietario para un objeto de datos.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.

240 Capítulo 23: Novedades de la versión 10.2.2


Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.2.2.

Transformación del validador de direcciones


En esta sección se describen las nuevas características de la transformación del validador de direcciones.

La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Todos los países


A partir de la versión 10.2.2, la transformación del validador de direcciones admite la verificación de
direcciones de una sola línea en todos los países para los que Informatica proporciona datos de referencia
de direcciones.

En las versiones anteriores, la transformación admitía la verificación de direcciones de una sola línea de 26
países.

Para verificar una dirección de una sola línea, introduzca la dirección en el puerto Dirección completa. Si la
dirección identifica un país para el que el alfabeto predeterminado preferido no es un alfabeto latino u
occidental, use la propiedad predeterminada Alfabeto preferido en la transformación con la dirección.

Australia
A partir de la versión 10.2.2, puede configurar la transformación del validador de direcciones para que
agregue enriquecimientos de direcciones a direcciones de Australia. Los enriquecimientos sirven para
detectar los sectores geográficos y las regiones a las que el Australia Bureau of Statistics asigna las
direcciones. Los sectores y las regiones incluyen distritos de realización de censo, bloques de malla y áreas
estadísticas.

La transformación usa los siguientes puertos para entregar los enriquecimientos:

• Código de distrito de colección de censo 2006


• Identificador de archivo de direcciones nacionales geocodificadas
• Área de estadística de área metropolitana de capital de 5 dígitos
• Nombre de área de estadísticas de área metropolitana de capital
• Área de estadísticas de nivel 1 de 11 dígitos
• Área de estadísticas de nivel 1 de 7 dígitos
• Área de estadísticas de nivel 2 de 9 dígitos
• Área de estadísticas de nivel 2 de 5 dígitos
• Nombre de área de estadísticas de nivel 2
• Área de estadísticas de nivel 3 de 5 dígitos
• Nombre de área de estadísticas de nivel 3
• Área de estadísticas de nivel 4 de 3 dígitos
• Nombre de área de estadísticas de nivel 4
• Bloque de malla de 11 dígitos 2011
• Bloque de malla de 11 dígitos 2016

Transformaciones de Informatica 241


• Código de estado o territorio
• Nombre de estado o territorio
• Estado complementario de AU
Busque los puertos en el grupo de puertos complementarios de Australia.

Bolivia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora el análisis y la validación
de las direcciones de Bolivia. Además, Informatica actualiza los datos de referencia de Bolivia.

La transformación también incluye las siguientes mejoras para Bolivia:

• Validación de direcciones a nivel de calle.


• Geocoordenadas a nivel intermedio de calle para las direcciones en las grandes ciudades.

Canadá
Informatica introduce las siguientes características y mejoras para Canadá:

Compatibilidad de la propiedad Descriptor global preferido en direcciones de Canadá

A partir de la versión 10.2.2, puede configurar la transformación del validador de direcciones para que
devuelva la forma corta o la forma larga de un descriptor de elementos.

La transformación puede devolver la forma corta o larga de los siguientes descriptores:

• Descriptores de calle
• Valores direccionales
• Descriptores de edificios
• Descriptores de elementos por debajo del nivel de edificio

Para especificar el formato de salida de los descriptores, configure la propiedad Descriptor global
preferido en la transformación. La propiedad se aplica a los descriptores de los idiomas inglés y francés.
De forma predeterminada, la transformación devuelve el descriptor en el formato que especifiquen los
datos de referencia. Si selecciona la opción PRESERVE INPUT en la propiedad, la propiedad Alfabeto
preferido tendrá prioridad sobre la propiedad Descriptor global preferido.

Compatibilidad de CH y CHAMBER como descriptores de elementos por debajo del nivel de edificio

A partir de la versión 10.2.2, la transformación del validador de direcciones reconoce CH y CHAMBER


como descriptores de elementos por debajo del nivel de edificio en las direcciones de Canadá.

Colombia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora el procesamiento de los
datos de calles en las direcciones de Colombia. Además, Informatica actualiza los datos de referencia de
Colombia.

Francia
A partir de la versión 10.2.2, Informatica introduce las siguientes mejoras para las direcciones de Francia:

• Informatica mejora los datos de referencia complementarios de Francia.


• La transformación del validador de direcciones asigna direcciones a las unidades IRIS en Francia con una
mayor precisión. La transformación usa el número de casa en la dirección para verificar la unidad IRIS a
la que pertenece la dirección. El uso de los números de casa puede mejorar la precisión de la asignación
cuando la dirección está cerca del borde entre unidades diferentes.

242 Capítulo 23: Novedades de la versión 10.2.2


Israel
A partir de la versión 10.2.2, Informatica presenta las siguientes características y mejoras para Israel:

Soporte multilingüe para direcciones de Israel

Puede configurar la transformación del validador de direcciones para devolver una dirección de Israel en
idioma inglés o hebreo.

Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación.

El idioma predeterminado para las direcciones de Israel es el hebreo. Para devolver la información de
dirección en hebreo, establezca la propiedad Idioma preferido en DATABASE o ALTERNATIVE_1. Para
devolver la información de dirección en inglés, establezca la propiedad en ENGLISH o ALTERNATIVE_2.

Compatibilidad con varios conjuntos de caracteres para direcciones de Israel

La transformación del validador de direcciones puede leer y escribir direcciones de Israel en conjuntos
de caracteres en hebreo y latín.

Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres


preferido para los datos de dirección.

El conjunto de caracteres predeterminado para las direcciones de Israel es Hebreo. Cuando la propiedad
del script preferido se establece en Latin o Latin-1, la transformación transcribe datos de direcciones en
hebreo en caracteres en latín.

Perú
A partir de la versión 10.2.2, la transformación del validador de direcciones valida las direcciones de Perú a
nivel de número de casa. Además, Informatica actualiza los datos de referencia de Perú.

Suecia
A partir de la versión 10.2.2, la transformación del validador de direcciones mejora la verificación de los
nombres de calles en las direcciones de Suecia.

La transformación mejora la verificación de los nombres de calles de las siguientes maneras:

• La transformación puede reconocer un nombre de calle que termine con el carácter G como alias del
mismo nombre con los caracteres finales GATAN.
• La transformación puede reconocer un nombre de calle que termine con el carácter V como alias del
mismo nombre con los caracteres finales VÄGEN.
• La transformación del validador de direcciones puede reconocer y corregir el nombre de una calle con un
descriptor incorrecto cuando se usan la forma larga o la forma corta del descriptor.
Por ejemplo, la transformación puede corregir RUNIUSV o RUNIUSVÄGEN como RUNIUSGATAN en la
siguiente dirección:
RUNIUSGATAN 7
SE-112 55 STOCKHOLM

Estados Unidos
A partir de la versión 10.2 HotFix 2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no reciben correo en uno o varios días de la semana.

Para identificar las direcciones, use el puerto Días de no entrega. El puerto contiene una cadena de siete
dígitos que representa los días de la semana de domingo a sábado. Cada posición de la cadena representa
un día diferente.

Transformaciones de Informatica 243


La transformación del validador de direcciones devuelve la primera letra del día de la semana en la posición
correspondiente del puerto si la dirección no recibe correo ese día. La transformación devuelve un símbolo
de guion en la posición correspondiente para otros días de la semana.

Por ejemplo, un valor de S----FS en el puerto Días de no entrega indica que una dirección no recibe correo
en domingo, viernes y sábado.

Encuentre el puerto Días de no entrega en el grupo de puertos Específico de EE. UU. en el modelo básico.
Para recibir datos en el puerto Días de no entrega, ejecute una transformación del validador de direcciones
en modo certificado. La transformación lee los valores del puerto desde los archivos de base de datos
USA5C129.MD y USA5C130.MD.

Para obtener información completa acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones de la versión 10.2.2, consulte la Guía de desarrollador de Informatica
Address Verification 5.14.0.

Transformación de estrategia de actualización


A partir de la versión 10.2.2, puede usar una transformación de estrategia de actualización en una asignación
que se ejecuta en el motor de Spark para actualizar destinos relacionales.

Anteriormente, podía usar una transformación de estrategia de actualización en una asignación que se
ejecutaba en el motor de Spark solo para actualizar destinos de Hive.

Para obtener más información, consulte el capítulo "Transformación de estrategia de actualización" en la


Guía de transformaciones de Developer.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica de la versión 10.2.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2.2, PowerExchange for Amazon Redshift incluye las siguientes características:

• Puede leer datos de las siguientes regiones y escribirlos en ellas:


- China (Ningxia)

- UE (París)
• Puede utilizar objetos de Amazon Redshift como orígenes y destinos dinámicos en una asignación.
• Puede usar valores de octal de caracteres ASCII imprimibles y no imprimibles como DELIMITER o QUOTE.
• Puede introducir comandos de pre-SQL y post-SQL para ejecutar consultas para los objetos de origen y
destino de una asignación.
• Puede definir una consulta SQL para los objetos de datos de lectura de una asignación para reemplazar la
consulta predeterminada. Puede especificar una instrucción SQL que sea compatible con la base de
datos de Amazon Redshift.
• Puede especificar el tamaño máximo de un objeto de Amazon S3 en bytes cuando descarga objetos
grades de Amazon S3 en varias partes.
• Puede leer valores únicos al leer datos desde un origen de Amazon Redshift.

244 Capítulo 23: Novedades de la versión 10.2.2


• Cuando carga un objeto en Amazon S3, puede especificar el tamaño mínimo del objeto y el número de
subprocesos para cargar los objetos en paralelo como un conjunto de piezas independientes.
• Puede elegir conservar la tabla de destino existente, reemplazar una tabla de destino en tiempo de
ejecución o crear una nueva tabla de destino si no existe en el destino.
• Puede configurar las transformaciones de estrategia de actualización para un destino de Amazon
Redshift en el entorno nativo.
• Cuando escribe datos en Amazon Redshift, puede reemplazar el esquema de tabla de destino de Amazon
Redshift y el nombre de la tabla durante el tiempo de ejecución.
• Cuando el tipo de conexión es ODBC, el servicio de integración de datos puede insertar la lógica de
transformación en orígenes y destinos de Amazon Redshift usando la optimización de delegación de
tareas completa y del lado de origen.
• Puede usar la encriptación del lado del servidor con el servicio de administración de claves de AWS (AWS
KMS) en Amazon EMR versión 5.16 y Cloudera CDH versión 5.15 y 5.16.
• PowerExchange for Amazon Redshift admite AWS SDK for Java versión 1.11.354.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2.

PowerExchange for Amazon S3


A partir de la versión 10.2.2, PowerExchange for Amazon S3 incluye las siguientes características:

• Puede leer datos de las siguientes regiones y escribirlos en ellas:


- China (Ningxia)

- UE (París)

- AWS GovCloud (EE. UU.)


• Puede utilizar objetos de Amazon S3 como orígenes y destinos dinámicos en una asignación.
• Cuando se ejecuta una asignación en el entorno nativo o en el motor de Spark para leer datos desde un
archivo Avro, sin formato, JSON, ORC o Parquet, puede usar caracteres comodines para especificar el
nombre del directorio de origen o el nombre del archivo de origen.
• Puede agregar una sola etiqueta o varias etiquetas a los objetos almacenados en el depósito de Amazon
S3 para categorizar los objetos. Cada etiqueta contiene un par clave-valor. Puede especificar los pares
clave-valor o especificar la ruta de archivo absoluta que contiene los pares clave-valor.
• Puede especificar el tamaño de umbral máximo para descargar un objeto de Amazon S3 en varias partes.
• Cuando carga un objeto en Amazon S3, puede especificar el tamaño mínimo del objeto y el número de
subprocesos para cargar los objetos en paralelo como un conjunto de piezas independientes.
• Cuando crea una operación de lectura o escritura de un objeto de datos, puede leer los datos presentes
en el puerto FileName que contiene el nombre del extremo y la ruta de origen del archivo.
• Puede agregar nuevas columnas o modificar las existentes directamente en la pestaña Puerto cuando
crea una operación de lectura o escritura de objeto de datos.
• Puede copiar las columnas de las transformaciones de origen, las transformaciones de destino o
cualquier otra transformación desde la pestaña Puerto y pegarlas directamente en la operación de lectura
o escritura del objeto de datos cuando crea una asignación para leer o escribir en un archivo Avro, JSON,
ORC o Parquet.
• Puede actualizar el formato de archivo Amazon S3 sin perder los metadatos de columna en el campo
Esquema de las propiedades de proyección de columna incluso después de configurar las propiedades de
proyección de columna para otro formato de archivo de Amazon S3.

Adaptadores de PowerExchange para Informatica 245


• Puede usar la encriptación del lado del servidor con el servicio de administración de claves de AWS (AWS
KMS) en Amazon EMR versión 5.16 y Cloudera CDH versión 5.15 y 5.16.
• PowerExchange for Amazon S3 admite AWS SDK for Java versión 1.11.354.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2.

PowerExchange for Google BigQuery


A partir de la versión 10.2.2, puede crear un destino de Google BigQuery usando la opción de botón derecho
Crear destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2.2.

PowerExchange for HBase


A partir de la versión 10.2.2, PowerExchange for HBase incluye estas nuevas características:

• Cuando crea un objeto de datos de HBase, puede seleccionar un perfil del sistema operativo para
aumentar la seguridad y aislar el entorno del usuario en tiempo de diseño cuando se importan metadatos
y se obtiene una vista previa de ellos desde un clúster de Hadoop.
Nota: Puede elegir un perfil del sistema operativo si el servicio de acceso a metadatos está configurado
para usar perfiles del sistema operativo. El servicio de acceso a metadatos ejecuta los metadatos con el
perfil del sistema operativo predeterminado asignado al usuario. Puede cambiar el perfil del sistema
operativo en la lista de perfiles del sistema operativo disponibles.
• Puede utilizar objetos de HBase como orígenes y destinos dinámicos en una asignación.
• Puede ejecutar una asignación en el motor de Spark para buscar datos en un recurso de HBase.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.

PowerExchange for HDFS


A partir de la versión 10.2.2, PowerExchange for HDFS incluye estas nuevas características:

• Cuando crea un objeto de datos de archivo complejo, puede seleccionar un perfil del sistema operativo
para aumentar la seguridad y aislar el entorno del usuario en tiempo de diseño cuando se importan
metadatos y se obtiene una vista previa de ellos desde un clúster de Hadoop.
Nota: Puede elegir un perfil del sistema operativo si el servicio de acceso a metadatos está configurado
para usar perfiles del sistema operativo. El servicio de acceso a metadatos ejecuta los metadatos con el
perfil del sistema operativo predeterminado asignado al usuario. Puede cambiar el perfil del sistema
operativo en la lista de perfiles del sistema operativo disponibles.
• Cuando se ejecuta una asignación en el entorno nativo o en el motor de Spark para leer datos desde un
objeto de datos de archivo complejo, puede usar caracteres comodines para especificar el nombre del
directorio de origen o el nombre del archivo de origen.
Puede usar los siguientes caracteres comodines:
? (Signo de interrogación)

El carácter de signo de interrogación (?) permite una ocurrencia de cualquier carácter.

246 Capítulo 23: Novedades de la versión 10.2.2


* (Asterisco)

El carácter de asterisco (*) permite una ocurrencia nula o más de una ocurrencia de cualquier
carácter.
• Puede utilizar objetos de archivos complejos como orígenes y destinos dinámicos en una asignación.
• Puede utilizar objetos de archivos complejos para leer datos desde un sistema de archivos complejo o
escribirlos en él.
• Cuando ejecuta una asignación en el entorno nativo o en el motor de Spark para escribir datos en un
objeto de datos de archivo complejo, puede sobrescribir los datos de destino. El servicio de integración
de datos elimina los datos de destino antes de escribir nuevos datos.
• Cuando crea una operación de lectura o escritura de un objeto de datos, puede leer los datos presentes
en el puerto FileName que contiene el nombre del extremo y la ruta de origen del archivo.
• Ahora puede ver las operaciones de objeto de datos inmediatamente después de crear la operación de
lectura o escritura de objeto de datos.
• Puede agregar nuevas columnas o modificar las existentes cuando crea una operación de lectura o
escritura de objeto de datos.
• Puede copiar las columnas de las transformaciones de origen, las transformaciones de destino o
cualquier otra transformación, y pegarlas en la operación de lectura o escritura del objeto de datos
directamente cuando lee o escribe en un archivo Avro, JSON, ORC o Parquet.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.2.

PowerExchange for Hive


A partir de la versión 10.2.2, PowerExchange for Hive incluye estas nuevas características:

• Puede configurar las siguientes opciones de la estrategia de esquema de destino para un destino de Hive:
- RETAIN. Mantener esquema de destino existente

- CREATE. Crear o reemplazar una tabla en tiempo de ejecución

- APPLYNEWCOLUMNS. Modificar tabla y aplicar nuevas columnas solo

- APPLYNEWSCHEMA. Modificar tabla y aplicar nuevo esquema

- FAIL. Error de asignación si el esquema de destino es diferente

- Asignar parámetro
• Puede truncar un destino de Hive particionado interno o externo antes de cargar datos. Esta opción se
aplica cuando ejecuta la asignación en el entorno de Hadoop.
• Puede crear una transformación de escritura o lectura para Hive en modo nativo para leer datos desde el
origen de Hive o escribirlos en el destino de Hive.
• Cuando escribe datos en un destino de Hive, puede configurar las siguientes propiedades en una
conexión de Hive:
- Directorio de transferencia provisional de Hive en HDFS. Representa el directorio de HDFS para las
tablas de transferencia provisional de Hive. Esta opción se aplica y se requiere cuando se escriben
datos en un destino de Hive en el entorno nativo.
- Nombre de la base de datos de transferencia provisional de Hive. Representa el espacio de nombres
para las tablas de transferencia provisional de Hive. Esta opción se aplica cuando ejecuta una
asignación en el entorno nativo para escribir datos en un destino de Hive. Si ejecuta la asignación en el
motor de Blaze o Spark, no tendrá que configurar el nombre de la base de datos de transferencia
provisional de Hive en la conexión de Hive. El servicio de integración de datos utiliza el valor que
configure en la conexión de Hadoop.

Adaptadores de PowerExchange para Informatica 247


Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Hive 10.2.2.

PowerExchange for MapR-DB


A partir de la versión 10.2.2, cuando crea un objeto de base de datos de HBase para MapR-DB, puede
seleccionar un perfil del sistema operativo para aumentar la seguridad y aislar el entorno del usuario en
tiempo de diseño cuando se importan metadatos y se obtiene una vista previa de ellos desde un clúster de
Hadoop.
Nota: Puede elegir un perfil del sistema operativo si el servicio de acceso a metadatos está configurado para
usar perfiles del sistema operativo. El servicio de acceso a metadatos ejecuta los metadatos con el perfil del
sistema operativo predeterminado asignado al usuario. Puede cambiar el perfil del sistema operativo en la
lista de perfiles del sistema operativo disponibles.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MapR-DB
10.2.2.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.2.2, PowerExchange for Microsoft Azure Blob Storage incluye las siguientes
funcionalidades:

• Puede ejecutar asignaciones en el entorno de Azure Databricks.


• Puede configurar los puntos de conexión de Microsoft Azure del gobierno de Estados Unidos.
• Puede comprimir datos en los siguientes formatos cuando lee datos desde Microsoft Azure Blob Storage
o los escribe allí:
- Ninguno

- Deflate

- Gzip

- Bzip2

- Lzo

- Snappy
• Puede usar objetos de Microsoft Azure Blob Storage como orígenes y destinos dinámicos en una
asignación.
• Puede leer el nombre del archivo desde el que el servicio de integración de datos lee los datos en tiempo
de ejecución en el entorno nativo.
• Puede configurar la ruta de acceso relativa en Reemplazo de contenedor de Blob en las propiedades
avanzadas de origen y destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.2.

PowerExchange for Microsoft Azure Cosmos DB SQL API


A partir de la versión 10.2.2, PowerExchange for Microsoft Azure Cosmos DB SQL API incluye las siguientes
funcionalidades:

• Puede ejecutar asignaciones en el entorno de Azure Databricks. Existe compatibilidad de Databricks con
PowerExchange for Microsoft Azure Cosmos DB SQL API para vista previa técnica. La funcionalidad de
vista previa técnica es compatible, pero no se garantiza ni está preparada para usarla en producción.
Informatica recomienda utilizar estas características solo en entornos que no sean de producción.

248 Capítulo 23: Novedades de la versión 10.2.2


Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Cosmos DB SQL API 10.2.2.

PowerExchange for Microsoft Azure Data Lake Store


A partir de la versión 10.2.2, PowerExchange for Microsoft Azure Data Store incluye las siguientes
características:

• Puede ejecutar asignaciones en el entorno de Azure Databricks.


• Puede utilizar tipos de datos complejos, como array, struct y map, en las asignaciones que se ejecutan en
el entorno de Hadoop. Con tipos de datos complejos, el correspondiente motor lee, procesa y escribe
directamente los datos jerárquicos en archivos complejos Avro, JSON y Parquet. Para un origen de
estructura inteligente, puede configurar solo la operación de lectura.
• Puede crear asignaciones para leer y escribir archivos Avro y Parquet que contienen solo tipos de datos
primitivos en el entorno nativo.
• Puede seleccionar un directorio como origen en una asignación para leer varios archivos desde el
directorio.
• Puede usar objetos de Microsoft Azure Data Lake Store como orígenes y destinos dinámicos en una
asignación.
• Puede crear un destino de Microsoft Azure Data Lake Store usando la opción Crear destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Data Lake Store 10.2.2.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.2.2, PowerExchange for Microsoft Azure SQL Data Warehouse incluye las siguientes
funcionalidades:

• Puede ejecutar asignaciones en el entorno de Azure Databricks.


• Puede configurar los puntos de conexión de Microsoft Azure del gobierno de Estados Unidos en
asignaciones que se ejecutan en el entorno nativo y en el motor de Spark.
• Puede generar archivos de error en el contenedor de Microsoft Azure Blob Storage. Los archivos de error
contienen filas rechazadas y la causa relacionada con esas filas.
• Puede definir el tamaño de lote en las propiedades avanzadas del destino en el entorno nativo.
• Puede configurar la optimización de delegación de tareas completa para la lógica de transformación de
delegación de tareas en las bases de dato de origen y de destino. Use la optimización de delegación de
tareas para mejorar el rendimiento de la tarea usando los recursos de base de datos.
• Puede usar objetos de Microsoft Azure SQL Data Warehouse como orígenes y destinos dinámicos en una
asignación.

La optimización de delegación de tareas completa y la funcionalidad de asignaciones dinámicas para


PowerExchange for Microsoft Azure SQL Data Warehouse está disponible para vista previa técnica. La
funcionalidad de vista previa técnica es compatible, pero no se garantiza ni está preparada para usarla en
producción. Informatica recomienda utilizar estas características solo en entornos que no sean de
producción.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.2.

Adaptadores de PowerExchange para Informatica 249


PowerExchange for Salesforce
A partir de la versión 10.2.2, PowerExchange for Salesforce incluye estas nuevas características:

• Puede utilizar la versión 43.0 y 44.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede configurar OAuth para las conexiones de Salesforce.
• Puede configurar el filtro de expresiones nativas para la operación del objeto de datos de origen.
• Puede parametrizar las siguientes propiedades de la operación de lectura para un objeto de datos
SalesForce:
- Condición de filtro de SOQL

- Marca de hora de inicio de CDC

- Marca de hora de finalización de CDC

- Tamaño de fragmentación de clave principal

- ID de startRow de fragmentación de clave principal

Puede parametrizar las siguientes propiedades de la operación de escritura para un objeto de datos de
Salesforce:
- Establezca el prefijo para los archivos de errores y de éxito de BULK

- Directorio de archivos de éxito de SFDC

- Establezca la ubicación de los archivos de error de BULK

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
10.2.2.

PowerExchange for Snowflake


A partir de la versión 10.2.2, PowerExchange for Snowflake incluye estas nuevas características:

• Puede configurar la autenticación SSO de Okta especificando los detalles de la autenticación en los
parámetros de JDBC URL de la conexión de Snowflake.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada
utilizada para extraer datos del origen de Snowflake. Especifique el reemplazo de SQL en las propiedades
de operación de lectura del objeto de datos de SnowFlake.
• Puede elegir comprimir los archivos antes de escribir en las tablas de Snowflake y optimizar el
rendimiento de escritura. En las propiedades avanzadas. Puede establecer el parámetro de compresión
en On u Off en el campo Parámetros adicionales de tiempo de ejecución de escritura en las propiedades
avanzadas de la operación de escritura del objeto de datos de SnowFlake.
• El servicio de integración de datos usa las API del conector de Snowflake Spark para ejecutar
asignaciones de Snowflake en el motor de Spark.
• Puede leer datos y escribir datos en Snowflake habilitados para los datos de almacenamiento provisional
en Azure o Amazon.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.2.

250 Capítulo 23: Novedades de la versión 10.2.2


PowerExchange para la API del transportador paralelo de Teradata
A partir de la versión 10.2.2, PowerExchange for Teradata Parallel Transporter API incluye las siguientes
funciones en las propiedades del destino avanzadas:

• Puede especificar un carácter de reemplazo para usar en lugar de un carácter unicode de Teradata no
compatible en la base de datos de Teradata mientras se cargan datos en los destinos.
• Si especificó un carácter usado en lugar de uno no compatible al cargar datos en los destinos de
Teradata, puede especificar las versiones 8.x - 13.x o 14.x y posterior para la base de datos de Teradata
de destino. Use este atributo junto con el atributo de carácter de reemplazo. El servicio de integración de
datos omite este atributo si no especificó un carácter de reemplazo mientras cargaba los datos en los
destinos de Teradata.
• Cuando escribe datos en Teradata, puede reemplazar el esquema de tabla de destino de Teradata y el
nombre de tabla durante el tiempo de ejecución.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Teradata
Parallel Transporter API 10.2.2.

Adaptadores de PowerExchange para Informatica 251


Capítulo 24

Cambios en la versión 10.2.2


Este capítulo incluye los siguientes temas:

• servicios de aplicación, 252


• Big Data Management, 252
• Big Data Transmisión, 255
• Enterprise Data Catalog, 256
• Enterprise Data Lake, 256
• Informatica Developer, 257
• Transformaciones de Informatica, 257
• Adaptadores de PowerExchange para Informatica, 259

servicios de aplicación
En esta sección se describen los cambios en las características del servicio de aplicación de la versión
10.2.2.

Servicio de acceso a metadatos


A partir de la versión 10.2.2, puede usar el mismo servicio de acceso a metadatos para importar y obtener
una vista previa de los metadatos desde varias distribuciones de Hadoop. Anteriormente, tenía que crear
varias instancias del servicio de acceso a metadatos para varias distribuciones de Hadoop.

Big Data Management


En esta sección se describen los cambios introducidos en Big Data Management en la versión 10.2.2.

Conexión a Hive
A partir de la versión 10.2.2, se ha cambiado el nombre de las siguientes propiedades de la conexión de Hive:

• La propiedad Respetar autorización SQL específica ha cambiado el nombre a Autorización específica.


• La propiedad Nombre de usuario ha cambiado el nombre a Nombre de usuario de LDAP.

252
La siguiente tabla describe las propiedades:

Propiedad Descripción

Autorización Cuando seleccione la opción para respetar la autorización específica en un origen de Hive, la
específica asignación respeta lo siguiente:
- Las restricciones a nivel de columna y fila. Se aplica a los clústeres de Hadoop donde estén
habilitados los modos de seguridad Sentry o Ranger.
- Reglas de enmascaramiento de datos. Se aplica a las reglas de enmascaramiento que se
establecen en columnas que contienen datos confidenciales mediante Dynamic Data Masking.
Si no selecciona la opción, los motores de Blaze y Spark omitirán las restricciones y las reglas de
enmascaramiento, y los resultados incluirán datos restringidos o confidenciales.

Nombre de El nombre de usuario de LDAP del usuario que el servicio de integración de datos suplanta para
usuario de ejecutar asignaciones en un clúster de Hadoop. El nombre de usuario depende de la cadena de
LDAP conexión de JDBC que especifique en la cadena de conexión de metadatos o en la cadena de
conexión de acceso a los datos del entorno nativo.
Si el clúster de Hadoop utiliza autenticación Kerberos, el nombre principal de la cadena de
conexión de JDBC y el nombre de usuario deben coincidir. De lo contrario, el nombre de usuario
dependerá del comportamiento del controlador JDBC. Con el controlador JDBC de Hive, puede
especificar un nombre de usuario de varias formas y este puede ser una parte de la URL de JDBC.
Si el clúster de Hadoop no utiliza autenticación Kerberos, el nombre de usuario depende del
comportamiento del controlador JDBC.
Si no especifica un nombre de usuario, el clúster de Hadoop autenticará trabajos según los
siguientes criterios:
- El clúster de Hadoop no utiliza autenticación Kerberos. Autentica trabajos según el nombre de
usuario del perfil del sistema operativo del equipo que ejecuta el servicio de integración de
datos.
- El clúster de Hadoop utiliza autenticación Kerberos. Autentica trabajos según el SPN del servicio
de integración de datos. Se omitirá el nombre de usuario de LDAP.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.

Ingesta masiva
A partir de la versión 10.2.2, las especificaciones de ingesta masiva se ejecutan en el motor de Spark. Las
especificaciones de ingesta masiva que se implementaron antes de la versión 10.2.2 seguirán ejecutándose
en motores de Blaze y Spark hasta que vuelvan a implementarse.

Para obtener más información, consulte la Guía de ingesta masiva de Informatica Big Data Management
10.2.2.

Supervisión de Spark
A partir de la versión 10.2.2, la supervisión de Spark está habilitada de forma predeterminada.

Antes estaba deshabilitada de forma predeterminada.

Para obtener más información acerca de la supervisión de Spark, consulte la Guía del usuario de Informatica
Big Data Management 10.2.2.

Big Data Management 253


Sqoop
A partir de la versión 10.2.2, se han aplicado los siguientes cambios a Sqoop:

• Puede especificar una ruta de acceso del archivo en el directorio de transferencia provisional de Spark de
la conexión de Hadoop para almacenar archivos temporales para trabajos de Sqoop. Cuando el motor de
Spark ejecuta trabajos de Sqoop, el servicio de integración de datos crea un directorio de transferencia
provisional de Sqoop dentro del directorio de transferencia provisional de Spark para almacenar archivos
temporales: <directorio de transferencia provisional de Spark>/sqoop_staging
Anteriormente, el directorio de transferencia provisional de Sqoop era de codificación fija y el servicio de
integración de datos usaba el siguiente directorio de transferencia provisional: /tmp/sqoop_staging
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.2.
• Las asignaciones de Sqoop en el motor de Spark usan el OpenJDK (AzulJDK) que se incluye con el
programa de instalación de Informatica. Ya no necesita especificar la propiedad Directorio de inicio de
JDK para el servicio de integración de datos.
Anteriormente, para ejecutar asignaciones de Sqoop en el motor de Spark, se instalaba el kit de desarrollo
de Java (JDK) en el equipo donde se ejecutaba el servicio de integración de datos. A continuación, se
especificaba la ubicación del directorio de instalación de JDK en la propiedad Directorio de inicio de JDK
bajo las opciones de ejecución del servicio de integración de datos en Informatica Administrator.

Transformaciones en el entorno de Hadoop


En esta sección se describen los cambios a las transformaciones en el entorno de Hadoop en la versión
10.2.2.

Transformación de Python
A partir de la versión 10.2.2, la transformación de Python puede procesar datos de forma más eficiente en el
motor de Spark que la transformación de Python en la versión 10.2.1. Además, la transformación de Python
no requiere que se instale Jep, y puede usar cualquier versión de Python para ejecutar la transformación.

Anteriormente, la transformación de Python admitía solo versiones específicas de Python que fueran
compatibles con Jep.

Nota: Las mejoras están disponibles solo para Big Data Management.

Para obtener información acerca de cómo instalar Python, consulte la Guía de integración de Informatica Big
Data Management 10.2.2.

Para obtener más información acerca de la transformación de Python, consulte el capítulo "Transformación
de Python" de la Guía de transformaciones de Informatica Developer 10.2.2.

Transformación de escritura
A partir de la versión 10.2.2, se cambia el nombre de la propiedad avanzada Crear o reemplazar tablas de
destino en una transformación de escritura para objetos de datos relacionales, de Netezza o Teradata a
Estrategia de esquema de destino.

Cuando configura una transformación de escritura, puede elegir entre las siguientes opciones de la
estrategia de esquema de destino para el objeto de datos de destino:

• RETAIN. Mantener esquema de destino existente. El servicio de integración de datos conserva el


esquema de destino existente.

254 Capítulo 24: Cambios en la versión 10.2.2


• CREATE. Crear o reemplazar una tabla en tiempo de ejecución. El servicio de integración de datos elimina
la tabla de destino en tiempo de ejecución y la reemplaza por una tabla basada en un objeto de datos de
destino que se indique.
• Asignar parámetro. Especifique las opciones de Estrategia de esquema de destino como un valor del
parámetro.

Anteriormente seleccionaba la propiedad avanzada Crear o reemplazar tablas de destino para que el servicio
de integración de datos eliminara la tabla de destino en tiempo de ejecución y la reemplazara por una tabla
basada en la tabla de destino que se indicaba. Cuando no selecciona la propiedad avanzada Crear o
reemplazar tablas de destino, el servicio de integración de datos conserva el esquema existente para la tabla
de destino.

En las asignaciones existentes donde esté habilitada la propiedad Crear o reemplazar tablas de destino,
después de actualizar a la versión 10.2.2, de manera predeterminada, la propiedad Estrategia de esquema de
destino muestra la opción CREATE. Crear o reemplazar una tabla en tiempo de ejecución como habilitada.
En las asignaciones, donde la opción Crear o reemplazar tablas de destino no está seleccionada, después de
actualizar, la propiedad Estrategia de esquema de destino se habilita la opción RETAIN. Mantener esquema
de destino existente. Después de actualizar, si no está seleccionada la opción Estrategia de esquema de
destino, debe seleccionar manualmente la opción requerida en la lista Estrategia de esquema de destino y
después ejecutar la asignación.

Para obtener más información acerca de cómo configurar la estrategia de esquema de destino, consulte el
capítulo "Transformación de escritura" en la Guía de transformaciones de Informatica o el capítulo
"Asignaciones dinámicas" en la Guía de asignaciones de Informatica Developer.

Big Data Transmisión


En esta sección se describen los cambios introducidos en Big Data Streaming en la versión 10.2.2.

Integración de Big Data Streaming y Big Data Management


A partir de la versión 10.2.2, para administrar los archivos de destino en el sistema de archivos de destino en
tiempo de ejecución, se crea un directorio temporal en el directorio de archivos de destino especificado.

El directorio temporal separa los archivos de destino en los que actualmente se escriben los datos y los
archivos de destino que se cierran después de que se alcanza el límite de sustitución.

Anteriormente, todos los archivos de destino se almacenaban en el directorio de archivos de destino.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Streaming 10.2.2.

Conexión de Kafka
A partir de la versión 10.2.2, el agente de Kafka mantiene la información de configuración para el agente de
mensajería de Kafka. Anteriormente, Apache ZooKeeper llevaba a cabo esta tarea.

Para obtener más información, consulte la Guía del usuario de Big Data Streaming 10.2.2.

Transformaciones
En esta sección se describen los cambios a las transformaciones en Big Data Streaming en la versión 10.2.2.

Big Data Transmisión 255


Transformación de agregación
A partir de la versión 10.2.2, una asignación de transmisión debe cumplir con los siguientes requisitos
adicionales si contiene una transformación de agregación:

• Una asignación de transmisión debe tener una transformación de ventana directamente en el nivel
superior de una transformación de agregación. Anteriormente, podía usar una transformación de
agregación en cualquier parte del canal después de la transformación de ventana.
• Una asignación de transmisión puede tener una única transformación de agregación. Anteriormente,
podía usar varias transformaciones de agregación en una asignación de transmisión.

Transformación de combinación
A partir de la versión 10.2.2, una asignación de transmisión debe cumplir con los siguientes requisitos
adicionales si contiene una transformación de combinación:

• Una asignación de transmisión debe tener la transformación de ventana directamente en el nivel superior
de una transformación de combinación. Anteriormente, podía usar una transformación de combinación en
cualquier parte del canal después de una transformación de ventana.
• Una asignación de transmisión puede tener una única transformación de combinación. Anteriormente,
podía usar varias transformaciones de combinación en una asignación de transmisión.
• Una asignación de transmisión no puede contener una transformación de agregación en ninguna parte
antes de una transformación de combinación en una asignación de transmisión. Antes podía usar una
transformación de agregación en cualquier parte antes de una transformación de combinación en una
asignación de transmisión.

Enterprise Data Catalog


En esta sección se describen los cambios introducidos en Enterprise Data Catalog en la versión 10.2.2.

Cambio de kit de desarrollo de Java


A partir de la versión 10.2.2, el programa de instalación de Informatica incluye OpenJDK (Azul JDK).
Anteriormente, el programa de instalación incluía Oracle JDK. Puede usar OpenJDK para implementar
Enterprise Data Catalog en un clúster incrustado.

Para implementar Enterprise Data Catalog en un clúster existente, debe instalar JDK 1.8 en todos los nodos
del clúster.

Enterprise Data Lake


En esta sección se describen los cambios introducidos en Enterprise Data Lake en la versión 10.2.2.

256 Capítulo 24: Cambios en la versión 10.2.2


Funciones MAX y MIN
A partir de la versión 10.2.2, el comportamiento de las funciones de agregación MAX y MIN ha cambiado.
Para mantener el comportamiento de dichas funciones en la versión 10.2.1 o anteriores en una hoja de
cálculo, cambie el nombre de las funciones a MAXINLIST y MININLIST en la receta de la hoja de cálculo.

En la siguiente tabla se describen las funciones proporcionadas en la versión 10.2.2:

Función Descripción

MAX (valor) Devuelve el valor máximo entre todas las filas de la hoja de cálculo, según las columnas
incluidas en la versión especificada.

MIN (valor) Devuelve el valor mínimo entre todas las filas de la hoja de cálculo, según las columnas
incluidas en la versión especificada.

MAXINLIST (valor, Devuelve el número más grande o la última fecha en la lista de expresiones especificada.
[valor],...)

MININLIST (valor, Devuelve el número más pequeño o la primera fecha en la lista de expresiones especificada.
[valor],...)

Informatica Developer
En esta sección se describen los cambios realizados a Informatica Developer en la versión 10.2.2.

Informatica Developer Cambio de nombre


En la versión 10.2.2, Informatica Developer ahora se llama Big Data Developer.

Para las versiones de Big Data, el nombre de la herramienta ha cambiado a Big Data Developer. Una versión
de Big Data incluye productos como Big Data Management y Big Data Quality.

Para las versiones tradicionales, el nombre de la herramienta sigue siendo Informatica Developer. Una
versión tradicional incluye productos como PowerCenter y Data Quality.

Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la
versión 10.2.2.

Transformación del validador de direcciones


En esta sección se describen los cambios en la transformación del validador de direcciones.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Informatica Developer 257


Todos los países
A partir de la versión 10.2.2, la transformación del validador de direcciones incorpora funciones de la versión
5.14.0 del motor de software Informatica Address Verification.

Anteriormente, la transformación utilizaba la versión 5.12.0 del motor de software Informatica Address
Verification.

Japón
A partir de la versión 10.2.2, Informatica mejora el análisis y la validación de direcciones japonesas según los
comentarios recibidos de los clientes.

Por ejemplo, en la versión 10.2.2, Informatica rechaza una dirección japonesa cuando el código postal no
está presente en la dirección o cuando la información de localidad y código postal no coinciden.

Anteriormente, Informatica intentaba corregir la dirección.

España
A partir de la versión 10.2.2, Informatica mejora el análisis y la validación de direcciones de España.

Por ejemplo, en la versión 10.2.2, la transformación del validador de direcciones rechaza una dirección
española cuando la información de calle requiere de varias correcciones para que haya coincidencia con los
datos de referencia.

Anteriormente, la transformación realizaba varias correcciones a los datos de la calle, lo que podía derivar en
una evaluación optimista de la precisión de la dirección de entrada.

De igual manera, en la versión 10.2.2, si una dirección coincide con varios candidatos en los datos de
referencia, la transformación del validador de direcciones devuelve un resultado de I3 para la dirección en el
modo por lotes.

Anteriormente, la trasformación podía intentar corregir la dirección de entrada.

Geocodificación de edificios y centroides de terrenos


A partir de octubre de 2018, Informatica ya no admite los archivos de datos de referencia que contienen
datos de geocodificación de edificios y centroides de terrenos.

Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.14.0.

Transformación de escritura
A partir de la versión 10.2.2, se cambia el nombre de la propiedad avanzada Crear o reemplazar tablas de
destino en una transformación de escritura para objetos de datos relacionales, de Netezza o Teradata a
Estrategia de esquema de destino.

Cuando configura una transformación de escritura, puede elegir entre las siguientes opciones de la
estrategia de esquema de destino para el objeto de datos de destino:

• RETAIN. Mantener esquema de destino existente. El servicio de integración de datos conserva el


esquema de destino existente.
• CREATE. Crear o reemplazar una tabla en tiempo de ejecución. El servicio de integración de datos elimina
la tabla de destino en tiempo de ejecución y la reemplaza por una tabla basada en un objeto de datos de
destino que se indique.
• Asignar parámetro. Especifique las opciones de Estrategia de esquema de destino como un valor del
parámetro.

258 Capítulo 24: Cambios en la versión 10.2.2


Anteriormente seleccionaba la propiedad avanzada Crear o reemplazar tablas de destino para que el servicio
de integración de datos eliminara la tabla de destino en tiempo de ejecución y la reemplazara por una tabla
basada en la tabla de destino que se indicaba. Cuando no selecciona la propiedad avanzada Crear o
reemplazar tablas de destino, el servicio de integración de datos conserva el esquema existente para la tabla
de destino.

En las asignaciones existentes donde esté habilitada la propiedad Crear o reemplazar tablas de destino,
después de actualizar a la versión 10.2.2, de manera predeterminada, la propiedad Estrategia de esquema de
destino muestra la opción CREATE. Crear o reemplazar una tabla en tiempo de ejecución como habilitada.
En las asignaciones, donde la opción Crear o reemplazar tablas de destino no está seleccionada, después de
actualizar, la propiedad Estrategia de esquema de destino se habilita la opción RETAIN. Mantener esquema
de destino existente. Después de actualizar, si no está seleccionada la opción Estrategia de esquema de
destino, debe seleccionar manualmente la opción requerida en la lista Estrategia de esquema de destino y
después ejecutar la asignación.

Para obtener más información acerca de cómo configurar la estrategia de esquema de destino, consulte el
capítulo "Transformación de escritura" en la Guía de transformaciones de Informatica o el capítulo
"Asignaciones dinámicas" en la Guía de asignaciones de Informatica Developer.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica de la versión 10.2.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2.2, PowerExchange for Amazon Redshift incluye los siguientes cambios:

• Se cambian los nombres de las siguientes propiedades avanzadas para una operación de escritura de
objeto de datos de Amazon Redshift:

Nombre de propiedad anterior Nombre de propiedad nueva

Valor nulo para los tipos de datos CHAR y VARCHAR Exigir un valor nulo para Char y Varchar

Tiempo de espera en segundos para consistencia de Tiempo de espera en segundos para consistencia de
archivos en S3 archivos S3

Activar cifrado en el lado del servidor de S3 Cifrado en el lado del servidor de S3

Activar cifrado en el lado del cliente de S3 Cifrado en el lado del cliente de S3

Prefijo para conservar archivos de transferencia Prefijo para conservar archivos de transferencia
provisional en S3 provisional en S3

• El valor predeterminado para el siguiente comando de descarga ha cambiado:

Comando Descargar Valor predeterminado anterior Nuevo valor predeterminado

DELIMITER barra vertical (|) \036

Adaptadores de PowerExchange para Informatica 259


• Los valores predeterminados para el siguiente comando Copiar han cambiado:

Comando Copiar Valor predeterminado anterior Nuevo valor predeterminado

DELIMITER barra vertical (|) \036

QUOTE comilla doble (") \037

• Al importar una tabla de Amazon Redshift en Developer tool, no puede agregar columnas que aceptan
valores NULL en la tabla como claves principales.
Anteriormente podía agregar columnas que aceptan valores NULL en la tabla como claves principales en
Developer tool.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.2.

PowerExchange for Amazon S3


A partir de la versión 10.2.2, se introdujeron los siguientes cambios en PowerExchange for Amazon S3:

• El nombre de la propiedad de sesión de origen avanzada Descargar archivo S3 en varias partes se ha


cambiado a Varios umbrales de descarga.
• No necesita agregar el permiso GetBucketAcl en la directiva de cubo de Amazon S3 para conectarse a
Amazon S3.
Anteriormente, tenía que agregar el permiso GetBucketAcl en la directiva de cubo de Amazon S3 para
conectarse a Amazon S3.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.2.

PowerExchange for Google Analytics


A partir de la versión 10.2.2, PowerExchange for Google Analytics se instala con los servicios de Informatica.

Anteriormente, PowerExchange for Google Analytics tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
Analytics 10.2.2.

PowerExchange for Google Cloud Storage


A partir de la versión 10.2.2, PowerExchange for Google Cloud Storage se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Google Cloud Storage tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Storage 10.2.2.

PowerExchange for HBase


A partir de la versión 10.2.2, debe ejecutar una asignación en el motor de Spark para buscar datos en un
recurso de HBase.

260 Capítulo 24: Cambios en la versión 10.2.2


Antes, para buscar datos en un recurso de HBase, podía ejecutar la asignación en el entorno nativo o en el
motor de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.2.

PowerExchange for HDFS


A partir de la versión 10.2.2, cuando ejecute una asignación en el motor de Blaze para escribir datos en un
destino de archivos sin formato de HDFS, el servicio de integración de datos crea los archivos de destino con
la siguiente convención de nomenclatura:

<nombre de archivo>-P1, <nombre de archivo>-P2,...<nombre de archivo>-P100...<nombre de


archivo>-PN

Antes, los archivos de destino se generaban con el siguiente formato:

Target1.out, Target2.out...Target<NºPartición>.out

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.2.

PowerExchange for Hive


A partir de la versión 10.2.2, el nombre de la propiedad Nombre de usuario en una conexión de Hive cambia a
Nombre de usuario de LDAP.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.2.2, puede desplazarse por la estructura de contenedores cuando importa un objeto
desde Microsoft Azure Blob Storage y seleccionar objetos de subdirectorios. Antes solo podía seleccionar
los objetos que estaban en el contenedor.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.2.

Adaptadores de PowerExchange para Informatica 261


Parte VI: Versión 10.2.1
Esta parte incluye los siguientes capítulos:

• Novedades de la versión 10.2.1, 263


• Cambios en la versión 10.2.1, 299
• Tareas de la versión 10.2.1, 319

262
Capítulo 25

Novedades de la versión 10.2.1


Este capítulo incluye los siguientes temas:

• servicios de aplicación, 263


• Big Data Management, 265
• Big Data Transmisión, 274
• Programas de la línea de comandos, 275
• Enterprise Data Catalog, 279
• Enterprise Data Lake, 283
• Informatica Developer, 285
• Asignaciones de Informatica, 287
• Lenguaje de transformación de Informatica, 290
• Transformaciones de Informatica, 291
• Flujos de trabajo de Informatica, 294
• Adaptadores de PowerExchange para Informatica, 294
• Seguridad, 298

servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.1.

Servicio de administración de contenido


A partir de la versión 10.2.1, puede especificar un esquema de forma opcional para identificar las tablas de
referencia de la base de datos de referencia como una propiedad en el servicio de administración de
contenido.

Para especificar el esquema, utilice la propiedad de esquema de ubicación de datos de referencia en el


servicio de administración de contenido de Informatica Administrator. O bien, ejecute el comando infacmd
cms updateServiceOptions con la opción DataServiceOptions.RefDataLocationSchema .

Si no especifica un esquema de tablas de referencia en el servicio de administración de contenido, este


utilizará el esquema que especifique la conexión de base de datos. Si no establece explícitamente un
esquema en la conexión de la base de datos, el servicio de administración de contenido utilizará el esquema
de base de datos predeterminado.

263
Nota: Establezca la base de datos y el esquema que el servicio de administración de contenido usará para
los datos de referencia antes de crear una tabla de referencia administrada.

Para obtener más información, consulte el capítulo "Servicio de administración de contenido" de la Guía del
servicio de aplicación de Informatica 10.2.1 y el capítulo "Referencia del comando infacmd cms" de la
Referencia de comandos de Informatica 10.2.1.

Servicio de integración de datos


A partir de la versión 10.2.1, las propiedades del servicio de integración de datos incluyen una nueva opción
de ejecución.

Directorio de inicio de JDK

Directorio de instalación de JDK en el equipo que ejecuta el servicio de integración de datos. Se requiere
para ejecutar asignaciones de Sqoop o especificaciones de ingesta masiva que usan una conexión de
Sqoop en el motor de Spark o para procesar una transformación de Java en el motor de Spark. El valor
predeterminado es en blanco.

Servicio de ingesta masiva


A partir de la versión 10.2.1, puede crear un servicio de ingesta masiva. El servicio de ingesta masiva es un
servicio de aplicación del dominio de Informatica que administra las especificaciones de ingesta masiva. Las
especificaciones de ingesta masiva se configuran en la herramienta de ingesta masiva para ingerir grandes
cantidades de datos de un origen relacional en un destino de HDFS o Hive.

Para administrar las especificaciones de ingesta masiva, el servicio de ingesta masiva realiza las siguientes
tareas:

• Administra y valida una especificación de ingesta masiva.


• Programa un trabajo de ingesta masiva para ejecutarse en un servicio de integración de datos.
• Supervisa los resultados y las estadísticas de un trabajo de ingesta masiva.
• Reinicia un trabajo de ingesta masiva.

Para obtener más información sobre el servicio de ingesta masiva, consulte el capítulo "Servicio de ingesta
masiva" de la Guía del servicio de aplicación de Informatica 10.2.1.

Servicio de acceso a metadatos


A partir de la versión 10.2.1, puede crear un servicio de acceso a metadatos. El servicio de acceso a
metadatos es un servicio de aplicación que permite a Developer tool acceder a la información de conexión
de Hadoop para importar y obtener una vista previa de los metadatos. Cuando se importa un objeto de un
clúster de Hadoop, los siguientes adaptadores utilizan el servicio de acceso a metadatos para extraer los
metadatos del objeto en tiempo de diseño:

• PowerExchange for HBase


• PowerExchange for HDFS
• PowerExchange for Hive
• PowerExchange for MapR-DB

Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.

264 Capítulo 25: Novedades de la versión 10.2.1


Servicio de repositorio de modelos
Base de datos Azure SQL como repositorio de modelos
A partir de la versión 10.2.1, puede utilizar la base de datos Azure SQL como repositorio de modelos.

Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.

Sistema de control de versiones de Git


A partir de la versión 10.2.1, puede integrar el repositorio de modelos con el sistema de control de versiones
de Git. Git es un sistema de control de versiones distribuido. Al extraer y registrar un objeto, se guarda una
copia de la versión en el repositorio local y en el servidor Git. Si el servidor Git se desactiva, el repositorio
local conserva todas las versiones del objeto. Para usar el sistema de control de versiones de Git, introduzca
la URL del repositorio global para Git en el campo URL, las credenciales de inicio de sesión para el repositorio
global en los campos Nombre de usuario y Contraseña, y la ruta al repositorio local para el servicio de
repositorio de modelos en el campo Ruta de repositorio local de VCS.

Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.

Big Data Management


En esta sección se describen las nuevas características de Big Data Management en la versión 10.2.1.

Motor de Blaze Conservación de recursos


A partir de la versión 10.2.1, puede preservar los recursos que utiliza la infraestructura del motor Blaze.

Establezca la propiedad infagrid.blaze.service.idle.timeout para especificar los minutos que estará inactivo
el motor Blaze antes de liberar recursos. Establezca la propiedad infagrid.orchestrator.svc.sunset.time para
especificar el número máximo de horas para el servicio de orquestador de Blaze. Puede utilizar el comando
infacmd isp createConnection, o establecer la propiedad en las propiedades avanzadas de Blaze de la
conexión de Hadoop en la Herramienta del administrador o Developer tool.

Para obtener más información sobre estas propiedades, consulte la Guía del administrador de Informatica Big
Data Management 10.2.1.

Flujos de trabajo de clúster


Puede utilizar las nuevas tareas de flujo de trabajo para crear un flujo de trabajo de clúster.

Un flujo de trabajo de clúster crea un clúster en una plataforma de nube y ejecuta asignaciones y otras tareas
de flujo de trabajo en el clúster. Puede optar por terminar y eliminar el clúster cuando las tareas de flujo de
trabajo se completen con el objetivo de ahorrar recursos en el clúster.

Existen dos nuevas tareas de flujo de trabajo que permiten crear y eliminar un clúster de Hadoop como parte
de un flujo de trabajo de clúster:

Big Data Management 265


Crear tarea de clúster

La tarea Crear clúster permite crear, configurar e iniciar un clúster de Hadoop en las siguientes
plataformas de nube:

• Amazon Web Services (AWS). Puede crear un clúster de Amazon EMR.


• Microsoft Azure. Puede crear un clúster de HDInsight.

Eliminar tarea de clúster

La tarea opcional Eliminar clúster permite eliminar un clúster cuando se completan las tareas de
asignación y otras tareas de flujo de trabajo. Es posible que desee hacer esto para ahorrar costos.

Antes, se podían utilizar tareas de comando en un flujo de trabajo para crear clústeres en una plataforma de
nube. Para obtener más información sobre los flujos de trabajo y las tareas del flujo de trabajo del clúster,
consulte la Guía de flujos de trabajo de Informatica Developer 10.2.1.

Nota: En la versión 10.2.1, el método de tarea de comando para crear y eliminar clústeres es compatible con
los clústeres de Cloudera Altus en AWS. Para obtener más información, consulte el artículo "Cómo crear
clústeres de Cloudera Altus con un flujo de trabajo de clúster en Big Data Management" en la red de
Informatica.

Tarea de asignación

Las propiedades avanzadas de la tarea de asignación incluyen la nueva propiedad ClusterIdentifier.


ClusterIdentifier identifica el clúster que se utilizará para ejecutar la tarea de asignación.

Para obtener más información sobre los flujos de trabajo del clúster, consulte la Guía de flujos de trabajo de
Informatica Developer 10.2.1.

Configuración de aprovisionamiento de nube


Una configuración de aprovisionamiento de nube es un objeto que contiene información acerca de la
conexión con un clúster de Hadoop.

La configuración de aprovisionamiento de nube incluye información sobre cómo integrar el dominio con los
recursos de autenticación y almacenamiento de la cuenta de Hadoop. Un flujo de trabajo de clúster utiliza la
información de la configuración de aprovisionamiento de nube para conectarse y crear un clúster en una
plataforma de nube como Amazon Web Services o Microsoft Azure.

Para obtener más información acerca del aprovisionamiento de clústeres, consulte el capítulo "Configuración
del aprovisionamiento de clústeres" de la Guía del administrador de Informatica Big Data Management 10.2.1.

Alta disponibilidad
A partir de la versión 10.2.1, se puede habilitar la alta disponibilidad para los siguientes servicios y sistemas
de seguridad en el entorno Hadoop de las distribuciones de Cloudera CDH, Hortonworks HDP y MapR
Hadoop:

• Apache Ranger
• Apache Ranger KMS
• Apache Sentry
• Cloudera Navigator Encrypt
• HBase
• Hive Metastore
• HiveServer2

266 Capítulo 25: Novedades de la versión 10.2.1


• Nombre de nodo
• Administrador de recursos

Funcionalidad de Hive en el entorno Hadoop


En esta sección se describen las nuevas características de la funcionalidad de Hive en entorno Hadoop de la
versión 10.2.1.

Truncamiento de las tablas de Hive


A partir de la versión 10.2.1, se pueden truncar tablas de Hive con particiones externas en todos los motores
en tiempo de ejecución.

Puede truncar tablas con los siguientes formatos de almacenamiento de Hive:

• Avro
• ORC
• Parquet
• RCFile
• Secuencia
• Texto

Puede truncar tablas con los siguientes formatos de tabla externa de Hive:

• Hive en HDFS
• Hive en Amazon S3
• Hive en Azure Blob
• Hive en WASB
• Hive en ADLS

Para obtener más información sobre cómo truncar destinos de Hive, consulte el capítulo "Asignación de
destinos en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.

Comandos SQL pre y postasignación


A partir de la versión 10.2.1, puede configurar comandos PreSQL y PostSQL en orígenes y destinos de Hive
para las asignaciones que se ejecutan en el motor Spark.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

Importación desde PowerCenter


En esta sección se describen las nuevas características de importación de PowerCenter en la versión 10.2.1.

Importación de propiedades de sesión de PowerCenter


A partir de la versión 10.2.1, se pueden importar las propiedades de sesión, como las anulaciones basadas
en SQL en orígenes y destinos relacionales y las anulaciones de la transformación de búsqueda del
repositorio PowerCenter al repositorio de modelos.

Para obtener más información acerca de la funcionalidad de importación de PowerCenter, consulte el


capítulo "Importar desde PowerCenter" en la Guía de asignaciones de Informatica Developer 10.2.1 .

Big Data Management 267


Parámetros SQL
A partir de la versión 10.2.1, se puede especificar un tipo de parámetro SQL para importar todas las
anulaciones basadas en SQL al repositorio de modelos. Las propiedades de anulación de sesión restantes se
asignarán a una cadena o al tipo de parámetro correspondiente.

Para obtener más información, consulte el capítulo "Importar desde PowerCenter" en la Guía de asignaciones
de Informatica Developer 10.2.1.

Importación de una tarea de comando de PowerCenter


A partir de la versión 10.2.1, se puede importar una tarea de comando de PowerCenter en el repositorio de
modelos.

Para obtener más información, consulte el capítulo "Flujos de trabajo" en la Guía de flujos de trabajo de
Informatica Developer 10.2.1.

Modelo de estructura inteligente


A partir de la versión 10.2.1, puede utilizar el modelo de estructura inteligente en Big Data Management.

Compatibilidad del motor Spark con objetos de datos con el modelo de estructura inteligente

Puede incorporar un modelo de estructura inteligente en un objeto de datos de archivo complejo,


Amazon S3 o Microsoft Azure Blob. Cuando se agrega el objeto de datos a una asignación que se
ejecuta en el motor Spark, se puede procesar cualquier tipo de entrada que el modelo pueda analizar.

El objeto de datos puede aceptar y analizar archivos de entrada de formularios PDF, JSON, Microsoft
Excel, tablas de Microsoft Word, CSV, texto o XML, según el archivo que se utilizó para crear el modelo.

El modelo de estructura inteligente de los objetos de datos de archivo complejo, Amazon S3 y Microsoft
Azure Blob está disponible para la vista previa técnica. La funcionalidad de vista previa técnica se
admite, pero no está autorizada ni lista para producción. Informatica recomienda utilizar estas
características solo en entornos que no sean de producción.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

Ingesta masiva
A partir de la versión 10.2.1, puede realizar trabajos de ingesta masiva para ingerir o replicar grandes
cantidades de datos para su uso o almacenamiento en una base de datos o en un repositorio. Para realizar
trabajos de ingesta masiva, utilice la herramienta de ingesta masiva para crear una especificación de ingesta
masiva. Configure especificaciones de ingesta masiva para ingerir datos de una base de datos relacional en
un destino de HDFS o Hive. También puede especificar parámetros para limpiar los datos que se ingieran.

Una especificación de ingesta masiva sustituye la necesidad de crear y ejecutar asignaciones manualmente.
Puede crear una especificación de ingesta masiva que ingiera todos los datos a la vez.

Para obtener más información sobre la ingesta masiva, consulte la Guía de ingesta masiva de Informatica Big
Data Management 10.2.1.

Supervisión
En esta sección se describen las nuevas características relacionadas con la supervisión en Big Data
Management en la versión 10.2.1.

268 Capítulo 25: Novedades de la versión 10.2.1


Supervisión de clústeres de Hadoop
A partir de la versión 10.2.1, puede configurar la cantidad de información que aparece en los registros de la
aplicación que se supervisan para un clúster de Hadoop.

La cantidad de información en los registros de la aplicación depende del nivel de seguimiento que se
configura para una asignación en Developer tool. En la tabla siguiente se describe la cantidad de información
que aparece en los registros de la aplicación para cada nivel de seguimiento:

Nivel de Mensajes
seguimiento

Ninguno El registro muestra mensajes FATAL. Los mensajes de código FATAL incluyen fallos de sistema
no recuperables que provocan que el servicio se cierre o deje de estar disponible.

Terso El registro muestra mensajes de código FATAL y ERROR. Los mensajes de código ERROR
pueden deberse a fallos de conexión, fallos al guardar o recuperar medatados o errores de
servicio.

Normal El registro muestra mensajes FATAL, ERROR y WARNING. Los errores de código WARNING
pueden ser debidos a advertencias o a fallos de sistema recuperables.

Inicialización El registro muestra mensajes FATAL, ERROR, WARNING e INFO. Los mensajes de código INFO
detallada se deben a mensajes de cambio de servicio o de sistema.

Datos detallados El registro muestra mensajes FATAL, ERROR, WARNING, INFO y DEBUG. Los mensajes de código
DEBUG son registros de solicitudes de usuarios.

Para obtener más información, consulte el capítulo "Supervisión de asignaciones en un entorno Hadoop" de
la Guía del usuario de Informatica Big Data Management 10.2.1.

Supervisión de Spark
A partir de la versión 10.2.1, el ejecutor de Spark escucha los eventos de Spark en un puerto como parte del
soporte de supervisión de Spark, por lo que no es necesario configurar SparkMonitoringPort.

El servicio de integración de datos incluye un rango de puertos disponibles, y el ejecutor de Spark selecciona
uno de ellos. Durante el error, la conexión con el puerto permanece disponible y no es necesario reiniciar el
servicio de integración de datos antes de ejecutar la asignación.

Se conserva la propiedad personalizada del puerto de supervisión. Si se configura la propiedad, el servicio de


integración de datos utilizará el puerto especificado para escuchar los eventos de Spark.

Antes, en la propiedad personalizada del servicio de integración de datos, el puerto de supervisión de Spark
podría configurar el puerto de escucha de Spark. Si no se configuraba la propiedad, la supervisión de Spark
se deshabilitaba de forma predeterminada.

Supervisión de Tez
A partir de la versión 10.2.1, puede ver las propiedades relacionadas con el soporte de supervisión del motor
Tez. Puede utilizar el motor Hive para ejecutar la asignación en MapReduce o Tez. El motor Tez puede
procesar trabajos en Hortonworks HDP, Azure HDInsight y Amazon Elastic MapReduce. Para ejecutar una
asignación de Spark en Tez, puede utilizar cualquiera de los clústeres admitidos para Tez.

En la Herramienta del administrador, también puede revisar las propiedades de consulta de Hive para Tez
cuando supervise el motor de Hive. En el registro de sesiones de Hive y en Tez, puede ver la información

Big Data Management 269


relacionada con las estadísticas de Tez, como la URL de seguimiento de DAG, el recuento total de vértices y
el progreso de DAG.

Puede supervisar cualquier consulta de Hive en el motor Tez. Cuando se habilita el registro de datos
detallados o de inicialización detallada, se puede ver la información del motor Tez en la Herramienta del
administrador o en el registro de la sesión. También puede supervisar el estado de la asignación en el motor
Tez en la ficha Supervisión de la Herramienta del administrador.

Para obtener más información acerca de la supervisión de Tez, consulte la Guía del usuario de Informatica
Big Data Management 10.2.1 y la Guía de integración con Hadoop de Informatica Big Data Management 10.2.1.

Procesamiento de datos jerárquicos en el motor Spark


A partir de la versión 10.2.1, el motor Spark incluye la siguiente funcionalidad adicional para procesar datos
jerárquicos:

Tipo de datos de asignación

Puede utilizar el tipo de datos de asignación para generar y procesar datos de asignación en archivos
complejos.

Archivos complejos en Amazon S3

Puede utilizar tipos de datos complejos para leer y escribir datos jerárquicos en archivos Avro y Parquet
en Amazon S3. Las columnas se proyectan como tipos de datos complejos en las operaciones de
lectura y escritura de objetos de datos.

Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos en el motor de
Spark" de la Guía del usuario de Informatica Big Data Management 10.2.1.

Compatibilidad de las especificaciones de regla en el motor Spark


A partir de la versión 10.2.1, puede ejecutar una asignación que contenga una especificación de regla en el
motor Spark, además de los motores Blaze y Hive.

También puede ejecutar una asignación que contenga un mapplet generado a partir de una especificación de
regla en el motor Spark, además de los motores Blaze y Hive.

Para obtener más información sobre las especificaciones de reglas, consulte la Guía de especificaciones de
regla de Informatica 10.2.1.

Seguridad
En esta sección se describen las nuevas características relacionadas con la seguridad en Big Data
Management en la versión 10.2.1.

Cloudera Navigator Cifrado


A partir de la versión 10.2.1, se puede utilizar Cloudera Navigator Encrypt para proteger los datos e
implementar el cifrado transparente de datos en reposo.

Autorización del sistema de archivos EMR


A partir de la versión 10.2.1, se puede utilizar la autorización del sistema de archivos EMR (EMRFS) para
acceder a los datos de Amazon S3 en el motor Spark.

270 Capítulo 25: Novedades de la versión 10.2.1


Funciones IAM
A partir de la versión 10.2.1, se pueden utilizar funciones IAM del sistema de archivos EMR para leer y
escribir datos del clúster en Amazon S3 en la versión 5.10 del clúster de Amazon EMR.

Autenticación Kerberos
A partir de la versión 10.2.1, se puede habilitar la autenticación Kerberos para los siguientes clústeres:

• Amazon EMR
• Azure HDInsight con WASB como almacenamiento

Autenticación de LDAP
A partir de la versión 10.2.1, se puede configurar la autenticación del protocolo ligero de acceso a directorios
(LDAP) para la versión 5.10 del clúster de Amazon EMR.

Sqoop
A partir de la versión 10.2.1, puede utilizar las siguientes nuevas características de Sqoop:

Compatibilidad del conector MapR de Teradata

Puede utilizar el conector MapR de Teradata para leer o escribir datos en Teradata en el motor Spark. El
conector MapR de Teradata es un conector especializado Teradata Connector for Hadoop (TDCH) para
Sqoop. Cuando se ejecutan asignaciones de Sqoop en el motor Spark, el servicio de integración de datos
invoca al conector de forma predeterminada.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

Optimización del motor Spark para asignaciones de transferencia de Sqoop

Cuando se ejecuta una asignación de transferencia de Sqoop en el motor Spark, el servicio de


integración de datos optimiza el rendimiento de la asignación en los siguientes escenarios:

• Se leen datos de un origen de Sqoop y se escriben datos en un destino de Hive que utiliza el formato
de texto.
• Se leen datos de un origen de Sqoop y se escriben datos en un destino de HDFS que utiliza el formato
Flat, Avro o Parquet.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

Compatibilidad del motor Spark con las características de alta disponibilidad y seguridad

Sqoop incluye las mismas características de alta disponibilidad y seguridad que el inicio de sesión de
Kerberos y el cifrado KMS compatibles con el motor Spark.

Para obtener más información, consulte el capítulo "Servicio de integración de datos" de la Guía del
servicio de aplicación de Informatica 10.2.1 y el capítulo "Referencia del comando infacmd dis" de la
Referencia de comandos de Informatica 10.2.1.

Compatibilidad del motor Spark con objetos de datos de Teradata

Si utiliza un objeto de datos de Teradata y ejecuta una asignación en el motor Spark y en un clúster de
Hortonworks o Cloudera, el servicio de integración de datos ejecutará la asignación a través de Sqoop.

Si utiliza un clúster de Hortonworks, el servicio de integración de datos invocará al conector de


Hortonworks para Teradata en tiempo de ejecución. Si utiliza un clúster de Cloudera, el servicio de
integración de datos invocará al conector de Cloudera para Teradata en tiempo de ejecución.

Big Data Management 271


Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Teradata
Parallel Transporter API 10.2.1.

Compatibilidad de las transformaciones en el entorno Hadoop


En esta sección se describen las nuevas características de transformación del entorno Hadoop en la versión
10.2.1.

Compatibilidad de las transformaciones en el motor de Spark


En esta sección se describen las nuevas características de transformación del motor Spark en la versión
10.2.1.

Compatibilidad de la transformación
A partir de la versión 10.2.1, las siguientes transformaciones son compatibles con el motor Spark:

• Conversión de mayúsculas y minúsculas


• Clasificador
• Comparación
• Generador de claves
• Etiquetador
• Fusión
• Analizador
• Python
• Estandarizador
• Media ponderada
A partir de la versión 10.2.1, las transformaciones siguientes se admiten con restricciones en el motor de
Spark:

• Validador de direcciones
• Consolidación
• Decisión
• Coincidencia
• Generador de secuencia
A partir de la versión 10.2.1, la siguiente transformación tiene compatibilidad adicional en el motor de Spark:

• Java. Admite tipos de datos complejos como matrices, asignaciones y estructuras para procesar datos
jerárquicos.
Para obtener más información sobre la compatibilidad de las transformaciones, consulte el capítulo
"Asignación de transformaciones en el entorno de Hadoop" en la Guía del usuario de Informatica Big Data
Management 10.2.1.

Para obtener más información sobre las operaciones de transformación, consulte la Guía de
transformaciones de Informatica Developer 10.2.1.

Transformación de Python
A partir de la versión 10.2.1, se puede crear una transformación de Python en Developer tool. Utilice la
transformación de Python para ejecutar código Python en una asignación que se ejecute en el motor Spark.

272 Capítulo 25: Novedades de la versión 10.2.1


Puede utilizar una transformación de Python para implementar un modelo de equipo en los datos que se
transmiten a través de la transformación. Por ejemplo, utilice la transformación de Python para escribir
código Python que cargue un modelo pre-entrenado. Puede utilizar el modelo pre-entrenado para clasificar
los datos de entrada o crear predicciones.

Nota: La transformación de Python está disponible para la vista previa técnica. La funcionalidad de vista
previa técnica se admite, pero no está lista para producción. Informatica recomienda utilizarla solo en
entornos que no sean de producción.

Para obtener más información, consulte el capítulo "Transformación de Python" en la Guía de


transformaciones de Informatica Developer 10.2.1.

Transformación de estrategia de actualización


A partir de la versión 10.2.1, puede utilizar instrucciones MERGE de Hive para las asignaciones que se
ejecutan en el motor Spark a fin de realizar tareas de estrategia de actualización. El uso de MERGE en
consultas suele ser más eficiente y ayuda a aumentar el rendimiento.

Las instrucciones MERGE de Hive son compatibles con las siguientes distribuciones de Hadoop:

• Amazon EMR 5.10


• Azure HDInsight 3.6
• Hortonworks HDP 2.6

Para utilizar la instrucción MERGE de Hive, seleccione la opción en las propiedades avanzadas de la
transformación de la estrategia de actualización.

Antes, el servicio de integración de datos utilizaba instrucciones INSERT, UPDATE y DELETE para realizar
esta tarea en cualquier motor en tiempo de ejecución. La transformación de la estrategia de actualización
sigue utilizando estas instrucciones en los siguientes escenarios:

• Si no se selecciona la opción MERGE de Hive.


• Si las asignaciones se ejecutan en el motor Blaze o Hive.
• Si la distribución de Hadoop no admite la opción MERGE de Hive.

Para obtener más información acerca del uso de la instrucción MERGE en las transformaciones de la
estrategia de actualización, consulte el capítulo sobre la transformación de la estrategia de actualización en
la Guía del usuario de Informatica Big Data Management 10.2.1.

Compatibilidad de las transformaciones en el motor de Blaze


En esta sección se describen las nuevas características de transformación del motor Blaze en la versión
10.2.1.

Transformación de agregación
A partir de la versión 10.2.1, la caché de datos para la transformación del agregador utiliza la longitud
variable para almacenar tipos de datos binarios y de cadena en el motor Blaze. La longitud variable reduce la
cantidad de datos que almacena la caché de datos cuando se ejecuta la transformación del agregador.

Cuando los datos que pasan a través de la transformación del agregador se almacenan en la caché de datos
utilizando la longitud variable, la transformación del agregador se optimiza para utilizar la entrada ordenada
y se inserta una transformación de ordenación antes de la transformación del agregador en la asignación en
tiempo de ejecución.

Para obtener más información, consulte el capítulo "Asignación de transformaciones en el entorno de


Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.

Big Data Management 273


Transformación de coincidencia
A partir de la versión 10.2.1, puede ejecutar una asignación que contenga una transformación de
coincidencia que se configure para el análisis de identidad en el motor Blaze.

Configure la transformación de coincidencia para escribir los datos del índice de identidad en los archivos de
caché. La asignación generará un error de validación si se configura la transformación de coincidencia para
escribir los datos de índice en tablas de la base de datos.

Para obtener más información sobre la compatibilidad de las transformaciones, consulte el capítulo
"Asignación de transformaciones en el entorno de Hadoop" en la Guía del usuario de Informatica Big Data
Management 10.2.1.

Transformación de rango
A partir de la versión 10.2.1, la caché de datos para la transformación de rango utiliza la longitud variable
para almacenar tipos de datos binarios y de cadena en el motor Blaze. La longitud variable reduce la
cantidad de datos que almacena la caché de datos cuando se ejecuta la transformación de rango.

Cuando los datos que pasan a través de la transformación de rango se almacenan en la caché de datos
utilizando la longitud variable, la transformación de rango se optimiza para utilizar la entrada ordenada y se
inserta una transformación de ordenación antes de la transformación de rango en la asignación en tiempo de
ejecución.

Para obtener más información, consulte el capítulo "Asignación de transformaciones en el entorno de


Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.

Para obtener más información sobre las operaciones de transformación, consulte la Guía de
transformaciones de Informatica Developer 10.2.1.

Big Data Transmisión


En esta sección se describen las nuevas características de Big Data Streaming en la versión 10.2.1.

Orígenes y destinos
A partir de la versión 10.2.1, los siguientes orígenes y destinos se pueden leer o escribir en las asignaciones
de secuencias:

• Centros de eventos de Azure. Cree un objeto de datos de centro de eventos de Azure para leer o escribir
en eventos del centro de eventos. Puede utilizar una conexión del centro de eventos de Azure para
acceder a los centros de eventos de Microsoft Azure como origen o destino. Puede crear y administrar
una conexión de Azure Eventhub en Developer tool o a través de infacmd.
• Microsoft Azure Data Lake Store. Cree un objeto de datos de Azure Data Lake Store para escribir en Azure
Data Lake Store. Puede utilizar una conexión de Azure Data Lake Store para acceder a las tablas de
Microsoft Azure Data Lake Store como destinos. Puede crear y administrar una conexión de Microsoft
Azure Data Lake Store en Developer tool.
• Base de datos compatible con JDBC. Cree un objeto de datos relacional con una conexión JDBC.

Para obtener más información, consulte los capítulos "Orígenes en una asignación de secuencias" y
"Destinos en una asignación de secuencias" en la Guía del usuario de Informatica Big Data Streaming 10.2.1.

274 Capítulo 25: Novedades de la versión 10.2.1


Computación con estado en las asignaciones de secuencias
A partir de la versión 10.2.1, se pueden utilizar funciones de ventana en una transformación de expresión
para realizar cálculos de estado en asignaciones de secuencias.

Para obtener más información, consulte el capítulo "Asignaciones de secuencias" en la Guía del usuario de
Informatica Big Data Streaming 10.2.1.

Compatibilidad de la transformación
A partir de la versión 10.2.1, se pueden utilizar las siguientes transformaciones en las asignaciones de
secuencias:

• Enmascaramiento de datos
• Normalizador
• Python

Se puede realizar una búsqueda sin caché en los datos de HBase en las asignaciones de secuencias con una
transformación de búsqueda.

Para obtener más información, consulte el capítulo "Asignaciones de secuencias" en la Guía del usuario de
Informatica Big Data Streaming 10.2.1.

Truncamiento de las tablas de destino de Hive con particiones


A partir de la versión 10.2.1, se puede truncar una tabla de Hive externa o administrada con o sin particiones.

Para obtener más información sobre cómo truncar los destinos de Hive, consulte el capítulo "Destinos en
una asignación de secuencias" en la Guía del usuario de Informatica Big Data Streaming 10.2.1.

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.2.1.

Comandos infacmd autotune


autotune es un nuevo complemento de infacmd que sintoniza los servicios y las conexiones del dominio de
Informatica.

En la siguiente tabla se describen los nuevos comandos infacmd autotune:

Comando Descripción

Autotune Configura los servicios y las conexiones del dominio de Informatica con los ajustes recomendados
basados en la descripción del tamaño.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd autotune" en la
Referencia de comandos de Informatica 10.2.1.

Programas de la línea de comandos 275


Comandos infacmd ccps
ccps es un nuevo complemento de infacmd que realiza operaciones en clústeres de plataformas de nube.

En la siguiente tabla se describen los nuevos comandos infacmd ccps:

Comando Descripción

deleteClusters Elimina los clústeres de la plataforma de nube que creó un flujo de trabajo de clúster.

listClusters Enumera los clústeres de la plataforma de nube que creó un flujo de trabajo de clúster.

updateADLSCertifcate Actualiza el certificado principal del servicio de Azure Data Lake.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ccps" en la Referencia
de comandos de Informatica 10.2.1.

Comandos infacmd cluster


En la siguiente tabla se describen los nuevos comandos infacmd cluster:

Comando Descripción

updateConfiguration Actualiza la versión de la distribución de Hadoop de una configuración de clúster.


Utilice la opción -dv para cambiar la versión de la distribución de Hadoop de una configuración
de clúster.

En la tabla siguiente se describen los cambios introducidos en los comandos infacmd cluster:

Comando Cambiar descripción

listConfigurationProperties A partir de la versión 10.2.1, puede especificar el conjunto de configuraciones general al


utilizar la opción -cs para devolver los valores de la propiedad en el conjunto de
configuraciones general.
Antes, la opción -cs solo aceptaba nombres de archivos XML.

createConfiguration A partir de la versión 10.2.1, puede utilizar la opción -dv para especificar una versión
distribución de Hadoop al crear una configuración de clúster. Si no especifica una
versión, el comando creará una configuración de clúster con la versión predeterminada
para la distribución de Hadoop especificada.
Antes, el comando createConfiguration no contenía la opción para especificar la versión
de Hadoop.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd cluster" en la
Referencia de comandos de Informatica 10.2.1.

276 Capítulo 25: Novedades de la versión 10.2.1


Comandos infacmd cms
En la tabla siguiente se describen las nuevas opciones del servicio de administración de contenido para
infacmd cms UpdateServiceOptions:

Comando Descripción

DataServiceOptions.RefDataLocationSchema Identifica el esquema que especifica las tablas de datos de referencia


en la base de datos de referencias.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd cms" de la Referencia
de comandos de Informatica 10.2.1.

Comandos infacmd dis


La siguiente tabla describe los nuevos comandos infacmd dis:

Comando Descripción

listMappingEngines Enumera los motores de ejecución de las asignaciones implementadas en un servicio de


integración de datos.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.1.

Comandos infacmd ihs


En la siguiente tabla se describen los nuevos comandos infacmd ihs:

Comando Descripción

ListServiceProcessOptions Enumera las opciones de proceso del servicio de clústeres de Informatica.

UpdateServiceProcessOptions Actualiza las opciones del servicio de clústeres de Informatica.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed ihs" de la Referencia
de comandos de Informatica 10.2.1.

Comandos infacmd isp


En la siguiente tabla se describen los nuevos comandos infacmd isp:

Comando Descripción

PingDomain Hace ping a un dominio, servicio, host de puerta de enlace del dominio o nodo.

GetPasswordComplexityConfig Devuelve la configuración de complejidad de contraseña de los usuarios del


dominio.

ListWeakPasswordUsers Enumera los usuarios con contraseñas que no cumplen la directiva de contraseña.

Programas de la línea de comandos 277


Para obtener más información, consulte el capítulo "Referencia del comando infacmed isp" de la Referencia
de comandos de Informatica 10.2.1.

Comandos infacmd ldm


En la siguiente tabla se describen los nuevos comandos infacmd ldm:

Comando Descripción

ListServiceProcessOptions Enumera las opciones del proceso del administrador de catálogos.

UpdateServiceProcessOptions Actualiza las opciones de proceso del servicio de catálogo.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed ldm" de la Referencia
de comandos de Informatica 10.2.1.

Comandos infacmd mi
mi es un nuevo complemento de infacmd que realiza operaciones de ingesta masiva.

En la siguiente tabla se describen los nuevos comandos infacmd mi:

Comando Descripción

abortRun Interrumpe los trabajos de asignación de la ingesta en una instancia de ejecución de una
especificación de ingesta masiva.

createService Crea un servicio de ingesta masiva. Está deshabilitado de forma predeterminada.


Para habilitar el servicio de ingesta masiva, utilice el comando infacmd isp enableService.

deploySpec Implementa una especificación de ingesta masiva.

exportSpec Exporta la especificación de ingesta masiva a un archivo de almacenamiento de la aplicación.

extendedRunStats Obtiene las estadísticas extendidas para una asignación en la especificación de ingesta masiva
implementada.

getSpecRunStats Obtiene las estadísticas de ejecución detalladas de una especificación de ingesta masiva
implementada.

listSpecRuns Enumera las instancias de ejecución de una especificación de ingesta masiva implementada.

listSpecs Enumera las especificaciones de ingesta masiva.

restartMapping Reinicia los trabajos de asignación de ingesta en una especificación de ingesta masiva.

runSpec Ejecuta una asignación de ingesta masiva que se implementa en un servicio de integración de
datos.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed mi" de la Referencia
de comandos de Informatica 10.2.1.

278 Capítulo 25: Novedades de la versión 10.2.1


Comandos infacmd mrs
En la siguiente tabla se describen los nuevos comandos de infacmd mrs:

Comando Descripción

listMappingEngines Enumera los motores de ejecución de las asignaciones que se almacenan en un repositorio
de modelos.

listPermissionOnProject Enumera todos los permisos en varios proyectos para grupos y usuarios.

updateStatistics Actualiza las estadísticas del repositorio de modelos de supervisión en Microsoft SQL
Server.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd mrs" en la Referencia
de comando de Informatica 10.2.1.

Comandos infacmd wfs


En la siguiente tabla se describen los nuevos comandos infacmd wfs:

Comando Descripción

pruneOldInstances Elimina los datos del proceso de flujo de trabajo de la base de datos de flujos de trabajo.

Para eliminar los datos del proceso, debe tener el privilegio de administración de servicios en el dominio.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.1.

Comandos de infasetup
La siguiente tabla describe nuevos comandos infasetup:

Comando Descripción

UpdatePasswordComplexityConfig Habilita o deshabilita la configuración de complejidad de la contraseña del


dominio.

Para obtener más información, consulte el capítulo "Referencia de comando infasetup" de la Referencia de
comandos de Informatica 10.2.1.

Enterprise Data Catalog


En esta sección se describen las nuevas características de Enterprise Data Catalog en la versión 10.2.1.

Enterprise Data Catalog 279


Adición de un título empresarial a un activo
A partir de la versión 10.2.1, se puede agregar un título empresarial a cualquier activo del catálogo, excepto a
los activos de Business Glossary y Axon. Puede asociar un término empresarial o proporcionar un nombre
para mostrar al agregar un título empresarial a un activo.

Para obtener más información sobre cómo agregar un título empresarial, consulte la Guía del usuario de
Informatica Enterprise Data Catalog 10.2.1.

Utilidad de validación de clústeres en el programa de instalación


A partir de la versión 10.2.1, al instalar Enterprise Data Catalog, el programa de instalación ofrece una opción
para ejecutar la utilidad de validación de clústeres. La utilidad le permite validar los requisitos previos para
instalar Enterprise Data Catalog en un clúster incrustado y un clúster existente. La utilidad también valida la
configuración del dominio de Informatica, los hosts del clúster y los servicios de clúster de Hadoop.

Para obtener más información acerca de la utilidad, consulte la Guía de instalación y configuración de
Informatica Enterprise Data Catalog 10.2 .1 y los siguientes artículos de la base de conocimientos:

• Cómo validar los requisitos previos del clúster incrustado con la utilidad de validación en Enterprise Data
Catalog
• Cómo validar el dominio de Informatica, los hosts del clúster y la configuración de los servicios del
clúster

Tipos de detección del dominio de datos


A partir de la versión 10.2.1, al configurar la configuración del perfil de detección del dominio de datos,
puede elegir uno de los siguientes tipos de detección del dominio de datos:

• Ejecutar la detección en los datos de origen. El analizador ejecuta la detección del dominio de datos en
los datos de origen.
• Ejecutar la detección en los metadatos de origen. El analizador ejecuta la detección del dominio de datos
en los metadatos de origen.
• Ejecutar la detección en los metadatos y los datos de origen. El analizador ejecuta la detección del
dominio de datos en los metadatos y los datos de origen.
• Ejecutar la detección en los datos de origen que coincidan con los metadatos. El analizador ejecuta la
detección del dominio de datos en los metadatos de origen para identificar las columnas con dominios de
datos deducidos. A continuación, el analizador ejecuta la detección en los datos de origen de las
columnas que tengan dominios de datos deducidos.
Para obtener más información acerca de la detección del dominio de datos, consulte la Guía del
administrador de Informatica Catalog 10.2.1.

Filtro Valores
A partir de la versión 10.2.1, se puede utilizar la configuración de filtro en la página Configuración de la
aplicación para personalizar los filtros de búsqueda que se muestran en el panel Filtrar por de la página de
resultados de búsqueda.

Para obtener más información sobre los filtros de búsqueda, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.

280 Capítulo 25: Novedades de la versión 10.2.1


Informe de enlaces que faltan
A partir de la versión 10.2.1, se puede generar un informe de los vínculos que faltan para identificar los
vínculos de la conexión que faltan después de asignar esquemas de un recurso a las conexiones.

Para obtener más información sobre el informe de vínculos que faltan, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

Nuevos tipos de recursos


A partir de la versión 10.2.1, Informatica Enterprise Data Catalog extrae metadatos de varios orígenes de
datos nuevos.

Puede crear recursos en Informatica Catalog Administrator para extraer metadatos de los siguientes
orígenes de datos:
Azure Data Lake Store

La plataforma de almacenamiento de archivos de nube en línea.

Scripts de la base de datos

Los scripts de base de datos de los que se extraerá la información de linaje. El recurso Scripts de la
base de datos está disponible para la vista previa técnica. La funcionalidad de vista previa técnica se
admite, pero no está autorizada ni lista para producción. Informatica recomienda utilizar estas
características solo en entornos que no sean de producción.

Microsoft Azure Blob Storage

El servicio web de almacenamiento de archivos basado en la nube.

QlikView

La herramienta de inteligencia empresarial que le permite extraer metadatos del sistema de origen
QlikView.

SharePoint

Importar metadatos de archivos en SharePoint.

OneDrive

Importar metadatos de archivos en OneDrive.

Para obtener más información acerca de los nuevos recursos, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

API de REST
A partir de la versión 10.2.1, se puede utilizar las API de REST de Informatica Enterprise Data Catalog para
cargar y supervisar recursos.

Para obtener más información acerca de las API de REST, consulte la Referencia de la API de REST de
Informatica Enterprise Data Catalog 10.2.1.

Autenticación SAML para aplicaciones de Enterprise Data Catalog


A partir de la versión 10.2.1, se puede habilitar Single Sign-On con autenticación SAML para las aplicaciones
de Enterprise Data Catalog. Puede utilizar la autenticación SAML mediante OKTA con Active Directory o los
servicios de federación de Active Directory con Active Directory.

Enterprise Data Catalog 281


Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise Data
Catalog 10.2.1.

Recurso de SAP
A partir de la versión 10.2.1, se puede elegir la opción Permitir secuencias para el acceso de datos para que
los recursos de SAP R/3 extraigan datos mediante el protocolo HTTP.

Para obtener más información sobre la opción, consulte la Guía del administrador de Informatica Catalog
10.2.1.

Importación desde ServiceNow


A partir de la versión 10.2.1, el administrador del catálogo se conecta a ServiceNow para importar
conexiones y extraer los metadatos de configuración en el catálogo.

La función de importación de ServiceNow está disponible para la vista previa técnica. La funcionalidad de
vista previa técnica se admite, pero no está autorizada ni lista para producción. Informatica recomienda
utilizar estas características solo en entornos que no sean de producción.

Para obtener más información acerca de la importación de metadatos de ServiceNow, consulte la Guía de
Informatica Catalog Administrator 10.2.1.

Columnas similares
A partir de la versión 10.2.1, se puede ver la sección Columnas similares que muestra todas las columnas
parecidas a la columna que se está visualizando. Enterprise Data Catalog detecta las columnas similares
según los nombres de columna, los patrones de columna, los valores únicos y las frecuencias de valor.

Para obtener más información sobre la similitud de columnas, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.

Especificación de tipos de carga para el servicio de catálogo


A partir de la versión 10.2.1, al crear un servicio de catálogo, se puede elegir la opción para especificar el
tamaño de datos que se desea implementar.

Antes, era necesario crear el servicio de catálogo y utilizar las propiedades personalizadas de este para
especificar el tamaño de los datos.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise Data
Catalog 10.2.1.

Tipos de recursos admitidos en la detección de datos


A partir de la versión 10.2.1, puede habilitar la detección de datos para que los siguientes recursos extraigan
metadatos de perfiles:

• Tipos de archivos no estructurados:


- Archivos de Apple. Los tipos de extensión admitidos incluyen .key, .pages, .numbers, .ibooks e .ipa.

- Archivos de Open Office. Los tipos de extensión admitidos


incluyen .odt, .ott, .odm, .ods, .ots, .odp, .odg, .otp, .odg, .otg y .odf.

282 Capítulo 25: Novedades de la versión 10.2.1


• Tipos de archivos estructurados:
- Avro. El tipo de extensión admitido es .avro.

Este tipo de archivo está disponible para los recursos de HDFS y del sistema de archivos. Para el
recurso del sistema de archivos, solo se puede elegir el protocolo de archivo local.
- Parquet. El tipo de extensión admitido es .parquet.

Este tipo de archivo está disponible para los recursos de HDFS y del sistema de archivos. Para el
recurso del sistema de archivos, solo se puede elegir el protocolo de archivo local.
• Otros recursos:
- Azure Data Lake Store

- Sistema de archivos. Los protocolos admitidos incluyen los protocolos de archivos locales, SFTP y
SMB/CIFS.
- HDFS. La distribución admitida incluye MapR FS.

- Microsoft Azure Blob Storage

- OneDrive

- SharePoint

Para obtener más información acerca de los nuevos recursos, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

Enterprise Data Lake


En esta sección se describen las nuevas características de Enterprise Data Lake en la versión 10.2.1.

Datos de columna
A partir de la versión 10.2.1, puede utilizar las siguientes funciones cuando trabaje con columnas en hojas de
cálculo:

• Puede categorizar o agrupar los valores relacionados de una columna en categorías para facilitar el
análisis.
• Puede ver el origen de los datos de una columna seleccionada en una hoja de cálculo. Es posible que
desee ver el origen de los datos en una columna para ayudarle a solucionar un problema.
• Puede revertir los tipos o los dominios de datos deducidos durante el muestreo en las columnas al tipo de
origen. Es posible que desee revertir un tipo o un dominio de datos deducido al tipo de origen si desea
utilizar los datos de columna en una fórmula.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.

Administración de los recursos de Data Lake


A partir de la versión 10.2.1, se puede utilizar la aplicación Enterprise Data Lake para agregar y eliminar
recursos de Enterprise Data Catalog. Los recursos de catálogo representan los orígenes de datos externos y
los repositorios de metadatos desde los que los escáneres extraen los metadatos que se utilizan en Data
Lake.

Para obtener más información, consulte el capítulo "Administrar Data Lake" de la Guía del administrador de
Informatica Enterprise Data Lake 10.2.1.

Enterprise Data Lake 283


Operaciones de preparación de datos
A partir de la versión 10.2.1, puede realizar las siguientes operaciones durante la preparación de los datos:

Datos dinámicos

Puede utilizar la operación dinámica para cambiar los datos de las columnas seleccionadas de una hoja
de cálculo con un formato resumido. La operación dinámica le permite agrupar y agregar datos para el
análisis, como resumir el precio promedio de las casas unifamiliares vendidas en distintas ciudades
durante los primeros seis meses del año.

Datos sin dinamismo

Puede utilizar la operación sin dinamismo para transformar las columnas de una hoja de cálculo en filas
que contengan los datos de columna con formato de valor clave. La operación sin dinamismo es útil
cuando se desea agregar datos a una hoja de cálculo en filas según las claves y los valores
correspondientes.

Aplicar cifrado One Hot

Puede utilizar una operación de cifrado One Hot para determinar la existencia de un valor de cadena en
una columna seleccionada dentro de cada fila de una hoja de cálculo. Puede utilizar la operación de
cifrado One Hot para convertir valores categóricos de una hoja de cálculo en valores numéricos
necesarios para los algoritmos de aprendizaje automático.

Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.

Preparación de archivos JSON


A partir de la versión 10.2.1, puede muestrear los datos jerárquicos de los archivos JavaScript Object
Notation Lines (JSONL) que agregue al proyecto como primer paso en la preparación de datos. Enterprise
Data Lake convierte la estructura del archivo JSON en una estructura sin formato, y presenta los datos en
una hoja de cálculo que se utiliza para muestrear los datos.

Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.

Pasos de la receta
A partir de la versión 10.2.1, puede utilizar las siguientes funciones cuando trabaje con recetas en hojas de
cálculo:

• Puede reutilizar los pasos de la receta creados en una hoja de cálculo, incluidos los pasos que contengan
fórmulas complejas o definiciones de regla. Puede reutilizar los pasos de la receta en la misma hoja de
cálculo o en una hoja de cálculo diferente, incluida una hoja de cálculo de otro proyecto. Puede copiar y
reutilizar los pasos seleccionados de una receta, o puede reutilizar toda la receta.
• Puede insertar un paso en cualquier posición de una receta.
• Puede agregar un filtro o modificar un filtro aplicado a un paso de la receta.
Para obtener más información, consulte el capítulo "Preparar datos"de la Guía del usuario de Informatica
Enterprise Data Lake 10.2.1.

284 Capítulo 25: Novedades de la versión 10.2.1


Programación de actividades de exportación, importación y
publicación
A partir de la versión 10.2.1, puede programar la exportación, importación y publicación de activos de datos.
La programación de una actividad permite importar, exportar o publicar activos de datos actualizados de
forma periódica.

Cuando se programa una actividad, se puede crear una nueva programación o se puede seleccionar una
existente. Puede utilizar las programaciones creadas por otros usuarios, y otros usuarios pueden utilizar las
programaciones que usted cree.

Para obtener más información, consulte el capítulo "Programar actividades de exportación, importación y
publicación" de la Guía del usuario de Informatica Enterprise Data Lake 10.2.1.

Autenticación del lenguaje de marcado de aserción de seguridad


(SAML)
A partir de la versión 10.2.1, la aplicación Enterprise Data Lake admite la autenticación del lenguaje de
marcado de aserción de seguridad (SAML).

Para obtener más información sobre cómo configurar la autenticación SAML, consulte la Guía de seguridad
de Informatica 10.2.1.

Visualización de los flujos de proyecto y el historial de proyectos


A partir de la versión 10.2.1, puede ver los diagramas de flujo del proyecto y revisar las actividades
realizadas en un proyecto.

Puede ver un diagrama de flujo que muestre cómo se relacionan las hojas de cálculo de un proyecto y cómo
se derivan. El diagrama es especialmente útil cuando se trabaja en un proyecto complejo que contiene varias
hojas de cálculo y que incluye numerosos activos.

También puede revisar el historial completo de las actividades realizadas en un proyecto, incluidas las
actividades realizadas en las hojas de cálculo del proyecto. Consultar el historial del proyecto puede ayudarle
a determinar la causa raíz de los problemas del proyecto.

Para obtener más información, consulte el capítulo "Crear y administrar proyectos" de la Guía del usuario de
Informatica Enterprise Data Lake 10.2.1.

Informatica Developer
En esta sección se describen las nuevas características de Developer tool en la versión 10.2.1.

Diseño predeterminado
A partir de la versión 10.2.1, las siguientes vistas adicionales aparecen de forma predeterminada en el área
de trabajo de Developer tool:

• Vista Explorador de conexiones


• Vista Progreso

Informatica Developer 285


La siguiente imagen muestra el área de trabajo predeterminada de Developer tool en la versión 10.2.1:

1. Vista Explorador de objetos


2. Vista Explorador de conexiones
3. Vista Esquema
4. Vista Progreso
5. Vista Propiedades
6. Vista Visor de datos
7. Editor

Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica
Developer Tool 10.2.1.

Búsqueda en el editor
A partir de la versión 10.2.1, se puede buscar una definición de tipo de datos complejos en las asignaciones
y los mapplets de la vista del editor. También se pueden mostrar rutas de vínculos mediante una definición
de tipo de datos complejos.

Para obtener más información, consulte el capítulo "Búsquedas en Informatica Developer" en la Guía de
Informatica Developer Tool 10.2.1.

286 Capítulo 25: Novedades de la versión 10.2.1


Importación de propiedades de sesión de PowerCenter
A partir de la versión 10.2.1, se pueden importar las propiedades de sesión, como las anulaciones basadas
en SQL en orígenes y destinos relacionales y las anulaciones de la transformación de búsqueda del
repositorio PowerCenter al repositorio de modelos.

Para obtener más información acerca de la funcionalidad de importación de PowerCenter, consulte el


capítulo "Importar desde PowerCenter" en la Guía de asignaciones de Informatica Developer 10.2.1 .

Vistas
A partir de la versión 10.2.1, se pueden expandir los tipos de datos complejos para ver la definición del tipo
de datos en las siguiente vistas:

• Vista del editor


• Vista Esquema
• Vista Propiedades

Para obtener más información, consulte el capítulo "Informatica Developer" de la Guía de Informatica
Developer Tool 10.2.1.

Asignaciones de Informatica
En esta sección se describen las nuevas características de las asignaciones de Informatica en la versión
10.2.1.

Asignaciones dinámicas
En esta sección se describen las nuevas características de asignación dinámica de la versión 10.2.1.

Reglas de entrada
A partir de la versión 10.2.1, puede realizar las siguientes tareas al crear una regla de entrada:

• Crear una regla de entrada mediante una definición de tipo de datos complejos.
• Restaurar los nombres de los puertos de origen cuando se cambie el nombre de los puertos generados.
• Seleccionar los puertos por nombre de origen cuando se cree una regla de entrada por nombre de
columna o un patrón.
• Ver nombres de origen y definiciones de tipos de datos complejos en la vista previa del puerto.

Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.

Selectores de puerto
A partir de la versión 10.2.1, se puede configurar un selector de puertos para seleccionar puertos mediante
una definición de tipo de datos complejos.

Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.

Asignaciones de Informatica 287


Validación de orígenes y destinos dinámicos
A partir de la versión 10.2.1, puede validar orígenes y destinos dinámicos. Para validar orígenes y destinos
dinámicos, resuelva los parámetros de asignación para ver una instancia en tiempo de ejecución de la
asignación. Valide la instancia en tiempo de ejecución de la asignación.

Para obtener más información, consulte el capítulo "Asignaciones dinámicas" en la Guía de asignaciones del
desarrollador de Informatica 10.2.1.

Parámetros de asignación
En esta sección se describen las nuevas características de parámetros de la asignación de la versión 10.2.1.

Asignar parámetros
A partir de la versión 10.2.1, puede asignar parámetros a los siguientes objetos de asignación y campos de
objetos:

Objeto Campo

Operación personalizada de lectura de objetos de datos Consulta personalizada


Condición de filtro
Condición de combinación
PreSQL
PostSQL

Operación personalizada de escritura de objetos de datos PreSQL


PostSQL
Reemplazo de actualización

Objeto de datos de archivo sin formato Códec de compresión


Formato de compresión

transformación de búsqueda Consulta personalizada. Únicamente relacional.

Transformación de lectura Consulta personalizada. Únicamente relacional.


Condición de filtro. Únicamente relacional.
Condición de combinación. Únicamente relacional.
PreSQL. Únicamente relacional.
PostSQL. Únicamente relacional.

transformación de escritura PreSQL. Únicamente relacional.


PostSQL. Únicamente relacional.
Reemplazo de actualización. Únicamente relacional.

Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.

Resolución de parámetros de asignación


A partir de la versión 10.2.1, puede resolver los parámetros de asignación en Developer tool. Cuando se
resuelven los parámetros de la asignación, Developer tool genera una instancia en tiempo de ejecución de la
asignación que muestra el modo en el que el servicio de integración de datos resuelve los parámetros en
tiempo de ejecución. Puede ejecutar la instancia de la asignación en la que se resuelven los parámetros para
ejecutar la asignación con los parámetros seleccionados.

288 Capítulo 25: Novedades de la versión 10.2.1


En la siguiente tabla se describen las opciones que puede usar para resolver los parámetros de la
asignación:

Parámetros de asignación Descripción

Aplicar los valores Resuelve los parámetros de asignación según los valores predeterminados
predeterminados en la asignación configurados para los parámetros de la asignación. Si no se configuran los
parámetros de la asignación, no se resolverá ningún parámetro en la
asignación.

Aplicar un conjunto de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el conjunto de parámetros especificado.

Aplicar un archivo de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el archivo de parámetros especificado.

Para resolver rápidamente los parámetros de asignación basados en un conjunto de parámetros. Arrastre el
conjunto de parámetros de la vista del explorador de objetos al editor de asignaciones para ver los
parámetros resueltos en la instancia en tiempo de ejecución de la asignación.

Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.

Validación de parámetros de asignación


A partir de la versión 10.2.1, puede validar los parámetros de asignación en Developer tool. Para validar los
parámetros de asignación, primero se deben resolver los parámetros de asignación. Cuando se hayan
resuelto los parámetros de la asignación, Developer tool generará una instancia en tiempo de ejecución de la
asignación que mostrará los parámetros resueltos. Valide la instancia en tiempo de ejecución de la
asignación para validar los parámetros de asignación.

Para obtener más información, consulte el capítulo "Parámetros de asignación" de la Guía de asignaciones de
Informatica Developer 10.2.1.

Ejecución de asignaciones
En esta sección se describen las nuevas características de asignación de ejecución de la versión 10.2.1.

Ejecución de una asignación desde la vista del explorador de objetos


A partir de la versión 10.2.1, puede ejecutar una asignación desde la vista del explorador de objetos. No será
necesario abrir la asignación en el editor de asignaciones. Haga clic con el botón derecho sobre la
asignación en la vista Explorador de objetos y haga clic en Ejecutar.

Para obtener más información, consulte la Guía de Informatica 10.2.1 Developer tool.

Ejecutar una asignación utilizando opciones avanzadas


A partir de la versión 10.2.1, puede ejecutar una asignación en Developer tool mediante las opciones
avanzadas. En las opciones avanzadas, puede especificar la configuración y los parámetros de la
asignación. Especifique la configuración y los parámetros de la asignación cada vez que ejecute la
asignación.

Asignaciones de Informatica 289


En la siguiente tabla se describen las opciones que puede usar para especificar una configuración de
asignación:

Opción Descripción

Seleccionar una configuración de Seleccione una configuración de asignación en el menú desplegable. Para
asignación crear una nueva configuración de asignación, seleccione Nueva configuración.

Especificar una configuración de Cree una configuración de asignación personalizada que persista para la
asignación personalizada ejecución de la asignación actual.

En la siguiente tabla se describen las opciones que puede usar para especificar los parámetros de la
asignación:

Parámetros de asignación Descripción

Aplicar los valores Resuelve los parámetros de asignación según los valores predeterminados
predeterminados en la asignación configurados para los parámetros de la asignación. Si no se configuran los
parámetros de la asignación, no se resolverá ningún parámetro en la
asignación.

Aplicar un conjunto de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el conjunto de parámetros especificado.

Aplicar un archivo de parámetros Resuelve los parámetros de asignación según los valores de parámetro
definidos en el archivo de parámetros especificado.

Para obtener más información, consulte la Guía de asignaciones del desarrollador de Informatica 10.2.1.

Truncamiento de las tablas de destino de Hive con particiones


A partir de la versión 10.2.1, se puede truncar una tabla de Hive externa o administrada con o sin particiones.

Antes, se podía diseñar una asignación para truncar una tabla de destino de Hive, pero no una tabla de
destino de Hive externa y con particiones.

Para obtener más información sobre cómo truncar destinos de Hive, consulte el capítulo "Asignación de
destinos en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management 10.2.1.

Lenguaje de transformación de Informatica


En esta sección se describen las nuevas características del lenguaje de transformación de Informatica en la
versión 10.2.1.

290 Capítulo 25: Novedades de la versión 10.2.1


Funciones complejas para el tipo de datos de asignación
A partir de la versión 10.2.1, el lenguaje de transformación introduce funciones complejas para el tipo de
datos de asignación. Utilice funciones complejas para el tipo de datos de asignación a fin de generar o
procesar datos de asignación en el motor Spark.

El lenguaje de transformación incluye las siguientes funciones complejas para el tipo de datos de
asignación:

• COLLECT_MAP
• MAP
• MAP_FROM_ARRAYS
• MAP_KEYS
• MAP_VALUES
A partir de la versión 10.2.1, puede utilizar la función SIZE para determinar el tamaño de los datos de
asignación.

Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.2.1 Developer.

Operador complejo para el tipo de datos de asignación


A partir de la versión 10.2.1, puede utilizar un operador complejo en las asignaciones que se ejecutan en el
motor Spark para acceder a los elementos de un tipo de datos de asignación.

El tipo de datos de asignación contiene una colección desordenada de pares de clave y valor. Utilice el
operador de subíndice [ ] para acceder al valor correspondiente a una clave concreta en el tipo de datos de
asignación.

Para obtener más información acerca de los operadores complejos, consulte el capítulo "Operadores" de la
Referencia del lenguaje de transformación para Informatica 10.2.1 Developer.

Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión
10.2.1.

Transformación del validador de direcciones


En esta sección se describen las nuevas características de la transformación del validador de direcciones.

La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Argentina
A partir de la versión 10.2.1, se puede configurar Informatica para devolver sugerencias válidas para las
direcciones de Argentina que se introduzcan en una sola línea.

Introduzca las direcciones de Argentina con el siguiente formato:


[Street] [House Number] [Dependent Locality] [Post Code] [Locality]
Para verificar las direcciones de una sola línea, introduzca las direcciones en el puerto Dirección completa.

Transformaciones de Informatica 291


Brasil
A partir de la versión 10.2.1, se puede configurar Informatica para devolver sugerencias válidas para las
direcciones de Brasil que se introduzcan en una sola línea.

Introduzca una dirección de Brasil con el siguiente formato:


[Street] [House Number] [Locality] [State Code] [Post Code]
Para verificar las direcciones de una sola línea, introduzca las direcciones en el puerto Dirección completa.

Colombia
A partir de la versión 10.2.1, Informatica valida las direcciones de Colombia a nivel de número de casa.

Hong Kong
A partir de la versión 10.2.1, Informatica admite la geocodificación de tejados para las direcciones de Hong
Kong. Informatica puede devolver geocoordenadas de tejado para direcciones de Hong Kong que se envíen
en chino o inglés.

Informatica puede considerar los tres niveles de información de edificio cuando genera las geocoordenadas.
Ofrece geocoordenadas de tejado al nivel más bajo disponible en la dirección verificada.

Para recuperar las geocoordenadas de tejado de las direcciones de Hong Kong, instale la base de datos
HKG5GCRT.MD.

India
A partir de la versión 10.2.1, Informatica valida las direcciones de la India a nivel de número de casa.

México
A partir de la versión 10.2.1, se puede configurar Informatica para devolver sugerencias válidas para las
direcciones de México que se introduzcan en una sola línea.

Introduzca una dirección de México con el siguiente formato:


[Street] [House Number] [Sub-locality] [Post Code] [Locality] [Province]
Para verificar las direcciones de una sola línea, introduzca las direcciones en el puerto Dirección completa.

Sudáfrica
A partir de la versión 10.2.1, Informatica mejora el análisis y la verificación de los descriptores de servicio de
entrega de las direcciones de Sudáfrica.

Informatica mejora el análisis y la verificación de los descriptores de servicio de entrega de las siguientes
formas:

• Address Verification reconoce el buzón privado, el conjunto de buzones, el buzón de la oficina de correos
y la suite de Postnet como diferentes tipos de servicio de entrega. Address Verification no estandariza un
descriptor de servicio de entrega como otro. Por ejemplo, Address Verification no estandariza la Suite de
Postnet como el buzón de la oficina de correos.
• Address Verification analiza el cuadro de Postnet como un descriptor de servicio de entrega no estándar y
corrige el cuadro de Postnet con el descriptor válido de la Suite de Postnet.
• Address Verification no estandariza el descriptor de subedificio Flat como Fl.

Corea del Sur


A partir de la versión 10.2.1, Informatica presenta las siguientes características y mejoras para Corea del Sur:

• Los datos de referencia de las direcciones de Corea del Sur incluyen la información de edificio.
Informatica puede leer, verificar y corregir la información de edificio de una dirección de Corea del Sur.

292 Capítulo 25: Novedades de la versión 10.2.1


• Informatica devuelve la dirección actual de una propiedad aunque se indique una dirección anterior. La
dirección anterior puede representar una sola dirección actual o varias direcciones, por ejemplo si hay
varias residencias que ocupan el sitio de la propiedad.
Para devolver las direcciones actuales, primero debe buscar el identificador de dirección de la propiedad
anterior. Si envía el identificador de dirección con el carácter A al final en el modo de búsqueda de código
de dirección, Informatica devolverá las direcciones actuales que coincidan con el identificador de
dirección.
Nota: La transformación del validador de direcciones utiliza la propiedad Recuento máximo de
resultados para determinar el número máximo de direcciones que se devolverán para el identificador de
dirección que se especifique. La propiedad Exceso de recuento indica si la base de datos contiene
direcciones adicionales para el identificador de dirección.

Tailandia
A partir de la versión 10.2.1, Informatica presenta las siguientes características y mejoras para Tailandia:

Mejoras en las direcciones de Tailandia

Informatica mejora el análisis y la validación de las direcciones de Tailandia escritas en alfabeto latino.

Además, Informatica valida las direcciones a nivel de número de casa.

Soporte nativo para direcciones de Tailandia

Informatica puede leer y escribir direcciones de Tailandia en el alfabeto nativo tailandés y en el alfabeto
latino. Informatica actualiza los datos de referencia de Tailandia y agrega los datos de referencia al
alfabeto tailandés nativo.

Informatica proporciona bases de datos de referencia independientes para las direcciones de Tailandia
en cada alfabeto. Para verificar las direcciones en el alfabeto tailandés nativo, instale las bases de datos
nativas de Tailandia. Para verificar las direcciones en el alfabeto latino, instale las bases de datos
latinas.

Nota: Si se verifican las direcciones de Tailandia, no se deben instalar los dos tipos de base de datos.
Acepte la opción predeterminada de la propiedad Alfabeto preferido.

Emiratos Árabes Unidos


A partir de la versión 10.2.1, Informatica verifica los nombres de calle de las direcciones de los Emiratos
Árabes Unidos. Para verificar los nombres de calle en los Emiratos Árabes Unidos, instale las bases de datos
de direcciones de referencia actuales para los Emiratos Árabes Unidos.

Reino Unido
A partir de la versión 10.2.1, Informatica puede devolver un nombre de territorio del Reino Unido.

Informatica devuelve el nombre de territorio en el elemento Country_2. Informatica devuelve el nombre de


país en el elemento Country_1. Puede configurar una dirección de salida con ambos elementos, o puede
omitir el elemento Country_1 si envía correo en el Reino Unido. El nombre del territorio aparece encima del
código postal en las direcciones del Reino Unido en los sobres o las etiquetas.

Para devolver el nombre de territorio, instale los datos de referencia actuales del Reino Unido.

Estados Unidos
A partir de la versión 10.2.1, Informatica puede reconocer hasta tres niveles de subedificio en una dirección
de Estados Unidos.

De conformidad con los requisitos del servicio postal de Estados Unidos, Informatica hace coincidir la
información de un solo elemento de subedificio con los datos de referencia. Si la información de Sub-
building_1 no coincide, Informatica comparará la información de Sub-building_2. Si la información de Sub-

Transformaciones de Informatica 293


building_2 no coincide, la verificación de direcciones comparará la información de Sub-building_3. La
verificación de direcciones copiará la información de subedificio que no coincida de la dirección de entrada
en la dirección de salida.

Alemania, Austria y Suiza


A partir de la versión 10.2.1, Informatica admite el carácter ß en mayúsculas en las direcciones de Alemania,
Austria y Suiza.

Informatica admite el carácter ß de las siguientes formas:

• Si se establece la propiedad Mayúscula o minúscula como UPPER, Informatica devolverá el carácter


alemán ß como ẞ. Si se establece la propiedad Mayúscula o minúscula como LOWER, Informatica
devolverá el carácter alemán ẞ como ß.
• Informatica considera ß y ẞ como caracteres igualmente válidos en una dirección. En las coincidencias de
datos de referencia, Informatica puede identificar una coincidencia perfecta cuando los valores contienen
ß o ẞ.
• Informatica considera ẞ y ss como caracteres igualmente válidos en una dirección. En las coincidencias
de datos de referencia, Informatica puede identificar una coincidencia estándar cuando los valores
contienen ẞ o ss.
• Si se establece la propiedad Alfabeto preferido como ASCII_SIMPLIFIED, Informatica devolverá el
carácter alemán ẞ como S.
• Si se establece la propiedad Alfabeto preferido como ASCII_EXTENDED, Informatica devolverá el
carácter ẞ como SS.

Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2.1, consulte la Guía de desarrollador de
Informatica Address Verification 5.12.0.

Flujos de trabajo de Informatica


En esta sección se describen las nuevas características de los flujos de trabajo de Informatica en la versión
10.2.1.

Importación de una tarea de comando de PowerCenter


A partir de la versión 10.2.1, se puede importar una tarea de comando de PowerCenter en el repositorio de
modelos.

Para obtener más información, consulte el capítulo "Flujos de trabajo" en la Guía de flujos de trabajo de
Informatica Developer 10.2.1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica de la versión 10.2.1.

294 Capítulo 25: Novedades de la versión 10.2.1


PowerExchange for Amazon Redshift
A partir de la versión 10.2.1, PowerExchange for Amazon Redshift incluye las siguientes características:

• Puede configurar una operación de búsqueda almacenada en caché para almacenar en caché la tabla de
búsqueda del motor Spark, y una operación de búsqueda no almacenada en caché en el entorno nativo.
• Para el cifrado en el lado del servidor, se puede configurar el identificador de clave maestra de cliente
generado por el servicio de administración de claves de AWS en la conexión del entorno nativo y el motor
Spark.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2.1.

PowerExchange for Amazon S3


A partir de la versión 10.2.1, PowerExchange for Amazon S3 incluye las siguientes características:

• Para el cifrado en el lado del cliente, se puede configurar el identificador de clave maestra de cliente
generado por el servicio de administración de claves de AWS en la conexión del entorno nativo. Para el
cifrado en el lado del servidor, se puede configurar el identificador de clave maestra de cliente generado
por el servicio de administración de claves de AWS en la conexión del entorno nativo y el motor Spark.
• Para el cifrado en el lado del servidor, se puede configurar la clave de cifrado administrada por Amazon
S3 o la clave maestra de cliente administrada por AWS KMS para cifrar los datos mientras se cargan los
archivos en los cubos.
• Puede crear un objeto de datos de archivo de Amazon S3 a partir de los siguientes formatos de origen de
datos en Amazon S3:
- Modelo de estructura inteligente
La característica del modelo de estructura inteligente de PowerExchange for Amazon S3 está disponible
para la inspección técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.
- JSON

- ORC
• Puede comprimir datos ORC en el formato de compresión ZLIB al escribir datos en Amazon S3 en el
entorno nativo y el motor Spark.
• Puede crear un destino de Amazon S3 mediante la opción Crear destino en las propiedades de la sesión
de destino.
• Puede utilizar tipos de datos complejos en el motor Spark para leer y escribir datos jerárquicos en los
formatos de archivo Avro y Parquet.
• Puede utilizar orígenes de Amazon S3 como orígenes dinámicos en una asignación. El soporte de
asignaciones dinámicas para orígenes de PowerExchange for Amazon S3 está disponible para la vista
previa técnica. La funcionalidad de vista previa técnica se admite, pero no está autorizada ni lista para
producción. Informatica recomienda utilizar estas características solo en entornos que no sean de
producción.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.1.

PowerExchange for Cassandra


A partir de la versión 10.2.1, el controlador ODBC de Informatica Cassandra admite escritura asincrónica.

Adaptadores de PowerExchange para Informatica 295


Para habilitar la escritura asincrónica en un sistema operativo Linux, debe agregar el nombre de clave
EnableAsynchronousWrites al archivo odbc.ini y establecer el valor como 1.

Para habilitar la escritura asincrónica en un sistema operativo Windows, debe agregar la propiedad
EnableAsynchronousWrites al registro de Windows para el nombre de origen de datos de ODBC de
Cassandra y establecer el valor como 1.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Cassandra de Informatica
10.2.1.

PowerExchange for HBase


A partir de la versión 10.2.1, se puede utilizar una operación de lectura de objetos de datos de HBase para
buscar datos en un recurso de HBase. Ejecute la asignación en el entorno nativo o en el motor de Spark para
buscar datos en un recurso de HBase. Se puede habilitar la búsqueda en el almacenamiento en caché, así
como parametrizar la condición de búsqueda.

La característica de búsqueda para PowerExchange for HBase está disponible para vista previa técnica. La
funcionalidad de vista previa técnica se admite, pero no está lista para producción. Informatica recomienda
utilizarla solo en entornos que no sean de producción.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HBase 10.2.1.

PowerExchange for HDFS


A partir de la versión 10.2.1, puede utilizar las siguientes nuevas características de PowerExchange for
HDFS:

Compatibilidad con los modelos de estructura inteligente para objetos de datos de archivos complejos

Puede incorporar un modelo de estructura inteligente en un objeto de datos de archivos complejos.


Cuando se agrega el objeto de datos a una asignación que se ejecuta en el motor Spark, se puede
procesar cualquier tipo de entrada que el modelo pueda analizar.

La característica del modelo de estructura inteligente de PowerExchange for HDFS está disponible para
la inspección técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para
producción. Informatica recomienda utilizarla solo en entornos que no sean de producción.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS
10.2.1.

Compatibilidad de las asignaciones dinámicas con los orígenes de archivos complejos

Puede utilizar orígenes de archivos complejos como orígenes dinámicos en una asignación.

La compatibilidad de las asignaciones dinámicas con los orígenes de archivos complejos está
disponible para la vista previa técnica. La funcionalidad de vista previa técnica se admite, pero no está
autorizada ni lista para producción. Informatica recomienda utilizar estas características solo en
entornos que no sean de producción.

Para obtener más información sobre las asignaciones dinámicas, consulte la Guía de asignación de
Informatica Developer.

PowerExchange for Hive


A partir de la versión 10.2.1, PowerExchange for Hive admite asignaciones que ejecutan consultas PreSQL y
PostSQL en orígenes y destinos de Hive en el motor Spark.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Hive 10.2.1.

296 Capítulo 25: Novedades de la versión 10.2.1


PowerExchange for Microsoft Azure Blob Storage
A partir de la versión 10.2.1, PowerExchange for Microsoft Azure Blob Storage incluye las siguientes
funcionalidades:

• Las asignaciones de se pueden ejecutar en el motor de Spark.


• Puede leer y escribir archivos CSV, Avro y Parquet cuando se ejecuta una asignación en el motor Spark y
en el entorno nativo.
• Puede leer y escribir archivos JSON y de estructura inteligente cuando se ejecuta una asignación en el
motor Spark.
• Puede leer un directorio cuando se ejecuta una asignación en el motor Spark.
• Puede generar u omitir filas de encabezado al ejecutar una asignación en el entorno nativo. En el motor
Spark, la fila de encabezado se crea de forma predeterminada.
• Puede anexar un BLOB existente. La operación de anexión solo se aplica al BLOB adjunto y al entorno
nativo.
• Puede reemplazar el nombre del BLOB o del contenedor. En el campo Reemplazar contenedor de BLOB,
especifique el nombre del contenedor o las subcarpetas del contenedor raíz con la ruta de acceso
absoluta.
• Puede leer y escribir archivos CSV comprimidos en formato GZIP.

Las nuevas funcionalidades de PowerExchange for Microsoft Azure Blob Storage están disponibles para la
vista previa técnica. La funcionalidad de vista previa técnica se admite, pero no está lista para producción.
Informatica recomienda utilizarla solo en entornos que no sean de producción.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.1.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.2.1, PowerExchange para Microsoft Azure SQL Data Warehouse incluye las
siguientes características:

• Las asignaciones de se pueden ejecutar en el motor de Spark.


• Puede configurar la creación de particiones del rango de claves al leer datos de los objetos de Microsoft
Azure SQL Data Warehouse.
• Puede reemplazar la consulta SQL y definir restricciones al leer datos de un objeto de Microsoft Azure
SQL Data Warehouse.
• Puede configurar consultas de pre-SQL y post-SQL para los objetos de origen y destino de una asignación.
• Puede configurar el filtro de expresiones nativas para la operación del objeto de datos de origen.
• Puede realizar operaciones de actualización, upsert y eliminación en las tablas de Microsoft Azure SQL
Data Warehouse.
• Puede configurar una operación de búsqueda almacenada en caché para almacenar en caché la tabla de
búsqueda del motor Spark, y una operación de búsqueda no almacenada en caché en el entorno nativo.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.1.

Adaptadores de PowerExchange para Informatica 297


PowerExchange for Salesforce
A partir de la versión 10.2.1, puede utilizar la versión 41 de la API de Salesforce para crear una conexión de
Salesforce y acceder a los objetos de Salesforce. Se pueden utilizar objetos grandes con transformaciones
de origen y destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
10.2.1 .

PowerExchange for SAP NetWeaver


A partir de la versión 10.2.1, se pueden ejecutar asignaciones en el motor Spark para leer datos de las tablas
de SAP.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2.1.

PowerExchange for Snowflake


A partir de la versión 10.2.1, PowerExchange for Snowflake incluye estas nuevas características:

• Puede configurar una operación de búsqueda en una tabla de Snowflake. También puede habilitar la
caché de búsqueda de una operación de búsqueda para aumentar el rendimiento de la búsqueda. El
servicio de integración de datos almacena en caché el origen de búsqueda y ejecuta la consulta en las
filas de la caché.
• Puede parametrizar la conexión de Snowflake y las propiedades de operación de lectura y escritura de
objetos de datos.
• Puede configurar la creación de particiones de rango de claves para los objetos de datos de Snowflake en
una operación de lectura o escritura. El servicio de integración de datos distribuye los datos basándose
en el puerto o el conjunto de puertos que se define como clave de partición.
• Puede especificar un nombre de tabla en las propiedades de destino avanzadas para reemplazar el
nombre de la tabla en las propiedades de conexión de Snowflake.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.1.

Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2.1.

Complejidad de la contraseña
A partir de la versión 10.2.1, puede habilitar la complejidad de las contraseñas para validar la seguridad de
las contraseñas. Esta opción está deshabilitada de forma predeterminada.

Para obtener más información, consulte el capítulo "Administración de la seguridad en Informatica


Administrator" en la Guía de seguridad de Informatica 10.2.1.

298 Capítulo 25: Novedades de la versión 10.2.1


Capítulo 26

Cambios en la versión 10.2.1


Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad, 299


• Cambios del programa de instalación, 302
• Cambios de nombre de producto, 304
• servicios de aplicación, 304
• Big Data Management, 305
• Big Data Transmisión, 310
• Programas de la línea de comandos , 311
• Programa de instalación de contenido, 311
• Enterprise Data Catalog , 312
• Informatica Analyst , 314
• Informatica Developer, 315
• Transformaciones de Informatica, 315
• Adaptadores de PowerExchange para Informatica, 317

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.1.

Cambios del soporte de actualización


En la versión 10.2.1, Informatica solo admite la actualización de productos de Informatica Big Data, como Big
Data Management y Big Data Quality. Al actualizar el dominio, la funcionalidad de productos tradicionales
como PowerCenter e Informatica Data Quality no estará disponible.

Si ejecuta productos tradicionales y de Big Data en el mismo dominio, deberá dividirlo antes de aplicar el
HotFix. Al dividir el dominio, se crea una copia del mismo, de modo que puede ejecutar productos Big Data y
productos tradicionales en dominios separados. Los nodos de cada máquina en el dominio se duplican.
También se duplican los servicios comunes tanto para los productos tradicionales como para los productos
Big Data. Después de dividir el dominio, podrá actualizar el dominio que ejecute productos de Big Data.

Nota: Aunque la versión 10.2.1 no admita productos tradicionales de Informatica, la documentación contiene
algunas referencias a los servicios de PowerCenter y Metadata Manager.

299
Compatibilidad de distribuciones de Hadoop para Big Data
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2.1:

Producto EMR HDI CDH HDP MapR

Big Data 5.10, 5.143 3.6.x 5.111, 5.121, 2.5, 2.6 6.x MEP 5.0.x2
Management 5.13, 5.14, 5.15

Big Data Streaming 5.10, 5.143 3.6.x 5.111, 5.121, 2.5, 2.6 6.x MEP 4.0.x
5.13, 5.14, 5.15

Enterprise Data N/A 3.6.x 5.13 2.6.x N/A


Catalog

Enterprise Data 5.10 3.6.x 5.13 2.6.x N/A


Lake

1 La compatibilidad de Big Data Management y Big Data Streaming para CDH 5.11 y 5.12 requiere EBF-11719. Consulte
el artículo de la base de conocimientos (KB) 533310.

2 La compatibilidad de Big Data Management para MapR 6.x con MEP 5.0.x requiere EBF-12085. Consulte el artículo de
la base de conocimientos (KB) 553273.

3 La compatibilidad de Big Data Management y Big Data Streaming con Amazon EMR 5.14 requiere EBF-12444.

Consulte KB article 560632.

Nota: Informatica ha retirado el soporte para IBM BigInsights.

Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.

Distribuciones de Hadoop para Big Data Management


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en Big
Data Management 10.2.1:

Distribución de Versiones de Cambios en la versión 10.2.1


Hadoop distribución
compatibles

Amazon EMR 5.10, 5.14 Se ha incluido compatibilidad con las versiones 5.10 y 5.14.
Compatibilidad cancelada para la versión 5.8.

Azure HDInsight 3.6.x Compatibilidad añadida para la versión 3.6.x.


Se ha retirado el soporte para la versión 3.5x.

Cloudera CDH 5.11, 5.12, 5.13, 5.14, Se ha incluido compatibilidad con las versiones 5.13, 5.14, 5.15.
5.15

300 Capítulo 26: Cambios en la versión 10.2.1


Distribución de Versiones de Cambios en la versión 10.2.1
Hadoop distribución
compatibles

Hortonworks HDP 2.5.x, 2.6.x Compatibilidad añadida para la versión 2.6.x.


Se ha retirado el soporte para la versión 2.4.x.

MapR 6.x MEP 5.0.x Se ha incluido compatibilidad con las versiones 6.x MEP 5.0.x.
Se ha retirado el soporte para las versiones 5.2 MEP 2.0.x y 5.2 MEP
3.0.x.

Nota: Informatica ha retirado el soporte para IBM BigInsights.

Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

Para ver una lista de las versiones admitidas, consulte la matriz de disponibilidad de productos en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.

Distribuciones de Hadoop para Big Data Streaming


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en Big
Data Streaming 10.2.1:

Distribución de Versiones de Cambios en la versión 10.2.1


Hadoop distribución
compatibles

Amazon EMR 5.10, 5.14 Se ha incluido compatibilidad con 5.10, 5.14.


Compatibilidad cancelada para la versión 5.4.

Azure HDInsight 3.6.x Compatibilidad añadida para la versión 3.6.x.

Cloudera CDH 5.11, 5.12, 5.13, 5.14, Se ha incluido compatibilidad con las versiones 5.13, 5.14, 5.15.
5.15

Hortonworks HDP 2.5.x, 2.6.x Compatibilidad añadida para la versión 2.6.x.


Se ha retirado el soporte para la versión 2.4.x.

MapR 6.x MEP 4.0.x Se ha incluido soporte para las versiones 6.x MEP 4.0.
Se ha retirado el soporte para las versiones 5.2 MEP 2.0.x y 5.2
MEP 3.0.x.

Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.

Cambios en la compatibilidad 301


Motor de tiempo de ejecución de Hive
A partir de la versión 10.2.1, ha dejado de usarse el modo MapReduce del motor de tiempo de ejecución de
Hive e Informatica dejará de ofrecer asistencia para él en una próxima versión. Sigue admitiéndose el modo
Tez.

Asignación
Cuando se ejecuta una asignación en el entorno de Hadoop, se seleccionan los motores de tiempo de
ejecución de Blaze y Spark.

Antes, también se seleccionaba el motor de tiempo de ejecución de Hive.

Si selecciona Hive para ejecutar una asignación, el servicio de integración de datos usará Tez. Puede usar el
motor de Tez solo en las siguientes distribuciones de Hadoop:

• Amazon EMR
• Azure HDInsight
• Hortonworks HDP

En una futura versión, cuando Informatica deje de ofrecer compatibilidad con MapReduce, el servicio de
integración de datos no tendrá en cuenta la selección del motor de Hive y ejecutará la asignación en el motor
de Blaze o Spark.

Perfiles
A partir de la versión 10.2.1, ha dejado de usarse el motor de tiempo de ejecución de Hive e Informatica
dejará de ofrecer asistencia para él en una próxima versión.

La opción Hive aparece como Hive (obsoleta) en Informatica Analyst, Informatica Developer y Catalog
Administrator. Si lo desea, aún puede ejecutar perfiles en el motor de Hive. Informatica recomienda elegir la
opción Hadoop para ejecutar los perfiles en el motor Blaze.

Cambios del programa de instalación


A partir de la versión 10.2.1, el programa de instalación incluye una nueva funcionalidad y se ha actualizado
para incluir la instalación y la actualización de todos los productos de Big Data. La instalación de Enterprise
Data Catalog y Enterprise Data Lake se ha combinado con el programa de instalación de Informatica
Platform.

Opciones de instalación
Al ejecutar el programa de instalación, se pueden elegir las opciones de instalación que se adapten a sus
necesidades.

La siguiente imagen ilustra las opciones de instalación y las diferentes tareas del programa de instalación
para la versión 10.2.1:

302 Capítulo 26: Cambios en la versión 10.2.1


Nota: Al instalar los servicios del dominio, el programa de instalación también instala los archivos binarios
del servicio de aplicaciones para admitir Big Data Management, Bit Data Quality y Big Data Streaming.

Opciones de actualización
Cuando se ejecuta el programa de instalación, se pueden elegir las opciones y acciones de actualización
según la instalación actual. Cuando se elige el producto que se desea actualizar, el programa de instalación
actualiza los productos principales según sea necesario, e instala o actualiza el producto que se elija.

Por ejemplo, si se selecciona Enterprise Data Catalog, el programa de instalación actualizará el dominio si
este ejecuta una versión anterior. Si Enterprise Data Catalog está instalado, el programa de instalación lo
actualizará. Si Enterprise Data Catalog no está instalado, el programa de instalación lo instalará.

La siguiente imagen ilustra las opciones de actualización y las diferentes tareas del programa de instalación
para la versión 10.2.1:

Nota: Cuando el programa de instalación realiza una actualización, es necesario completar la actualización
de algunos servicios de aplicación en la Herramienta del administrador.

Cambios del programa de instalación 303


Mejoras de las tareas del programa de instalación
El programa de instalación unificado se ha mejorado para realizar las siguientes tareas:

• Crear un servicio del repositorio de modelos de supervisión independiente al instalar los servicios del
dominio de Informatica.
• Ajustar la configuración del servicio de integración de datos y el servicio del repositorio de modelos
según el tamaño de la implementación de Big Data Management.
• Crear una configuración de clúster y las conexiones asociadas requeridas por Enterprise Data Lake.
• Habilitar el servicio de preparación de datos para Enterprise Data Lake.

El programa de instalación restringe los productos tradicionales


El programa de instalación solo incluye productos de Big Data. No incluye productos tradicionales como
PowerCenter e Informatica Data Quality. Los productos tradicionales y los productos de Big Data están en
series de la versión diferentes. Si realiza una actualización y el dominio incluye productos de datos
tradicionales y de Big Data, debe dividir el dominio antes de actualizar.

Cambios de nombre de producto


En esta sección se describen los cambios introducidos en los nombres de producto en la versión 10.2.1.

Se han modificado los siguientes nombres de producto:

• El producto Intelligent Data Lake ahora se denomina Enterprise Data Lake.


• El producto Intelligent Streaming ahora se denomina Big Data Streaming.
• El producto Enterprise Information Catalog ahora se denomina Enterprise Data Catalog.

servicios de aplicación
En esta sección se describen los cambios introducidos en los servicios de aplicación en la versión 10.2.1

Servicio de repositorio de modelos


Servicio de repositorio de modelos de supervisión
A partir de la versión 10.2.1, puede configurar un servicio de repositorio de modelos como un servicio de
repositorio de modelos de supervisión para supervisar las estadísticas de trabajos ad hoc, aplicaciones,
objetos de datos lógicos, servicios de datos SQL, servicios web y flujos de trabajo. Utilice cuentas de usuario
de base de datos independientes cuando configure el repositorio de modelos de supervisión y el repositorio
de modelos.

Antes, se podía utilizar un servicio del repositorio de modelos para almacenar objetos en tiempo de diseño y
en tiempo de ejecución en el repositorio de modelos.

Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2.1.

304 Capítulo 26: Cambios en la versión 10.2.1


Big Data Management
En esta sección se describen los cambios introducidos en Big Data Management en la versión 10.2.1.

Acceso al almacenamiento de Azure


A partir de la versión 10.2.1, debe reemplazar las propiedades del archivo core-site.xml de configuración del
clúster antes de ejecutar una asignación en el clúster de Azure HDInsight.
WASB

Si utiliza un clúster con WASB como almacenamiento, puede obtener la clave de la cuenta de
almacenamiento asociada al clúster de HDInsight del administrador, o puede descifrar la clave de la
cuenta de almacenamiento cifrada y, a continuación, reemplazar el valor descifrado en el archivo core-
site.xml de configuración del clúster.

ADLS

Si utiliza un clúster con ADLS como almacenamiento, debe copiar las credenciales del cliente de la
aplicación web y, a continuación, reemplazar los valores en el archivo core-site.xml de configuración del
clúster.

Antes, los archivos se copiaban del clúster de Hadoop en el equipo que ejecutaba el servicio de integración
de datos.

Configurar la distribución de Hadoop


En esta sección se describen los cambios en la configuración de distribución de Hadoop.

Configuración de distribución de Hadoop


A partir de la versión 10.2.1, la distribución de Hadoop se configura en las propiedades de la configuración
del clúster.

Las propiedades Nombre de distribución y Versión de distribución se rellenan al importar una configuración
de clúster del clúster. Podrá editar la versión de distribución después de finalizar el proceso de importación.

Antes, la distribución de Hadoop se identificaba mediante la ruta de acceso al directorio de la distribución


del equipo que alojaba el servicio de integración de datos.

A partir de la versión 10.2.1, la siguiente propiedad se ha eliminado de las propiedades del servicio de
integración de datos:

• Directorio de distribución de Hadoop del Servicio de integración de datos

Para obtener más información sobre las propiedades del nombre y la versión de la distribución, consulte la
Guía del administrador de Big Data Management 10.2.1.

Configuración de MapR
A partir de la versión 10.2.1, ya no es necesario configurar las propiedades del proceso del servicio de
integración de datos para el dominio cuando se usa Big Data Management con MapR. Big Data Management
admite la autenticación Kerberos sin necesidad de ninguna acción por parte del usuario.

Anteriormente, las propiedades de la opción de JVM se configuraban en las propiedades personalizadas del
servicio de integración de datos, así como las variables de entorno, para habilitar la compatibilidad con la
autenticación Kerberos.

Para obtener más información acerca de cómo integrar el dominio con un clúster de MapR, consulte la Guía
de integración de Hadoop de Big Data Management 10.2.1.

Big Data Management 305


Configuración de Developer tool
A partir de la versión 10.2.1, puede crear un servicio de acceso a metadatos. El servicio de acceso a
metadatos es un servicio de aplicación que permite a Developer tool acceder a la información de conexión
de Hadoop para importar y obtener una vista previa de los metadatos. Cuando se importa un objeto de un
clúster de Hadoop, los siguientes adaptadores utilizan el servicio de acceso a metadatos para extraer los
metadatos del objeto en tiempo de diseño:

• PowerExchange for HBase


• PowerExchange for HDFS
• PowerExchange for Hive
• PowerExchange for MapR-DB

Antes, estos pasos se realizaban manualmente en Developer tool para establecer la comunicación entre el
equipo de Developer tool y el clúster de Hadoop en tiempo de diseño:

• Se extraían los archivos de configuración del clúster.


• Se ejecutaba el archivo krb5.ini para importar metadatos de orígenes de archivos complejos, Hive y
HBase desde un clúster de Hadoop habilitado para Kerberos.

El servicio de acceso a metadatos elimina la necesidad de configurar cada equipo de Developer tool para la
conectividad en tiempo de diseño con el clúster de Hadoop.

Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.

Conexión de Hadoop Cambios


A partir de la versión 10.2.1, la conexión de Hadoop contiene nuevas y diferentes propiedades y
funcionalidades. Estas incluyen varias propiedades que antes se configuraban en otras conexiones o
archivos de configuración, así como otros cambios.

En esta sección se enumeran los cambios introducidos en la conexión de Hadoop en la versión 10.2.1.

Propiedades desplazadas del archivo hadoopEnv.properties a la conexión de


Hadoop
A partir de la versión 10.2.1, las propiedades que antes se configuraban en el archivo hadoopEnv.properties,
ahora se configuran en las propiedades avanzadas de la conexión de Hadoop.

Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del usuario de
Informatica Big Data Management 10.2.1. Para obtener más información sobre la configuración de Big Data
Management, consulte la Guía de integración de Hadoop de Informatica Big Data Management 10.2.1.

Propiedades desplazadas de la conexión de Hive a la conexión de Hadoop


Las siguientes propiedades de conexión de Hive que permiten que las asignaciones se ejecuten en un clúster
de Hadoop ahora se encuentran en la conexión de Hadoop:

• Nombre de la base de datos. Espacio de nombres para las tablas. Utilice el nombre predeterminado para
tablas que no tienen un nombre de base de datos especificado.
• Propiedades avanzadas de Hive/Hadoop. Configura o reemplaza las propiedades del clúster de Hadoop o
Hive en la configuración de hive-site.xml establecida en el equipo en que se ejecuta el servicio de
integración de datos. Puede especificar varias propiedades.

306 Capítulo 26: Cambios en la versión 10.2.1


• Códec de compresión de tabla temporal. Biblioteca de compresión de Hadoop para el nombre de clase de
un códec de compresión.
• Nombre de clase de códec. Nombre de clase del códec que habilita la compresión de datos y mejora el
rendimiento en tablas provisionales temporales.

Antes, estas propiedades se configuraban en la conexión de Hive.

Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del administrador
de Informatica Big Data Management 10.2.1.

Propiedades avanzadas para los motores en tiempo de ejecución de Hadoop


A partir de la versión 10.2.1, las propiedades avanzadas de los motores en tiempo de ejecución de Blaze,
Spark y Hive se configuran en las propiedades de conexión de Hadoop.

Informatica ha estandarizado los nombres de las propiedades relacionadas con los motores en tiempo de
ejecución. En la tabla siguiente se muestran los nombres antiguos y los nuevos:

Nombre de propiedad Sección de propiedades de conexión de Nombre de la propiedad de


anterior a la versión 10.2.1 Hadoop de 10.2.1 10.2.1

Propiedades personalizadas Configuración de Blaze Propiedades avanzadas


del servicio de Blaze

Parámetros de ejecución de Configuración de Spark Propiedades avanzadas


Spark

Propiedades personalizadas de Configuración de delegación de tareas de Hive Propiedades avanzadas


Hive

Antes, las propiedades avanzadas de los motores en tiempo de ejecución se configuraban en los archivos
hadoopRes.properties o hadoopEnv.properties, o en el campo Propiedades personalizadas del motor
Hadoop en las Propiedades comunes de la Herramienta del administrador.

Propiedades adicionales del motor Blaze


A partir de la versión 10.2.1, puede configurar una propiedad adicional en la sección Propiedades de
configuración de Blaze de las propiedades de la conexión Hadoop.

En la siguiente tabla se describe la propiedad:

Propiedad Descripción

Etiqueta del nodo La etiqueta de nodo que determina el nodo del clúster de Hadoop donde se ejecuta el motor
de YARN de Blaze Blaze. Si no se especifica una etiqueta de nodo, el motor Blaze se ejecutará en los nodos de la
partición predeterminada.
Si el clúster de Hadoop admite operadores lógicos para etiquetas de nodo, puede especificar
una lista de etiquetas de nodo. Para enumerar las etiquetas de nodo, utilice los operadores &&
(AND), || (OR) y ! (NOT).

Para obtener más información sobre cómo usar las etiquetas de nodos en el motor Blaze, consulte el
capítulo "Asignación en el entorno de Hadoop" de la Guía del usuario de Informatica Big Data Management
10.2.1.

Big Data Management 307


Propiedades de conexión de Hive
A partir de la versión 10.2.1, se han cambiado las propiedades de la conexión de Hive.

Se han eliminado las siguientes propiedades de conexión de Hive:

• Acceso a Hive como origen o destino


• Utilice Hive para ejecutar asignaciones en clústeres de Hadoop.

Antes, estas propiedades estaban obsoletas. A partir de la versión 10.2.1, están obsoletas.

Configure las siguientes propiedades de conexión de Hive en la conexión de Hadoop:

• Nombre de la base de datos


• Propiedades Advanced Hive/Hadoop
• Códec de compresión de tabla temporal
• Nombre de clase de códec

Antes, estas propiedades se configuraban en la conexión de Hive.

Para obtener más información acerca de las conexiones de Hive y Hadoop, consulte la Guía del usuario de
Informatica Big Data Management 10.2.1.

Supervisión
En esta sección se describen los cambios introducidos en la supervisión de Big Data Management en la
versión 10.2.1.

Supervisión de Spark
A partir de la versión 10.2.1, los cambios realizado en la supervisión de Spark están relacionados con las
siguientes áreas:

• Cambios de eventos
• Actualizaciones de la vista Resumen de estadísticas

Cambios de eventos
A partir de la versión 10.2.1, la información de supervisión de los eventos de Spark solo se comprueba en el
registro de sesión.

Antes, los eventos de Spark se retransmitían tal cual de la aplicación Spark al ejecutor de Spark. Cuando los
eventos retransmitidos tardaban demasiado, se producían problemas de rendimiento.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

Vista Estadísticas de resumen


A partir de la versión 10.2.1, puede ver las estadísticas de la ejecución de Spark según las etapas de
ejecución. Por ejemplo, las etapas de ejecución de Spark muestran las estadísticas de las etapas de
ejecución de la aplicación Spark. Stage_0 muestra las estadísticas relacionadas con la etapa de ejecución
con el ID=0 en la aplicación Spark. Los campos Filas y Promedio de filas/seg muestran el número de filas
escritas fuera de la etapa y el rendimiento correspondiente. Los campos Bytes y Promedio de bytes/seg
muestran los bytes y el rendimiento emitidos en la etapa.

Antes, solo se podían ver las filas de origen y destino y las filas promedio por cada segundo procesado en la
ejecución de Spark.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.

308 Capítulo 26: Cambios en la versión 10.2.1


Precisión y escala en el motor de Hive
A partir de la versión 10.2.1, la salida de las funciones definidas por el usuario que realizan multiplicaciones
en el motor de Hive puede tener una escala máxima de 6 si se cumplen las siguientes condiciones:

• La diferencia entre la precisión y la escala es mayor o igual que 32.


• La precisión resultante es mayor que 38.

Anteriormente, el valor más bajo de la escala podía ser 0.

Para obtener más información, consulte el capítulo "Asignaciones en el entorno de Hadoop" de la Guía del
usuario de Informatica Big Data Management 10.2.1.

Sqoop
A partir de la versión 10.2.1, se han aplicado los siguientes cambios a Sqoop:

• Cuando se ejecutan asignaciones de Sqoop en el motor Spark, el servicio de integración de datos imprime
los eventos de registro de Sqoop en el registro de asignaciones. Antes, el servicio de integración de datos
imprimía los eventos de registro de Sqoop en el registro de clústeres de Hadoop.
Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.1.
• Si se agrega o se elimina un archivo JAR del controlador JDBC de tipo 4 requerido para la conectividad de
Sqoop en el directorio externaljdbcjars, los cambios surtirán efecto después de reiniciar el servicio de
integración de datos. Si se ejecuta la asignación en el motor Blaze, los cambios surtirán efecto después
de reiniciar el servicio de integración de datos y Blaze Grid Manager.
Nota: Al ejecutar la asignación por primera vez, no es necesario reiniciar el servicio de integración de
datos ni Blaze Grid Manager. Solo será necesario reiniciar el servicio de integración de datos y Blaze Grid
Manager para las siguientes ejecuciones de la asignación.
Antes, no era necesario reiniciar el servicio de integración de datos ni Blaze Grid Manager después de
agregar o eliminar un archivo JAR de Sqoop.
Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.1.

Compatibilidad de las transformaciones en el motor Hive


A partir de la versión 10.2.1, una transformación del etiquetador o el analizador que realiza análisis
probabilístico requiere el kit de desarrollo de Java 8 en los nodos en los que se ejecute.

Antes, las transformaciones requerían el kit de desarrollo de Java 7.

Si ejecuta una asignación que contiene una transformación del etiquetador o el analizador que se configuró
para el análisis probabilístico, compruebe la versión de Java de los nodos de Hive.

Nota: En un nodo de Blaze o Spark, el servicio de integración de datos utiliza el kit de desarrollo Java que se
instala con el motor de Informatica. Informatica 10.2.1 se instala con la versión 8 del kit de desarrollo de
Java.

Para obtener más información, consulte la Guía de instalación de Informatica 10.2.1 o la Guía de actualización
de Informatica 10.2.1 que corresponda a la versión de Informatica que actualice.

Big Data Management 309


Big Data Transmisión
En esta sección se describen los cambios introducidos en Big Data Streaming en la versión 10.2.1.

Configurar la distribución de Hadoop


A partir de la versión 10.2.1, la distribución de Hadoop se configura en las propiedades de configuración de
clúster.

Las propiedades Nombre de distribución y Versión de distribución se rellenan al importar una configuración
de clúster del clúster. Podrá editar la versión de distribución después de finalizar el proceso de importación.

Antes, la distribución de Hadoop se identificaba mediante la ruta de acceso al directorio de la distribución


del equipo que alojaba el servicio de integración de datos.

Para obtener más información sobre las propiedades del nombre y la versión de la distribución, consulte la
Guía del administrador de Informatica Big Data Management 10.2.1.

Configuración de Developer tool


A partir de la versión 10.2.1, puede crear un servicio de acceso a metadatos. El servicio de acceso a
metadatos es un servicio de aplicación que permite a Developer tool acceder a la información de conexión
de Hadoop para importar y obtener una vista previa de los metadatos.

Los siguientes orígenes y destinos utilizan el servicio de acceso a metadatos en tiempo de diseño para
extraer los metadatos:

• HBase
• HDFS
• Hive
• MapR-DB
• MapRStreams

Antes, estos pasos se realizaban manualmente en cada equipo cliente de Developer tool para establecer la
comunicación entre el equipo de Developer tool y el clúster de Hadoop en tiempo de diseño:

• Se extraían los archivos de configuración del clúster.


• Se ejecutaba el archivo krb5.ini para importar metadatos de orígenes de archivos complejos, Hive y
HBase desde un clúster de Hadoop habilitado para Kerberos.

El servicio de acceso a metadatos elimina la necesidad de configurar cada equipo de Developer tool para la
conectividad en tiempo de diseño con el clúster de Hadoop.

Para obtener más información, consulte el capítulo "Servicio de acceso a metadatos" de la Guía del servicio
de aplicación de Informatica 10.2.1.

Propiedades de conexión de Kafka


A partir de la versión 10.2.1, se han cambiado las propiedades de la conexión de Kafka.

Ahora se puede configurar la versión del agente de Kafka en las propiedades de conexión.

Antes, esta propiedad se configuraba en los archivos hadoopEnv.properties y hadoopRes.properties.

Para obtener más información sobre la conexión de Kafka, consulte el capítulo "Conexiones" en la Guía del
usuario de Informatica Big Data Streaming 10.2.1.

310 Capítulo 26: Cambios en la versión 10.2.1


Programas de la línea de comandos
En esta sección se describen los cambios de los comandos en la versión 10.2.1.

Comandos infacmd ihs


Comandos cambiados

En la siguiente tabla se describen los comandos infacmd ihs que se han cambiado:

Comando Descripción

createservice A partir de la versión 10.2.1, la opción -kc se ha agregado al comando CreateService.

createservice A partir de la versión 10.2.1, la opción -bn se ha agregado al comando CreateService.

Comandos infacmd ldm


Comandos cambiados

En la siguiente tabla se describen los comandos infacmd ldm que se han cambiado:

Comando Cambiar descripción

CreateService A partir de la versión 10.2.1, la


opción -lt se ha agregado al
comando CreateService.

CreateService A partir de la versión 10.2.1, la


opción -dis se ha eliminado del
comando CreateService.

CreateService A partir de la versión 10.2.1, la


opción -cms se ha eliminado del
comando CreateService.

Para obtener más información, consulte la Referencia de comandos de Informatica 10.2.1.

Programa de instalación de contenido


A partir de la versión 10.2.1, Informatica ya no proporciona una utilidad de instalador de contenido para los
archivos del acelerador y los archivos de datos de referencia. Para agregar archivos del acelerador o
archivos de datos de referencia a una instalación de Informatica, extraiga y copie los archivos en los
directorios correspondientes de la instalación.

Antes, se utilizaba el instalador de contenido para extraer y copiar los archivos en los directorios de
Informatica.

Para obtener más información, consulte la Guía de contenido de Informatica 10.2.1.

Programas de la línea de comandos 311


Enterprise Data Catalog
En esta sección se describen los cambios introducidos en Informatica Enterprise Data Catalog en la versión
10.2.1.

Sección de propiedades adicionales de la ficha General


A partir de la versión 10.2.1, cuando se crea un recurso, se pueden asignar valores de atributo
personalizados a un recurso de la sección Propiedades adicionales de la ficha General. Los valores de
atributo personalizados que se pueden asignar incluyen Departamento, Propietario de datos, Administrador
de datos y Expertos en la materia.

Para obtener más información acerca de la asignación de atributos personalizados, consulte la Guía del
administrador de Informatica Catalog 10.2.1 y la Guía del usuario de Informatica Enterprise Data Catalog
10.2.1.

Asignación de conexión
A partir de la versión 10.2.1, se puede asignar una base de datos a la conexión de un recurso de
PowerCenter.

Para obtener más información sobre la asignación de conexiones, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

Similitud de columnas
A partir de la versión 10.2.1, se pueden detectar columnas similares según los nombres de columna, los
patrones de columna, los valores únicos y las frecuencias de valor de un recurso.

Antes, el recurso del sistema Detección de similitud identificaba las columnas similares en los datos de
origen.

Para obtener más información sobre la similitud de columnas, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

Creación de un servicio de catálogo


A partir de la versión 10.2.1, cuando se crea un servicio de catálogo, no se deben proporcionar los detalles
del servicio de integración de datos ni del servicio de administración de contenido que se desea asociar al
servicio de catálogo.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise Data
Catalog 10.2.1.

Mejoras del tipo de recurso HDFS


A partir de la versión 10.2.1, se puede utilizar uno de los siguientes tipos de distribución de Hadoop para un
recurso HDFS:

• Hortonworks
• IBM BigInsights
• Azure HDInsight
• Amazon EMR

312 Capítulo 26: Cambios en la versión 10.2.1


• MapR FS

Recursos de Hive
A partir de la versión 10.2.1, cuando se crea un recurso de Hive y se elige Hive como la opción para Ejecutar
en, es necesario seleccionar una conexión de Hadoop para ejecutar el escáner de perfiles en el motor de
Hive.

Antes no se necesitaba una conexión de Hadoop para ejecutar el escáner de perfiles en los recursos de Hive.

Para obtener más información acerca de los recursos de Hive, consulte la Guía del administrador de
Informatica Catalog 10.2.1.

Escáner de Informatica Platform


A partir de la versión 10.2.1, se pueden utilizar el archivo de parámetros y las opciones de configuración de
parámetros para extraer el linaje detallado mediante el escáner de Informatica Platform.

Resumen Tabulador
A partir de la versión 10.2.1, la vista Detalles del activo se titula Descripción general en Enterprise Data
Catalog.

Ahora se pueden ver los detalles de un activo en la ficha Descripción general. La ficha Descripción general
incluye diferentes secciones, como la descripción del origen, la descripción, las personas, los términos
empresariales, las clasificaciones empresariales, las propiedades del sistema y otras propiedades. Las
secciones que muestra la ficha Descripción general dependen del tipo de activo.

Para obtener más información acerca de la descripción general de los activos, consulte el capítulo "Ver
activos" de la Guía del usuario de Informatica Enterprise Data Catalog 10.2.1.

Cambios de nombre de producto


A partir de la versión 10.2.1, Enterprise Data Catalog incluye los siguientes cambios de nombre:

• El nombre del producto se ha cambiado por Informatica Enterprise Data Catalog. Anteriormente, el
nombre del producto era Enterprise Information Catalog.
• El nombre del programa de instalación se ha cambiado por Enterprise Data Catalog. Anteriormente, el
nombre del programa de instalación era Enterprise Information Catalog.

Dominios de datos de proximidad


A partir de la versión 10.2.1, puede agregar uno o más dominios de datos como dominios de datos de
proximidad al crear o editar un dominio de datos que tenga reglas de datos o reglas de columna. El escáner
de perfiles escanea el origen de datos del dominio de datos y los dominios de datos de proximidad en el
recurso y muestra una puntuación de coincidencia en Enterprise Data Catalog. La puntuación de coincidencia
es la proporción del número de dominios de datos de proximidad detectados en el origen de datos con el
número de dominios de datos de proximidad configurados para un dominio de datos deducidos.

Antes, se podían agregar reglas de proximidad a un dominio de datos que tenía una regla de datos. Si los
dominios de datos no se encontraban en las tablas de origen, el porcentaje de conformidad de datos del
dominio de datos se reducía en las tablas de origen según el valor especificado.

Para obtener más información acerca de los dominios de datos de proximidad, consulte la Guía del
administrador de Informatica Catalog 10.2.1.

Enterprise Data Catalog 313


Resultados de la búsqueda
A partir de la versión 10.2.1, la página de resultados de búsqueda incluye los siguientes cambios:

• Ahora puede ordenar los resultados de búsqueda según en el nombre y la relevancia del activo. Antes, los
resultados de búsqueda se ordenaban según el nombre, la relevancia, los atributos del sistema y los
atributos personalizados del activo.
• Ahora puede agregar un título empresarial a un activo desde los resultados de búsqueda. Antes, solo se
podría asociar un término empresarial.
• La página de resultados de búsqueda ahora muestra los detalles de los activos, tales como el nombre del
recurso, la descripción del origen, la descripción, la ruta de acceso al activo y el tipo de activo. Antes, solo
se podían ver detalles como el tipo de activo, el tipo de recurso, la fecha en que se actualizó por última
vez el activo y el tamaño del activo.
Para obtener más información sobre los resultados de búsqueda, consulte la Guía del usuario de Informatica
Enterprise Data Catalog 10.2.1.

Marco de conectividad universal


A partir de la versión 10.2.1, todos los recursos que se crean con el marco de conectividad universal
requieren que el agente del catálogo esté activo y en ejecución.

Antes, solo los recursos que se ejecutaban en Microsoft Windows requerían que el agente de catálogo
estuviera activo y en ejecución.

Para obtener más información, consulte la Guía del administrador de Informatica Catalog 10.2.1.

Informatica Analyst
En esta sección se describen los cambios introducidos en la Herramienta del analista en la versión 10.2.1.

Cuadros de mando
Esta sección describe los cambios que se han realizado en el comportamiento del cuadro de mando en la
versión 10.2.1.

Edición de las métricas existentes en un cuadro de mando


A partir de la versión 10.2.1, no se pueden editar métricas o grupos de métricas existentes cuando se
agregan columnas a un cuadro de mando existente. Para modificar las métricas o los grupos de métricas
existentes en el cuadro de mandos, desplácese hasta el área de trabajo del cuadro de mando, edite el cuadro
de mando y modifique las métricas.

Antes, las métricas y los grupos de métricas se podían ver y editar al agregar las columnas a un cuadro de
mando existente.

Para obtener más información acerca de los cuadros de mando, consulte la Guía de detección de datos de
Informatica 10.2.1.

Configuración del umbral de una métrica


A partir de la versión 10.2.1, puede configurar un número decimal de hasta dos posiciones decimales como
umbral de una métrica en un cuadro de mando.

Antes, solo se podían configurar valores enteros como valores de umbral para una métrica.

314 Capítulo 26: Cambios en la versión 10.2.1


Para obtener más información acerca de los cuadros de mando, consulte la Guía de detección de datos de
Informatica 10.2.1.

Informatica Developer
En esta sección se describen los cambios introducidos en Developer tool en la versión 10.2.1.

Importación y exportación de objetos en PowerCenter


A partir de la versión 10.2.1, Developer tool no incluye opciones para importar y exportar objetos en
PowerCenter.

Transformaciones de Informatica
En esta sección se describen los cambios introducidos en las transformaciones de Informatica en la versión
10.2.1.

Transformación del validador de direcciones


En esta sección se describen los cambios del validador de direcciones en la versión 10.2.1.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Todos los países


A partir de la versión 10.2.1, la transformación del validador de direcciones utiliza la versión 5.12.0 del motor
de software Informatica Address Verification. El motor habilita las funciones que Informatica añade a la
transformación del validador de direcciones en la versión 10.2.1 .

Anteriormente, la transformación utilizaba la versión 5.11.0 del motor de software Informatica Address
Verification.

Reino Unido
A partir de noviembre de 2017, Informatica dejará de proporcionar archivos de datos de referencia que
contengan los nombres y las direcciones de empresas en el Reino Unido. Informatica dejará de dar soporte a
la verificación de los nombres y las direcciones de empresas.

Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2.1, consulte la Guía de desarrollador de
Informatica Address Verification 5.12.0.

Data Transformation
En esta sección se describen los cambios que se han realizado en la transformación del procesador de datos
en la versión 10.2.1.

A partir de 10.2.1, la transformación del procesador de datos realiza una validación estricta para la entrada
jerárquica. Cuando se aplica una validación estricta, el archivo de entrada jerárquica debe ajustarse

Informatica Developer 315


estrictamente a su esquema. Esta opción se puede aplicar cuando el modo de procesador de datos está
configurado como asignación de salida, lo que crea puertos de salida para la salida relacional.

Esta opción no se aplica a las asignaciones con entrada JSON de las versiones anteriores a 10.2.1.

Para obtener más información, consulte la Guía del usuario de Data Transformation 10.2.1.

Transformación de generador de secuencia


En esta sección se describen los cambios de la transformación del generador de secuencias en la versión
10.2.1.

Mantener orden de filas


A partir de la versión 10.2.1, la propiedad Conservar orden de las filas de la transformación del generador de
secuencias se establece como False de forma predeterminada.

Antes, el valor predeterminado era True.

Si se actualiza desde una versión anterior, la propiedad Conservar orden de las filas de las transformaciones
del generador de secuencias del repositorio no cambiará.

Para obtener más información, consulte el capítulo "Transformación del generador de secuencias" de la Guía
de transformaciones de Informatica Developer 10.2.1.

Transformación de ordenación
En esta sección se describen los cambios en la transformación de ordenación de la versión 10.2.1.

Cachés de ordenación
A partir de la versión 10.2.1, la caché de ordenación de la transformación de ordenación utiliza la longitud
variable para almacenar datos con un tamaño de hasta 8 MB en el entorno nativo y en el motor Blaze en el
entorno de Hadoop.

Antes, la caché de ordenación utilizaba la longitud variable para almacenar datos con un tamaño de hasta 64
KB. Para los datos que superaban los 64 KB, la caché de ordenación almacenaba los datos utilizando la
longitud fija.

Para obtener más información, consulte el capítulo "Transformación de ordenación" en la Guía de


transformaciones de Informatica Developer 10.2.1.

Rendimiento de ordenación
A partir de la versión 10.2.1, la transformación de ordenación se optimiza para realizar comparaciones de
claves de ordenación más rápidas para los datos con un tamaño de hasta 8 MB.

La tasa de comparación de claves de ordenación no se optimiza en las siguientes situaciones:

• Si no se selecciona el orden binario.


• Si la clave de ordenación es una marca de tiempo con el tipo de datos de zona horaria.
• Si se realiza una comparación de cadenas que distingue mayúsculas y minúsculas y alguna de las
columnas de claves de ordenación es del tipo de datos de cadena.

Antes, la transformación de ordenación realizaba comparaciones de claves de ordenación más rápidas para
los datos con un tamaño de hasta 64 KB. Para los datos que superaban los 64 KB, la tasa de comparación de
claves de ordenación no se optimizaba.

Para obtener más información, consulte el capítulo "Transformación de ordenación" en la Guía de


transformaciones de Informatica Developer 10.2.1.

316 Capítulo 26: Cambios en la versión 10.2.1


Adaptadores de PowerExchange para Informatica
En esta sección se describen los cambios realizados en los adaptadores de Informatica de la versión 10.2.1.

PowerExchange for Amazon Redshift


A partir de la versión 10.2.1, después de conectarse a PowerExchange for Amazon Redshift, las siguientes
tareas de los requisitos previos se completan automáticamente:

• Se descargan los archivos .jar de JDBC de Amazon Redshift.


• El archivo .jar se copia en el nodo que se ejecuta en el servicio de integración de datos y en el equipo
cliente.

Antes, era necesario realizar las tareas de los requisitos previos manualmente y reiniciar el servicio de
integración de datos antes de utilizar PowerExchange for Amazon Redshift.

PowerExchange for Cassandra


A partir de la versión 10.2.1, se introdujeron los siguientes cambios en PowerExchange for Cassandra:

• El nombre y el directorio del archivo del controlador ODBC de Informatica PowerExchange for Cassandra
han cambiado.
En la tabla siguiente se muestran el nombre de archivo y el directorio de archivos del controlador ODBC
de Cassandra basados en los sistemas operativos Linux y Windows:

Sistema Nombre de archivo del controlador Directorio de archivos


operativo ODBC de Cassandra

Linux libcassandraodbc_sb64.so <directorio de instalación de


Informatica>\tools\cassandra\lib
\libcassandraodbc_sb64.so

Windows CassandraODBC_sb64.dll <directorio de instalación de


Informatica>\tools\cassandra\lib
\CassandraODBC_sb64.dll

En los sistemas operativos Linux, se debe actualizar el valor de la propiedad Controlador a <directorio
de instalación de Informatica>\tools\cassandra\lib\libcassandraodbc_sb64.so para los orígenes
de datos de Cassandra existentes en el archivo odbc.ini.
En Windows, se deben actualizar las siguientes propiedades en el registro de Windows para el nombre de
origen de datos de Cassandra existente:
Driver=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Setup=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll

• El nuevo nombre de clave de la opción Directiva de equilibrio de carga es LoadBalancingPolicy.


Antes, el nombre de clave para la Directiva de equilibrio de carga era COLoadBalancingPolicy.

Adaptadores de PowerExchange para Informatica 317


• Los valores predeterminados de las siguientes propiedades del controlador ODBC de Cassandra han
cambiado:

Nombre de la propiedad del controlador Nombre de clave Nuevo valor predeterminado

Solicitudes simultáneas NumConcurrentRequests 100

Insertar subprocesos de consulta NumInsertQueryThreads 2

Iteraciones por subproceso de inserción NumIterationsPerInsertThread 50

Para obtener más información, consulte la Guía del usuario de PowerExchange for Cassandra de Informatica
10.2.1.

PowerExchange for Snowflake


A partir de la versión 10.2.1, PowerExchange for Snowflake se instala con Informatica 10.2.1.

Antes, PowerExchange for Snowflake tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake
10.2.1.

318 Capítulo 26: Cambios en la versión 10.2.1


Capítulo 27

Tareas de la versión 10.2.1


• Adaptadores de PowerExchange para Amazon S3, 319

Adaptadores de PowerExchange para Amazon S3


A partir de la versión 10.2.1, para obtener una vista previa correcta de los datos de los archivos Avro y
Parquet, o para ejecutar una asignación en el entorno nativo con archivos Avro y Parquet, se debe configurar
la propiedad INFA_PARSER_HOME para el servicio de integración de datos en Informatica Administrator.
Siga estos pasos para configurar la propiedad INFA_PARSER_HOME:

• Inicie sesión en Informatica Administrator.


• Haga clic en el servicio de integración de datos y, a continuación, haga clic en la ficha Procesos del panel
derecho.
• Haga clic en Editar en la sección Variables de entorno.
• Haga clic en Nueva para agregar una variable de entorno.
• Introduzca el nombre de la variable de entorno como INFA_PARSER_HOME.
• Defina el valor de la variable de entorno como la ruta de acceso absoluta del directorio de la distribución
de Hadoop en el equipo que ejecute el servicio de integración de datos. Compruebe que la versión del
directorio de la distribución de Hadoop que se defina en la propiedad INFA_PARSER_HOME sea la misma
que la que se haya definido en la configuración del clúster.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2.1.

319
Parte VII: Versión 10.2 a
10.2 HotFix 2
Esta parte incluye los siguientes capítulos:

• Versión 10.2 HotFix2, 321


• Versión 10.2 HotFix 1, 335
• Avisos importantes de la versión 10.2, 356
• Novedades de la versión 10.2, 360
• Cambios en la versión 10.2, 398

320
Capítulo 28

Versión 10.2 HotFix2


Este capítulo incluye los siguientes temas:

• Avisos importantes, 321


• Novedades, 323
• Cambios, 330

Avisos importantes
En esta sección se describen los avisos importantes en la versión 10.2 HotFix 2.

Cambios en la compatibilidad
En esta sección se describen los cambios en la compatibilidad de la versión 10.2 HotFix 2.

Comprobar la compatibilidad de la distribución de Hadoop


Compruebe la versión de la distribución de Hadoop en el entorno de Hadoop.

Big Data Management, Big Data Streaming, Big Data Quality y PowerCenter admiten las siguientes
distribuciones de Hadoop:

• Amazon EMR
• Azure HDInsight
• Cloudera CDH
• Hortonworks HDP
• MapR

En cada versión, Informatica puede añadir, aplazar y dejar de brindar compatibilidad para las distribuciones
no nativas y las versiones de las distribuciones. Informatica podría restablecer la compatibilidad con
versiones aplazadas en una próxima versión. Para ver una lista de las últimas versiones compatibles,
consulte la matriz de disponibilidad de los productos en el portal de atención al cliente de Informatica:

https://network.informatica.com/community/informatica-network/product-availability-matrices

321
OpenJDK
A partir de la versión 10.2 HotFix 2, el programa de instalación de Informatica incluye OpenJDK (AzulJDK). La
versión de Java compatible es Azul OpenJDK 1.8.192.

Las asignaciones de Sqoop en el motor de Spark no usan el Azul OpenJDK que se incluye con el programa de
instalación de Informatica. Las asignaciones de Sqoop en los motores de Spark y Blaze siguen usando la
propiedad infapdo.env.entry.hadoop_node_jdk_home del archivo hadoopEnv.properties.
HADOOP_NODE_JDK_HOME representa el directorio desde el cual se ejecutan los servicios de clúster y la versión
de JDK que utilizan los nodos del clúster.

Anteriormente, el programa de instalación usaba el Oracle Java que se incluía con el programa de
instalación.

Controlador ODBC heredado del servidor SQL de DataDirect


A partir de la versión 10.2 HotFix 2, Informatica ya no admite el archivo del controlador ODBC heredado del
servidor SQL de DataDirect DWmsss27.x porque DataDirect ya no admite este controlador.

Cuando utiliza una conexión ODBC para conectarse a Microsoft SQL Server, puede utilizar el protocolo de
transferencia del servidor SQL de DataDirect 8.0 que se incluye con el programa de instalación de
Informatica o cualquier otro controlador ODBC de un proveedor de terceros.

PowerExchange for SAP NetWeaver


A partir de la versión 10.2 HotFix 2, PowerExchange for SAP NetWeaver admite las bibliotecas RFC SDK 7.50
de SAP NetWeaver para PowerCenter.

Las asignaciones existentes que utilizan las bibliotecas RFC SDK 7.20 de SAP NetWeaver no generarán
ningún error. Sin embargo, Informatica recomienda descargar e instalar las bibliotecas RFC SDK 7.50 de SAP
NetWeaver.

Nuevos productos

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los nuevos adaptadores de PowerCenter en la versión 10.2 HotFix 2.

PowerExchange for Tableau V3

A partir de la versión 10.2 HotFix 2, puede usar la conexión de Tableau V3 para leer datos de varios
orígenes, generar un archivo de salida .hyper de Tableau y escribir los datos en Tableau.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Tableau
V3 10.2 HotFix 2 para PowerCenter.

Tareas de la versión

Adaptadores de PowerExchange para Informatica


En esta sección se describen las tareas de la versión de los adaptadores de Informatica en la versión 10.2
HotFix 2.

PowerExchange for Snowflake


A partir de la versión 10.2 HotFix 2, la versión 3.6.26 del controlador JDBC de Snowflake se instala con los
servicios de Informatica. Las asignaciones de Snowflake existentes en la versión 10.2 HotFix 1 podrían

322 Capítulo 28: Versión 10.2 HotFix2


generar un error tras la actualización, porque la ubicación de la instalación contiene ahora la versión 3.6.4 del
controlador JDBC de Snowflake en la versión 10.2 HotFix 1 y la versión 3.6.26 del controlador JDBC de
Snowflake en la versión 10.2 HotFix 2.

Para ejecutar las asignaciones de Snowflake existentes desde Developer tool, debe eliminar la versión 3.6.26
del controlador JDBC de Snowflake y conservar únicamente la versión 3.6.4 en el siguiente directorio del
equipo del servicio de integración de datos: <directorio de instalación de Informatica>\connectors
\thirdparty

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las tareas de la versión de los adaptadores de PowerCenter en la versión 10.2
HotFix 2.

PowerExchange for Google BigQuery


A partir de la versión 10.2 HotFix 2, el complemento PowerExchange for Google BigQuery se ha actualizado
con nuevos elementos para las propiedades Consulta personalizada, Reemplazo de SQL y Carácter de
comillas. Las asignaciones de Google BigQuery existentes de la versión anterior podrían generar un error tras
la actualización, puesto que el complemento existente no contiene los elementos nuevos.

Para ejecutar asignaciones existentes de Google BigQuery en el cliente de PowerCenter y permitir las
propiedades Consulta personalizada, Reemplazo de SQL y Carácter de comillas, debe volver a registrar el
complemento bigqueryPlugin.xml en el repositorio de PowerCenter.

Novedades

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.2 HotFix 2.

Comandos pmrep
Puede utilizar la opción -S de los comandos pmrep createconnection y pmrep updateconnection con el
argumento odbc_subtype para habilitar la opción del subtipo ODBC cuando se crea o se actualiza una
conexión ODBC.

Novedades 323
En la siguiente tabla se describe la nueva opción de los comandos pmrep createconnection y pmrep
updateconnection:

Opción Argumento Descripción

-S odbc_subtype Opcional. Permite el subtipo ODBC para una conexión ODBC.


Un subtipo ODBC puede ser uno de los siguientes tipos:
- AWS Redshift
- Azure DW
- Greenplum
- Google Big Query
- PostgreSQL
- SAP HANA
- Snowflake
- Ninguno
El valor predeterminado es Ninguno.

Para obtener más información, consulte el capítulo "Referencia de comando pmrep" de la Referencia de
comandos de Informatica 10.2 HotFix 2.

Informatica Analyst
En esta sección se describen las nuevas características de la herramienta del analista en la versión 10.2
HotFix 2.

Cuadros de mando
A partir de la versión 10.2 HotFix 2, puede introducir el número de filas no válidas que quiere exportar a partir
de un gráfico de tendencias de cuadros de mando.

Para obtener más información, consulte el capítulo sobre cuadros de mando en Informatica Analyst en la
Guía de detección de datos de Informatica 10.2 HotFix 2.

Transformaciones de Informatica
En esta sección se describen las nuevas características de las transformaciones de Informatica en la versión
10.2 HotFix 2.

Transformación del validador de direcciones


La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Australia
A partir de la versión 10.2 HotFix 2, puede configurar la transformación del validador de direcciones para que
agregue enriquecimientos de direcciones a direcciones de Australia. Los enriquecimientos sirven para
detectar los sectores geográficos y las regiones a las que el Australia Bureau of Statistics asigna las
direcciones. Los sectores y las regiones incluyen distritos de realización de censo, bloques de malla y áreas
estadísticas.

La transformación usa los siguientes puertos para entregar los enriquecimientos:

• Código de distrito de colección de censo 2006

324 Capítulo 28: Versión 10.2 HotFix2


• Identificador de archivo de direcciones nacionales geocodificadas
• Área de estadística de área metropolitana de capital de 5 dígitos
• Nombre de área de estadísticas de área metropolitana de capital
• Área de estadísticas de nivel 1 de 11 dígitos
• Área de estadísticas de nivel 1 de 7 dígitos
• Área de estadísticas de nivel 2 de 9 dígitos
• Área de estadísticas de nivel 2 de 5 dígitos
• Nombre de área de estadísticas de nivel 2
• Área de estadísticas de nivel 3 de 5 dígitos
• Nombre de área de estadísticas de nivel 3
• Área de estadísticas de nivel 4 de 3 dígitos
• Nombre de área de estadísticas de nivel 4
• Bloque de malla de 11 dígitos 2011
• Bloque de malla de 11 dígitos 2016
• Código de estado o territorio
• Nombre de estado o territorio
• Estado complementario de AU
Busque los puertos en el grupo de puertos complementarios de Australia.

Israel
A partir de la versión 10.2 HotFix 2, Informatica presenta las siguientes características y mejoras para Israel:

Soporte multilingüe para direcciones de Israel

Puede configurar la transformación del validador de direcciones para devolver una dirección de Israel en
idioma inglés o hebreo.

Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación.

El idioma predeterminado para las direcciones de Israel es el hebreo. Para devolver la información de
dirección en hebreo, establezca la propiedad Idioma preferido en DATABASE o ALTERNATIVE_1. Para
devolver la información de dirección en inglés, establezca la propiedad en ENGLISH o ALTERNATIVE_2.

Compatibilidad con varios conjuntos de caracteres en direcciones de Israel

La transformación del validador de direcciones puede leer y escribir direcciones de Israel en conjuntos
de caracteres en hebreo y latín.

Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres


preferido para los datos de dirección.

El conjunto de caracteres predeterminado para las direcciones de Israel es Hebreo. Cuando la propiedad
del script preferido se establece en Latin o Latin-1, la transformación transcribe datos de direcciones en
hebreo en caracteres en latín.

Estados Unidos
A partir de la versión 10.2 HotFix 2, Informatica presenta las siguientes características y mejoras para
Estados Unidos:

Novedades 325
Información adicional sobre correos no entregados

Puede configurar la transformación del validador de direcciones para que informe por qué el servicio
postal de Estados Unidos no ha entregado un correo a una dirección que parece ser válida.

El servicio postal de Estados Unidos podría no entregar un correo en una dirección por uno de los
siguientes motivos:

• El sitio de la dirección está en obras.


• El cliente recibe correo como parte del servicio de reenvío de correo.
• El proveedor de servicios de correo devuelve el correo no entregado.

El servicio postal de Estados Unidos mantiene una tabla de direcciones que no admiten la entrega de
correo. Esta tabla se denomina la tabla Sin estadísticas. Para devolver un código que indica por qué
motivo el servicio postal de Estados Unidos añade la dirección a esta tabla, seleccione el puerto Archivo
de secuencia de entrega, segunda generación sin razón de estadísticas. Encuentre el puerto en el grupo
de puertos Específico de EE. UU. en el modelo básico.

La transformación lee los datos de la tabla Sin estadísticas en el archivo de base de datos USA5C131.MD.

Mejor corrección de las direcciones con caracteres iniciales que indican el número de casa

Puede configurar la transformación del validador de direcciones para identificar una dirección de calle
válida que incluye un valor de número de casa con un carácter alfabético inicial no reconocible. Si la
dirección puede generar un punto de entrega válido sin el carácter inicial, la transformación devuelve el
valor TA en los puertos Nota de validación del punto de entrega.

Información sobre las direcciones de calles que reenvían el correo a un buzón postal

Puede configurar la transformación del validador de direcciones para identificar una dirección de calle
en la que el servicio postal de Estados Unidos redirige el correo a un buzón postal. Para identificar la
dirección, seleccione el puerto Confirmación de validación del punto de entrega. Encuentre el puerto en
el grupo de puertos Específico de EE. UU. en el modelo básico.

La transformación lee los datos de confirmación en el archivo de base de datos USA5C132.MD.

Información sobre las direcciones que no pueden aceptar correo en uno o varios días de la semana

Puede configurar la transformación del validador de direcciones para identificar direcciones de Estados
Unidos que no reciben correo en uno o varios días de la semana.

Para identificar las direcciones, use el puerto Días de no entrega. El puerto contiene una cadena de siete
dígitos que representa los días de la semana de domingo a sábado. Cada posición de la cadena
representa un día diferente.

Encuentre el puerto Días de no entrega en el grupo de puertos Específico de EE. UU. en el modelo
básico. Para recibir datos en el puerto Días de no entrega, ejecute una transformación del validador de
direcciones en modo certificado. La transformación lee los valores del puerto en los archivos de base de
datos USA5C129.MD y USA5C130.MD.

Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 2.

Para obtener información completa acerca de las características y las operaciones de la versión 10.2 HotFix
2 del motor de software de verificación de direcciones, consulte la Guía de desarrollador de Informatica
Address Verification 5.14.0.

Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager en la versión 10.2 HotFix 2.

326 Capítulo 28: Versión 10.2 HotFix2


Cognos
A partir de la versión 10.2 HotFix 2, puede establecer las siguientes propiedades de configuración para un
recurso de Cognos:

• Directorio SDK de Cognos. Introduzca la ubicación del directorio SDK de Cognos.


• Varios. Especifique varias opciones de distinto tipo separadas por comas.

Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.

MicroStrategy
A partir de la versión 10.2 HotFix 2, puede configurar la propiedad de configuración Varios para un recurso
de MicroStrategy: Con la propiedad de configuración Varios, especifique varias opciones de distinto tipo
separadas por comas.

Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.

PowerCenter
En esta sección se describen las nuevas características de PowerCenter en la versión 10.2 HotFix 2.

Optimización de inserciones para PostgreSQL


A partir de la versión 10.2 HotFix 2, cuando el tipo de conexión es ODBC, puede seleccionar el subtipo ODBC
como PostgreSQL para insertar la lógica de transformación en PostgreSQL. Puede configurar la optimización
de inserciones de origen o completa para insertar la lógica de transformación en PostgreSQL.

Para obtener más información sobre las transformaciones y las funciones compatibles que puede insertar en
la base de datos de PostgreSQL, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter
10.2 HotFix 2.

Funciones binarias de PowerCenter


A partir de la versión 10.2 HotFix 2, puede utilizar las siguientes funciones para las expresiones binarias:

• EBCDIC_ISO88591. Convierte un valor binario codificado en EBCDIC en un valor de cadena codificado en


ISO-8859-1.
• BINARY_COMPARE. Compara dos valores binarios y devuelve TRUE (1) si son iguales y FALSE (0) si son
distintos.
• BINARY_CONCAT. Concatena dos valores binarios o más y devuelve el valor concatenado.
• BINARY_LENGTH. Devuelve la longitud de un valor binario.
• BINARY_SECTION. Devuelve una parte de un valor binario.
• DEC_HEX. Decodifica un valor codificado hexadecimal y devuelve un valor binario con la representación
binaria de los datos.
• ENC_HEX. Codifica datos binarios en datos de cadena con la codificación hexadecimal.
• SHA256. Calcula el resumen SHA-256 del valor de entrada.

Si desea más información sobre las funciones personalizadas, consulte la referencia de idiomas de
transformaciones de Informatica PowerCenter 10.2 HotFix 2.

Novedades 327
Adaptadores de PowerExchange para PowerCenter
En esta sección se describen las nuevas características del adaptador de PowerCenter que se han
introducido en la versión 10.2 HotFix 2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2 HotFix 2, puede conservar los valores nulos cuando lee datos de Amazon Redshift.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 2 para PowerCenter.

PowerExchange for Google BigQuery


A partir de la versión 10.2 HotFix 2, PowerExchange for Google BigQuery incluye estas nuevas
características:

• Puede configurar una consulta SQL personalizada para configurar un origen de Google BigQuery.
• También puede configurar un reemplazo de SQL para reemplazar la consulta SQL predeterminada que se
utiliza para extraer datos del origen de Google BigQuery.
• Puede especificar un carácter de comillas que defina los límites de las cadenas de texto en un
archivo .csv. Los parámetros se pueden configurar como una comilla simple o doble.
• Puede configurar la optimización de inserciones completa para insertar la lógica de transformación en
Google BigQuery cuando use el tipo de conexión de ODBC.
Para obtener información acerca de los operadores y las funciones que puede insertar el servicio de
integración de PowerCenter en Google BigQuery, consulte la Guía de flujo de trabajo avanzado de
Informatica PowerCenter 10.2 HotFix 2.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2 HotFix 2 para PowerCenter.

PowerExchange for Kafka


A partir de la versión 10.2 HotFix 2, PowerExchange for Kafka incluye estas nuevas características:

• Puede importar una definición de origen o destino de Kafka en formato de Avro.


• Puede configurar las propiedades de configuración de SSL para conectarse de forma segura a Kafka.
• Puede obtener una vista previa de los datos de una definición de origen o destino de Kafka.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.2
HotFix 2 para PowerCenter.

PowerExchange for Microsoft Azure SQL Data Warehouse V3


A partir de la versión 10.2 HotFix 2, PowerExchange for Microsoft Azure SQL Data Warehouse V3 incluye las
siguientes características nuevas:

• Puede utilizar consultas personalizadas cuando lea un objeto de origen.


• Puede reemplazar el objeto de origen y el esquema del objeto de origen en las propiedades de la sesión
de origen. El objeto de origen y el esquema del objeto de origen que se definen en las propiedades de la
sesión de origen tienen prioridad.
• Puede reemplazar el objeto de destino y el esquema del objeto de destino en las propiedades de la sesión
de destino. El objeto de destino y el esquema del objeto de destino que se definen en las propiedades de
la sesión de destino tienen prioridad.
• Puede crear una asignación para leer los datos modificados o en tiempo real de un origen de Change Data
Capture (CDC) y cargar los datos en Microsoft Azure SQL Data Warehouse. Debe seleccionar Controlado
por datos como la operación de destino para capturar los datos modificados. Puede reanudar la

328 Capítulo 28: Versión 10.2 HotFix2


extracción de los datos modificados a partir del punto en el que se interrumpió cuando una asignación
falla o se detiene antes de completar la sesión.
• Puede utilizar las siguientes funciones de inserción cuando se conecta a Microsoft Azure SQL Data
Warehouse a través de una conexión ODBC:
• Date_diff()

• First()

• Instr()

• Last()

• MD5()

• ReplaceChr()

• ReplaceStr()

• Para mejorar el rendimiento, puede comprimir los archivos de transferencia provisional en el


formato .gzip cuando escribe en un objeto de destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse V310.2 HotFix 2 para PowerCenter.

PowerExchange for Salesforce


A partir de la versión 10.2 HotFix 2, PowerExchange for Salesforce incluye estas nuevas características:

• Puede utilizar la versión 43.0, 44.0 y 45.0 de la API de Salesforce para crear una conexión de Salesforce y
acceder a los objetos de Salesforce.
• Puede habilitar la fragmentación de claves principales para consultas sobre un objeto compartido que
representa una entrada que se comparte en el objeto de destino. La fragmentación de claves principales
solo es compatible con los objetos compartidos si el objeto principal es compatible. Por ejemplo, si
quiere consultar sobre CaseHistory, la fragmentación de claves principales debe ser compatible con el
objeto principal Case.
• Puede crear reglas de asignaciones para volver a asignar atributos en registros cuando se insertan,
actualizan o se actualizan e insertan registros para los objetos de destino Lead y Case que utilizan la API
estándar.
• Puede parametrizar la URL del servicio de Salesforce para la conexión OAuth y estándar.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 2 para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.2 HotFix 2, PowerExchange for Snowflake incluye estas nuevas características:

• Puede configurar el servicio de integración de PowerCenter para escribir registros rechazados en un


archivo rechazado. Si el archivo ya existe, el servicio de integración de PowerCenter anexa los registros
rechazados a ese archivo. Si no especifica la ruta al archivo rechazado, el servicio de integración de
PowerCenter no escribe los registros rechazados.
• Puede utilizar una transformación de estrategia de actualización en una asignación para insertar,
actualizar, eliminar o rechazar datos en destinos de Snowflake. Cuando configure una transformación de
estrategia de actualización, la propiedad de sesión Tratar filas de origen como se marca como
Controlado por datos de forma predeterminada.
• Con el editor de SQL, podrá crear o editar las instrucciones previas y posteriores a SQL en las sesiones de
origen y destino de Snowflake.

Novedades 329
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 2 para PowerCenter.

Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2 HotFix 2.

Autenticación cruzada entre dominios Kerberos


A partir de la versión 10.2 HotFix 2, puede configurar un dominio de Informatica para utilizar la autenticación
cruzada entre dominios Kerberos. La autenticación cruzada entre dominios Kerberos permite que los clientes
de Informatica que pertenecen a un dominio Kerberos se autentiquen con nodos y servicios de aplicaciones
que pertenecen a otro dominio Kerberos.

Para obtener más información, consulte la Guía de seguridad de Informatica 10.2 HotFix 2.

Cambios

Herramienta del analista


En esta sección se describen los cambios introducidos en la versión 10.2 HotFix 2 de la herramienta del
analista.

Vista predeterminada
A partir de la versión 10.2 Hotfix 2, la vista predeterminada del archivo sin formato y los objetos de tabla es
la ficha Propiedades. Cuando se crea o se abre un archivo sin formato o un objeto de datos de tabla, el
objeto se abre en la ficha Propiedades. Anteriormente, la vista predeterminada era la ficha Visor de datos.

Para obtener más información, consulte la Guía de la herramienta del analista de Informatica 10.2 HotFix 2.

Cuadros de mando
A partir de la versión 10.2 HotFix 2, se puede exportar un máximo de 100 000 filas no válidas. Cuando se
exportan más de 100 filas no válidas para una medida, el servicio de integración de datos crea una carpeta
para el cuadro de mando, una subcarpeta para la medida y archivos de Microsoft Excel para exportar el resto
de filas no válidas.

Para obtener más información, consulte el capítulo "Cuadros de mando" en la Guía de detección de datos de
Informatica 10.2 HotFix 2.

Programas de la línea de comandos


En esta sección se describen los cambios que se han realizado en comandos de la versión 10.2 HotFix 2.

Comandos de infasetup
A partir de la versión 10.2 HotFix 2, se han modificado los valores válidos de las opciones -srn y -urn que se
utilizan en los comandos de infasetup.

Si configura un dominio para utilizar la autenticación Kerberos, los valores de las opciones -srn y -urn no
tienen que ser idénticos. Si configura un dominio para utilizar la autenticación cruzada entre dominios

330 Capítulo 28: Versión 10.2 HotFix2


Kerberos, puede especificar una cadena que contenga el nombre de cada dominio Kerberos que utiliza el
dominio para autenticar a los usuarios separados por comas.

Anteriormente, se podía especificar el mismo nombre de dominio Kerberos como el valor para las opciones -
srn y -urn.

Para obtener más información, consulte la Referencia de comando de Informatica 10.2 HotFix 2.

Transformaciones de Informatica
En esta sección se describen los cambios realizados en las transformaciones de Informatica en la versión
10.2 HotFix 2.

Transformación del validador de direcciones


En esta sección se describen los cambios en la transformación del validador de direcciones.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Todos los países


A partir de la versión 10.2 HotFix 2, la transformación del validador de direcciones utiliza la versión 5.14.0 del
motor de software Informatica Address Verification.

Anteriormente, la transformación utilizaba la versión 5.13.0 del motor de software Informatica Address
Verification.

Geocodificación de edificios y centroides de terrenos


A partir de la versión 10.2 HotFix 2, la propiedad Tipo de datos de geocodificación en la transformación del
validador de direcciones no incluye opciones para los análisis de geocodificación de edificios o centroides
de terrenos.

Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 2.

Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification, consulte la Guía de la versión de Informatica Address Verification 5.14.0.

Metadata Manager
SAP Business Warehouse (obsoleto)
A partir de la versión 10.2 HotFix 2, Informatica ha dejado de utilizar el recurso SAP Business Warehouse en
Metadata Manager.

Cognos versión 8 o anterior


A partir de la versión 10.2 HotFix 2, si la versión del servidor Cognos es posterior a la versión 8, elimine los
archivos JAR axis y saaj de la ubicación <Inicio_agente_MM>\MetadataManagerAgent\java
\CognosRepository\.

Para obtener más información, consulte el capítulo "Recursos de inteligencia empresarial" en la Guía del
administrador de Informatica 10.2 HotFix 2 Metadata Manager.

Cambios 331
PowerCenter
En esta sección se describen los cambios de PowerCenter que se han introducido en la versión 10.2 HotFix
2.

Optimización de inserciones para SAP HANA


A partir de la versión 10.2 HotFix 2, debe tener una licencia para usar el subtipo ODBC de SAP HANA en
conexiones ODBC. Si no tiene una licencia, aparecerá un mensaje de advertencia. No se produce un error en
las sesiones de la versión 10.2 HotFix 2. Sin embargo, Informatica hará que las sesiones empiecen a generar
errores en una próxima versión si utiliza la conexión de subtipo ODBC SAP HANA sin una licencia. Por lo
tanto, Informatica le recomienda que se ponga en contacto con el servicio internacional de atención al
cliente de Informatica para obtener una licencia.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica de la versión 10.2
HotFix 2.

PowerExchange for MongoDB


A partir de la versión 10.2 HotFix 2, el editor del esquema ya no está disponible en el siguiente directorio:

<directorio de instalación de Informatica>/clients/tools/mongodb/Tools

Para usar el editor del esquema en un equipo con Windows, aplique Informatica EBF-13871.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB 10.2
HotFix 2.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los cambios realizados en los adaptadores de PowerCenter en la versión 10.2
HotFix 2.

PowerExchange for Google Analytics


A partir de la versión 10.2 HotFix 2, PowerExchange for Google Analytics se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Google Analytics tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
Analytics 10.2 HotFix 2 para PowerCenter.

PowerExchange for Google Cloud Spanner


A partir de la versión 10.2 HotFix 2, PowerExchange for Google Cloud Spanner se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Google Cloud Spanner tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Spanner 10.2 HotFix 2 para PowerCenter.

PowerExchange for Google Cloud Storage


A partir de la versión 10.2 HotFix 2, PowerExchange for Google Cloud Spanner se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Google Cloud Spanner tenía un programa de instalación independiente.

332 Capítulo 28: Versión 10.2 HotFix2


Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google Cloud
Spanner 10.2 HotFix 2 para PowerCenter.

PowerExchange for Kafka


A partir de la versión 10.2 HotFix 2, PowerExchange for Kafka se instala con los servicios de Informatica.

Anteriormente, PowerExchange for Kafka tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Kafka 10.2
HotFix 2 para PowerCenter.

PowerExchange for MongoDB


A partir de la versión 10.2 HotFix 2, el editor del esquema ya no está disponible en el siguiente directorio:

<directorio de instalación de Informatica>/clients/tools/mongodb/Tools

Para usar el editor del esquema en un equipo con Windows, aplique Informatica EBF-13871.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for MongoDB 10.2
HotFix 2 para PowerCenter.

PowerExchange for Salesforce


A partir de la versión 10.2 HotFix 2, los valores nulos del origen se tratan como nulos en el destino.

Anteriormente, los valores nulos del origen se trataban como falsos en el destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 2 para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.2 HotFix 1, PowerExchange for Snowflake incluye los siguientes cambios:

• Puede reemplazar el nombre del esquema y la base de datos que se utiliza al importar las tablas a través
de la conexión de Snowflake. Para reemplazar, introduzca el nombre del esquema y la base de datos en el
campo Parámetros JDBC de URL adicionales en las propiedades de conexión de Snowflake en el
siguiente formato: DB=<nombre_BD>&Schema=<nombre_esquema>
Anteriormente, solo se podía especificar un reemplazo para el nombre del esquema y la base de datos en
las propiedades de la sesión.
• Puede leer o escribir datos que distingan mayúsculas de minúsculas o que contengan caracteres
especiales. No puede usar los siguientes caracteres especiales: @ ~ \
Anteriormente, tenía que asegurarse de que los nombres de las tablas de origen y destino contenían solo
letras mayúsculas.
• PowerExchange for Snowflake utiliza la versión 3.6.26 del controlador JDBC de Snowflake.
Anteriormente, PowerExchange for Snowflake utilizaba la versión 3.6.4 del controlador JDBC de
Snowflake.
• Cuando ejecuta una consulta personalizada para leer datos en Snowflake, el servicio de integración
ejecuta la consulta, y el rendimiento de la importación de metadatos se optimiza.
Anteriormente, cuando se configuraba una consulta personalizada para leer datos en Snowflake, el
servicio de integración enviaba una consulta al punto final de Snowflake y el número de registros que se
importaban se limitaba a 10.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 2 para PowerCenter.

Cambios 333
PowerExchange para la API del transportador paralelo de Teradata
A partir de la versión 10.2 HotFix 2, puede ejecutar una asignación ODBC de Teradata en el equipo con AIX.
Debe instalar la versión 16.20.00.50 o posterior del controlador ODBC de Teradata cuando utilice la versión
16.20.x del cliente de Teradata.

Anteriormente, no se podía ejecutar una asignación ODBC de Teradata en el equipo con AIX cuando se
utilizaban versiones anteriores a 16.20.00.50 del controlador ODBC de Teradata.

334 Capítulo 28: Versión 10.2 HotFix2


Capítulo 29

Versión 10.2 HotFix 1


Este capítulo incluye los siguientes temas:

• Novedades, 335
• Cambios, 347
• Tareas de la versión, 354

Novedades

servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2
HotFix 1.

Servicio de repositorio de modelos


Sistema de control de versiones de Git
A partir de la versión 10.2 HotFix 1, puede integrar el repositorio de modelos con el sistema de control de
versiones de Git. Git es un sistema de control de versiones distribuido. Al extraer y registrar un objeto, se
guarda una copia de la versión en el repositorio local y en el servidor Git. Si el servidor Git se desactiva, el
repositorio local conserva todas las versiones del objeto.

Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2 HotFix 1.

Business Glossary
En esta sección se describen las nuevas características de Business Glossary en la versión 10.2 HotFix 1.

Importar activos del glosario como texto sin formato


A partir de 10.2 HotFix 1, puede importar activos de Business Glossary como texto sin formato en la
Herramienta del analista.

Para obtener más información sobre la exportación y la importación de activos del glosario, consulte el
capítulo "Administración de glosarios" en la Guía de Informatica Business Glossary 10.2 HotFix 1.

335
Programas de la línea de comandos
En esta sección se describen los nuevos comandos de la versión 10.2 HotFix 1.

Comandos infacmd isp


En la siguiente tabla se describen los nuevos comandos infacmd isp:

Comando Descripción

PingDomain Hace ping a un dominio, servicio, host de puerta de enlace del dominio o nodo.

ListPasswordRules Enumera las reglas para configurar contraseñas complejas.

ListWeakPasswordUsers Enumera los usuarios con contraseñas que no cumplen la directiva de contraseñas.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd isp" en la Referencia de
comandos de Informatica 10.2 HotFix 1.

Comandos infacmd wfs


En la siguiente tabla se describen los nuevos comandos infacmd wfs:

Comando Descripción

pruneOldInstances Elimina los datos del proceso de flujo de trabajo de la base de datos de flujos de trabajo.

Para eliminar los datos del proceso, debe tener el privilegio de administración de servicios en el dominio.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.1.

Conectividad
En esta sección se describen las nuevas características de conectividad de la versión 10.2 HotFix 1.

Conectividad con bases de datos en la nube


A partir de la versión 10.2 HotFix 1, puede configurar conexiones relacionales en Informatica Developer y
PowerCenter para conectar con bases de datos en la nube.

Puede configurar las siguientes conexiones:

• Conexión de Oracle para conectar con Oracle Autonomous Data Warehouse Cloud versión 18C
• Conexión de Oracle para conectar con Oracle Database Cloud Service versión 12C
• Conexión de Microsoft SQL Server para conectar con Azure SQL Database
• Conexión de IBM DB2 para conectar con DashDB

Para obtener más información, consulte la Guía de instalación y configuración de Informatica 10.2 HotFix 1.

Tipos de datos
En esta sección se describen las nuevas características de tipo de datos de la versión 10.2 HotFix 1.

336 Capítulo 29: Versión 10.2 HotFix 1


Microsoft SQL Server Tipos de datos
A partir de la versión 10.2 HotFix 1, puede leer o escribir el tipo de datos Date cuando use la conexión de
Microsoft SQL Server en una asignación de Informatica.

Para obtener más información, consulte el apéndice Referencia de tipo de datos en la Guía de Informatica
Developer Tool 10.2 HotFix 1

Programa de instalación
En esta sección se describe la nueva característica del programa de instalación de la versión 10.2 HotFix 1.

Utilidad Docker
A partir de la versión 10.2 HotFix 1, puede usar la utilidad Informatica PowerCenter Docker para crear
servicios de dominio de Informatica. Puede crear la imagen de Informatica Docker con el sistema operativo
base y los archivos binarios de Informatica, y ejecutar la imagen existente de Docker para crear el dominio de
Informatica dentro de un contenedor.

Para obtener más información acerca de la instalación de la utilidad Informatica PowerCenter Docker para
crear los servicios de dominio de Informatica, consulte
https://kb.informatica.com/h2l/HowTo%20Library/1/1213-InstallInformaticaUsingDockerUtility-H2L.pdf.

Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión 10.2
HotFix 1.

Transformación del validador de direcciones


En esta sección se describen las nuevas características de la transformación del validador de direcciones.

La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Todos los países


A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones admite la verificación de
direcciones de una sola línea en todos los países para los que Informatica proporciona datos de referencia
de direcciones.

En las versiones anteriores, la transformación admitía la verificación de direcciones de una sola línea de 26
países.

Para verificar una dirección de una sola línea, introduzca la dirección en el puerto Dirección completa. Si la
dirección identifica un país para el que el alfabeto predeterminado preferido no es un alfabeto latino u
occidental, use la propiedad predeterminada Alfabeto preferido en la transformación con la dirección.

Alemania, Austria y Suiza


A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones admite el carácter en
mayúsculas ẞ en las direcciones de Alemania, Austria y Suiza.

La transformación admite el carácter ß de las siguientes formas:

• Si se establece la propiedad Mayúscula o minúscula como UPPER, la transformación devolverá el


carácter alemán ß como ẞ. Si se establece la propiedad Mayúscula o minúscula como LOWER, la
transformación devolverá el carácter alemán ẞ como ß.

Novedades 337
• La transformación considera ß y ẞ como caracteres igualmente válidos en una dirección. En las
coincidencias de datos de referencia, la transformación puede identificar una coincidencia perfecta
cuando los mismos valores contienen ß o ẞ.
• La transformación considera ẞ y ss como caracteres igualmente válidos en una dirección. En las
coincidencias de datos de referencia, la transformación puede identificar una coincidencia estándar
cuando los valores contienen ẞ o ss.
• Si se establece la propiedad Alfabeto preferido como ASCII_SIMPLIFIED, la transformación devolverá el
carácter alemán ẞ como S.
• Si se establece la propiedad Alfabeto preferido como ASCII_EXTENDED, la transformación devolverá el
carácter ẞ como SS.

Bolivia
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones mejora el análisis y la
validación de las direcciones de Bolivia. Además, Informatica actualiza los datos de referencia de Bolivia.

La transformación también incluye las siguientes mejoras para Bolivia:

• Validación de direcciones a nivel de calle.


• Geocoordenadas a nivel intermedio de calle para las direcciones en las grandes ciudades.

Canadá
Informatica introduce las siguientes características y mejoras para Canadá:

Compatibilidad de la propiedad Descriptor global preferido en direcciones de Canadá

A partir de la versión 10.2 HotFix 1, puede configurar la transformación para que devuelva la forma corta
o la forma larga de un descriptor de elementos.

La verificación de direcciones puede devolver la forma corta o larga de los siguientes descriptores:

• Descriptores de calle
• Valores direccionales
• Descriptores de edificios
• Descriptores de elementos por debajo del nivel de edificio

Para especificar el formato de salida de los descriptores, configure la propiedad Descriptor global
preferido en la transformación. La propiedad se aplica a los descriptores de los idiomas inglés y francés.
De forma predeterminada, la transformación devuelve el descriptor en el formato que especifiquen los
datos de referencia. Si selecciona la opción PRESERVE INPUT en la propiedad, la propiedad Alfabeto
preferido tendrá prioridad sobre la propiedad Descriptor global preferido.

Compatibilidad de CH y CHAMBER como descriptores de elementos por debajo del nivel de edificio

A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones reconoce CH y


CHAMBER como descriptores de elementos por debajo del nivel de edificio en las direcciones de
Canadá.

Colombia
A partir de la versión 10.2 HotFix1, la transformación del validador de direcciones mejora el procesamiento
de los datos de calles en las direcciones de Colombia. Además, Informatica actualiza los datos de referencia
de Colombia.

La transformación del validador de direcciones valida las direcciones en Colombia a nivel de número de
casa. La transformación puede verificar una dirección de Colombia que incluya información de la calle en la
que se encuentra la casa, así como la calle transversal más cercana a la casa.

338 Capítulo 29: Versión 10.2 HotFix 1


Por ejemplo, la transformación puede verificar las siguientes direcciones:

AVENIDA 31 65 29 APTO 1626

AVENIDA 31 DIAGONAL 65 29 APTO 1626

Tenga en cuenta las siguientes instrucciones para las direcciones de Colombia:

• La transformación del validador de direcciones puede verificar la dirección tanto con el descriptor de calle
transversal DIAGONAL como sin él.
• La transformación puede verificar la dirección con y sin el símbolo de guion entre el número de la calle
transversal y el número de la casa. La transformación no incluye un símbolo de guion en esta posición en
la dirección de salida.
• La transformación puede reconocer el símbolo de número (#) antes del número de calle transversal en
una dirección de entrada. La transformación reconoce la dirección como coincidencia de datos de
referencia, no como una corrección.
Por ejemplo, la validación de direcciones reconoce la siguiente dirección de entrada como coincidencia
de datos de referencia y omite el símbolo # en la dirección de salida verificada:
AVENIDA 31 #65 29 APTO 1626

Francia
A partir de la versión 10.2 HotFix 1, Informatica introduce las siguientes mejoras para las direcciones de
Francia:

• Informatica mejora los datos de referencia complementarios de Francia.


• La transformación del validador de direcciones asigna direcciones a las unidades IRIS en Francia con una
mayor precisión. La transformación usa el número de casa en la dirección para verificar la unidad IRIS a
la que pertenece la dirección. El uso de los números de casa puede mejorar la precisión de la asignación
cuando la dirección está cerca del borde entre unidades diferentes.

India
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones valida las direcciones de
India a nivel de número de casa.

Perú
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones valida las direcciones de
Perú a nivel de número de casa. Además, Informatica actualiza los datos de referencia de Perú.

Sudáfrica
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones mejora el análisis y la
verificación de los descriptores de servicio de entrega de las direcciones de Sudáfrica.

La transformación mejora el análisis y la verificación de los descriptores de servicio de entrega de las


siguientes formas:

• Address Verification reconoce el buzón privado, el conjunto de buzones, el buzón de la oficina de correos
y la suite de Postnet como diferentes tipos de servicio de entrega. Address Verification no estandariza un
descriptor de servicio de entrega como otro. Por ejemplo, Address Verification no estandariza la Suite de
Postnet como el buzón de la oficina de correos.
• Address Verification analiza el cuadro de Postnet como un descriptor de servicio de entrega no estándar y
corrige el cuadro de Postnet con el descriptor válido de la Suite de Postnet.
• Address Verification no estandariza el descriptor de subedificio Flat como Fl.

Novedades 339
Corea del Sur
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones introduce las siguientes
características y mejoras para Corea del Sur:

• Los datos de referencia de las direcciones de Corea del Sur incluyen la información de edificio. La
transformación puede leer, verificar y corregir la información de edificio de una dirección de Corea del
Sur.
• La transformación devuelve todas las direcciones actuales de una propiedad que representa una
dirección anterior. La dirección anterior puede representar una sola dirección actual o varias direcciones,
por ejemplo si hay varias residencias que ocupan el sitio de la propiedad.
Para devolver las direcciones actuales, primero debe buscar el identificador de dirección de la propiedad
anterior. Si envía el identificador de dirección con el carácter A al final en el modo de búsqueda de código
de dirección, la transformación devolverá todas las direcciones actuales que coincidan con el
identificador de dirección.
Nota: La transformación del validador de direcciones utiliza la propiedad Recuento máximo de resultados
para determinar el número máximo de direcciones que se devolverán para el identificador de dirección
que se especifique. La propiedad Exceso de recuento indica si la base de datos contiene direcciones
adicionales para el identificador de dirección.

Suecia
A partir de la versión 10.2 HotFix1, la transformación del validador de direcciones mejora la verificación de
los nombres de calles en las direcciones de Suecia.

La transformación mejora la verificación de los nombres de calles de las siguientes maneras:

• La transformación puede reconocer un nombre de calle que termine con el carácter G como alias del
mismo nombre con los caracteres finales GATAN.
• La transformación puede reconocer un nombre de calle que termine con el carácter V como alias del
mismo nombre con los caracteres finales VÄGEN.
• La transformación del validador de direcciones puede reconocer y corregir el nombre de una calle con un
descriptor incorrecto cuando se usan la forma larga o la forma corta del descriptor.
Por ejemplo, la transformación puede corregir RUNIUSV o RUNIUSVÄGEN como RUNIUSGATAN en la
siguiente dirección:
RUNIUSGATAN 7
SE-112 55 STOCKHOLM

Tailandia
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones introduce las siguientes
características y mejoras para Tailandia:

Mejoras en las direcciones de Tailandia

La transformación mejora el análisis y la validación de las direcciones de Tailandia escritas en alfabeto


latino.

Además, la transformación valida las direcciones a nivel de número de casa.

Soporte nativo para direcciones de Tailandia

La transformación del validador de direcciones puede leer y escribir direcciones de Tailandia en alfabeto
latino y tailandés nativo. Informatica actualiza los datos de referencia de Tailandia y agrega los datos de
referencia al alfabeto tailandés nativo.

340 Capítulo 29: Versión 10.2 HotFix 1


Informatica proporciona bases de datos de referencia independientes para las direcciones de Tailandia
en cada alfabeto. Para verificar las direcciones en el alfabeto tailandés nativo, instale las bases de datos
nativas de Tailandia. Para verificar las direcciones en el alfabeto latino, instale las bases de datos
latinas.

Nota: Si se verifican las direcciones de Tailandia, no se deben instalar los dos tipos de base de datos.
Acepte la opción predeterminada de la propiedad Alfabeto preferido.

Emiratos Árabes Unidos


A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones verifica los nombres de
calles en direcciones de Emiratos Árabes Unidos. Para verificar los nombres de calle en los Emiratos Árabes
Unidos, instale las bases de datos de direcciones de referencia actuales para los Emiratos Árabes Unidos.

Reino Unido
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones puede devolver nombres
de territorios de Reino Unido.

La transformación devuelve el nombre del territorio en el elemento Country_2 y devuelve el nombre de país
en el elemento Country_1. Puede configurar una dirección de salida con ambos elementos o puede omitir el
elemento Country_1 si envía correo en el Reino Unido. El nombre del territorio aparece encima del código
postal en las direcciones del Reino Unido en los sobres o las etiquetas.

Para devolver el nombre de territorio, instale los datos de referencia actuales del Reino Unido.

Estados Unidos
A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones puede reconocer hasta
tres niveles de elementos por debajo del nivel de edificio en las direcciones de Estados Unidos.

De conformidad con los requisitos del servicio postal de Estados Unidos, la transformación hace coincidir la
información de un solo elemento por debajo del nivel de edificio con los datos de referencia. Si la
información de Sub-building_1 no coincide, la transformación comparará la información de Sub-building_2. Si
la información de Sub-building_2 no coincide, la transformación comparará la información de Sub-building_3.
La transformación copiará la información de elementos por debajo del nivel de edificio que no coincida de la
dirección de entrada en la dirección de salida.

Para obtener información detallada acerca de las características y las operaciones de la versión del motor de
software de verificación de direcciones integrado en Informatica 10.2 HotFix 1, consulte la Guía de
desarrollador de Informatica Address Verification 5.13.0.

Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager en la versión 10.2 HotFix 1.

Autenticación de SAML para Metadata Manager


A partir de la versión 10.2 HotFix 1, Metadata Manager admite el inicio de sesión único basado en el lenguaje
de marcado de aserción de seguridad (SAML). El inicio de sesión único basado en SAML autentica a los
usuarios confrontando sus credenciales con las de las cuentas almacenadas en Microsoft Active Directory.
Las cuentas se importan de Active Directory a un dominio de seguridad dentro del dominio de Informatica.

Para obtener más información, consulte el capítulo "Autenticación de SAML para aplicaciones web de
Informatica" en la Guía de seguridad de Informatica 10.2 HotFix 1.

Novedades 341
Omitir el linaje durante las operaciones de copia de seguridad o restauración
del repositorio de Metadata Manager
A partir de la versión 10.2 HotFix 1, use la opción [<-sl|--skipLineage> skipLineage] de los comandos
backupRepository y restoreRepository para omitir el linaje durante las operaciones de copia de seguridad
y restauración del repositorio de Metadata Manager.

Para obtener más información, consulte la Guía de referencia de comandos de Metadata Manager de
Informatica 10.2 HotFix 1.

PowerCenter
En esta sección se describen las nuevas características de PowerCenter en la versión 10.2 HotFix 1.

Optimización de inserciones para SAP HANA


A partir de la versión 10.2 HotFix 1, cuando el tipo de conexión es ODBC, puede seleccionar el subtipo de
proveedor ODBC como SAP HANA para insertar la lógica de transformación en SAP HANA. Puede configurar
la optimización de inserciones de origen, de destino o completa para insertar la lógica de transformación en
SAP HANA.

Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2
HotFix 1.

Optimización de inserciones para Snowflake


A partir de la versión 10.2 HotFix 1, cuando el tipo de conexión es ODBC, puede configurar la optimización de
inserciones completa o de origen para insertar la lógica de transformación en Snowflake.

Para obtener más información, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2
HotFix 1.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica en la versión 10.2
HotFix 1.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.2 HotFix 1, PowerExchange for Microsoft Azure Blob Storage incluye las siguientes
funcionalidades:

• Las asignaciones se pueden ejecutar en el motor de Spark.


• Puede usar el puerto de datos para almacenar el nombre de archivo desde el que el servicio de
integración de datos lee los datos en tiempo de ejecución.
• Se pueden leer archivos .csv, Avro y Parquet cuando se ejecuta una asignación en el entorno nativo.
• Se puede leer un directorio cuando se ejecuta una asignación en el entorno nativo.
• Se pueden generar u omitir filas de encabezado cuando se ejecuta una asignación en el entorno nativo.
En el motor de Spark, la fila de encabezado se crea de forma predeterminada.
• Se puede anexar un BLOB existente. La operación de anexión solo se aplica a los archivos .csv del
entorno nativo.

342 Capítulo 29: Versión 10.2 HotFix 1


• El nombre del BLOB o del contenedor se puede reemplazar. En el campo para reemplazar el contenedor
de BLOB, especifique el nombre del contenedor o las subcarpetas del contenedor raíz con la ruta de
acceso absoluta.
• Puede leer y escribir los archivos .csv comprimidos en formato gzip en el entorno nativo.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2 HotFix 1.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.2 HotFix 1, PowerExchange for Microsoft Azure SQL Data Warehouse incluye las
siguientes características:

• Puede configurar la creación de particiones del rango de claves al leer datos de los objetos de Microsoft
Azure SQL Data Warehouse.
• Puede reemplazar la consulta SQL y definir restricciones al leer datos de un objeto de Microsoft Azure
SQL Data Warehouse.
• Puede configurar consultas de pre-SQL y post-SQL para los objetos de origen y destino de una asignación.
• Puede configurar el filtro de expresiones nativas para la operación del objeto de datos de origen.
• Puede realizar operaciones de actualización, upsert y eliminación en las tablas de Microsoft Azure SQL
Data Warehouse.
• Puede configurar una operación de búsqueda no almacenada en caché en el entorno nativo.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2 HotFix 1.

PowerExchange for Netezza


A partir de la versión 10.2 HotFix 1, puede configurar asignaciones dinámicas para cambiar orígenes y
destinos de Netezza en tiempo de ejecución basándose en los parámetros y las reglas que defina.

Cuando configure las asignaciones dinámicas, también podrá crear o reemplazar el destino en tiempo de
ejecución. Puede seleccionar la opción para crear o reemplazar tabla en tiempo de ejecución en las
propiedades avanzadas de la operación de escritura del objeto de datos de Netezza.

PowerExchange para la API del transportador paralelo de Teradata


A partir de la versión 10.2 HotFix 1, puede configurar asignaciones dinámicas para cambiar orígenes y
destinos de Teradata en tiempo de ejecución basándose en los parámetros y las reglas que defina.

Cuando configure las asignaciones dinámicas, también podrá crear o reemplazar el destino de Teradata en
tiempo de ejecución. Puede seleccionar la opción para crear o reemplazar tabla en tiempo de ejecución en
las propiedades avanzadas de la operación de escritura del objeto de datos de Teradata.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las nuevas características del adaptador de PowerCenter en la versión 10.2
HotFix 1.

Novedades 343
PowerExchange for Amazon Redshift
A partir de la versión 10.2 HotFix 1, PowerExchange for Amazon Redshift incluye estas nuevas
características:

• Además de las regiones existentes, también puede leer datos o escribir datos en la región de AWS
GovCloud.
• Puede especificar el tamaño de las partes de un objeto para descargarlo desde Amazon S3 en varias
partes.
• Puede cifrar datos mientras captura el archivo de Amazon Redshift mediante las claves de cifrado
administradas por AWS o la clave maestra del cliente administrada por AWS KMS para el cifrado en el
servidor.
• Puede proporcionar el número de archivos para calcular el número de archivos de almacenamiento
provisional para cada lote. Si no proporciona el número de archivos, PowerExchange for Amazon Redshift
calcula el número de archivos de almacenamiento provisional.
• Puede usar la opción TRUNCATECOLUMNS en el comando copy para truncar los datos de las columnas
de tipos de datos VARCHAR y CHAR antes de escribir los datos en el destino.
• PowerExchange for Amazon Redshift admite las versiones 11 y 12 del sistema operativo SuSe Linux
Enterprise Server.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 1 para PowerCenter.

PowerExchange for Amazon S3


A partir de la versión 10.2 HotFix 1, PowerExchange for Amazon S3 incluye estas nuevas características:

• Además de las regiones existentes, también puede leer datos o escribir datos en la región de AWS
GovCloud.
• Puede especificar la línea que desea utilizar como encabezado cuando lee datos de Amazon S3. Puede
especificar el número de línea en la propiedad Número de línea de encabezado en las propiedades de la
sesión de origen.
• Puede especificar el número de línea desde el que desea que el servicio de integración de PowerCenter
empiece a leer los datos. Puede configurar la propiedad Leer datos desde la línea en las propiedades de
la sesión de origen.
• Puede especificar un carácter comodín de asterisco (*) en el nombre del archivo para capturar los
archivos del depósito de Amazon S3. Puede especificar el carácter comodín de asterisco (*) para capturar
todos los archivos o solo los archivos que coinciden con el patrón de nombre.
• Puede agregar una sola etiqueta o varias etiquetas a los objetos almacenados en el depósito de Amazon
S3 para categorizar los objetos. Cada etiqueta contiene un par clave-valor. Puede especificar los pares
clave-valor o especificar la ruta de archivo absoluta que contiene los pares clave-valor.
• Puede especificar el tamaño de las partes de un objeto para descargarlo desde Amazon S3 en varias
partes.
• Puede configurar las particiones para los orígenes de Amazon S3. Las particiones optimizan el
rendimiento de las asignaciones en tiempo de ejecución cuando se leen datos de orígenes de Amazon S3.
• PowerExchange for Amazon S3 admite las versiones 11 y 12 del sistema operativo SuSe Linux Enterprise
Server.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon S3
10.2 HotFix 1 para PowerCenter.

344 Capítulo 29: Versión 10.2 HotFix 1


PowerExchange for Cassandra
A partir de la versión 10.2 HotFix 1, el controlador ODBC de Informatica Cassandra admite la escritura
asincrónica.

Para habilitar la escritura asincrónica en un sistema operativo Linux, debe agregar el nombre de clave
EnableAsynchronousWrites al archivo odbc.ini y establecer el valor como 1.

Para habilitar la escritura asincrónica en un sistema operativo Windows, debe agregar la propiedad
EnableAsynchronousWrites al registro de Windows para el nombre de origen de datos de ODBC de
Cassandra y establecer el valor como 1.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra 10.2
HotFix 1 para PowerCenter.

PowerExchange for Microsoft Dynamics CRM


A partir de la versión 10.2 HotFix 1, PowerExchange for Microsoft Dynamics CRM incluye estas nuevas
características:

• Puede seleccionar Servicio de detección o Servicio de organización como tipo de servicio para la
autenticación de pasaportes en la conexión en tiempo de ejecución de Microsoft Dynamics CRM.
• Puede configurar una clave alternativa en las operaciones de actualización, upsert y eliminación.
• Puede especificar una clave alternativa como referencia para los tipos de datos Lookup, Customer, Owner
y PartyList.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.2 HotFix 1 para PowerCenter.

PowerExchange for Salesforce


A partir de la versión 10.2 HotFix 1, PowerExchange for Salesforce incluye estas nuevas características:

• Puede utilizar la versión 42.0 de la API de Salesforce para crear una conexión de Salesforce y acceder a
los objetos de Salesforce.
• Puede configurar OAuth para las conexiones de Salesforce.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce 10.2
HotFix 1 para PowerCenter.

PowerExchange for SAP NetWeaver


A partir de la versión 10.2 HotFix 1, PowerExchange for SAP NetWeaver incluye estas nuevas características:
Compatibilidad de la resistencia de la conexión para las asignaciones de integración de contenido empresarial

Puede configurar los siguientes parámetros de resistencia de conexión en la sesión de escucha de las
asignaciones de integración de contenido empresarial:

• Número de reintentos para la resistencia de la conexión. Define el número de reintentos de conexión


que el servicio de integración de PowerCenter debe intentar en el caso de que no se pueda realizar la
conexión con SAP.
• Retraso entre los reintentos para la resistencia de la conexión. Define el intervalo de tiempo en
segundos entre los reintentos de conexión.

Novedades 345
Compatibilidad de los nuevos tipos de datos de SAP

Puede usar los siguientes tipos de datos de SAP nuevos en función del método de integración que
utilice:

Tipo de datos Integración de datos Integración de datos Integración de


mediante el Programa ABAP mediante las funciones de IDoc mediante ALE
(Lector de tablas y sistema BAPI/RFC
de escritura de tablas)

INT8 Compatible No se admite No se admite

DF16_DEC Compatible Compatible No se admite

DF34_DEC Compatible Compatible No se admite

DF16_DEC Compatible Compatible No se admite

DF34_DEC Compatible Compatible No se admite

DF16_RAW Compatible Compatible No se admite

DF34_RAW Compatible Compatible No se admite

RAWSTRING Compatible No se admite Compatible

STRING Compatible Compatible Compatible

SSTRING Compatible Compatible No se admite

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 HotFix 1 para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.2 HotFix 1, PowerExchange for Snowflake incluye estas nuevas características:

• Puede configurar una consulta SQL personalizada para configurar un origen de Snowflake.
• Puede reemplazar la base de datos y el nombre del esquema cuando cree tablas temporales en la base de
datos de almacenamiento provisional de Snowflake. Debe agregar la base de datos y el nombre del
esquema que desee reemplazar en los parámetros de JDBC URL de la conexión de Snowflake.
• Puede reemplazar el nombre de la tabla de origen de Snowflake importado especificando el nombre de la
tabla en las propiedades de la sesión de Snowflake. También puede configurar un reemplazo de SQL para
reemplazar la consulta de SQL predeterminada utilizada para extraer datos del origen de Snowflake.
• Puede reemplazar el nombre de la tabla de destino de Snowflake especificando el nombre de la tabla en
las propiedades de la sesión de destino de Snowflake.
• Puede configurar la optimización de inserciones completa o de origen para insertar la lógica de
transformación en Snowflake cuando use el tipo de conexión de ODBC. Para obtener información acerca
de los operadores y las funciones que puede insertar el servicio de integración de PowerCenter en
Snowflake, consulte la Guía de flujo de trabajo avanzado de Informatica PowerCenter 10.2 HotFix 1.
• Especifique una condición de combinación para unir varias tablas de origen de Snowflake.
• Puede configurar una transformación de búsqueda sin conexión para el calificador de origen en una
asignación.

346 Capítulo 29: Versión 10.2 HotFix 1


• Puede configurar particiones pass-through para una sesión de Snowflake. Después de agregar el número
de particiones, puede especificar un reemplazo de SQL o una condición de reemplazo de filtro por cada
una de las particiones.
• Puede configurar los ajustes de autenticación del servidor proxy HTTP en tiempo de diseño o en tiempo
de ejecución para leer datos o escribir datos en Snowflake.
• Puede configurar la autenticación SSO de Okta especificando los detalles de la autenticación en los
parámetros de JDBC URL de la conexión de Snowflake.
• Puede leer datos y escribir datos en Snowflake habilitados para los datos de almacenamiento provisional
en Azure o Amazon.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 1 para PowerCenter.

PowerExchange para la API del transportador paralelo de Teradata


A partir de la versión 10.2 HotFix 1, cuando use el operador de carga, puede establecer el tamaño de búfer
máximo en kilobytes que la API de Teradata PT usa para escribir datos. Puede establecer el valor de tamaño
de búfer máximo en las propiedades de la sesión de destino de Teradata.

Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2 HotFix 1.

Seguridad: complejidad de las contraseñas


A partir de la versión 10.2 HotFix 1, puede habilitar la complejidad de las contraseñas para validar la
seguridad de las contraseñas. Esta opción está deshabilitada de forma predeterminada.

Para obtener más información, consulte el capítulo "Administración de la seguridad en Informatica


Administrator" en la Guía de seguridad de Informatica 10.2 HotFix 1.

Cambios

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2 HotFix 1.

Cambios 347
Distribuciones de Hadoop para Big Data Management
En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en Big
Data Management 10.2 HotFix 1:

Distribución de Hadoop Versiones de distribución Cambios en 10.2 HotFix 1


compatibles

Amazon EMR 5.8 Compatibilidad cancelada para la versión 5.4.

Azure HDInsight 3.5.x No hay cambios.


3.6.x

Cloudera CDH 5.10.x Compatibilidad cancelada para la versión 5.9.


5.11.x
5.12.x
5.13.x

Hortonworks HDP 2.5x Compatibilidad cancelada para la versión 2.4.


2.6x

IBM BigInsights No compatible. Compatibilidad cancelada para IBM BigInsights.

MapR 5.2 MEP 3.0.x Compatibilidad cancelada para la versión 5.2 MEP 2.0.x.

Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

Para ver una lista de las versiones admitidas, consulte la matriz de disponibilidad de productos en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-availability-matrices.

Intelligent Streaming Distribuciones de Hadoop


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en
Intelligent Streaming 10.2 HotFix 1:

Distribución Versiones compatibles Cambios desde 10.2

Amazon EMR 5.8 Compatibilidad cancelada para la versión 5.4.

Cloudera CDH 5.10 No hay cambios.


5.11
5.12
5.13

Hortonworks HDP 2.5.x No hay cambios.


2.6.x

MapR 5.2 MEP 3.0 Compatibilidad cancelada para la versión 5.2 MEP 2.0.

Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.

348 Capítulo 29: Versión 10.2 HotFix 1


servicios de aplicación
En esta sección se describen los cambios introducidos en los servicios de aplicación en la versión 10.2
HotFix 1.

Servicio de repositorio de modelos


Servicio de repositorio de modelos de supervisión
A partir de la versión 10.2 HotFix 1, puede configurar un servicio de repositorio de modelos como un servicio
de repositorio de modelos de supervisión para supervisar las estadísticas de trabajos ad hoc, aplicaciones,
objetos de datos lógicos, servicios de datos SQL, servicios web y flujos de trabajo. Utilice cuentas de usuario
de base de datos independientes cuando configure el repositorio de modelos de supervisión y el repositorio
de modelos.

Antes, se podía utilizar un servicio del repositorio de modelos para almacenar objetos en tiempo de diseño y
en tiempo de ejecución en el repositorio de modelos.

Para obtener más información, consulte el capítulo "Servicio de repositorio de modelos" en el capítulo Guía
del servicio de aplicación de Informatica 10.2 HotFix 1.

Big Data Management


En esta sección se describen los cambios introducidos en Big Data Management en la versión 10.2 HotFix 1.

Precisión y escala en el motor de Hive


A partir de la versión 10.2 HotFix 1, la salida de las funciones definidas por el usuario que realizan
multiplicaciones en el motor de Hive puede tener una escala máxima de 6 si se cumplen las siguientes
condiciones:

• La diferencia entre la precisión y la escala es mayor o igual que 32.


• La precisión resultante es mayor que 38.

Anteriormente, el valor más bajo de la escala podía ser 0.

Para obtener más información, consulte el capítulo "Asignaciones en el entorno de Hadoop" de la Guía del
usuario de Informatica Big Data Management 10.2 HotFix 1.

Business Glossary
En esta sección se describen los cambios introducidos en Business Glossary en la versión 10.2 HotFix 1.

Alertas y notificaciones
A partir de 10.2 HotFix 1, la Herramienta del analista muestra el nombre del glosario además de los nombres
del remitente y del activo enviado a revisión. Anteriormente, la Herramienta del analista mostraba solo el
nombre del remitente y el nombre del activo que se enviaba a revisión.

Para obtener más información, consulte el capítulo "Buscar contenido del glosario" en la Guía de Informatica
Business Glossary 10.2 HotFix 1.

Documentación
En esta sección se describen los cambios realizados en las guías de la documentación de Informatica en la
versión 10.2 HotFix 1.

Cambios 349
Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1
A partir de la versión 10.2 HotFix 1, la Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1 incluye
los apéndices Referencia de MX Views y Referencia de informes de PowerCenter. La Guía de informes de
PowerCenter de Informatica PowerCenter 10.2 HotFix 1 y la Guía de Informatica PowerCenter 10.2 HotFix 1
con informes de PowerCenter han pasado a formar parte de la Guía del repositorio de Informatica
PowerCenter 10.2 HotFix 1 como un apéndice.

Para obtener más información, consulte la Guía del repositorio de Informatica PowerCenter 10.2 HotFix 1.

Plataforma de desarrollo de Informatica


En esta sección se describen los cambios realizados en la plataforma de desarrollo de Informatica en la
versión 10.2 HotFix 1.

Informatica Connector Toolkit


A partir de la versión 10.2 HotFix 1, puede usar Informatica Connector Toolkit para crear el conector de
Informatica Intelligent Cloud Services de manera predeterminada. Si desea publicar un conector desarrollado
con versiones de Informatica Connector Toolkit anteriores a 10.2 HotFix 1, establezca YES como el valor de
la variable de entorno del sistema CTK_ADAPTER. Por ejemplo, CTK_ADAPTER =YES.

Anteriormente, se podía usar Informatica Connector Toolkit para crear el conector de Informatica Cloud
Services.

Para obtener más información, consulte la Guía del usuario de Informatica Development Platform 10.2 HotFix
1.

Transformaciones de Informatica
En esta sección se describen los cambios en las transformaciones de Informatica en la versión 10.2 HotFix
1.

Transformación del validador de direcciones


En esta sección se describen los cambios en la transformación del validador de direcciones.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Todos los países


A partir de la versión 10.2 HotFix 1, la transformación del validador de direcciones utiliza la versión 5.13.0 del
motor de software Informatica Address Verification. El motor habilita las funciones que Informatica añade a
la transformación del validador de direcciones en la versión 10.2 HotFix 1.

Anteriormente, la transformación utilizaba la versión 5.11.0 del motor de software Informatica Address
Verification.

Geocodificación de edificios y centroides de terrenos


A partir de junio de 2018, Informatica deja de actualizar los archivos de datos de referencia que contienen
datos de geocodificación de edificios y centroides de terrenos. Informatica también deja de proporcionar los
archivos a los usuarios principiantes. Los archivos de datos de referencia actuales para la geocodificación
de edificios y centroides de terrenos seguirán estando operativos.

Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 HotFix 1 y la
Referencia de puertos del validador de direcciones de Informatica 10.2 HotFix 1.

350 Capítulo 29: Versión 10.2 HotFix 1


Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification de la versión 5.11.0 a la versión 5.13.0, consulte la Guía de la versión de Informatica Address
Verification 5.13.0.

PowerCenter
En esta sección se describen los cambios realizados en PowerCenter en la versión 10.2 HotFix 1.

Microsoft Analyst for Excel


A partir de la versión 10.2 HotFix 1, Informatica admite Mapping Analyst for Excel con Microsoft Excel 2016.
Mapping Analyst for Excel incluye un complemento de Excel que se puede usar para configurar
especificaciones de asignación en Microsoft Excel 2016.

Anteriormente, Informatica admitía Mapping Analyst for Excel con Microsoft Excel 2007 y Microsoft Excel
2010.

Para obtener más información acerca de la instalación del complemento para Microsoft Excel 2016, consulte
la Guía de Informatica PowerCenter Mapping Analyst for Excel 10.2 HotFix 1.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los cambios realizados en los adaptadores de PowerCenter en la versión 10.2
HotFix 1.

PowerExchange for Amazon Redshift


A partir de la versión 10.2 HotFix 1, PowerExchange for Amazon Redshift incluye los siguientes cambios:

• Puede proporcionar la cantidad de archivos en el campo Número de archivos por lote en las propiedades
de la sesión de destino para calcular el número de archivos de almacenamiento provisional por cada lote.
Anteriormente, el número de archivos de almacenamiento provisional por cada lote se calculaba según
los valores proporcionados en los campos Tipo de nodo de clúster y Número de nodos en el clúster en
las propiedades de la conexión.
• El registro de la sesión contiene información sobre el tiempo individual necesario para cargar datos al
área de almacenamiento provisional local, cargar datos a Amazon S3 desde el área de almacenamiento
provisional local y después cargar datos a un destino de Amazon Redshift mediante el comando copy.
Anteriormente, el registro de la sesión contenía solo el tiempo transcurrido para escribir datos del origen
al destino.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Amazon
Redshift 10.2 HotFix 1 para PowerCenter.

PowerExchange for Cassandra


A partir de la versión 10.2 HotFix 1, PowerExchange for Cassandra incluye los siguientes cambios:

• El nombre y el directorio del archivo del controlador ODBC de Informatica PowerExchange for Cassandra
han cambiado.

Cambios 351
En la tabla siguiente se muestran el nombre de archivo y el directorio de archivos del controlador ODBC
de Cassandra basados en los sistemas operativos Linux y Windows:

Sistema Nombre de archivo del controlador Directorio de archivos


operativo ODBC de Cassandra

Linux libcassandraodbc_sb64.so <directorio de instalación de


Informatica>\tools\cassandra\lib
\libcassandraodbc_sb64.so

Windows CassandraODBC_sb64.dll <directorio de instalación de


Informatica>\tools\cassandra\lib
\CassandraODBC_sb64.dll

En los sistemas operativos Linux, se debe actualizar el valor de la propiedad Controlador a <directorio
de instalación de Informatica>\tools\cassandra\lib\libcassandraodbc_sb64.so para los orígenes
de datos de Cassandra existentes en el archivo odbc.ini.
En Windows, se deben actualizar las siguientes propiedades en el registro de Windows para el nombre de
origen de datos de Cassandra existente:
Driver=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll
Setup=<Informatica installation directory>\tools\cassandra\lib\CassandraODBC_sb64.dll

• El nuevo nombre de clave de la opción Directiva de equilibrio de carga es LoadBalancingPolicy.


Antes, el nombre de clave para la Directiva de equilibrio de carga era COLoadBalancingPolicy.
• Los valores predeterminados de las siguientes propiedades del controlador ODBC de Cassandra han
cambiado:

Nombre de la propiedad del controlador Nombre de clave Nuevo valor predeterminado

Solicitudes simultáneas NumConcurrentRequests 100

Insertar subprocesos de consulta NumInsertQueryThreads 2

Iteraciones por subproceso de inserción NumIterationsPerInsertThread 50

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Cassandra 10.2
HotFix 1.

PowerExchange for Google BigQuery


A partir de la versión 10.2 HotFix 1, PowerExchange for Google BigQuery se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Google BigQuery tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Google
BigQuery 10.2 HotFix 1 para PowerCenter.

PowerExchange for Salesforce


A partir de la versión 10.2 HotFix 1, los mensajes de error que encuentre durante una sesión de Salesforce
podrían ser diferentes debido a un cambio en la API de Salesforce.

352 Capítulo 29: Versión 10.2 HotFix 1


Por ejemplo, al volverse a conectar a Salesforce, aparece el siguiente mensaje de error:
[ERROR] Reattempt the Salesforce request [getBatchInfo] due to the error [Server error
returned in unknown format].
Antes, para el mismo escenario, se mostraba el siguiente mensaje de error:
[ERROR] Reattempt the Salesforce request [getBatchInfo] due to the error [input stream
can not be null].

PowerExchange for Salesforce Analytics


A partir de la versión 10.2 HotFix 1, PowerExchange for Salesforce Analytics se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Salesforce Analytics tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
Analytics 10.2 HotFix 1 para PowerCenter.

PowerExchange for Snowflake


A partir de la versión 10.2 HotFix 1, PowerExchange for Snowflake se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Snowflake tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Snowflake 10.2
HotFix 1 para PowerCenter.

Datos de referencia
En esta sección se describen los cambios en las operaciones de datos de referencia en la versión 10.2
HotFix 1.

Programa de instalación de contenido


A partir de la primavera de 2018, Informatica ya no proporciona un programa de instalación de contenido
para los archivos del acelerador y los archivos de datos de referencia. Para agregar archivos del acelerador o
archivos de datos de referencia a una instalación de Informatica, extraiga y copie los archivos en los
directorios correspondientes de la instalación.

Antes, se podía utilizar el programa de instalación de contenido para extraer y copiar los archivos en los
directorios de Informatica.

Para obtener más información, consulte la Guía de contenido de Informatica 10.2 HotFix 1.

Archivos de propiedades en PowerCenter


A partir de la versión 10.2 HotFix 1, el proceso de actualización y el proceso de instalación del HotFix
mantienen el contenido de los archivos de propiedades de datos de referencia de una versión anterior de
PowerCenter. No es necesario editar ningún archivo de propiedades de datos de referencia después de
instalar el HotFix o actualizar a la versión 10.2 HotFix 1.

PowerCenter lee la información de configuración de los datos de referencia desde los siguientes archivos de
propiedades:

• AD50.cfg. Contiene propiedades de datos de referencia de direcciones.


• CLASSIFIER.properties. Contiene propiedades de modelos de clasificación.

Cambios 353
• IDQTx.cfg. Contiene propiedades de poblaciones de identidad.
• NER.properties. Contiene propiedades de modelos de probabilidades.
El proceso de instalación o actualización del HotFix escribe versiones de copia de seguridad de los archivos
de propiedades en los directorios de Informatica 10.2 HotFix 1. Los archivos de copia de seguridad son las
versiones predeterminadas de los archivos y no contienen ningún valor que se pueda establecer en la
instalación anterior. El nombre de cada archivo de copia de seguridad termina con la extensión .bak.

Antes, la operación de actualización cambiaba el nombre de las propiedades de datos de referencia que
encontraba con la extensión .bak. La operación de actualización también creaba versiones predeterminadas
de los archivos de propiedades en los que cambiaba el nombre.

Nota: Anteriormente, si se instalaba un HotFix para una instalación de modo que la estructura de directorios
de Informatica no cambiaba, el proceso de instalación conservaba el archivo AD50.cfg. De lo contrario, la
instalación del HotFix agregaba la extensión .bak a cada archivo de propiedades de datos de referencia que
encontraba y creaba una versión predeterminada de cada archivo.

Para obtener más información, consulte la Guía de contenido de Informatica 10.2 HotFix 1.

Tareas de la versión

Adaptadores de PowerExchange para Informatica


En esta sección se describen las tareas de la versión de los adaptadores de Informatica en la versión 10.2
HotFix 1.

PowerExchange for Netezza


A partir de la versión 10.2 HotFix 1, si desea ejecutar asignaciones dinámicas para objetos de Netezza,
deberá agregar el jar JDBC de Netezza en la siguiente ubicación: <directorio de instalación de
Informatica>/externaljdbcjars.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Netezza 10.2
HotFix 1.

PowerExchange para la API del transportador paralelo de Teradata


A partir de la versión 10.2 HotFix 1, si desea ejecutar asignaciones dinámicas para objetos de Teradata,
deberá agregar el jar JDBC de Teradata en la siguiente ubicación: <directorio de instalación de
Informatica>/externaljdbcjars.

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Teradata Parallel Transporter API.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las tareas de la versión de los adaptadores de PowerCenter en la versión 10.2
HotFix 1.

354 Capítulo 29: Versión 10.2 HotFix 1


PowerExchange for Amazon Redshift
A partir de la versión 10.2 HotFix 1, PowerExchange for Amazon Redshift tiene las siguientes tareas de la
versión:

• Los campos Tipo de nodo de clúster y Número de nodos en el clúster no están disponibles en las
propiedades de la conexión. Después de la actualización, PowerExchange for Amazon Redshift calcula la
cantidad de archivos de almacenamiento provisional y omite el valor especificado en la versión anterior
de la asignación existente.
Puede especificar la cantidad de archivos en el campo Número de archivos por lote en las propiedades
de la sesión de destino para calcular el número de archivos de almacenamiento provisional por cada lote.
• AWS SDK for Java se ha actualizado a la versión 1.11.250.
• Los siguientes jar de terceros se han actualizado a la última versión 2.9.5:
- jackson-annotations

- jackson-databind

- jackson-core

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Amazon Redshift para PowerCenter.

PowerExchange for Amazon S3


A partir de la versión 10.2 HotFix 1, AWS SDK for Java se ha actualizado a la versión 1.11.250.

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 HotFix 1 PowerExchange for
Amazon S3 para PowerCenter.

PowerExchange para la API del transportador paralelo de Teradata


A partir de la versión 10.2 HotFix 1, puede definir un tamaño de búfer máximo en kilobytes que la API de
Teradata PT usa para escribir datos.

Cuando actualice desde una versión anterior, deberá volver a registrar el complemento TeradataPT.xml con
el servicio de repositorio de PowerCenter para habilitar la propiedad de tamaño de búfer máximo. Después
del registro, podrá definir el tamaño de búfer máximo en las propiedades de la sesión de destino de
Teradata.

Para obtener más información acerca de la configuración del tamaño de búfer máximo, consulte la Guía del
usuario de Informatica PowerExchange for Teradata Parallel Transporter API 10.2 HotFix 1 para PowerCenter.

Tareas de la versión 355


Capítulo 30

Avisos importantes de la versión


10.2
Este capítulo incluye los siguientes temas:

• Nuevos productos, 356


• Tareas de la versión, 357

Nuevos productos

Adaptadores de PowerExchange para Informatica


En esta sección se describen los nuevos adaptadores de Informatica de la versión 10.2.

PowerExchange for Microsoft Azure Data Lake Store


A partir de la versión 10.2, puede crear una conexión de Microsoft Azure Data Lake Store para especificar la
ubicación de los orígenes y destinos de Microsoft Azure Data Lake Store que desea incluir en un objeto de
datos. Puede utilizar la conexión de Microsoft Azure Data Lake Store en las operaciones de lectura y
escritura de objetos de datos. Puede validar y ejecutar asignaciones en el entorno nativo o en el motor Blaze
en el entorno de Hadoop.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Data Lake Store.

356
Tareas de la versión

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las tareas de la versión de los adaptadores de PowerCenter de la versión 10.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2, para las asignaciones existentes donde se selecciona un esquema público,
asegúrese de que el nombre del esquema es correcto y válido para la tabla de Redshift. El esquema público
podría no funcionar para todas las tablas.

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
Redshift para PowerCenter.

PowerExchange for Amazon S3


A partir de la versión 10.2, al actualizar desde las versiones 9.5.1 o 9.6.1, el proceso de actualización no
conserva todos los valores de propiedad en la conexión. Después de actualizar, hay que volver a configurar
las siguientes propiedades:

Propiedad Descripción

Clave de El identificador de clave de acceso que se utiliza para acceder a los recursos de la cuenta de
acceso Amazon. Es necesario si no utiliza la autenticación de gestión de identidad y acceso (IAM) de AWS.
Nota: Compruebe que tiene credenciales de AWS válidas antes de crear una conexión.

Clave secreta La clave de acceso secreta que se utiliza para acceder a los recursos de la cuenta de Amazon. Este
valor está asociado con la clave de acceso e identifica la cuenta de forma exclusiva. Debe
especificar este valor si especifica el identificador de clave de acceso. Es necesario si no utiliza la
autenticación de gestión de identidad y acceso (IAM) de AWS.

Clave Opcional. Proporcione una clave de cifrado AES de 256 bits en el formato Base64 cuando habilite el
simétrica cifrado por parte del cliente. La clave se puede generar con una herramienta de terceros.
principal Si especifica un valor, asegúrese de especificar el tipo de cifrado como un cifrado del lado del
cliente en las propiedades de la sesión de destino.

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
S3 para PowerCenter.

PowerExchange for Microsoft Dynamics CRM


Al actualizar desde una versión anterior, debe copiar los archivos .jar en la ubicación de instalación de la
versión 10.2.

• Para el cliente, si actualiza de la versión 9.x a la versión 10.2, copie los archivos local_policy.jar,
US_export_policy.jar y cacerts de la siguiente carpeta de instalación de la versión 9.x <Directorio de
instalación de Informatica>\clients\java\jre\lib\security a la siguiente carpeta de instalación
de la versión 10.2 <Directorio de instalación de Informatica>\clients\java\32bit\jre\lib
\security.
Si actualiza de la versión 10.x a la versión 10.2, copie los archivos local_policy.jar,
US_export_policy.jar y cacerts de la siguiente carpeta de instalación de la versión 10.x <Directorio de
instalación de Informatica>\clients\java\32bit\jre\lib\security a la carpeta correspondiente
de la versión 10.2.

Tareas de la versión 357


• Para el servidor, copie los archivos local_policy.jar, US_export_policy.jar y carcets de la carpeta
<Directorio de instalación de Informatica>java/jre/lib/security de la versión anterior a la
carpeta de la versión 10.2 correspondiente.
Al actualizar desde una versión anterior, debe copiar la carpeta msdcrm en la ubicación de instalación de la
versión 10.2.

• Para el cliente, copie la carpeta msdcrm de la carpeta <Directorio de instalación de Informatica>


\clients\PowerCenterClient\client\bin\javalib de la versión anterior a la carpeta de la versión 10.2
correspondiente.
• Para el servidor, copie la carpeta msdcrm de la carpeta <Directorio de instalación de Informatica>/
server/bin/javalib de la versión anterior a la carpeta de la versión 10.2 correspondiente.

PowerExchange for SAP NetWeaver


A partir de la versión 10.2, Informatica implementó los siguientes cambios en la compatibilidad con
PowerExchange for SAP NetWeaver para PowerCenter:

Compatibilidad cancelada para el protocolo CPI-C.

A partir de la versión 10.2, Informatica dejó de admitir el protocolo CPI-C.

Utilice el protocolo RFC o HTTP para generar e instalar programas ABAP mientras se leen los datos de
las tablas de SAP.

Si actualiza las asignaciones de ABAP que se generaron con el protocolo CPI-C, debe completar las
siguientes tareas:

1. Regenerar y reinstalar el programa ABAP mediante el modo de transmisión (RFC/HTTP).


2. Crear un usuario de sistema o un usuario de comunicación con el perfil de autorización adecuado
para permitir la comunicación sin diálogo entre SAP e Informatica.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 para PowerCenter.

Compatibilidad cancelada para los transportes estándar del lector de tablas ABAP.

A partir de la versión 10.2, Informatica dejó de admitir los transportes estándar del lector de tablas
ABAP. Informatica no enviará los transportes estándar para el lector de tablas ABAP. Informatica solo
enviará transportes seguros para el lector de tablas ABAP.

Si actualiza desde una versión anterior, debe eliminar los transportes estándar e instalar los transportes
seguros.

Para obtener más información, consulte el aviso de instalación para las versiones de transporte de
Informatica PowerExchange for SAP NetWeaver 10.2.

Compatibilidad añadida para la transmisión HTTP para las asignaciones del lector de tablas ABAP.

A partir de la versión 10.2, cuando se ejecutan asignaciones de ABAP para leer datos de tablas de SAP,
puede configurar la transmisión HTTP.

Para utilizar el modo de transmisión HTTP para las asignaciones de ABAP actualizadas, realice las
siguientes tareas:

1. Regenerar y reinstalar el programa ABAP en el modo de transmisión.


2. Crear una conexión de transmisión HTTP ABAP de SAP.
3. Configure la sesión para utilizar el lector de secuencias de SAP, una conexión de secuencia HTTP
de SAP ABAP y una conexión de aplicación SAP R/3.

358 Capítulo 30: Avisos importantes de la versión 10.2


Nota: Si configura la secuencia HTTP, pero no vuelve a generar e instalar el programa ABAP en modo de
secuencia, se producirá un error en la sesión.

Tareas de la versión 359


Capítulo 31

Novedades de la versión 10.2


Este capítulo incluye los siguientes temas:

• servicios de aplicación, 360


• Big Data , 361
• Programas de la línea de comandos, 365
• Tipos de datos, 373
• Documentación, 374
• Enterprise Information Catalog, 375
• Informatica Analyst, 379
• Intelligent Data Lake, 379
• Informatica Developer, 381
• Instalación de Informatica, 382
• Intelligent Streaming, 382
• Metadata Manager, 383
• PowerCenter, 384
• Adaptadores de PowerExchange, 385
• Especificaciones de regla, 389
• Seguridad, 390
• Idioma de transformación, 390
• Transformaciones, 391
• Flujos de trabajo, 395

servicios de aplicación
En esta sección se describen las nuevas características de los servicios de aplicación de la versión 10.2.

Servicio de repositorio de modelos


En esta sección se describen las nuevas características del servicio de repositorio de modelos de la versión
10.2.

360
Importar objetos de versiones anteriores
A partir de la versión 10.2, puede utilizar infacmd para actualizar objetos exportados desde un repositorio de
modelos de Informatica 10.1 o 10.1.1 al formato de metadatos actual y, a continuación, importar los objetos
actualizados a la versión actual de Informatica.

Para obtener más información, consulte el capítulo "Importación y exportación de objetos" de la Guía de
Informatica 10.2 Developer tool o el capítulo "Referencia del comando infacmd MRS" de la Referencia de
comandos de Informatica 10.2.

Big Data
En esta sección se describen las nuevas características de Big Data de la versión 10.2.

Instalación de Big Data Management


A partir de la versión 10.2, el servicio de integración de datos instala automáticamente los archivos binarios
de Big Data Management en el clúster.

Cuando se ejecuta una asignación , el servicio de integración de datos comprueba los archivos binarios del
clúster. Si no existen o si no se sincronizan, el servicio de integración de datos prepara los archivos para
transferirlos. El servicio transfiere los archivos a la memoria caché distribuida a través del directorio de
transferencia provisional de Informatica Hadoop en HDFS. De forma predeterminada, el directorio de
transferencia provisional es /tmp. Este proceso reemplaza el requisito de instalar paquetes de distribución
en el clúster de Hadoop.

Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.

Configuración de clúster
Una configuración de clúster es un objeto en el dominio que contiene información de configuración sobre el
clúster de Hadoop. La configuración del clúster permite al servicio de integración de datos insertar la lógica
de asignación al entorno Hadoop.

Cuando se crea la configuración del clúster, se importan las propiedades de configuración del clúster
incluidas en los archivos del sitio de configuración. Puede importar estas propiedades directamente desde
un clúster o desde un archivo de archivado de configuración de clúster. También puede crear conexiones
para asociarlas a la configuración del clúster.

Anteriormente, se ejecutaba la utilidad Hadoop Configuration Manager para configurar conexiones y otra
información que permitiera al dominio de Informatica comunicarse con el clúster.

Para obtener más información acerca de la configuración de clústeres, consulte el capítulo "Configuración de
clúster" de la Guía del administrador de Informatica Big Data Management 10.2.

Big Data 361


Procesamiento de datos jerárquicos
A partir de la versión 10.2, puede utilizar tipos de datos complejos, como array, struct y map, en las
asignaciones que se ejecutan en el motor de Spark. Con tipos de datos complejos, el motor de Spark lee,
procesa y escribe directamente los datos jerárquicos en archivos complejos Avro, JSON y Parquet.

Desarrolle asignaciones con puertos, funciones y operadores complejos para realizar las tareas siguientes:

• Generar y modificar datos jerárquicos.


• Transformar datos relacionales en datos jerárquicos.
• Transformar datos jerárquicos en datos relacionales.
• Convertir datos de un formato de archivo complejo a otro.
Al procesar datos jerárquicos, puede utilizar asistentes de conversión jerárquica para simplificar las tareas
de desarrollo de asignaciones. Utilice estos asistentes en los siguientes escenarios:

• Para generar datos jerárquicos de tipo struct desde uno o más puertos.
• Para generar datos jerárquicos de tipo struct anidado desde puertos en dos transformaciones.
• Para extraer elementos de datos jerárquicos en un puerto complejo.
• Para combinar datos jerárquicos en un puerto complejo.
Para obtener más información, consulte el capítulo "Procesamiento de datos jerárquicos en el motor de
Spark" de la Guía del usuario de Informatica Big Data Management 10.2.

Computación con estado en el motor de Spark


A partir de la versión 10.2, puede utilizar las funciones de ventana de una transformación de expresión para
realizar cálculos con estado en el motor de Spark. Las funciones de ventana operan en un grupo de filas y
calculan un único valor de devolución para cada fila de entrada. Puede utilizar funciones de ventana para
realizar las siguientes tareas:

• Recuperar datos de filas anteriores o posteriores.


• Calcular una suma acumulativa basándose en un grupo de filas.
• Calcular un promedio acumulativo basándose en un grupo de filas.
Para obtener más información, consulte el capítulo "Computación con estado en el motor de Spark" de la
Guía del usuario de Big Data Management 10.2.

Servicio de integración de datos Colocación en la cola


A partir de la versión 10.2, si implementa varios trabajos de asignación o tareas de asignación de flujo de
trabajo al mismo tiempo, el servicio de integración de datos pone los trabajos en una cola persistente y los
ejecuta cuando hay recursos disponibles. Puede ver el estado actual de los trabajos de asignación en la ficha
Supervisar de la Herramienta del administrador.

Todas las colas son persistentes de manera predeterminada. Si el nodo del servicio de integración de datos
se cerrase de forma inesperada, la cola no conmutará por error cuando el servicio de integración de datos
conmute por error. La cola permanece en el equipo del servicio de integración de datos y el servicio de
integración de datos reanuda el procesamiento de la cola al reiniciar.

De forma predeterminada, cada cola puede contener 10.000 trabajos a la vez. Cuando la cola está llena, el
servicio de integración de datos rechaza las solicitudes de trabajo y las marca como fallidas. Cuando el
servicio de integración de datos comience a ejecutar trabajos de la cola, podrá implementar más trabajos.

Para obtener más información, consulte el capítulo "Poner en cola" de la Guía del administrador de
Informatica Big Data Management 10.2.

362 Capítulo 31: Novedades de la versión 10.2


Supervisor de trabajos de Blaze
A partir de la versión 10.2, puede configurar el host y el número de puerto para iniciar la aplicación
Supervisor de trabajos de Blaze en las propiedades de conexión de Hadoop. El valor predeterminado es
<hostname>:9080. Si no configura el nombre de host, el motor de Blaze utiliza el primer nodo por orden
alfabético del clúster.

Para obtener más información, consulte el capítulo "Conexiones" en la Guía del usuario de Big Data
Management 10.2.

Propiedades del servicio de integración de datos para integración


de Hadoop
A partir de la versión 10.2, el servicio de integración de datos agregó propiedades necesarias para integrar el
dominio con el entorno Hadoop.

En la siguiente tabla se describen las nuevas propiedades:

Propiedad Descripción

Directorio de El directorio HDFS donde el servicio de integración de datos inserta archivos binarios de
transferencia Informatica Hadoop y almacena archivos temporales durante el procesamiento. El
provisional de Hadoop directorio predeterminado es /tmp.

Usuario de Obligatorio si el usuario del servicio de integración de datos está vacío. El usuario HDFS
transferencia que ejecuta operaciones en el directorio de transferencia provisional de Hadoop. El usuario
provisional de Hadoop necesita permisos de escritura en el directorio de transferencia provisional de Hadoop. El
usuario predeterminado es el usuario del servicio de integración de datos.

Ruta de acceso Ruta de acceso local a los archivos binarios de Informatica Hadoop compatibles con el
personalizada para el sistema operativo Hadoop. Obligatoria cuando el clúster de Hadoop y el servicio de
SO de Hadoop integración de datos se encuentran en diferentes sistemas operativos compatibles.
Descargue y extraiga los archivos binarios de Informatica para el clúster de Hadoop en el
equipo que aloja el servicio de integración de datos. El servicio de integración de datos
utiliza los archivos binarios de este directorio para integrar el dominio con el clúster de
Hadoop.
El servicio de integración de datos puede sincronizar los siguientes sistemas operativos:
- SUSE 11 y RedHat 6.5
Los cambios surten efecto después de reciclar el servicio de integración de datos.

Como resultado de los cambios en la integración de clústeres, se eliminan las siguientes propiedades del
servicio de integración de datos:

• Directorio de Informatica Home en Hadoop


• Directorio de distribución de Hadoop

Para obtener más información, consulte la Guía de integración de Hadoop de Informatica 10.2.

Sqoop
A partir de la versión 10.2, si utiliza objetos de datos de Sqoop, puede utilizar los siguientes conectores de
Sqoop especializados para ejecutar asignaciones en el motor de Spark:

• Conector de Cloudera con la tecnología de Teradata


• Conector de Hortonworks para Teradata

Big Data 363


Estos conectores especializados utilizan protocolos nativos para conectar con la base de datos de Teradata.

Para obtener más información, consulte la Guía del usuario de Informatica Big Data Management 10.2.

Escalado automático en un clúster de Amazon EMR


A partir de la versión 10.2, Big Data Management agrega compatibilidad para asignaciones de Spark para
aprovechar el escalado automático en un clúster de Amazon EMR.

El escalado automático permite al administrador de clústeres de EMR establecer reglas basadas en


umbrales para sumar y restar nodos de núcleo y de tarea de clúster. Big Data Management certifica la
compatibilidad con asignaciones de Spark que se ejecutan en un clúster de EMR compatible con escalado
automático.

Compatibilidad de las transformaciones en el motor de Blaze


A partir de la versión 10.2, las siguientes transformaciones tienen compatibilidad adicional en el motor Blaze

• Estrategia de actualización. Admite destinos en depósitos ORC en todas las columnas.


Para obtener más información, consulte el capítulo "Objetos de la asignación en un entorno Hadoop" de la
Guía del usuario de Informatica Big Data Management 10.2.

Funcionalidad de Hive para el motor de Blaze


A partir de la versión 10.2, las asignaciones que se ejecutan en el motor de Blaze pueden leer y escribir en
destinos ordenados y almacenados en depósitos.

Para obtener información acerca de cómo configurar las asignaciones para el motor de Blaze, consulte el
capítulo "Asignaciones en un entorno Hadoop" en la Guía del usuario de Informatica Big Data Management
10.2.

Compatibilidad de las transformaciones en el motor de Spark


A partir de la versión 10.2, las transformaciones siguientes se admiten con restricciones en el motor de
Spark:

• Normalizador
• Rango
• Estrategia de actualización
A partir de la versión 10.2, las siguientes transformaciones tienen compatibilidad adicional en el motor de
Spark:

• Búsqueda. Admite la búsqueda sin conexión desde la transformación de filtro, agregador, expresión y
estrategia de actualización.
Para obtener más información, consulte el capítulo "Objetos de la asignación en un entorno Hadoop" de la
Guía del usuario de Informatica Big Data Management 10.2.

Funcionalidad de Hive para el motor de Spark


A partir de la versión 10.2, las asignaciones que se ejecutan en el motor de Spark pueden realizar las
siguientes funciones:

• Leer y escribir en recursos de Hive en depósitos de Amazon S3

364 Capítulo 31: Novedades de la versión 10.2


• Leer y escribir en tablas de colmenas transaccionales de Hive
• Leer y escribir en columnas de tabla de Hive protegidas con autorización SQL avanzada

Para obtener información acerca de cómo configurar las asignaciones para el motor de Hive, consulte el
capítulo "Asignaciones en un entorno Hadoop" en la Guía del usuario de Informatica Big Data Management
10.2.

Programas de la línea de comandos


En esta sección se describen los nuevos comandos de la versión 10.2.

Comandos infacmd cluster


cluster es un nuevo complemento infacmd que realiza operaciones en configuraciones de clústeres.

La tabla siguiente describe nuevos comandos infacmd cluster:

Comando Descripción

clearConfigurationProperties Borra los valores de propiedades reemplazadas en el conjunto de configuración


del clúster.

createConfiguration Crea una nueva configuración de clúster a partir de archivos XML o del
administrador de clúster remoto.

deleteConfiguration Elimina una configuración de clúster del dominio.

exportConfiguration Exporta una configuración de clúster a un archivo comprimido o a un archivo


XML combinado.

listAssociatedConnections Enumera por tipo las conexiones que están asociadas con la configuración de
clúster especificada.

listConfigurationGroupPermissions Enumera los permisos que tiene un grupo para una configuración de clúster.

listConfigurationSets Enumera los conjuntos de configuración de la configuración del clúster.

listConfigurationProperties Enumera las propiedades de configuración del conjunto de configuración del


clúster.

listConfigurations Enumera los nombres de configuración de clúster.

listConfigurationUserPermissions Enumera los permisos que tiene un usuario para una configuración de clúster.

refreshConfiguration Actualiza una configuración de clúster a partir de archivos XML o del


administrador de clúster remoto.

setConfigurationPermissions Establece los permisos de configuración de clúster a un usuario o un grupo tras


quitar los permisos anteriores.

setConfigurationProperties Establece los valores de propiedades reemplazadas en el conjunto de


configuración del clúster.

Programas de la línea de comandos 365


Para obtener más información, consulte el capítulo "Referencia del comando infacmd cluster" en la
Referencia de comandos de Informatica 10.2.

Opciones de infacmd dis


En la tabla siguiente se describen las nuevas opciones del servicio de integración de datos para infacmd
UpdateServiceOptions:

Comando Descripción

ExecutionOptions.MaxHadoopBatchExecutionPoolSize Número máximo de trabajos de Hadoop implementados


que pueden ejecutarse simultáneamente.

ExecutionOptions.MaxNativeBatchExecutionPoolSize Número máximo de trabajos nativos implementados que


cada proceso del servicio de integración de datos puede
ejecutar simultáneamente.

ExecutionOptions.MaxOnDemandExecutionPoolSize Número máximo de trabajos a petición que pueden


ejecutarse simultáneamente. Los trabajos incluyen
previsualizaciones de datos, trabajos de creación de
perfiles, consultas de REST y SQL, solicitudes de
servicios web y asignaciones que se ejecutan desde
Developer tool.

WorkflowOrchestrationServiceOptions.MaxWorkerThreads Número máximo de subprocesos que el servicio de


integración de datos puede utilizar para ejecutar tareas
paralelas entre un par de puertas de enlace inclusivas en
un flujo de trabajo. El valor predeterminado es 10.
Si el número de tareas entre las puertas de enlace
inclusivas es mayor que el valor máximo, el servicio de
integración de datos ejecuta las tareas en lotes que
especifica el valor.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd dis" en la Referencia de
comando de Informatica 10.2.

Comandos infacmd ipc


En la tabla siguiente se describe una nueva opción para un comando infacmd ipc:

Comando Descripción

genReuseReportFromPC Contiene la siguiente opción nueva:


-BlockSize: opcional. Número de asignaciones en las que desea ejecutar el comando
infacmd ipc genReuseReportFromPC.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd ipc" en la Referencia de
comandos de Informatica 10.2.

366 Capítulo 31: Novedades de la versión 10.2


Comandos infacmd isp
En la tabla siguiente se describen los cambios introducidos en los comandos infacmd isp:

Comando Descripción

createConnection Define una conexión y sus opciones.


Se han agregado, cambiado y eliminado opciones de conexión de Hadoop. Consulte
infacmd isp createConnection.

getDomainSamlConfig Anteriormente llamado getSamlConfig.


Devuelve el valor de la opción cst establecida para la autenticación de lenguaje de
marcado de aserción de seguridad (SAML). Especifica la diferencia horaria permitida
entre el reloj del sistema de host de Active Directory Federation Services (AD FS) y el
reloj del sistema del nodo de puerta de enlace maestra.

getUserActivityLog Devuelve los datos de registro de actividad del usuario, que ahora incluyen los intentos
de inicio de sesión correctos e incorrectos del usuario desde clientes de Informatica.
Los datos de actividad del usuario incluyen las siguientes propiedades para cada intento
de inicio de sesión desde un cliente de Informatica:
- Nombre de la aplicación
- Versión de la aplicación
- Nombre de host o dirección IP del host de la aplicación
Si el cliente establece propiedades personalizadas en solicitudes de inicio de sesión, los
datos incluyen las propiedades personalizadas.

listConnections Enumera los nombres de conexión por tipo. Puede mostrar todos los tipos de conexiones
o filtrar los resultados por un tipo de conexión.
La opción -ct ya está disponible para el comando. Utilice la opción -ct para filtrar los
tipos de conexiones.

purgeLog Purga los eventos de registro y los registros de la base de datos para el uso de la
licencia.
La opción -lu está actualmente obsoleta.

SwitchToGatewayNode Las siguientes opciones se agregan para configurar la autenticación de SAML:


- asca. Nombre de alias especificado al importar el certificado de firma de aserción del
proveedor de identidad en el archivo truststore utilizado para la autenticación de
SAML.
- saml. Autenticación de SAML habilitada o deshabilitada en el dominio de Informatica.
- std. Directorio que contiene el archivo truststore personalizado necesario para utilizar
la autenticación de SAML en los nodos de puerta de enlace dentro del dominio.
- stp. Contraseña truststore personalizada utilizada para la autenticación de SAML.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed isp" de la Referencia
de comandos de Informatica 10.2.

Programas de la línea de comandos 367


infacmd isp createConnection
En esta sección se enumeran las opciones de conexión de Hadoop nuevas, cambiadas y eliminadas de la
propiedad infacmd isp createConnection en la versión 10.2.

Opciones de conexión de Hadoop


En las tablas siguientes se describen las nuevas opciones de conexión de Hadoop disponibles en la versión
10.2:

Opción Descripción

clusterConfigId Identificador de configuración de clúster asociado al clúster de Hadoop.

blazeJobMonitorURL El nombre de host y el número de puerto del supervisor de trabajos de Blaze.

rejDirOnHadoop Habilita hadoopRejDir. Se utiliza para especificar una ubicación para mover los
archivos de rechazo cuando se ejecutan asignaciones.

hadoopRejDir Directorio remoto al que el servicio de integración de datos mueve los archivos de
rechazo cuando se ejecutan asignaciones. Active el directorio de rechazo mediante
rejDirOnHadoop.

sparkEventLogDir Ruta de acceso opcional a los archivos de HDFS del directorio que utiliza el motor
de Spark para registrar eventos.

sparkYarnQueueName El nombre de cola del programador de YARN que utiliza el motor de Spark que
especifica cuáles son los recursos disponibles en un clúster.

En la tabla siguiente se describen las opciones de conexión de Hadoop cuyo nombre ha cambiado en la
versión 10.2:

Nombre actual Nombre anterior Descripción

blazeYarnQueueName cadiAppYarnQueueName El nombre de la cola del programador YARN


utilizada por el motor de Blaze que especifica
los recursos disponibles en un clúster. El
nombre distingue entre mayúsculas y
minúsculas.

blazeExecutionParameterList cadiExecutionParameterList Propiedades personalizadas que son exclusivas


para el motor Blaze.

blazeMaxPort cadiMaxPort El valor máximo del intervalo de números de


puerto para el motor de Blaze.

blazeMinPort cadiMinPort El valor mínimo del intervalo de números de


puerto para el motor de Blaze.

blazeUserName cadiUserName El propietario del servicio Blaze y de los


registros del servicio Blaze.

blazeStagingDirectory cadiWorkingDirectory La ruta de archivo HDFS del directorio que usa


el motor Blaze para almacenar archivos
temporales.

368 Capítulo 31: Novedades de la versión 10.2


Nombre actual Nombre anterior Descripción

hiveStagingDatabaseName databaseName Espacio de nombres para tablas de


transferencia provisional de Hive.

impersonationUserName hiveUserName Usuario de suplantación de Hadoop. El nombre


de usuario que suplanta el servicio de
integración de datos para ejecutar asignaciones
en el entorno Hadoop.

sparkStagingDirectory SparkHDFSStagingDir La ruta de acceso del archivo HDFS del


directorio que utiliza el motor de Spark para
almacenar archivos temporales para ejecutar
trabajos.

En la tabla siguiente se describen las opciones de conexión de Hadoop eliminadas de la interfaz de usuario e
importadas en la configuración del clúster:

Opción Descripción

RMAddress El servicio de Hadoop que envía las solicitudes de recursos o inicia


las aplicaciones YARN.
Importada en la configuración del clúster como la propiedad
yarn.resourcemanager.address.

defaultFSURI El URI para acceder al sistema de archivos distribuido de Hadoop


predeterminado.
Importada en la configuración del clúster como la propiedad
fs.defaultFS o fs.default.name.

En la tabla siguiente se describen las opciones de conexión de Hadoop que están obsoletas en la versión
10.2 y que ya no están disponibles en la interfaz de usuario:

Opción Descripción

metastoreDatabaseDriver* Nombre de clase del controlador del almacén de datos de JDBC.

metastoreDatabasePassword* La contraseña del nombre de usuario de metastore.

metastoreDatabaseURI* El URI de la conexión JDBC que se usa para acceder a los datos guardados
en una configuración de metastore local.

metastoreDatabaseUserName* El nombre de usuario de la base de datos de metastore.

metastoreMode* Determina si la conexión se realiza a un metastore remoto o un metastore


local.

remoteMetastoreURI* El URI de metastore utilizado para acceder a los metadatos en una


configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la propiedad
hive.metastore.uris.

Programas de la línea de comandos 369


Opción Descripción

jobMonitoringURL La URL del servidor de historial de trabajos de MapReduce.

* Estas propiedades están obsoletas en la versión 10.2. Al actualizar a la versión 10.2, los valores de propiedad
definidos en una versión anterior se guardan en el repositorio, pero no aparecen en las propiedades de conexión.

Las propiedades siguientes se han eliminado. Si aparecen en cadenas de conexión, no tendrán ningún efecto:

• hadoopClusterInfoExecutionParametersList
• passThroughSecurityEnabled
• hiverserver2Enabled
• hiveInfoExecutionParametersList
• cadiPassword
• sparkMaster
• sparkDeployMode

Conexión de HBase
En la tabla siguiente se describen las opciones de conexión de HBase eliminadas de la conexión e
importadas en la configuración del clúster:

Propiedad Descripción

ZOOKEEPERHOSTS El nombre del equipo donde se aloja el servidor ZooKeeper.

ZOOKEEPERPORT El número de puerto del equipo que aloja el servidor de ZooKeeper.

ISKERBEROSENABLED Permite que el dominio de Informatica se comunique con el servidor


maestro o el servidor de región de HBase que utilice la autenticación
Kerberos.

hbaseMasterPrincipal Nombre de entidad de seguridad de servicio (SPN) del servidor


maestro de HBase.

hbaseRegionServerPrincipal Nombre de entidad de seguridad de servicio (SPN) del servidor de


región de HBase.

Conexión a Hive
En la tabla siguiente se describen las opciones de conexión de Hive eliminadas de la conexión e importadas
en la configuración del clúster:

Propiedad Descripción

defaultFSURI El URI para acceder al sistema de archivos distribuido de Hadoop


predeterminado.

jobTrackerURI El servicio de Hadoop que envía las tareas de MapReduce a nodos


específicos en el clúster.

370 Capítulo 31: Novedades de la versión 10.2


Propiedad Descripción

hiveWarehouseDirectoryOnHDFS La ruta de acceso absoluta al archivo HDFS de la base de datos


predeterminada para el almacén que es local en el clúster.

metastoreExecutionMode Determina si la conexión se realiza a un metastore remoto o un


metastore local.

metastoreDatabaseURI El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.

metastoreDatabaseDriver Nombre de clase del controlador del almacén de datos de JDBC.

metastoreDatabaseUserName El nombre de usuario de la base de datos de metastore.

metastoreDatabasePassword La contraseña del nombre de usuario de metastore.

remoteMetastoreURI El URI de metastore utilizado para acceder a los metadatos en una


configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la
propiedad hive.metastore.uris.

Opciones de conexión de HBase para MapR-DB


La opción de conexión ISKERBEROSENABLED está obsoleta y se importa en la configuración del clúster.

Comandos infacmd mrs


En la siguiente tabla se describen los nuevos comandos de infacmd mrs:

Comando Descripción

manageGroupPermission Administra los permisos en varios proyectos para un grupo.


OnProject

manageUserPermissionO Administra los permisos en varios proyectos para un usuario.


nProject

upgradeExportedObjects Actualiza los objetos exportados a un archivo. XML de una versión anterior de Informatica
al formato de metadatos actual. El comando genera un archivo. XML que contiene los
objetos actualizados.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd mrs" en la Referencia
de comando de Informatica 10.2.

Comandos infacmd ms
En la siguiente tabla se describen los nuevos comandos infacmd ms:

Comando Descripción

GetMappingStatus Obtiene el estado actual de un trabajo de asignación por ID de trabajo.

Programas de la línea de comandos 371


Para obtener más información, consulte el capítulo "Referencia del comando infacmed ms" de la Referencia
de comandos de Informatica 10.2.

Comandos infacmd wfs


En la siguiente tabla se describen los nuevos comandos infacmd wfs:

Comando Descripción

completeTask Completa una instancia de tarea humana especificada.

delegateTask Asigna la propiedad de una instancia de tarea humana a un usuario o grupo.

listTasks Enumera las instancias de tarea humana que cumplen los criterios de filtro especificados.

releaseTask Libera una instancia de tarea humana del propietario actual y devuelve la propiedad de la
instancia de tarea al administrador de negocio que la configuración del flujo de trabajo
identifica.

startTask Cambia el estado de una instancia de tarea humana a IN_PROGRESS.

Para obtener más información, consulte el capítulo "Referencia del comando infacmd wfs" en la Referencia
de comandos de Informatica 10.2.

Comandos de infasetup
En la siguiente tabla se describen los cambios introducidos en los comandos de infasetup:

Comando Descripción

DefineDomain Las opciones siguientes se agregan para configurar la autenticación de lenguaje de marcado
con aserción de seguridad (SAML):
- asca. Nombre de alias especificado al importar el certificado de firma de aserción del
proveedor de identidad en el archivo truststore utilizado para la autenticación de SAML.
- cst. Diferencia horaria permitida entre el reloj del sistema de host de Active Directory
Federation Services (AD FS) y el reloj del sistema del nodo de puerta de enlace maestra.
- std. Directorio que contiene el archivo truststore personalizado necesario para utilizar la
autenticación de SAML en los nodos de puerta de enlace dentro del dominio.
- stp. Contraseña truststore personalizada utilizada para la autenticación de SAML.

DefineGatewayNod Las siguientes opciones se agregan para configurar la autenticación de SAML:


e - asca. Nombre de alias especificado al importar el certificado de firma de aserción del
proveedor de identidad en el archivo truststore utilizado para la autenticación de SAML.
- saml. Habilita o deshabilita la autenticación de SAML en el dominio de Informatica.
- std. Directorio que contiene el archivo truststore personalizado necesario para utilizar la
autenticación de SAML en los nodos de puerta de enlace dentro del dominio.
- stp. Contraseña truststore personalizada utilizada para la autenticación de SAML.

372 Capítulo 31: Novedades de la versión 10.2


Comando Descripción

UpdateDomainSaml Anteriormente llamado UpdateSamlConfig.


Config La siguiente opción se agrega para configurar la autenticación de SAML:
- cst. Diferencia horaria permitida entre el reloj del sistema de host de AD FS y el reloj del
sistema del nodo de puerta de enlace maestra.

UpdateGatewayNod Las siguientes opciones se agregan para configurar la autenticación de SAML.


e - asca. Nombre de alias especificado al importar el certificado de firma de aserción del
proveedor de identidad en el archivo truststore utilizado para la autenticación de SAML.
- saml. Habilita o deshabilita la autenticación de SAML en el dominio de Informatica.
- std. Directorio que contiene el archivo truststore personalizado necesario para utilizar la
autenticación de SAML en los nodos de puerta de enlace dentro del dominio.
- stp. Contraseña truststore personalizada utilizada para la autenticación de SAML.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed infasetup" de la
Referencia de comandos de Informatica 10.2.

Comandos pmrep
La siguiente tabla describe los nuevos comandos pmrep:

Comando Descripción

CreateQuery Crea una consulta en el repositorio.

DeleteQuery Elimina una consulta del repositorio.

En la tabla siguiente se describen las actualizaciones de los comandos pmrep:

Comando Descripción

CreateConnection Contiene la siguiente opción actualizada:


-w. Permite utilizar un parámetro en la opción de contraseña.

ListObjectDependencies Contiene la siguiente opción actualizada:


-o. La lista de tipos de objeto incluye query y deploymentgroup.

UpdateConnection Contiene las siguientes opciones actualizadas:


-w. Permite utilizar un parámetro en la opción de contraseña.
-x. Deshabilita el uso de parámetros de contraseña si utiliza el parámetro en contraseña.

Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.

Tipos de datos
En esta sección se describen las nuevas características de tipo de datos de la versión 10.2.

Tipos de datos 373


Tipos de datos de Informatica
En esta sección se describen nuevos tipos de datos en Developer tool.

Tipos de datos complejos


A partir de la versión 10.2, algunas transformaciones admiten tipos de datos complejos en asignaciones que
se ejecutan en el motor de Spark.

En la tabla siguiente se describen los tipos de datos complejos que se pueden utilizar en las
transformaciones:

Tipo de datos Descripción


complejo

array Contiene una colección ordenada de elementos. Todos los elementos de la matriz deben ser del
mismo tipo de datos. Los elementos pueden ser de tipo de datos primitivo o complejo.

map Contiene una colección no ordenada de pares de clave-valor. La clave debe ser de tipo de datos
primitivo. El valor puede ser de tipo de datos primitivo o complejo.

struct Contiene una colección de elementos de diferentes tipos de datos. Los elementos pueden ser de
tipo de datos primitivo o complejo.

Para obtener más información, consulte el apéndice "Referencia de tipo de datos" de la Guía del usuario de
Informatica Big Data Management 10.2.

Documentación
En esta sección se describen las guías nuevas o actualizadas en la versión 10.2.

La documentación de Informatica contiene los siguientes cambios:


Guía de seguridad de Informatica Big Data Management

A partir de la versión 10.2, la Guía de seguridad de Informatica Big Data Management pasa a llamarse
Guía del administrador de Informatica Big Data Management. Esta guía contiene la información de
seguridad y las tareas de administrador adicionales para Big Data Management.

Para obtener más información, consulte la Guía del administrador de Informatica Big Data Management
10.2.

Guía de instalación y actualización de Informatica Big Data Management

A partir de la versión 10.2, la Guía de instalación y actualización de Informatica Big Data Management
pasa a llamarse Guía de integración de Hadoop de Informatica Big Data Management. A partir de la
versión 10.2, el servicio de integración de datos puede instalar automáticamente los archivos binarios
de Big Data Management en el clúster de Hadoop para integrar el dominio con el clúster. Las tareas de
integración de la guía no incluyen la instalación del paquete de distribución.

Para obtener más información, consulte la Guía de integración de Hadoop de Informatica Big Data
Management 10.2.

374 Capítulo 31: Novedades de la versión 10.2


Guía de Informatica Catalog Administrator

A partir de la versión 10.2, la Guía del administrador de Informatica Live Data Map pasa a llamarse Guía
de Informatica Catalog Administrator.

Para obtener más información, consulte la Guía de Informatica Catalog Administrator 10.2.

Referencia de Informatica Administrator para Enterprise Information Catalog

A partir de la versión 10.2, la Referencia de Informatica Administrator para Live Data Map pasa a llamarse
Referencia de Informatica Administrator para Enterprise Information Catalog.

Para obtener más información, consulte la Referencia de Informatica Administrator para Enterprise
Information Catalog 10.2.

Guía de integración de metadatos personalizados de Informatica Enterprise Information Catalog

A partir de la versión 10.2, es posible introducir metadatos personalizados en el catálogo mediante


Enterprise Information Catalog. Para más información, puede consultar la nueva guía, Guía de
integración de metadatos personalizados de Informatica Enterprise Information Catalog 10.2.

Guía de instalación y configuración de Informatica Enterprise Information Catalog

A partir de la versión 10.2, la Guía de instalación y configuración de Informatica Live Data Map pasa a
llamarse Guía de instalación y configuración de Informatica Enterprise Information Catalog.

Para obtener más información, consulte la Guía de instalación y configuración de Informatica Enterprise
Information Catalog 10.2.

Referencia de la API de REST de Informatica Enterprise Information Catalog

A partir de la versión 10.2, puede utilizar las API de REST expuestas por Enterprise Information Catalog.
Para más información, puede consultar la nueva guía, Referencia de la API de REST de Informatica
Enterprise Information Catalog 10.2.

Guía de actualización de Informatica Enterprise Information Catalog

A partir de la versión 10.2, la Actualización de Informatica Live Data Map desde la versión <x> pasa a
llamarse Actualización de Informatica Enterprise Information Catalog desde las versiones 10.1, 10.1.1,
10.1.1 HF1 y 10.1.1 Update 2.

Para obtener más información, consulte la guía de Actualización de Informatica Enterprise Information
Catalog desde las versiones 10.1, 10.1.1, 10.1.1 HF1 y 10.1.1 Update 2.

Enterprise Information Catalog


En esta sección se describen las nuevas características de Enterprise Information Catalog en la versión 10.2.

Nuevos orígenes de datos


A partir de la versión 10.2, Informatica Enterprise Information Catalog le permite extraer metadatos de
nuevos orígenes de datos.

Puede crear recursos en Informatica Catalog Administrator para extraer metadatos de los siguientes
orígenes de datos:
Apache Atlas

Marco de metadatos para Hadoop.

Enterprise Information Catalog 375


Azure Microsoft SQL Data Warehouse

Base de datos relacional basada en la nube para procesar un gran volumen de datos.

Azure Microsoft SQL Server

Base de datos de nube administrada.

Sistemas de archivos Azure WASB

Interfaz de los blob de almacenamiento de Windows Azure para cargar datos en blobs de Azure.

Erwin

Herramienta de modelado de datos.

Informatica Axon

Solución de control de datos empresariales.

Para obtener más información acerca de los nuevos recursos, consulte la Guía de Informatica Catalog
Administrator 10.2.

Marco de escáner personalizado


A partir de la versión 10.2, puede introducir metadatos personalizados en el catálogo.

Los metadatos personalizados son metadatos definidos por usted. Puede definir un modelo personalizado,
crear un tipo de recurso personalizado y crear un recurso personalizado para introducir metadatos
personalizados desde un origen de datos personalizado. Puede utilizar la integración de metadatos
personalizados para extraer e introducir metadatos de orígenes de datos personalizados para los que
Enterprise Information Catalog no proporciona un modelo.

Para obtener más información acerca de la integración de metadatos personalizados, consulte la Guía de
integración de metadatos personalizados de Informatica Enterprise Information Catalog 10.2.

API de REST
A partir de la versión 10.2, puede utilizar las API de REST de Informatica Enterprise Information Catalog para
acceder a las características relacionadas con los objetos y modelos asociados con un origen de datos y
configurarlas.

Las API de REST permiten recuperar información relacionada con objetos y modelos asociados a un origen
de datos. Además, puede crear, actualizar o eliminar entidades relacionadas con modelos y objetos como
atributos, asociaciones y clases.

Para obtener más información acerca de los orígenes de archivos no estructurados, consulte la Referencia de
la API de REST de Informatica Enterprise Information Catalog 10.2.

Dominios de datos compuestos


A partir de la versión 10.2, puede crear dominios de datos compuestos. Un dominio de datos compuesto es
una colección de dominios de datos u otros dominios de datos compuestos que puede vincular mediante
reglas. Puede utilizar un dominio de datos compuesto para buscar los detalles requeridos de una entidad en
varios esquemas de un origen de datos.

Puede ver los dominios de datos compuestos para activos tabulares en la vista Detalles de activos después
de crear y habilitar la detección de dominios de datos compuestos para recursos en Catalog Administrator.
También puede buscar dominios de datos compuestos y ver detalles de los dominios de datos compuestos
en la vista Detalles de activos.

376 Capítulo 31: Novedades de la versión 10.2


Para obtener más información acerca de los dominios de datos compuestos, consulte el capítulo "Ver
activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2 y los capítulos "Conceptos
de Catalog Administrator" y "Administración de dominios de datos compuestos" de la Guía del Informatica
Catalog Administrator 10.2.

Dominios de datos
En esta sección se describen las nuevas características relacionadas con los dominios de datos de
Enterprise Information Catalog.

Definir dominios de datos


A partir de la versión 10.2, puede configurar las siguientes opciones adicionales al crear un dominio de
datos:

• Utilice tablas de referencia, reglas y expresiones regulares para crear una regla de datos o una regla de
columna.
• Utilice el porcentaje mínimo de conformidad o las filas de conformidad mínima para la coincidencia de
dominio de datos.
• Utilice la opción de aceptación automática para aceptar un dominio de datos automáticamente en
Enterprise Information Catalog cuando la coincidencia de dominio de datos supere el porcentaje de
aceptación automática configurado.
Para obtener más información acerca de los dominios de datos en el administrador de catálogo, consulte el
capítulo "Administración de dominios de datos" de la Guía de Informatica Catalog Administrator 10.2.

Configurar dominios de datos


A partir de la versión 10.2, puede utilizar valores predefinidos o especificar un valor de conformidad para la
coincidencia de dominio de datos al crear o editar un recurso.

Para obtener más información acerca de los recursos y dominios de datos, consulte el capítulo "Administrar
recursos" de la Guía de Informatica Catalog Administrator 10.2.

Privilegios de dominio de datos


A partir de la versión 10.2, configure los privilegios Administración de dominios: Administrador - Ver
dominio y Administración de dominios y grupos de dominios: Administrador - Editar dominios y grupos de
dominios en Informatica Administrator para ver, crear, editar o eliminar dominios de datos o grupos de
dominios de datos en Catalog Administrator.

Para obtener más información acerca de los privilegios, consulte el capítulo "Privilegios y funciones" de la
Referencia de Informatica Administrator para Enterprise Information Catalog 10.2.

Conservación de dominio de datos


A partir de la versión 10.2, Enterprise Information Catalog acepta automáticamente un dominio de datos si el
porcentaje de coincidencia de dominio de datos excede el porcentaje de aceptación automática configurado
en Catalog Administrator.

Para obtener más información acerca de la conservación de dominios de datos, consulte el capítulo "Ver
activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.

Enterprise Information Catalog 377


Exportar e importar atributos personalizados
A partir de la versión 10.2, puede exportar los atributos personalizados configurados en un recurso a un
archivo CSV e importar el archivo CSV de nuevo a Enterprise Information Catalog. Puede utilizar el archivo
CSV exportado para asignar valores de atributo personalizados a varios activos al mismo tiempo.

Para obtener más información acerca de la exportación e importación de atributos personalizados, consulte
el capítulo "Ver activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.

Texto enriquecido como valor de atributo personalizado


A partir de la versión 10.2, puede editar un atributo personalizado para asignar varias cadenas de texto
enriquecido como valor de atributo.

Para obtener más información acerca de la asignación de valores de atributo personalizados a un activo,
consulte el capítulo "Ver activos" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.

Lógica de transformación
A partir de la versión 10.2, puede ver la lógica de transformación de activos en la vista de linaje e impacto. La
vista de linaje e impacto muestra la lógica de transformación de los activos que contienen transformaciones.
La vista de transformación muestra la lógica de transformación de estructuras de datos, como tablas y
columnas. La vista también muestra varios tipos de transformaciones, como filtro, combinación, búsqueda,
expresión, clasificador, unión y agregado.

Para obtener más información acerca de la lógica de transformación, consulte el capítulo "Ver linaje e
impacto" de la Guía del usuario de Informatica Enterprise Information Catalog 10.2.

Tipos de archivos no estructurados


A partir de la versión 10.2, puede ejecutar el perfil Detección del dominio de datos o Creación de perfiles de
columna y detección del dominio de datos en tipos de archivos no estructurados y formatos extendidos no
estructurados para todas las filas del origen de datos. Los tipos de archivos no estructurados incluyen
archivos comprimidos, formatos de correo electrónico, archivos de página web, Microsoft Excel, Microsoft
PowerPoint, Microsoft Word y PDF. Los formatos extendidos no estructurados incluyen mp3, mp4, bmp y jpg.

Para obtener más información acerca de los tipos de archivos no estructurados, consulte el capítulo
"Administrar recursos" de la Guía de Informatica Catalog Administrator 10.2.

Frecuencia de valores
Configurar y ver la frecuencia de valores
A partir de la versión 10.2, puede habilitar la frecuencia de valores junto con la similitud de datos de columna
en Catalog Administrator para calcular la frecuencia de los valores en un origen de datos. Puede ver la
frecuencia de valores de la columna de visualización, la columna de tabla, el campo CSV, el campo de
archivos XML y los activos de datos de archivos JSON en la vista Detalles de activos tras ejecutar la
frecuencia de valores en un origen de datos en Catalog Administrator.

Para obtener más información acerca de la configuración de la frecuencia de valores, consulte el capítulo
"Conceptos de Catalog Administrator" en la Guía de Informatica Catalog Administrator 10.2. Para ver la
frecuencia de valores de un activo de datos, consulte el capítulo "Ver activos" de la Guía del usuario de
Informatica Enterprise Information Catalog 10.2.

378 Capítulo 31: Novedades de la versión 10.2


Privilegios para ver la frecuencia de valores en Enterprise Information Catalog
A partir de la versión 10.2, necesita los siguientes permisos y privilegios para ver la frecuencia de valores de
un activo de datos:

• Permiso de lectura para el activo de datos.


• Privilegio Privilegios de datos: ver datos.
• Privilegio Privilegios de datos: ver datos sensibles.

Para obtener más información acerca de los permisos y los privilegios, consulte los capítulos "Introducción a
los privilegios" e "Introducción a los privilegios y funciones" de la Referencia de Informatica Administrator
para Enterprise Information Catalog 10.2 .

Implementación admitida para Azure HDInsight


A partir de la versión 10.2, puede implementar Enterprise Information Catalog en una distribución de Hadoop
de Azure HDInsight.

Para obtener más información, consulte el capítulo "Crear los servicios de aplicación" de la Guía de
instalación y configuración de Informatica Enterprise Information Catalog 10.2.

Informatica Analyst
En esta sección se describen las nuevas características de la Herramienta del analista de la versión 10.2.

Perfiles
En esta sección se describen las nuevas características de para perfiles y cuadros de mando.

Especificación de regla
A partir de la versión 10.2, puede configurar una especificación de regla en la Herramienta del analista y
utilizar la especificación de regla en el perfil de columna.

Para obtener más información sobre el uso de las especificaciones de reglas en los perfiles de columna,
consulte el capítulo "Reglas en Informatica Analyst" de la Guía de obtención de datos de Informatica 10.2.

Intelligent Data Lake


En esta sección se describen las nuevas características de Intelligent Data Lake en la versión 10.2.

Validar y evaluar datos mediante visualización con Apache


Zeppelin
A partir de la versión 10.2, después de publicar datos, puede validar sus datos visualmente para asegurarse
de que los datos son apropiados para su análisis desde los puntos de vista de contenido y calidad. A
continuación, puede optar por corregir la receta de modo que admita un proceso iterativo de preparación,
publicación y validación.

Informatica Analyst 379


Intelligent Data Lake utiliza Apache Zeppelin para ver las hojas de cálculo en forma de cuaderno de
visualización que contiene gráficos y gráficas. Para obtener más información sobre Apache Zeppelin,
consulte la documentación de Apache Zeppelin. Al visualizar los datos mediante las capacidades de
Zeppelin, puede ver relaciones entre distintas columnas y crear diversos gráficos y gráficas.

Al abrir el cuaderno de visualización por primera vez después de publicar un activo de datos, Intelligent Data
Lake utiliza el motor CLAIRE para crear sugerencias de visualización inteligente en forma de histogramas de
las columnas numéricas creadas por el usuario.

Para obtener más información acerca del cuaderno de visualización, consulte el capítulo "Validar y evaluar
datos mediante visualización con Apache Zeppelin" de la Guía del usuario de Informatica Intelligent Data Lake
10.2.

Evaluar datos mediante filtros durante la vista previa de datos


A partir de la versión 10.2, puede filtrar los datos durante la vista previa de datos para una mejor evaluación
de los activos de datos. Puede agregar filtros para varios campos y aplicar combinaciones de dichos filtros.
Las condiciones de filtrado dependen de los tipos de datos. Si están disponibles, puede ver las frecuencias
de valores de columna encontradas durante la creación de perfiles para valores de cadena.

Para obtener más información, consulte el capítulo sobre la detección de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

Diseño mejorado del panel de recetas


A partir de la versión 10.2, puede ver un panel dedicado para los pasos de receta durante la preparación de
los datos. Los pasos de receta se muestran de forma más clara y concisa con códigos de color para indicar
el nombre de la función, las columnas implicadas y los orígenes de entrada. Los pasos se pueden editar o
eliminar. También puede regresar a un paso concreto de la receta y ver el estado de los datos. La receta
puede actualizarse desde el origen. También puede ver un panel de ingredientes independiente que muestra
los orígenes utilizados para esta hoja.

Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

Aplicar reglas de Data Quality


A partir de la versión 10.2, mientras prepara los datos, puede utilizar reglas pregeneradas disponibles
durante la preparación de datos interactivos. Estas reglas se crean utilizando Informatica Developer o
Informatica Analyst. Con una licencia de Big Data Quality, hay disponibles miles de reglas pregeneradas que
también pueden utilizar los usuarios de Intelligent Data Lake. El uso de reglas pregeneradas promueve una
colaboración eficaz dentro de las empresas y los departamentos de TI mediante la reutilización de reglas y
conocimientos, coherencia en el uso y extensibilidad.

Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

Ver términos empresariales para activos de datos en vista previa


de datos y vista de hoja de cálculo
A partir de la versión 10.2, puede ver términos de negocios asociados con columnas de activos de datos en
la vista previa de datos, así como durante la preparación de los datos.

Para obtener más información, consulte el capítulo sobre la detección de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

380 Capítulo 31: Novedades de la versión 10.2


Preparar datos para archivos delimitados
A partir de la versión 10.2, como analista de datos, puede limpiar, transformar, combinar, agregar y realizar
otras operaciones en archivos HDFS delimitados que ya están en Data Lake. Puede previsualizar estos
archivos antes de agregarlos a un proyecto. A continuación, puede configurar la configuración de muestreo
de estos activos y realizar operaciones de preparación de datos en ellos.

Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

Editar combinaciones en una hoja de cálculo combinada


A partir de la versión 10.2, puede editar las condiciones de combinación de una hoja de cálculo combinada
existente, como las claves de combinación y los tipos de combinación (por ejemplo, combinaciones internas
y externas).

Para obtener más información, consulte el capítulo sobre la preparación de datos en la guía Informatica
Intelligent Data Lake User Guide.

Editar configuración de muestreo para la preparación de datos


A partir de la versión 10.2, puede editar la configuración de muestreo mientras prepara su activo de datos.
Puede cambiar las columnas seleccionadas para el muestreo, editar los filtros seleccionados y cambiar los
criterios de muestreo.

Para obtener más información, consulte el capítulo sobre la preparación de datos en la Guía del usuario de
Informatica Intelligent Data Lake 10.2.

Compatibilidad con varios recursos de Enterprise Information


Catalog en Data Lake
A partir de la versión 10.2, puede configurar varios recursos de Enterprise Information Catalog para que los
usuarios puedan trabajar con todos los tipos de activos y todos los esquemas de Hive aplicables en Lake.

Utilizar Oracle para el repositorio del servicio de preparación de


datos
A partir de la versión 10.2, ahora puede utilizar Oracle 11gR2 y 12c para el repositorio del servicio de
preparación de datos.

Escalabilidad mejorada para el servicio de preparación de datos


A partir de la versión 10.2, puede garantizar la escalabilidad horizontal mediante la cuadrícula para el servicio
de preparación de datos con varios nodos del servicio de preparación de datos. La escalabilidad mejorada
proporciona un alto rendimiento, una preparación de datos interactiva durante el aumento de los volúmenes
de datos y un mayor número de usuarios.

Informatica Developer
En esta sección se describen las nuevas características de Developer tool de la versión 10.2.

Informatica Developer 381


Objetos de datos no relacionales
A partir de la versión 10.2, puede importar varios objetos de datos no relacionales a la vez.

Para obtener más información, consulte el capítulo "Objetos de datos físicos" en la Guía de Informatica
Developer tool 10.2.

Perfiles
En esta sección se describen las nuevas características de para perfiles y cuadros de mando.

Especificación de regla
A partir de la versión 10.2, puede utilizar las especificaciones de regla cuando cree un perfil de columna en
Developer tool. Para utilizar la especificación de regla, genere un mapplet de la especificación de regla y
valide el mapplet como regla.

Para obtener más información sobre el uso de las especificaciones de reglas en los perfiles de columna,
consulte el capítulo "Reglas en Informatica Developer" de la Guía de obtención de datos de Informatica 10.2.

Instalación de Informatica
En esta sección se describen las nuevas características de instalación de la versión 10.2.

Informatica Upgrade Advisor


A partir de la versión 10.2, puede ejecutar Informatica Upgrade Advisor para validar los servicios y comprobar
si hay servicios obsoletos, bases de datos compatibles y sistemas operativos compatibles en el dominio
antes de realizar una actualización.

Para obtener más información sobre Upgrade Advisor, consulte las Guías de actualización de Informatica.

Intelligent Streaming
En esta sección se describen las nuevas funciones de Intelligent Streaming en la versión 10.2.

Formato CSV
A partir de la versión 10.2, las asignaciones de transmisión pueden leer y escribir datos en formato CSV.

Para obtener más información acerca del formato CSV, consulte el capítulo "Orígenes y destinos en una
asignación de transmisión" en la Guía del usuario de Informatica Intelligent Streaming 10.2.

Tipos de datos
A partir de la versión 10.2, las asignaciones de transmisión pueden leer, procesar y escribir datos jerárquicos.
Puede utilizar los tipos de datos complejos array, struct y map para procesar los datos jerárquicos.

Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.

382 Capítulo 31: Novedades de la versión 10.2


Conexiones
A partir de la versión 10.2, puede utilizar las siguientes nuevas conexiones de mensajería en las asignaciones
de transmisión:

• AmazonKinesis. Acceda a Amazon Kinesis Stream como origen o Amazon Kinesis Firehose como
destino. Puede crear y administrar una conexión de AmazonKinesis en Developer tool o mediante
infacmd.
• MapRStreams. Acceda a MapRStreams como destinos. Puede crear y administrar una conexión de
MapRStreams en Developer tool o mediante infacmd.

Para obtener más información, consulte el capítulo "Conexiones" en la Guía del usuario de Informatica
Intelligent Streaming 10.2.

Asignaciones de transferencia
A partir de la versión 10.2, puede pasar cualquier formato de carga directamente desde el origen al destino
en asignaciones de transmisión.

Puede proyectar columnas en formato binario para pasar una carga desde el origen al destino en su forma
original o para pasar un formato de carga incompatible.

Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.

Orígenes y destinos
A partir de la versión 10.2, puede crear los siguientes nuevos objetos de datos físicos:

• AmazonKinesis. Representa datos en una transmisión de entrega de Amazon Kinesis Firehose o Amazon
Kinesis Streams.
• MapRStreams. Representa datos en una transmisión de MapR.

Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.

Compatibilidad con transformación


A partir de la versión 10.2, puede utilizar la transformación de rango con restricciones en asignaciones de
transmisión.

Para obtener más información, consulte el capítulo "Asignaciones de Intelligent Streaming" en la Guía del
usuario de Informatica Intelligent Streaming 10.2.

Metadata Manager
En esta sección se describen las nuevas características de Metadata Manager de la versión 10.2.

Cloudera Navigator
A partir de la versión 10.2, puede proporcionar la información del archivo truststore para habilitar una
conexión segura a un recurso de Cloudera Navigator. Al crear o editar un recurso de Cloudera Navigator,

Metadata Manager 383


escriba la ruta de acceso y el nombre del archivo truststore para la instancia SSL de Cloudera Navigator y la
contraseña del archivo truststore.

Para obtener más información sobre la creación de un recurso de Cloudera Navigator, consulte el capítulo
"Recursos de administración de bases de datos" en la Guía del administrador de Informatica Metadata
Manager 10.2.

PowerCenter
En esta sección se describen las nuevas características de PowerCenter de la versión 10.2.

Registros de auditoría
A partir de la versión 10.2, puede generar registros de auditoría al importar un archivo XML en el repositorio
de PowerCenter. Al importar uno o más objetos del repositorio, puede generar registros de auditoría. Puede
habilitar la opción de configuración Traza de auditoría de seguridad en las propiedades del servicio de
repositorio de PowerCenter de la Herramienta del administrador para generar registros de auditoría al
importar un archivo XML en el repositorio de PowerCenter. Los registros de actividad del usuario capturan
todos los mensajes de auditoría.

Los registros de auditoría contienen la siguiente información sobre el archivo, como el nombre y el tamaño
del archivo, el número de objetos importados y la hora de la operación de importación.

Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comandos de Informatica 10.2, la Guía del servicio de aplicación de Informatica 10.2 y la Guía de Informatica
Administrator 10.2.

Upsert en masa para destinos SAP HANA


A partir de la versión 10.2, cuando se realizan operaciones upsert de datos en destinos SAP HANA, se puede
configurar la propiedad personalizada EnableArrayUpsert para realizar la operación upsert de datos en masa
y mejorar el rendimiento de la sesión. Puede configurar la propiedad personalizada EnableArrayUpsert a nivel
de sesión o a nivel de servicio de integración de PowerCenter y establecer su valor como Yes.

Para obtener más información, consulte el capítulo "Trabajar con destinos" en la Guía del diseñador de
PowerCenter de Informatica 10.2.

Consultas de objetos
A partir de la versión 10.2, puede crear y eliminar consultas de objetos con los comandos pmrep.

Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.

Usar parámetro en una contraseña


A partir de la versión 10.2, puede crear o actualizar una conexión con un parámetro en contraseña con los
comandos pmrep.

También puede actualizar una conexión con o sin un parámetro en contraseña con el comando pmrep.

Para obtener más información, consulte el capítulo "Referencia del comando pmrep" en la Referencia de
comando de Informatica 10.2.

384 Capítulo 31: Novedades de la versión 10.2


Adaptadores de PowerExchange
En esta sección se describen las nuevas características del adaptador de PowerExchange de la versión 10.2.

Adaptadores de PowerExchange para Informatica


En esta sección se describen las nuevas características del adaptador de Informatica de la versión 10.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2, PowerExchange for Amazon Redshift incluye las siguientes características
nuevas:

• Puede leer o escribir datos en los depósitos de Amazon S3 en las siguientes regiones:
- Asia Pacífico (Bombay)

- Asia Pacífico (Seúl)

- Canadá (Central)

- China (Pekín)

- UE (Londres)

- Este de los EE. UU. (Ohio)


• Puede ejecutar asignaciones de Amazon Redshift en el motor de Spark. Al ejecutar la asignación, el
servicio de integración de datos inserta la asignación en un clúster de Hadoop y la procesa en el motor de
Spark, lo cual mejora de forma significativa el rendimiento.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para controlar de
forma segura el acceso a los recursos de Amazon S3.
• Puede conectarse a clústeres de Amazon Redshift disponibles en la nube privada virtual (VPC) a través de
extremos de VPC.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para ejecutar
una sesión en el clúster de EMR.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon Redshift de
Informatica 10.2.

PowerExchange for Amazon S3


A partir de la versión 10.2, PowerExchange for Amazon S3 incluye las siguientes características nuevas:

• Puede leer o escribir datos en los depósitos de Amazon S3 en las siguientes regiones:
- Asia Pacífico (Bombay)

- Asia Pacífico (Seúl)

- Canadá (Central)

- China (Pekín)

- UE (Londres)

- Este de los EE. UU. (Ohio)

Adaptadores de PowerExchange 385


• Puede comprimir datos con los siguientes formatos al leer o escribir datos en Amazon S3 en el entorno
nativo y el motor de Spark:

Formato de compresión Lectura Escritura

Bzip2 Sí Sí

Deflate No Sí

Gzip Sí Sí

Lzo Sí Sí

Ninguno Sí Sí

Rápido No Sí

• Puede seleccionar el tipo de origen desde el que desea leer los datos en la opción Tipo de origen en las
propiedades avanzadas de una operación de lectura de objeto de datos de Amazon S3. Puede seleccionar
los tipos de origen Directorio o Archivo.
• Puede seleccionar el tipo de orígenes de datos en la opción Formato de recurso en las propiedades de los
objetos de datos de Amazon S3. Puede leer datos de los siguientes formatos de origen:
- Binario

- Plano

- Avro

- Parquet
• Puede conectarse a clústeres de Amazon S3 disponibles en la nube privada virtual (VPC) a través de
extremos de VPC.
• Puede ejecutar asignaciones de Amazon S3 en el motor de Spark. Al ejecutar la asignación, el servicio de
integración de datos inserta la asignación en un clúster de Hadoop y la procesa en el motor de Spark.
• Si lo desea, puede sobrescribir los archivos existentes. Puede seleccionar la opción Sobrescribir archivos
si existen en las propiedades de la operación de escritura de objetos de datos de Amazon S3 para
sobrescribir los archivos existentes.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para controlar de
forma segura el acceso a los recursos de Amazon S3.
• Puede filtrar los metadatos para optimizar el rendimiento de la búsqueda en la vista Explorador de
objetos.
• Puede utilizar la autenticación de Administración de identidades y acceso (IAM) de AWS para ejecutar
una sesión en el clúster de EMR.

Para obtener más información, consulte la Guía del usuario de Informatica 10.2 PowerExchange for Amazon
S3.

PowerExchange for HBase


A partir de la versión 10.2, PowerExchange for HBase incluye las siguientes características nuevas:

• Puede utilizar PowerExchange for HBase para leer desde orígenes y escribir en destinos almacenados en
el sistema de archivos WASB en Azure HDInsight.

386 Capítulo 31: Novedades de la versión 10.2


• Puede asociar una configuración de clúster a una conexión de HBase. Una configuración de clúster es un
objeto en el dominio que contiene información de configuración sobre el clúster de Hadoop. La
configuración del clúster permite al servicio de integración de datos insertar la lógica de asignación al
entorno Hadoop.

Para obtener más información, consulte la Guía del usuario de PowerExchange for HBase de Informatica 10.2.

PowerExchange for HDFS


A partir de la versión 10.2, puede asociar una configuración de clúster a una conexión de HDFS. Una
configuración de clúster es un objeto en el dominio que contiene información de configuración sobre el
clúster de Hadoop. La configuración del clúster permite al servicio de integración de datos insertar la lógica
de asignación al entorno Hadoop.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for HDFS 10.2.

PowerExchange for Hive


A partir de la versión 10.2, puede asociar una configuración de clúster a una conexión de Hive. Una
configuración de clúster es un objeto en el dominio que contiene información de configuración sobre el
clúster de Hadoop. La configuración del clúster permite al servicio de integración de datos insertar la lógica
de asignación al entorno Hadoop.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Hive de Informatica 10.2.

PowerExchange for MapR-DB


A partir de la versión 10.2, PowerExchange for MapR-DB incluye las siguientes características nuevas:

• Puede ejecutar asignaciones de MapR-DB en el motor de Spark. Al ejecutar la asignación, el servicio de


integración de datos inserta la asignación en un clúster de Hadoop y la procesa en el motor de Spark, lo
cual mejora de forma significativa el rendimiento.
• Puede configurar la partición dinámica para las asignaciones de MapR-DB que se ejecutan en el motor de
Spark.
• Puede asociar una configuración de clúster a una conexión de HBase para MapR-DB. Una configuración
de clúster es un objeto en el dominio que contiene información de configuración sobre el clúster de
Hadoop. La configuración del clúster permite al servicio de integración de datos insertar la lógica de
asignación al entorno Hadoop.
Para obtener más información, consulte la guía Informatica PowerExchange for MapR-DB 10.2 User Guide.

PowerExchange for Microsoft Azure Blob Storage


A partir de la versión 10.2, puede leer o escribir datos en un subdirectorio de Microsoft Azure Blob Storage.
Puede usar los campos Reemplazo de contenedor de blobs y Reemplazo de nombre de blob para leer o
escribir datos en un subdirectorio de Microsoft Azure Blob Storage.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure Blob Storage 10.2.

PowerExchange for Microsoft Azure SQL Data Warehouse


A partir de la versión 10.2, puede ejecutar asignaciones de Microsoft Azure SQL Data Warehouse en un
entorno de Hadoop en clústeres habilitados para Kerberos.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Azure SQL Data Warehouse 10.2.

PowerExchange for Salesforce


A partir de la versión 10.2, puede utilizar la versión 39 de la API de Salesforce para crear una conexión de
Salesforce y acceder a objetos de Salesforce.

Adaptadores de PowerExchange 387


Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Salesforce
10.2 .

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen las nuevas características del adaptador de PowerCenter de la versión 10.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2, PowerExchange for Amazon Redshift incluye las siguientes características
nuevas:

• Puede leer o escribir datos en la región de China (Beijing).


• Al importar objetos de AmazonRSCloudAdapter en PowerCenter Designer, el servicio de integración de
PowerCenter muestra los nombres de tabla por orden alfabético.
• Además de las opciones de recuperación existentes en la tabla de vacío, puede seleccionar la opción
Reindexar para analizar la distribución de los valores en una columna de claves de clasificación
intercaladas.
• Puede configurar la opción de carga de varias partes para cargar un único objeto como un conjunto de
partes independientes. La API de TransferManager carga las diversas partes de un único objeto en
Amazon S3. Después de cargarlas, Amazon S3 monta las partes y crea el objeto completo. La API de
TransferManager utiliza la opción de carga de varias partes para aumentar el rendimiento cuando el
tamaño del contenido de los datos es grande y el ancho de banda es alto.
Puede configurar las opciones Tamaño de la parte y Tamaño de grupo del subproceso de
TransferManager en las propiedades de la sesión de destino.
• PowerExchange for Amazon Redshift utiliza el archivo commons-beanutils.jar para resolver potenciales
problemas de seguridad al acceder a las propiedades. A continuación, se indica la ubicación del archivo
commons-beanutils.jar:
&lt;Directorio de instalación de Informatica&gt;server/bin/javalib/505100/commons-
beanutils-1.9.3.jar
Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon Redshift de
Informatica 10.2 para PowerCenter.

PowerExchange for Amazon S3


A partir de la versión 10.2, PowerExchange for Amazon S3 incluye las siguientes características nuevas:

• Puede leer o escribir datos en la región de China (Beijing).


• Puede leer varios archivos desde Amazon S3 y escribir datos en un destino.
• Puede escribir varios archivos en un destino de Amazon S3 desde un único origen. Puede configurar las
opciones de Columna de distribución en las propiedades de la sesión de destino.
• Cuando se crea una tarea de asignación para escribir datos en los destinos de Amazon S3, puede
configurar particiones para mejorar el rendimiento. Puede configurar la opción Fusionar archivos de
partición en las propiedades de la sesión de destino.
• Puede especificar una ruta de directorio que esté disponible en el servicio de integración de PowerCenter
en la propiedad Ubicación de archivo de ensayo.
• Puede configurar la opción de carga de varias partes para cargar un único objeto como un conjunto de
partes independientes. La API de TransferManager carga las diversas partes de un único objeto en
Amazon S3. Después de cargarlas, Amazon S3 monta las partes y crea el objeto completo. La API de
TransferManager utiliza la opción de carga de varias partes para aumentar el rendimiento cuando el
tamaño del contenido de los datos es grande y el ancho de banda es alto.
Puede configurar las opciones Tamaño de la parte y Tamaño de grupo del subproceso de
TransferManager en las propiedades de la sesión de destino.

388 Capítulo 31: Novedades de la versión 10.2


Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon S3 de Informatica
10.2 para PowerCenter.

PowerExchange for Microsoft Dynamics CRM


A partir de la versión 10.2, puede utilizar las siguientes propiedades de sesión de destino con
PowerExchange for Microsoft Dynamics CRM:

• Agregar motivo de rechazo de fila. Seleccione esta opción para incluir el motivo del rechazo de filas en l
archivo de rechazo.
• Nombre de la clave alternativa. Indica si la columna es la clave alternativa de una entidad. Especifique el
nombre de la clave alternativa. Puede utilizar la clave alternativa en las operaciones update y upsert.
• Puede configurar PowerExchange for Microsoft Dynamics CRM para que se ejecute en la plataforma AIX.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Microsoft
Dynamics CRM 10.2 para PowerCenter.

PowerExchange for SAP NetWeaver


A partir de la versión 10.2, PowerExchange for SAP NetWeaver incluye las siguientes características nuevas:

• Cuando ejecute asignaciones de ABAP para leer datos de tablas de SAP, puede utilizar los tipos de datos
STRING, SSTRING y RAWSTRING. El tipo de datos SSTRING se representa en PowerCenter como SSTR.
• Al leer o escribir datos a través de IDocs, puede utilizar el tipo de datos SSTRING.
• Al ejecutar asignaciones de ABAP para leer datos de tablas de SAP, puede configurar transmisión por
HTTP.
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 para PowerCenter.

Especificaciones de regla
A partir de la versión 10.2, puede seleccionar una especificación de regla del repositorio de modelos en
Informatica Developer y agregar la especificación de regla a una asignación. También puede implementar
una especificación de regla como un servicio web.

Una especificación de regla es un objeto de solo lectura en Developer tool. Agregue una especificación de
regla a una asignación de la misma forma que agrega un mapplet a una asignación. Puede continuar
seleccionando un mapplet que haya generado a partir de una especificación de regla y agregar el mapplet a
una asignación.

Agregue una especificación de regla a una asignación cuando desee que la asignación aplique la lógica que
representa la especificación de regla actual. Agregue el mapplet correspondiente a una asignación cuando
desee utilizar o actualizar la lógica del mapplet independientemente de la especificación de regla.

Cuando se agrega una especificación de regla a una asignación, puede especificar el tipo de salidas en la
especificación de regla. De forma predeterminada, una especificación de regla tiene un único puerto de
salida que contiene el resultado final del análisis de la especificación de regla para cada fila de datos de
entrada. Puede configurar la especificación de regla para crear un puerto de salida para cada conjunto de
reglas de la especificación de regla.

Para obtener más información, consulte el capítulo "Mapplets" en la Guía de asignaciones de Informatica
Developer 10.2.

Especificaciones de regla 389


Seguridad
En esta sección se describen las nuevas características de seguridad de la versión 10.2.

Registros de actividad del usuario


A partir de la versión 10.2, puede ver los intentos de inicio de sesión de las aplicaciones cliente de
Informatica en registros de actividad del usuario.

Los datos de actividad del usuario incluyen las siguientes propiedades para cada intento de inicio de sesión
desde un cliente de Informatica:

• Nombre de la aplicación
• Versión de la aplicación
• Nombre de host o dirección IP del host de la aplicación
Si el cliente establece propiedades personalizadas en solicitudes de inicio de sesión, los datos incluyen las
propiedades personalizadas.

Para obtener más información, consulte el capítulo "Usuarios y grupos" de la Guía de seguridad de
Informatica 10.2.

Idioma de transformación
En esta sección se describen las nuevas características del lenguaje de transformación de la versión 10.2.

Lenguaje de transformación de Informatica


En esta sección se describen las nuevas características del lenguaje de transformación de Informatica en la
versión 10.2.

Funciones complejas
A partir de la versión 10.2, el lenguaje de transformación introduce funciones complejas para tipos de datos
complejos. Utilice funciones complejas para procesar datos jerárquicos en el motor de Spark.

El lenguaje de transformación incluye las siguientes funciones complejas:

• ARRAY
• CAST
• COLLECT_LIST
• CONCAT_ARRAY
• RESPEC
• SIZE
• STRUCT
• STRUCT_AS
Para obtener más información acerca de las funciones complejas, consulte el capítulo "Funciones" de la
Referencia del lenguaje de transformación para Informatica 10.2 Developer.

390 Capítulo 31: Novedades de la versión 10.2


Operadores complejos
A partir de la versión 10.2, el lenguaje de transformación introduce operadores complejos para tipos de datos
complejos. En las asignaciones que se ejecutan en el motor de Spark, utilice operadores complejos para
acceder a elementos de datos jerárquicos.

El lenguaje de transformación incluye los siguientes operadores complejos:

• Operador de subíndice []
• Operador de punto .
Para obtener más información acerca de los operadores complejos, consulte el capítulo "Operadores" de la
Referencia del lenguaje de transformación para Informatica 10.2 Developer.

Funciones de ventana
A partir de la versión 10.2, el lenguaje de transformación introduce funciones de ventana. Utilice las
funciones de ventana para procesar un pequeño subconjunto de un conjunto más grande de datos en el
motor de Spark.

El lenguaje de la transformación incluye las siguientes funciones de ventana:

• LEAD. Proporciona acceso a una fila en un desplazamiento físico dado que se encuentra después de la
fila actual.
• LAG. Proporciona acceso a una fila en un desplazamiento físico dado que se encuentra antes de la fila
actual.
Para obtener más información, consulte el capítulo "Funciones" en la Referencia de lenguaje de
transformación de Informatica 10.2.

Transformaciones
En esta sección se describen las nuevas características de transformación de la versión 10.2.

Transformaciones de Informatica
En esta sección se describen las nuevas características de transformación de Informatica en la versión 10.2.

Transformación del validador de direcciones


En esta sección se describen las nuevas características de la transformación del validador de direcciones.

La transformación del validador de direcciones contiene funciones de dirección adicionales para los
siguientes países:

Austria
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
un identificador de código de dirección postal para un buzón que tenga dos direcciones de calle válidas. Por
ejemplo, un edificio en una intersección entre dos calles podría tener una dirección en ambas calles. Es
posible que el edificio prefiera recibir correo en una de las direcciones. La otra dirección sigue siendo válida,
pero el proveedor de servicios de correo no la utiliza para entregar el correo.

Transformaciones 391
Austria Post asigna un código de dirección postal a ambas direcciones. Austria Post asigna además un
identificador de código de dirección postal a la dirección que no recibe correo. El identificador de código de
dirección postal es idéntico al código de dirección postal de la dirección preferida. Puede utilizar el
identificador de código de dirección postal para buscar la dirección preferida con la transformación del
validador de direcciones.

Para encontrar el identificador de código de dirección postal de una dirección en Austria, seleccione el
puerto de salida del identificador de código de dirección postal de AT. Busque el puerto en el grupo de
puertos complementarios de AT.

Para buscar la dirección que representa un identificador de dirección postal, seleccione el puerto de entrada
del identificador de código de dirección postal de AT. Busque el puerto en el grupo de puertos Discreto.

República Checa
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para agregar
valores de ID de RUIAN a una dirección válida de la República Checa.

Puede encontrar los siguientes valores de ID de RUIAN:

• RUIANAM_ID. Identifica de forma exclusiva el punto de entrega de la dirección.


Para encontrar el valor de ID de RUIAN que identifica de forma exclusiva el punto de entrega de la
dirección, seleccione el puerto de salida del identificador de punto de entrega de RUIAN.
• RUIANSO_ID. Identifica la dirección a nivel de edificio.
Para encontrar el valor de ID de RUIAN que identifica la dirección a nivel de edificio, seleccione el puerto
de salida del identificador de edificio de RUIAN.
• RUIANTEA_ID. Identifica la entrada del edificio.
Para encontrar el valor de ID de RUIAN que identifica la entrada al edificio, seleccione el puerto de salida
del identificador de entrada al edificio de RUIAN.
Busque los puertos en el grupo de puertos complementarios de CZ.

Hong Kong
La transformación del validador de direcciones incluye las siguientes características para Hong Kong:

Soporte multilenguaje para direcciones de Hong Kong

A partir de la versión 10.2, la transformación del validador de direcciones puede leer y escribir
direcciones de Hong Kong en chino o en inglés.
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación. El idioma predeterminado es el chino. Para devolver las direcciones de
Hong Kong en inglés, actualice la propiedad a ENGLISH.

Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres


preferido para los datos de dirección. El conjunto de caracteres predeterminado es hanzi. Para devolver
las direcciones de Hong Kong en caracteres latinos, actualice la propiedad a la opción Latín o ASCII.
Cuando se selecciona un alfabeto latino, la validación de direcciones translitera los datos de la dirección
al pinyin.

Validación de direcciones de una sola línea en modo de lista de sugerencias

A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para devolver
sugerencias válidas para direcciones de Hong Kong que introduzca en una sola línea. Para devolver las
sugerencias, configure la transformación para que se ejecute en el modo de lista de sugerencias.

Envíe la dirección en el idioma nativo chino y en la codificación hanzi. La transformación del validador
de direcciones lee la dirección en la codificación hanzi y devuelve las sugerencias de dirección en el
mismo sistema.

392 Capítulo 31: Novedades de la versión 10.2


Envíe una dirección de Hong Kong con el siguiente formato:
[Province] [Locality] [Street] [House Number] [Building 1] [Building 2] [Sub-
building]
Si envía una dirección incompleta, la transformación devuelve una o más sugerencias de direcciones
para la dirección introducida. Al introducir una dirección completa o casi completa, la transformación
devuelve una sola sugerencia para la dirección introducida.
Para verificar las direcciones de una sola línea, utilice el puerto de dirección completa.

Macao
La transformación del validador de direcciones incluye las siguientes características para Macao:

Soporte multilenguaje para direcciones de Macao

A partir de la versión 10.2, la transformación del validador de direcciones puede leer y escribir
direcciones de Macao en chino o en portugués.

Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que
devuelve la transformación. El idioma predeterminado es el chino. Para devolver las direcciones de
Macao en portugués, actualice la propiedad a ALTERNATIVE_2.

Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres


preferido para los datos de dirección. El conjunto de caracteres predeterminado es Hanzi. Para devolver
las direcciones de Macao en caracteres latinos, actualice la propiedad a la opción Latín o ASCII.

Nota: Cuando selecciona un alfabeto latino con la opción de idioma preferido predeterminado, la
validación de direcciones translitera los datos de dirección en chino a cantonés o mandarín. Cuando
selecciona un alfabeto latino con la opción de idioma preferido ALTERNATIVE_2, la validación de
direcciones devuelve la dirección en portugués.

Verificación de direcciones de una sola línea para direcciones nativas de Macao en modo de lista de sugerencias

A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que
devuelva sugerencias válidas para una dirección de Macao que escriba en una sola línea en el modo de
lista de sugerencias. Si introduce una dirección incompleta en el modo de lista de sugerencias, la
transformación devuelve una o más sugerencias de direcciones para la dirección introducida. Envíe la
dirección en el idioma chino y en la codificación hanzi. La transformación devuelve sugerencias de
direcciones en el idioma chino y en la codificación hanzi. Introduzca una dirección de Macao con el
siguiente formato:
[Locality] [Street] [House Number] [Building]
Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones. El idioma
preferido predeterminado es el chino. Utilice la propiedad Codificación de caracteres preferida para
seleccionar el conjunto de caracteres preferido para los datos de dirección. La codificación preferida
predeterminada es el hanzi. Para verificar las direcciones de una sola línea, introduzca las direcciones
en el puerto de dirección completa.

Taiwán
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
una dirección de Taiwán en chino o en inglés.

Utilice la propiedad Idioma preferido para seleccionar el idioma preferido para las direcciones que devuelve
la transformación. El idioma predeterminado es el chino tradicional. Para devolver las direcciones de Taiwán
en inglés, actualice la propiedad a ENGLISH.

Utilice la propiedad Codificación de caracteres preferida para seleccionar el conjunto de caracteres preferido
para los datos de dirección. El conjunto de caracteres predeterminado es Hanzi. Para devolver las
direcciones de Taiwán en caracteres latinos, actualice la propiedad a la opción Latín o ASCII.

Transformaciones 393
Nota: La estructura de dirección de Taiwán en la codificación nativa enumera todos los elementos de la
dirección en una sola línea. Puede enviar la dirección como una sola cadena en un puerto de línea de
dirección formateada.

Al formatear una dirección de entrada, introduzca los elementos de la dirección en el siguiente orden:
Postal Code, Locality, Dependent Locality, Street, Dependent Street, House or Building
Number, Building Name, Sub-Building Name

Estados Unidos
La transformación del validador de direcciones incluye las siguientes características para Estados Unidos:

Compatibilidad con las versiones que cumplen el algoritmo hash seguro de archivos de datos CASS

A partir de la versión 10.2, el validador de direcciones lee archivos de datos de certificación CASS que
cumplen el estándar SHA-256.

Los archivos de certificación CASS actuales se numeran del USA5C101.MD hasta el USA5C126.MD. Para
verificar las direcciones de Estados Unidos en modo certificado, debe utilizar los archivos actuales.

Nota: Los archivos que cumplen el estándar SHA-256 no son compatibles con versiones anteriores de
Informatica.

Soporte para direcciones sin puerta accesible en modo certificado

A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no proporcionan una puerta o punto de entrada al
proveedor de servicios de correo. Es posible que el proveedor de servicios de correo no pueda entregar
un artículo grande en la dirección.

El servicio postal de Estados Unidos (USPS) mantiene una lista de direcciones que disponen de buzón,
pero no así de una entrada física. Por ejemplo, una residencia puede tener un buzón fuera de un portón
cerrado o en un camino rural. Los datos de referencia de dirección incluyen la lista de direcciones
inaccesibles que reconoce USPS. La validación de direcciones puede devolver el estado accesible de
una dirección al verificar la dirección en modo certificado.

Para identificar direcciones sin puerta accesible, seleccione el puerto de validación de punto de entrega
de puerta no accesible. Busque el puerto en el grupo de puertos específico de Estados Unidos.

Soporte para dirección de ubicación no segura en modo certificado

A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar direcciones de Estados Unidos que no proporcionan un buzón o punto de recepción de correo
seguro. Es posible que el proveedor de servicios de correo no pueda entregar un artículo grande en la
dirección.

El servicio postal de Estados Unidos mantiene una lista de direcciones en las que el buzón de correo no
es seguro. Por ejemplo, un comercio minorista no es una ubicación segura si el proveedor de servicios
de correo puede entrar en el comercio pero no encuentra un buzón ni un empleado que reciban el correo.
Los datos de referencia de la dirección incluyen la lista de direcciones no seguras que reconoce USPS.
La validación de direcciones puede devolver el estado no seguro de una dirección al verificar la dirección
en modo certificado.
Para identificar direcciones no seguras, seleccione el puerto de validación de punto de entrega de
ubicación no segura. Busque el puerto en el grupo de puertos específico de Estados Unidos.

Soporte para zonas de entrega solo de apartado de correos

A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para
identificar códigos postales que contengan exclusivamente direcciones de apartado de correos. Cuando
todas las direcciones de un código postal son direcciones de apartado de correos, el código postal
representa una zona de entrega solo de apartado de correos.

394 Capítulo 31: Novedades de la versión 10.2


La transformación del validador de direcciones agrega el valor Y a una dirección para indicar que
contiene un código postal en una zona de entrega solo de apartado de correos. El valor permite al
proveedor de servicios de correo ordenar el correo más fácilmente. Por ejemplo, los buzones de correo
de una zona de entrega solo de apartado de correos solo pueden residir en una única oficina de correos.
El proveedor de servicios de correo puede entregar todo el correo en la zona de entrega solo de
apartado de correos en un solo viaje.

Para identificar las zonas de entrega solo de apartado de correos, seleccione el puerto del indicador de
zona de entrega de apartado de correos. Busque el puerto en el grupo de puertos específico de Estados
Unidos.

Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2.

Transformación del procesador de datos


En esta sección se describen nuevas características de transformación del procesador de datos.

JsonStreamer
Utilice el objeto JsonStreamer en una transformación del procesador de datos para procesar archivos JSON
de gran tamaño. La transformación divide archivos JSON muy grandes en mensajes JSON completos. La
transformación puede entonces llamar a otros componentes de transformación del procesador de datos, o a
una transformación jerárquica a relacional, para completar el procesamiento.

Para obtener más información, consulte el capítulo "Transmisiones por secuencias" de la Guía del usuario de
Informatica Data Transformation 10.2.

RunPCWebService
Utilice la acción RunPCWebService para llamar a un mapplet de PowerCenter desde una transformación del
procesador de datos.

Para obtener más información, consulte el capítulo "Acciones" de la Guía del usuario de Informatica Data
Transformation 10.2.

Transformaciones de PowerCenter

Evaluar expresión
A partir de la versión 10.2, puede evaluar expresiones que configure en el editor de expresiones de una
transformación de expresión. Para probar una expresión, hay que introducir datos de muestra y, a
continuación, evaluar la expresión.

Para obtener más información sobre la evaluación de una expresión, consulte el capítulo "Cómo trabajar con
transformaciones" y el capítulo "Transformación de expresión" de la Guía de transformación de Informatica
PowerCenter 10.2.

Flujos de trabajo
En esta sección se describen las nuevas características de los flujos de trabajo de la versión 10.2.

Flujos de trabajo 395


Flujos de trabajo de Informatica
En esta sección se describen las nuevas características de los flujos de trabajo de Informatica en la versión
10.2.

Propiedades de distribución de tarea humana


A partir de la versión 10.2, puede almacenar una lista de los usuarios o grupos que pueden trabajar en
instancias de tarea humana en una tabla de base de datos externa. Seleccione la tabla cuando configure la
tarea humana para definir instancias de tarea basadas en los valores de una columna de datos de origen.

La tabla identifica los usuarios o grupos que pueden trabajar en las instancias de la tarea y especifica los
valores de columna que se asociarán a cada usuario o grupo. Puede actualizar la tabla independientemente
de la configuración del flujo de trabajo, por ejemplo, a medida que los usuarios se unen o abandonan el
proyecto. Cuando se ejecuta el flujo de trabajo, el servicio de integración de datos utiliza la información
actual de la tabla para asignar las instancias de la tarea a usuarios o grupos.

También puede especificar un rango de valores numéricos o valores de fecha al asociar usuarios o grupos
con los valores de una columna de datos de origen. Cuando uno o más registros contienen un valor de un
rango que especifique, el servicio de integración de datos asigna la instancia de tarea a un usuario o grupo
que especifique.

Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.

Propiedades de notificación de tarea humana


A partir de la versión 10.2, puede editar la línea de asunto de una notificación de correo electrónico que
configure en una tarea humana. También puede agregar una variable de flujo de trabajo a la línea de asunto
de la notificación.

Una tarea humana puede enviar notificaciones de correo electrónico cuando la tarea humana se completa en
el flujo de trabajo y cuando cambia el estado de una instancia de tarea definida por la tarea humana. Para
configurar notificaciones para una tarea humana, actualice las propiedades de notificación en la tarea
humana en el flujo de trabajo. Para configurar notificaciones para una instancia de tarea, actualice las
propiedades de notificación del paso de la tarea humana que defina las instancias de la tarea.

Al configurar notificaciones para una instancia de tarea humana, puede seleccionar una opción para notificar
al propietario de la instancia de la tarea además de a cualquier destinatario que especifique. La opción se
aplica cuando un solo usuario posee la instancia de la tarea. Al seleccionar la opción para notificar al
propietario de la instancia de la tarea, puede dejar el campo de destinatarios vacío

Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.

Importar desde PowerCenter


A partir de la versión 10.2, puede importar asignaciones con varios canales, sesiones, flujos de trabajo y
worklets desde PowerCenter al repositorio de modelos. Las sesiones de un flujo de trabajo se importan
como tareas de asignación en el repositorio de modelos. Los flujos de trabajo se importan como flujos de
trabajo en el repositorio de modelos. Los worklets de un flujo de trabajo se expanden y se importan objetos
en el repositorio de modelos.

En el repositorio de modelos se importan varios canales de una asignación como asignaciones


independientes basándose en el orden de carga de destino. Si un flujo de trabajo contiene una sesión que
ejecuta una asignación con varios canales, el proceso de importación crea una asignación del repositorio de

396 Capítulo 31: Novedades de la versión 10.2


modelos independiente y una tarea de asignación para cada canal de la asignación de PowerCenter para
conservar el orden de carga de destino.

Para obtener más información acerca de la importación desde PowerCenter, consulte el capítulo "Importar
desde PowerCenter" de la Guía de asignación de Informatica 10.2 Developer y el capítulo "Flujos de trabajo"
de la Guía del flujo de trabajo de Informatica 10.2 Developer.

Flujos de trabajo 397


Capítulo 32

Cambios en la versión 10.2


Este capítulo incluye los siguientes temas:

• Cambios en la compatibilidad, 398


• servicios de aplicación, 402
• Big Data, 403
• Programas de la línea de comandos, 408
• Enterprise Information Catalog, 409
• Informatica Analyst, 409
• Intelligent Streaming, 410
• Adaptadores de PowerExchange, 410
• Seguridad, 412
• Transformaciones, 413
• Flujos de trabajo, 414

Cambios en la compatibilidad
En esta sección, se describen los cambios en la compatibilidad de la versión 10.2.

398
Compatibilidad de distribuciones de Hadoop para Big Data
Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

En la tabla siguiente se enumeran las versiones de la distribución de Hadoop compatibles con los productos
de Big Data de Informatica 10.2:

Producto Amazon Azure Cloudera CDH Hortonworks IBM MapR


EMR HDInsight HDP BigInsights

Big Data 5.4, 5.8 3.5, 3.6 5.9, 5.10, 5.11, 2.4, 2.5, 2.6 4.2 5.2 MEP
Management 5.12, 5.13 2.0
5.2 MEP
3.0

Informatica 5.8 NA 5.11, 5.12, 2.6 NA 5.2 MEP


Intelligent 5.13 2.0
Streaming

Enterprise NA 3.6 5.8, 5.9, 5.10, 2.5, 2.6 4.2.x 3.1


Information 5.11
Catalog

Intelligent Data 5.4 3.6 5.11, 5.12 2.6 4.2 5.2 MEP
Lake 2.0

Para ver una lista de las últimas versiones compatibles, consulte la matriz de disponibilidad de los productos
en el portal de atención al cliente de Informatica:
https://network.informatica.com/community/informatica-network/product-availability-matrices.

Distribuciones de Hadoop para Big Data Management


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en Big
Data Management 10.2:

Distribución de Versiones de Cambios en la versión 10.2


Hadoop distribución
compatibles

Amazon EMR 5.8 Compatibilidad añadida para la versión 5.8. Compatibilidad cancelada para
las versiones 5.0 y 5.4.
Nota: Para utilizar Amazon EMR 5.8 con Big Data Management 10.2, debe
aplicar la corrección de errores de emergencia 10571. Consulte el artículo
KB 525399 de la base de conocimientos.

Azure HDInsight 3.5.x Compatibilidad añadida para la versión 3.6.


3.6.x

Cloudera CDH 5.10.x Se ha incluido soporte para las versiones 5.12 y 5.13.
5.11.x Compatibilidad cancelada para las versiones 5.8 y 5.9.
5.12.x
5.13.x

Cambios en la compatibilidad 399


Distribución de Versiones de Cambios en la versión 10.2
Hadoop distribución
compatibles

Hortonworks HDP 2.5x Compatibilidad cancelada para las versiones 2.3 y 2.4.
2.6x Nota: Para utilizar Hortonworks 2.5 con Big Data Management 10.2, debe
aplicar una corrección de errores de emergencia. Consulte el siguiente
artículo de la base de conocimientos:
- Soporte de Hortonworks 2.5: KB 521847.

MapR 5.2 MEP 3.0.x Compatibilidad añadida para la versión 5.2 MEP 3.0.
Compatibilidad cancelada para las versiones 5.2 MEP 1.x y 5.2 MEP 2.x.

Los productos de Big Data de Informatica admiten una gran variedad de distribuciones de Hadoop. En cada
versión, Informatica añade, difiere y cancela alguna compatibilidad con versiones de distribución de Hadoop.
Informatica podría restablecer la compatibilidad con versiones diferidas en una próxima versión.

Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.

Distribuciones de Hadoop para Enterprise Information Catalog


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en
Enterprise Information Catalog 10.2:

Distribución de Hadoop Versiones de distribución Cambios desde 10.1.1 HotFix1


compatibles

Azure HDInsight 3.6 Compatibilidad añadida para Azure HDInsight.

Cloudera CDH 5.8, 5.9, 5.10, 5.11 No hay cambios.

Hortonworks HDP 2.5.x (versión de Kerberos), 2.6.x Compatibilidad añadida para la versión 2.6 que
(versión no de Kerberos) no es de Kerberos.

IBM BigInsights 4.2 No hay cambios.

Distribuciones de Hadoop para Intelligent Data Lake


En la tabla siguiente se muestran las versiones de distribución de Hadoop admitidas y los cambios
introducidos en Intelligent Data Lake 10.2:

Distribución de Hadoop Versiones de distribución Cambios desde 10.1.1 HotFix1


compatibles

Amazon EMR 5.4 Compatibilidad añadida para la versión 5.4.


Compatibilidad cancelada para la versión 5.0.

Azure HDInsight 3.6 Compatibilidad añadida para la versión 3.6.


Compatibilidad cancelada para la versión 3.5.

400 Capítulo 32: Cambios en la versión 10.2


Distribución de Hadoop Versiones de distribución Cambios desde 10.1.1 HotFix1
compatibles

Cloudera CDH 5.10 Se ha incluido soporte para las versiones 5.10 y 5.12.
5.11 Compatibilidad cancelada para la versión 5.8.
5.12 Compatibilidad aplazada con la versión 5.9.

Hortonworks HDP 2.6 Compatibilidad cancelada para la versión 2.3.


Compatibilidad diferida para las versiones 2.4 y 2.5.

IBM BigInsights 4.2 No hay cambios.

MapR 5.2 MEP 2.0 Compatibilidad añadida para MapR.

Intelligent Streaming Distribuciones de Hadoop


En la siguiente tabla se enumeran las versiones admitidas de la distribución de Hadoop y los cambios en
Intelligent Streaming 10.2:

Distribución Versiones compatibles Cambios desde 10.1.1 HotFix1

Amazon EMR 5.4 Se ha incluido soporte para la versión 5.8.


5.8

Cloudera CDH 5.10.x Se ha incluido soporte para la versión 5.13.


5.11.x Compatibilidad cancelada para las versiones 5.8.
5.12.x Se ha aplazado el soporte para la versión 5.9.
5.13.x

Hortonworks HDP 2.5.x Compatibilidad cancelada para las versiones 2.3.


2.6.x Se ha aplazado el soporte para la versión 2.4.

MapR 5.2 MEP 2.0 Compatibilidad añadida para la versión 5.2 MEP 2.0.

Para ver una lista de las versiones admitidas, consulte la Tabla de disponibilidad del producto en la red de
Informatica: https://network.informatica.com/community/informatica-network/product-
availability-matrices.

Metadata Manager
Custom Metadata Configurator (obsoleto)
A partir de la versión 10.2 de Informatica, Custom Metadata Configurator en Metadata Manager está
obsoleto.

Puede utilizar la plantilla de carga para cargar metadatos de archivos de origen de metadatos en un recurso
personalizado. Cree una plantilla de carga para los modelos que utilicen plantillas de Custom Metadata
Configurator.

Para obtener más información acerca del uso de plantillas de carga, consulte "XConnect personalizado
creado con una plantilla de carga" en la Guía de integración de metadatos personalizados de Informatica
Metadata Manager 10.2.

Cambios en la compatibilidad 401


servicios de aplicación
En esta sección se describen los cambios en los servicios de aplicación en la versión 10.2.

Servicio de administración de contenido


A partir de la versión 10.2, no es necesario actualizar el índice de búsqueda en el repositorio de modelos
antes de ejecutar el comando infacmd cms purge. El comando infacmd cms purge actualiza el índice de
búsqueda antes de purgar las tablas no utilizadas del almacén de datos de referencia.

Anteriormente, se actualizaba el índice de búsqueda antes de ejecutar el comando para que el repositorio de
modelos tuviera una lista actualizada de tablas de referencia. El servicio de administración de contenido
utilizaba la lista de objetos del índice para seleccionar las tablas que eliminar.

Para obtener más información, consulte el capítulo "Servicio de administración de contenido" de la Guía del
servicio de aplicación de Informatica 10.2.

Servicio de integración de datos


En esta sección se describen los cambios que se han realizado en el servicio de integración de datos en la
versión 10.2.

Opciones de ejecución
A partir de la versión 10.2, debe configurar las siguientes opciones de ejecución en la vista Propiedades del
servicio de integración de datos:

• Tamaño máximo del grupo de ejecución a petición. Controla el número de trabajos a petición que pueden
ejecutarse simultáneamente. Los trabajos incluyen previsualizaciones de datos, trabajos de creación de
perfiles, consultas REST y SQL, solicitudes de servicios web y asignaciones que se ejecutan desde
Developer tool.
• Tamaño máximo del grupo de ejecución de lotes nativos. Controla el número de trabajos nativos
implementados que puede ejecutar de forma simultánea cada proceso de servicio de integración de
datos.
• Tamaño máximo del grupo de ejecución de lotes Hadoop. Controla el número de trabajos de Hadoop
implementados que pueden ejecutarse simultáneamente.
Anteriormente, se configuraba la propiedad Tamaño máximo del grupo de ejecución para controlar el
número máximo de trabajos que el proceso del servicio de integración de datos podía ejecutar
simultáneamente.

Al actualizar a 10.2, el valor del tamaño máximo del grupo de ejecución se actualiza a las siguientes
propiedades:

• Tamaño máximo del grupo de lotes a petición. Hereda el valor de la propiedad Tamaño máximo del grupo
de ejecución.
• Tamaño máximo del grupo de ejecución de lotes nativos. Hereda el valor de la propiedad Tamaño
máximo del grupo de ejecución.
• Tamaño máximo del grupo de ejecución de lotes Hadoop. Hereda el valor de la propiedad Tamaño
máximo del grupo de ejecución si el valor original ha variado de 10. Si el valor es 10, el grupo de lotes de
Hadoop conserva el tamaño predeterminado de 100.
Para obtener más información, consulte el capítulo "Servicio de integración de datos" en la Guía del servicio
de aplicación de Informatica 10.2.

402 Capítulo 32: Cambios en la versión 10.2


Big Data
En esta sección se describen los cambios introducidos en Big Data en la versión 10.2.

Conexión de Hadoop
A partir de la versión 10.2, los siguientes cambios afectan a las propiedades de conexión de Hadoop.

Puede utilizar las siguientes propiedades para configurar la conexión de Hadoop:

Propiedad Descripción

Configuración de clúster Nombre de la configuración de clúster asociada al entorno de Hadoop.


Aparece en las propiedades generales.

Escribir archivos de rechazo en Hadoop Seleccione la propiedad para mover los archivos de rechazo a la
ubicación de HDFS que aparece en la propiedad del directorio de
archivo de rechazo al ejecutar asignaciones.
Aparece en las propiedades de directorio de rechazo.

Directorio de archivos de rechazo El directorio para archivos de asignación de Hadoop en HDFS al


ejecutar asignaciones.
Aparece en las propiedades de directorio de rechazo.

Dirección del supervisor de trabajos de El nombre de host y el número de puerto del supervisor de trabajos de
Blaze Blaze.
Aparece en la configuración de Blaze.

Nombre de cola de YARN El nombre de cola del programador de YARN que utiliza el motor de
Spark que especifica cuáles son los recursos disponibles en un
clúster.
Aparece en la configuración de Blaze.

A partir de la versión 10.2, cambia el nombre de las siguientes propiedades:

Nombre actual Nombre anterior Descripción

ImpersonationUserName HiveUserName Usuario de suplantación de Hadoop. El nombre


de usuario que suplanta el servicio de
integración de datos para ejecutar
asignaciones en el entorno Hadoop.

Nombre de la base de datos Nombre de la base de datos Espacio de nombres para tablas de
de transferencia provisional transferencia provisional de Hive.
de Hive Aparece en las propiedades comunes.
Anteriormente aparecía en las propiedades de
Hive.

HiveWarehouseDirectory HiveWarehouseDirectoryOnHDFS La ruta de acceso absoluta al archivo HDFS de


la base de datos predeterminada para el
almacén que es local en el clúster.

Big Data 403


Nombre actual Nombre anterior Descripción

Directorio de transferencia Directorio de trabajo temporal en La ruta de archivo HDFS del directorio que usa
provisional de Blaze HDFS el motor Blaze para almacenar archivos
CadiWorkingDirectory temporales.
Aparece en la configuración de Blaze.

Nombre de usuario de Blaze Nombre de usuario del servicio El propietario del servicio Blaze y de los
de Blaze registros del servicio Blaze.
CadiUserName Aparece en la configuración de Blaze.

Nombre de cola de YARN Nombre de cola de YARN El nombre de la cola del programador YARN
CadiAppYarnQueueName utilizada por el motor de Blaze que especifica
los recursos disponibles en un clúster.
Aparece en la configuración de Blaze.

BlazeMaxPort CadiMaxPort El valor máximo del intervalo de números de


puerto para el motor de Blaze.

BlazeMinPort CadiMinPort El valor mínimo del intervalo de números de


puerto para el motor de Blaze.

BlazeExecutionParameterList CadiExecutionParameterList Una lista opcional de parámetros de


configuración para aplicar al motor de Blaze.

SparkYarnQueueName YarnQueueName El nombre de cola del programador de YARN


que utiliza el motor de Spark que especifica
cuáles son los recursos disponibles en un
clúster.

Directorio de almacenamiento Directorio de almacenamiento La ruta de acceso del archivo HDFS del
provisional de Spark provisional de HDFS de Spark directorio que utiliza el motor de Spark para
almacenar archivos temporales para ejecutar
trabajos.

A partir de la versión 10.2, las siguientes propiedades se eliminan de la conexión y se importan en la


configuración del clúster:

Propiedad Descripción

Dirección de administrador de recursos El servicio de Hadoop que envía las solicitudes de recursos o inicia
las aplicaciones YARN.
Importada en la configuración del clúster como la propiedad
yarn.resourcemanager.address.
Anteriormente aparecía en las propiedades del clúster de Hadoop.

URI del sistema de archivos predeterminado El URI para acceder al sistema de archivos distribuido de Hadoop
predeterminado.
Importada en la configuración del clúster como la propiedad
fs.defaultFS o fs.default.name.
Anteriormente aparecía en las propiedades del clúster de Hadoop.

404 Capítulo 32: Cambios en la versión 10.2


A partir de la versión 10.2, las siguientes propiedades están obsoletas y se han eliminado de la conexión:

Propiedad Descripción

Tipo El tipo de conexión.


Anteriormente aparecía en las propiedades generales.

Modo de ejecución de metastore* Determina si la conexión se realiza a un metastore remoto o un


metastore local.
Anteriormente aparecía en la configuración de Hive.

URI de la base de datos de metastore* El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.
Anteriormente aparecía en la configuración de Hive.

Controlador de la base de datos de Nombre de clase del controlador del almacén de datos de JDBC.
metastore* Anteriormente aparecía en la configuración de Hive.

Nombre de usuario de base de datos de El nombre de usuario de la base de datos de metastore.


metastore* Anteriormente aparecía en la configuración de Hive.

Contraseña de la base de datos de La contraseña del nombre de usuario de metastore.


metastore* Anteriormente aparecía en la configuración de Hive.

URI de metastore remoto* El URI de metastore utilizado para acceder a los metadatos en una
configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la
propiedad hive.metastore.uris.
Anteriormente aparecía en la configuración de Hive.

URL de supervisión de trabajo La URL del servidor de historial de trabajos de MapReduce.


Anteriormente aparecía en la configuración de Hive.

* Estas propiedades están obsoletas en la versión 10.2. Al actualizar a la versión 10.2, los valores de propiedad
definidos en una versión anterior se guardan en el repositorio, pero no aparecen en las propiedades de conexión.

Propiedades de conexión de HBase


A partir de la versión 10.2, las siguientes propiedades se eliminan de la conexión y se importan en la
configuración del clúster:

Propiedad Descripción

Hosts de ZooKeeper El nombre del equipo donde se aloja el servidor ZooKeeper.

Puerto de ZooKeeper El número de puerto del equipo que aloja el servidor de ZooKeeper.

Habilitar conexión de Kerberos Permite que el dominio de Informatica se comunique con el servidor
maestro o el servidor de región de HBase que utilice la autenticación
Kerberos.

Big Data 405


Propiedad Descripción

Entidad de seguridad de HBase Master Nombre de entidad de seguridad de servicio (SPN) del servidor
maestro de HBase.

Entidad de seguridad de HBase RegionServer Nombre de entidad de seguridad de servicio (SPN) del servidor de
región de HBase.

Propiedades de conexión de Hive


A partir de la versión 10.2, PowerExchange for Hive presenta los siguientes cambios:

• No puede utilizar una conexión de PowerExchange for Hive si desea que el controlador de Hive ejecute
asignaciones en el clúster de Hadoop. Para utilizar el controlador de Hive para ejecutar asignaciones en el
clúster de Hadoop, utilice una conexión de Hadoop.
• Las siguientes propiedades se eliminan de la conexión y se importan en la configuración del clúster:

Propiedad Descripción

URI de sistema de archivos predeterminado El URI para acceder al sistema de archivos distribuido de Hadoop
predeterminado.

URI de JobTracker/Administrador de El servicio de Hadoop que envía las tareas de MapReduce a nodos
recursos YARN específicos en el clúster.

Directorio de almacén Hive en HDFS La ruta de acceso absoluta al archivo HDFS de la base de datos
predeterminada para el almacén que es local en el clúster.

Modo de ejecución de metastore Determina si la conexión se realiza a un metastore remoto o un


metastore local.

URI de la base de datos de metastore El URI de la conexión JDBC que se usa para acceder a los datos
guardados en una configuración de metastore local.

Controlador de la base de datos de Nombre de clase del controlador del almacén de datos de JDBC.
metastore

Nombre de usuario de base de datos de El nombre de usuario de la base de datos de metastore.


metastore

Contraseña de la base de datos de La contraseña del nombre de usuario de metastore.


metastore

URI de metastore remoto El URI de metastore utilizado para acceder a los metadatos en una
configuración de metastore remoto.
Esta propiedad se importa en la configuración del clúster como la
propiedad hive.metastore.uris.

Propiedades de conexión de HBase para MapR-DB


A partir de la versión 10.2, la propiedad Habilitar conexión de Kerberos se elimina de la conexión de HBase
para MapR-DB y se importa en la configuración del clúster.

406 Capítulo 32: Cambios en la versión 10.2


Propiedades de tiempo de ejecución de asignación
En esta sección se muestran los cambios introducidos en las propiedades de tiempo de ejecución de
asignación.

Entorno de ejecución
A partir de la versión 10.2, puede configurar el directorio de archivos de rechazo como una nueva propiedad
en el entorno de ejecución de Hadoop.

Nombre Valor

Directorio de El directorio para los archivos de asignación de Hadoop en HDFS cuando se ejecutan las
archivos de asignaciones en el entorno de Hadoop.
rechazo El motor de Blaze puede escribir archivos de rechazo en el entorno de Hadoop para destinos de
archivos sin formato, HDFS y Hive. Los motores de Spark y Hive pueden escribir archivos de
rechazo en el entorno de Hadoop para destinos de archivos sin formato y HDFS.
Especifique una de las siguientes opciones:
- En el equipo del servicio de integración de datos. El servicio de integración de datos almacena
los archivos de rechazo sobre la base del parámetro del sistema RejectDir.
- En el clúster de Hadoop. Los archivos de rechazo se mueven al directorio de rechazo
configurado en la conexión de Hadoop. Si el directorio no está configurado, la asignación
fallará.
- Diferir a la conexión de Hadoop. Los archivos de rechazo se mueven en función de si el
directorio de rechazo está habilitado en las propiedades de conexión de Hadoop. Si el directorio
de rechazo está habilitado, los archivos de rechazo se mueven al directorio de rechazo
configurado en la conexión de Hadoop. De lo contrario, el servicio de integración de datos
almacena los archivos de rechazo sobre la base del parámetro del sistema RejectDir.

Supervisión
A partir de la versión 10.2, la fila AllHiveSourceTables de la vista Resumen de estadísticas de la Herramienta
del administrador incluye registros leídos de los siguientes orígenes:

• Orígenes de Hive originales en la asignación.


• Tablas de ensayo de Hive definidas por el motor de Hive.
• Datos de ensayo entre dos trabajos de MapReduce vinculados en cada consulta.
Si la sesión de LDTM incluye un trabajo de MapReduce, la estadística AllHiveSourceTables solo incluye
orígenes de Hive originales en la asignación.

Para obtener más información, consulte el capítulo "Supervisar asignaciones en el entorno de Hadoop" de la
Guía del usuario de Big Data Management 10.2.

Propiedades de clave secreta y de acceso S3


A partir de la versión 10.2, las siguientes propiedades se incluyen en la lista de propiedades sensibles de una
configuración de clúster:

• fs.s3a.access.key
• fs.s3a.secret.key
• fs.s3n.awsAccessKeyId
• fs.s3n.awsSecretAccessKey
• fs.s3.awsAccessKeyId
• fs.s3.awsSecretAccessKey

Big Data 407


Las propiedades sensibles se incluyen, pero se enmascaran al generar un archivo de archivado de
configuración de clúster para implementar en el equipo que ejecuta Developer tool.

Anteriormente, configuraba estas propiedades en los archivos de configuración XML de los equipos que
ejecutan el servicio de integración de datos y Developer tool.

Para obtener más información sobre las propiedades sensibles, consulte la Guía del administrador de
Informatica Big Data Management 10.2.

Sqoop
A partir de la versión 10.2, si crea un archivo de contraseña para acceder a una base de datos, Sqoop omite
el archivo de contraseña. Sqoop utiliza el valor que configura en el campo Contraseña de la conexión JDBC.

Anteriormente, podía crear un archivo de contraseña para acceder a una base de datos.

Para obtener más información, consulte el capítulo "Asignación de objetos en el entorno de Hadoop" en la
Guía del usuario de Informatica Big Data Management 10.2.

Programas de la línea de comandos


En esta sección se describen los cambios en los comandos en la versión 10.2.

Comandos infacmd ihs


Comandos obsoletos

En la siguiente tabla se describen los comandos infacmd ihs obsoletos:

Comando Descripción

BackupData Realiza una copia de seguridad de los datos de HDFS del clúster de Hadoop interno en un archivo
ZIP. Cuando se realiza una copia de seguridad de los datos, el servicio de clústeres de Informatica
guarda todos los datos que Enterprise Information Catalog ha creado, como los datos de HBase,
los datos del detector y los datos de ingesta.

removesnapshot Quita las instantáneas de HDFS existentes de modo que pueda ejecutar el comando infacmd ihs
BackupData correctamente para realizar una copia de seguridad de los datos de HDFS.

Comandos infacmd ldm


Comandos cambiados

408 Capítulo 32: Cambios en la versión 10.2


En la siguiente tabla se describen los comandos infacmd ldm que se han cambiado:

Comando Cambiar descripción

BackupData A partir de la versión 10.2, el nombre


del comando se ha cambiado por
BackupContents.

LocalDestination A partir de la versión 10.2, la opción -


of se ha agregado al comando
BackupContents.

restoreData A partir de la versión 10.2, el nombre


del comando se ha cambiado por
restoreContents.

Para obtener más información, consulte el capítulo "Referencia del comando infacmed ldm" de la Referencia
de comandos de Informatica 10.2.

Enterprise Information Catalog


En esta sección se describen los cambios introducidos en Informatica Enterprise Information Catalog en la
versión 10.2.

Cambios de nombre de producto


A partir de la versión 10.2, Enterprise Information Catalog incluye los siguientes cambios de nombre:

• El producto Informatica Live Data Map ha cambiado de nombre a Informatica Enterprise Information
Catalog.
• La Herramienta del administrador de Informatica Live Data Map ha cambiado de nombre a Informatica
Catalog Administrator.
• El nombre del instalador ha pasado de Live Data Map a Enterprise Information Catalog.

Informatica Analyst
En esta sección se describen los cambios introducidos en la Herramienta del analista en la versión 10.2.

Parámetros
En esta sección se describen los cambios introducidos en los parámetros de la Herramienta del analista.

Parámetros del sistema


A partir de la versión 10.2, la Herramienta del analista muestra la ruta de acceso de los parámetros del
sistema con el siguiente formato: $$[Nombre del parámetro]/[Ruta de acceso].

Enterprise Information Catalog 409


Anteriormente, la Herramienta del analista mostraba la ruta de archivo local del objeto de datos y no resolvía
el parámetro del sistema.

Para obtener más información acerca de la visualización de objetos de datos, consulte la Guía de la
Herramienta del analista de Informatica 10.2.

Intelligent Streaming
En esta sección se describen los cambios que se han realizado en Informatica Intelligent Streaming en la
versión 10.2.

Cambios en objeto de datos Kafka


A partir de la versión 10.2, al configurar las propiedades de lectura de operación de datos, puede especificar
el momento desde el que el origen de Kafka comienza a leer mensajes de Kafka desde un tema de Kafka.
Puede leer o escribir en un clúster de Kafka configurado para la autenticación Kerberos.

Para obtener más información, consulte el capítulo "Orígenes y destinos en una asignación de transmisión"
en la Guía del usuario de Informatica Intelligent Streaming 10.2.

Adaptadores de PowerExchange
En esta sección se describen los cambios que se han realizado en los adaptadores de PowerExchange de la
versión 10.2.

Adaptadores de PowerExchange para Informatica


En esta sección se describen los cambios realizados en los adaptadores de Informatica de la versión 10.2.

PowerExchange for Amazon S3


A partir de la versión 10.2, PowerExchange for Amazon S3 presenta los siguientes cambios:

• Puede proporcionar la ruta de la carpeta sin especificar el nombre del depósito en las propiedades
avanzadas para la operación de lectura y escritura con el siguiente formato: /<folder_name>. El servicio
de integración de datos anexa esta ruta de carpeta a la ruta de la carpeta especificada en las propiedades
de conexión.
Anteriormente, especificaba el nombre del depósito junto con la ruta de la carpeta en las propiedades
avanzadas para la operación de lectura y escritura con el siguiente formato: <bucket_name>/
<folder_name>.
• Puede ver el directorio de nombres de depósito si sigue la lista de subdirectorios del panel izquierdo y la
lista seleccionada de archivos del panel derecho del explorador de importación de metadatos.
Anteriormente, PowerExchange for Amazon S3 mostraba la lista de nombres de depósito en el panel
izquierdo y la ruta de la carpeta junto con los nombres de archivo en el panel derecho del explorador de
importación de metadatos.

410 Capítulo 32: Cambios en la versión 10.2


• PowerExchange for Amazon S3 crea las operaciones de lectura y escritura de objetos de datos para el
objeto de datos de Amazon S3 automáticamente.
Anteriormente, era necesario crear manualmente las operaciones de lectura y escritura de objetos de
datos para el objeto de datos de Amazon S3.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon S3 de Informatica
10.2.

Adaptadores de PowerExchange para PowerCenter


En esta sección se describen los cambios que se han realizado en los adaptadores de PowerCenter en la
versión 10.2.

PowerExchange for Amazon Redshift


A partir de la versión 10.2, debe proporcionar el nombre de esquema para la tabla de Amazon Redshift para
ejecutar asignaciones correctamente.

Anteriormente, las asignaciones se ejecutaban incluso si se seleccionaba el esquema público.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Amazon Redshift de
Informatica 10.2 para PowerCenter.

PowerExchange for Email Server


A partir de la versión 10.2, PowerExchange for Email Server se instala con los servicios de Informatica.

Anteriormente, PowerExchange for Email Server tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Email Server de Informatica
10.2 para PowerCenter.

PowerExchange for JD Edwards EnterpriseOne


A partir de la versión 10.2, PowerExchange for JD Edwards EnterpriseOne se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for JD Edwards EnterpriseOne tenía un programa de instalación


independiente.

Para obtener más información, consulte la Guía del usuario de PowerExchange for JD Edwards EnterpriseOne
de Informatica 10.2 para PowerCenter.

PowerExchange for JD Edwards World


A partir de la versión 10.2, PowerExchange for JD Edwards World se instala con los servicios de Informatica.

Anteriormente, PowerExchange for JD Edwards World tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de PowerExchange for JD Edwards World de
Informatica 10.2 para PowerCenter.

PowerExchange for LDAP


A partir de la versión 10.2, PowerExchange for LDAP se instala con los servicios de Informatica.

Anteriormente, PowerExchange for LDAP tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for LDAP 10.2 para
PowerCenter.

PowerExchange for Lotus Notes


A partir de la versión 10.2, PowerExchange for Lotus Notes se instala con los servicios de Informatica.

Adaptadores de PowerExchange 411


Anteriormente, PowerExchange for Lotus Notes tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Lotus Notes de Informatica
10.2 para PowerCenter.

PowerExchange for Oracle E-Business Suite


A partir de la versión 10.2, PowerExchange for Oracle E-Business Suite se instala con los servicios de
Informatica.

Anteriormente, PowerExchange for Oracle E-Business Suite tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de PowerExchange for Oracle E-Business Suite de
Informatica 10.2 para PowerCenter.

PowerExchange for SAP NetWeaver


A partir de la versión 10.2, Informatica no empaqueta transportes seguros en una carpeta independiente
denominada Seguro en el archivo .zip del programa de instalación de Informatica. Informatica empaqueta los
transportes estándar y seguros en las siguientes carpetas:

• Cofiles unicode: Archivo .zip del programa de instalación de Informatica/saptrans/mySAP/UC/


cofiles
• Datafiles unicode: Archivo .zip del programa de instalación de Informatica/saptrans/mySAP/UC/
data
• Cofiles no unicode: Archivo .zip del programa de instalación de Informatica/saptrans/
mySAP/NUC/cofiles
• Datafiles no unicode: Archivo .zip del programa de instalación de Informatica/saptrans/
mySAP/NUC/data
Anteriormente, Informatica empaquetaba los transportes seguros en las siguientes carpetas:

• Cofiles unicode: Archivo .zip del programa de instalación de Informatica/saptrans/mySAP/UC/


Secure/cofiles
• Datafiles unicode: Archivo .zip del programa de instalación de Informatica/saptrans/mySAP/UC/
Secure/data
• Cofiles no unicode: Archivo .zip del programa de instalación de Informatica/saptrans/
mySAP/NUC/Secure/cofiles
• Datafiles no unicode: Archivo .zip del programa de instalación de Informatica/saptrans/
mySAP/NUC/Secure/data
Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for SAP
NetWeaver 10.2 para PowerCenter.

PowerExchange for Siebel


A partir de la versión 10.2, PowerExchange for Siebel se instala con los servicios de Informatica.

Anteriormente, PowerExchange for Siebel tenía un programa de instalación independiente.

Para obtener más información, consulte la Guía del usuario de Informatica PowerExchange for Siebel 10.2
para PowerCenter.

Seguridad
En esta sección se describen los cambios en las características de seguridad de la versión 10.2.

412 Capítulo 32: Cambios en la versión 10.2


Autenticación de SAML
A partir de la versión 10.2, debe configurar la autenticación del lenguaje de marcado de aserción de
seguridad (SAML) en el nivel de dominio y en todos los nodos de puerta de enlace del dominio.

Anteriormente, solo había que configurar la autenticación de SAML en el nivel de dominio.

Para obtener más información, consulte el capítulo "Autenticación de SAML para aplicaciones web de
Informatica" en la Guía de seguridad de Informatica 10.2.

Transformaciones
En esta sección se describen los cambios en el comportamiento de las transformaciones en la versión 10.2.

Transformaciones de Informatica
En esta sección se describen los cambios en las transformaciones de Informatica en la versión 10.2.

Transformación del validador de direcciones


En esta sección se describen los cambios en la transformación del validador de direcciones.

La transformación del validador de direcciones contiene las siguientes actualizaciones para la funcionalidad
de direcciones:

Todos los países


A partir de la versión 10.2, la transformación del validador de direcciones utiliza la versión 5.11.0 del motor
de software Informatica Address Verification. El motor habilita las funciones que Informatica añade a la
transformación del validador de direcciones en la versión 10.2.

Anteriormente, la transformación utilizaba la versión 5.9.0 del motor de software Informatica Address
Verification.

Japón
A partir de la versión 10.2, puede configurar una única asignación para devolver el código Choumei Aza de
una dirección actual de Japón. Para devolver el código, seleccione el puerto del código Choumei Aza de JP
actual. Puede utilizar el código para buscar la versión actual de cualquier dirección heredada que Japan Post
reconozca.

Anteriormente, se usaba el puerto del código Choumei Aza de JP nuevo para devolver cambios
incrementales en el código Choumei Aza de una dirección. La transformación no incluía el puerto del código
Choumei Aza de JP actual. Era necesario configurar dos o más asignaciones para verificar un código
Choumei Aza actual y la dirección correspondiente.

Reino Unido
A partir de la versión 10.2, puede configurar la transformación del validador de direcciones para que devuelva
información de condado tradicional, administrativa y postal del archivo de dirección postal del Royal Mail. La
transformación devuelve la información sobre los puertos de provincia.

Anteriormente, la transformación devolvía la información de condado postal cuando la información era


relevante para el envío postal.

Transformaciones 413
En la tabla siguiente se muestran los puertos que se pueden seleccionar para cada tipo de información:

Tipo de información de condado Elemento de dirección

Postal Provincia 1

Administrativa Provincia 2

Tradicional Provincia 3

Estándares de certificación actualizados en varios países


A partir de la versión 10.2, Informatica admite los siguientes estándares de certificación para software de
verificación de direcciones:

• Sistema de aprobación de coincidencia de direcciones (AMAS) de Australia Post. Actualizado al ciclo


2017.
• Certificación SendRight de New Zealand Post. Actualizado al ciclo 2017.
• Programa de evaluación y reconocimiento de software (SERP) de Canada Post. Actualizado al ciclo 2017.
Informatica sigue admitiendo las versiones actuales de los estándares del sistema de apoyo para la
exactitud de codificación (CASS) del servicio postal de Estados Unidos y el estándar del Service National de
L'Adresse (SNA) de La Poste de Francia.

Para obtener más información, consulte la Guía de transformación de Informatica Developer 10.2 y la
Referencia de puertos del validador de direcciones de Informatica 10.2.

Para obtener información completa acerca de las actualizaciones del motor de software Informatica Address
Verification de la versión 5.9.0 a la versión 5.11.0, consulte la Guía de la versión 5.11.0 de Informatica
Address Verification.

Transformación de expresión
A partir de la versión 10.2, puede configurar la transformación de expresión para que sea una transformación
activa en el motor de Spark mediante una función de ventana o una función agregada con propiedades de
ventana.

Anteriormente, la transformación de expresión solo podía ser una transformación pasiva.

Para obtener más información, consulte la Guía del administrador de Big Data Management 10.2.

Transformación de normalizador
A partir de la versión 10.2, la opción de deshabilitar la generación de grupos de salida de primer nivel ya no
está disponible en las propiedades avanzadas de la transformación de normalizador.

Anteriormente podía seleccionar esta opción para suprimir la generación de grupos de salida de primer nivel.

Para obtener más información, consulte la Guía de transformación de desarrollador de Informatica Big Data
Management 10.2.

Flujos de trabajo
En esta sección se describen los cambios en el comportamiento del flujo de trabajo en la versión 10.2.

414 Capítulo 32: Cambios en la versión 10.2


Flujos de trabajo de Informatica
En esta sección se describen los cambios que se han realizado en el comportamiento del flujo de trabajo de
Informatica en la versión 10.2.

Variables de flujo de trabajo en las notificaciones de instancia de tarea


A partir de la versión 10.2, el nombre de la variable de flujo de trabajo $taskEvent.startOwner cambia a
$taskEvent.owner. El uso de la variable no cambia en la versión 10.2.

Para obtener más información, consulte el capítulo "Tarea humana" en la Guía de flujo de trabajo de
Informatica 10.2 Developer.

Flujos de trabajo 415

También podría gustarte