INFA数据
INFA数据
关注数: 8
粉丝数: 2
发帖数: 74
关注贴吧数: 0
如何削减成本与复杂性并发掘企业数据价值 (Informaitca) 引言应用程序组合业已变得庞大、复杂且难以驾驭。IT 组织仅为维护这些应用程序组合就必须付出高昂成本,而 IT 部门的工作效率则因为其员工在集成应用程序、处理庞大数据量及设法解决冗余和重复应用程序方面耗时过多而备受影响。这一应用程序膨胀问题同时也影响了合规能力,为数据隐私和安全带来风险,并使得业务部门无法获得提高业绩所需的完整、可靠的信息。应用程序膨胀是多年以来的策略性部署与并购的累积结果,随着如今企业将更多的应用程序移往公共和私有云,且IT 团队必须应对不断增长的大数据量,而有了进一步恶化的趋势。除了仅为维持不断蔓延增生的应用环境“持续运转”就必须吞噬大量 IT 预算以外,它更阻碍了 IT 组织为驱动业务价值而寻求战略性改进和创新举措。这形成了一个严重影响业务绩效的恶性循环。本白皮书对应用程序膨胀问题详加审视说明,并概述了IT 团队能够用于从应用环境中最大程度地取得投资回报(ROI)的策略和技术。本白皮书通过三位 Informatica 客户的真实用例,诠释 Informatica 平台如何能够帮助 IT 部门依据以下重点,三管齐下地实现过渡到以数据为中心的精益企业: • 在削减成本与复杂性的同时有效地维持应用环境 • 借助新功能改善应用环境,实现业务流程现代化 • 将应用环境转化为推动创新和增长的业务驱动器 应用程序膨胀带来恶性循环如果您的 IT 团队在设法解决应用程序组合膨胀问题,您可能会提出下列问题: • 为什么我们需要为维持运营应用程序耗费巨资? • 我们如何才能为改善应用程序分配更多资源,以便提高业务灵活性? • 我们如何才能确保业务部门实现应用程序的最大投资回报?在大多数 IT 组织中,用于维持应用环境的开支占最高比例。根据一份2011年的报告:“Forrester 的近期研究结果显示持续运行与维护费用在预算中占据的比例达到65%—某些公司承认他们维持运行的成本甚至高达90%以上。”1 I T 工作效率低下是导致应用环境高昂成本的罪魁祸首。企业和数据架构师为了维护复杂的界面集及设计不同应用程序之间错综复杂的点对点数据交换解决方案而耗时良多。IT 团队则为了履行应用程序性能和数据交付所需的服务层协议(SLA)而殚精竭力。重复或冗余应用程序的普遍使用令情况变得更加复杂。对业务绩效和灵活性的影响在如此复杂的应用环境中,数据质量无可避免地蒙受影响。多个系统中的信息自相矛盾、残缺不全,意味着业务部门因为缺乏单一可信的真实版本而承受不良决策与错失商机的风险。IT 和业务部门均难以访问支持这些应用程序的数据。生产与非生产环境中的数据安全和隐私也可能受到影响。由于零散分布的应用程序和临时存档系统仅能提供有限的数据沿袭可视性,将难于实现合规性。而且除非软件即服务(SaaS)应用程序能够与企业内部数据有效集成,否则向 SaaS 应用程序的过渡只会为单一真实版本增添复杂性和新的障碍。大数据的出现带来了另一个难题—交易信息与来自社交媒体、呼叫详细记录、传感器和设备及大型图像文件等新来源的数据量均在源源不断地上涨。随着数据量的突飞猛进,应用程序性能所遭受的影响可能达到无法向业务部门提供数据的地步。事实上,一项由 Informatica 赞助的 Unisphere Research 调查发现 87%的受访者将应用程序性能问题归咎于不断增长的数据量2。所有这些问题共同损害了业务绩效和灵活性
正确与错误的主数据管理 (MDM) 策略对比 (Informatica) 一些富有远见的公司憧憬着让业务部门有权通过桌面访问整个企业范围内统一可靠的业务关键数据(也称为主数据),从而让员工能够有效确定业务优先级。这些公司清楚此愿景将带来的良好效益。它们意识到以不同格式存储在整个企业内不同系统中的不一致的重复业务关键型数据(例如客户、产品、合作伙伴和供应商数据)会妨碍实现业务战略目标,其中包括获得并留住客户、使高效的运营成为竞争优势、更快从收购中实现价值,以及为在整个企业内实现明智决策提供支持。这些公司是多领域主数据管理 (MDM) 的早期运用者,它们在该方案的最初阶段即已实现较大的业务效益。 这些多领域 MDM 的先行者最终通过进一步扩大了其技术运用范围解决了其它紧迫的业务问题,从而印证了 MDM 为整个企业带来的高效。MDM 目前已得到主流用户的关注,有些公司正在评估 MDM,寻找一种两全其美的策略 — 不仅适用于其初始部署,而且还适用于全力在整个企业内推广运用多领域 MDM。 为满足不断增长的需求,许多业界分析师发布了很多成熟度模型,为主流 MDM 用户降低项目风险并减轻数据治理负担,提供如何踏上 MDM 实现之旅的建议。通常,这些侧重于技术的模型包括下列建议: 从小处入手,即首先处理单个数据类型(例如客户),然后添加其它领域(例如产品)。 首先在较小范围(例如注册表样式)内实施 MDM,然后将该架构迁移到其它样式,例如混合型、协作型或交易型的样式。 首先,仅对数据仓库部署 MDM,以改善报表。然后,将它与操作系统相集成,以提高性能。 这些侧重于技术的途径在本质上都提倡从单个 MDM 实施的简单部署开始,并随着技术成熟度曲线逐步开展实施。为确保采用更抗风险的方式实施 MDM,这些公司可能会欣然将这些方法作为最为合理的实施方法。然而,即使遵循上述建议,这些公司仍然无法解决最为紧迫且棘手的业务问题。此方法限制了 MDM 的范围和潜在的投资回报 (ROI),因此将不大可能在整个企业内推广 MDM。 本白皮书指出了侧重于技术的 MDM 实现途径所存在的局限性。它介绍侧重于业务的 MDM 实现途径将如何通过增加方案的业务价值为您搭建起制胜的框架,然后使您能够据此在整个企业内成功推广 MDM 系统。本白皮书以对制药业、银行业和保险业的具体公司实例的总结结束,这些公司利用 MDM 解决特定部门或分部的紧迫业务问题,提供即时结果,然后利用其投资解决其它部门、分部和区域的其它业务问题。 警惕侧重于技术的 MDM 策略 为了确保整个 MDM 的实现之旅的最终成功,必须成功实现初始 MDM 部署。以下业务案例举例说明了将 MDM 方案的初始阶段限制在单个主数据类型、注册表样式以及分析用法限制的结果: 将部署限制于单个领域所带来的后果:某家制造公司具有一项优化买方和卖方供应链流程的战略性要求。它们的目标是更有效地管理供应商的直接和间接物料采购以及对客户的产品分销。据此信息,用于解决该业务问题的 MDM 技术必须能够管理下列主数据类型:供应商、客户、物料和产品。仅从其中一个领域着手将严重限制针对供应链改进的 MDM 解决方案运用。 将 MDM 限制到注册所带来的结果:一家金融服务公司正在全力达到改进风险管理、更精确地计算准备金要求和遵守 Basel II 规章的战略性要求。这需要能够统一存在冲突的交易方主数据和法律层次结构,集中存储数据以供即时访问。在此情况下,注册方法只能将交易方识别为重复项,而无法将此数据统一为“真相的唯一版本”,并运用交易方的正确定义。因此,信用风险经理无法确定哪个是最新而准确的交易方定义。此外,注册表方法不能识别计算面临的累计风险所需的法律层次结构。结果,信用风险经理需要通过一个冗长的流程来确定正确的条目,并通过合并不同系统的信息,获得单一的定义和法律层次结构表示。此后,该信息将充当所有信用风险计算的唯一最佳信息源。在小范围内使用注册方法无法有效解决此棘手的业务问题。
释放海量数据的潜能(Informatica9.1) Informatica 9.1:为海量数据而构建 最新推出的 Informatica 平台 Informatica 9.1 具有明确的开发目标,那就是将海量数据带来的挑战转化为重大机遇。以18年来积累的数据集成领先技术为基础,Informatica9.1 的设计旨在增强以数据为中心的企业效能,以便在以下四个领域充分发挥海量数据的业务潜力: 通过海量数据集成,实现海量数据的业务价值 通过为所有用途提供可信数据,凭借可靠而可信的数据提高业务洞察力和一致性 在IT 部门保持操控权的情况下,以自助服务增强所有用户获取相关信息的能力 自适应数据服务可提供按所有项目的业务需求进行调整的相关数据 海量数据集成 Informatica 9.1 在海量数据集成的三个方面提供了创新和全新功能: 与海量交易数据的连接。Informatica 9.1 通过与 OLTP 和在线分析处理(OLAP)数据存储的本地连接,提供了对高流量的交易数据的访问,最大可达拍字节。Informatica 9.1 提供的一个全新关系/数据仓库设备包可将该连接扩展到专为海量数据定制的解决方案。 海量数据处理。Informatica 9.1 提供的新连接功能可让 IT 部门将来自任何来源的数据输入 Hadoop,同时从 Hadoop 中抽取数据发送给任何目标。此外,该连接还允许对 Hadoop 中的数据应用 Informatica 数据质量、数量探查和其它技术。对于在 Hadoop 系统内外合并交易和交互数据的企业来说,这些功能提供了全新的可能性。 可靠且可信的数据 Informatica 9.1 提供了主数据管理(MDM)和数据质量技术,无论海量数据的多样性或范围如何,均能让贵组织通过向业务流程、应用程序和分析程序提供可靠而可信的数据来取得更优异的业务成效。 适用于所有 MDM 体系架构风格和数据域的单一平台。Informatica 9.1 的通用 MDM 功能可让贵组织通过单一而统一的解决方案,管理、整合及统协所有主数据,而不用考虑其类型或所在位置的差异。 自助服务 如果业务部门依赖 IT 部门来提供海量数据价值,那么该价值就会受到限制。如图 4 所示,Informatica 9.1 具备下列功能,从而让贵组织能够在业务/IT 部门的合作范围之外,在无需 IT 部门参与的情况下增强业务分析师、数据管理员和项目主管的独立工作能力: 为分析师和数据管理员提供的自助服务式数据集成。在一个与 IT 部门的合作架构内,业务用户能够通过 Informatica 9.1 在基于角色的非技术性界面中执行数据集成和质量规则。分析师和数据管理员能够在定义规范、提高对数据的了解度以及改进业务和 IT 部门的工作效率等方面承担更多职能。 通过自助服务提高业务能力 由于缺乏合作以及适合于业务用户的数据自助服务,业务和 IT 部门长期面临重重障碍。业务部门缺乏其所需的可靠信息,而用户则因为浪费时间搜寻信息而导致工作效率低下。海量数据的负面影响与附加的数据动向复杂性无疑只会让该问题雪上加霜。Informatica 9.1 为业务用户提供了自助服务,同时加强了业务/IT 部门之间的合作关系。 通过自适应数据服务,实现虚拟化数据访问 Informatica 9.1 具备的数据虚拟化和联合功能为解决海量数据不断增长的复杂性提供了一个强大而妥善的解决方案。相比传统方式,企业架构师和开发人员能够敏捷地设计、实施和重复利用一系列数据服务,大幅度缩短所需时间并降低成本。 这项创新技术让您能够将来自多个不同来源的数据组合为可用作消费应用程序数据源之一的单一虚拟视图。通过向所有关键标准提供支持,数据服务给予您将数据集成逻辑显示为可重复利用的服务,并根据要求或预定的时间间隔安排来自任何数据源的复杂数据转换操作的灵活性。 集成数据探查服务让您可在数据生命周期的任何阶段评估数据结构和质量,而集成数据质量服务则让您能够确保向业务部门交付可信且可靠的数据。可以顺畅无阻地重复利用数据服务,将其作为直接由源系统访问数据的报告和商业智能解决方案的联合视图,或作为数据仓库转换流程的一部分,也可作为实时数据集成服务。 结论 关于海量数据,有一点是可以肯定无疑的:它将只会日渐庞大。未来的数据世界将会充满在多个领域中改进绩效的机会,但同时也会布满不断增长的数据量、复杂性、多样性和速率所造成的陷阱。 海量数据在今日已是既定事实,而贵组织能够用于迎头赶上这一远大趋势的数据集成技术亦是如此。通过收控大规模的交易数据并将其与全新的交互数据组合,同时充分利用数据密集型框架,贵组织将可做好准备,把握海量数据所带来的重大机遇并成为以数据为中心的企业。
经济危机下的理想数据集成平台 IT机构在经济危机中面临的挑战 在经济低潮期,IT 也面临严峻挑战。您的 IT 机构如何才能从可用资源(人力资源和技术资源)中“挤出”更多价值?面对每个项目更加严格的预算审查,您如何加快部署?您的团队如何能够始终灵活地响应不断变化的业务需求?简而言之,您如何做到事半功倍(以更少资金、更少资源和更短时间应对更多项目)? 面对这些挑战,您的 IT 机构需要做好三件事: 1. 降低成本 2. 更为高效地运营 3. 最大限度发挥现有技术的价值 而实现这三个目标,IT 机构需要借助一个全面、统一、开放且经济的数据集成平台。 全面 理想的数据集成平台必须具备全面的功能集,使您的 IT 机构可以根据要求随时随地为企业提供可以信赖的数据。借助一整套可随意支配的数据集成功能,IT 机构的生产效率可以获得数十倍的提升。 数据集成平台必须支持数据集成生命周期中的所有五个关键步骤:访问、发现、 清洗、集成和交付(见图 4)。第 1 步:访问 大多数机构的数据存储在数千个位置,不只限于企业内部,还存放在防火墙外的业务合作伙伴或 SaaS 供应商的“云”中。无论何种来源或结构,所有数据都必须可以接受访问。必须从隐秘的大型主机系统、关系数据库、应用程序、XML、消息甚至从电子数据表之类的文档中提取数据。 第 2 步:发现 数据源 - 特别是记录不详尽或来源未知 - 必须探查才能了解其内容和结构。需要推断数据中隐含的模式和规则。必须标记潜在的数据质量问题。 第 3 步:清洗 必须清洗数据以确保其质量、准确性和完整性。必须解决错误或疏漏问题。必须强制执行数据标准,并且对值进行验证。必须删除重复的数据条目。 第 4 步:集成 要跨越多个系统保持一致的数据视图,必须集成并转换数据, 以便协调不同系统在定义各种数据元素并使之结构化的方式上存在的差异。 例如,对于“客户盈利”,营销系统和财务系统可能具有完全不同的业务定义和数据格式,这些差异必须得到解决。 第 5 步:交付 必须以适当的格式、在适当的时间将适当的数据交付给所有需要数据的应用程序和用户。交付数据的范围涵盖从支持实时业务运营的单个数据元素或记录到用于趋势分析和企业报告的数百万个记录。必须确保数据的高可用性和交付安全性。 此外,数据集成平台还必须: 审计、管理和监控:数据管理员和 IT 管理员需要协作进行审计、管理和监控数据。不断地对关键指标(例如数据质量)进行衡量,随着时间的推移这些指标会得到有目共睹的稳步提高。这是为了跟踪关键数据属性的进度,并标记任何新问题,以便在将数据传回数据集成生命周期之后,可以解决这些问题并不断改进。 定义、设计和开发:业务分析师、数据架构师和 IT 开发人员需要一套功能强大的工具来帮助他们在定义、设计和开发数据集成规则与流程上展开合作。数据集成平台应包括一套常用的集成工具,以确保所有人员一起有效工作。实现任何数据集成项目 统一 单个的统一数据集成平台可大大简化 IT 团队的工作。当您具备扩展型企业(从单一供应商发展成)所需的所有数据集成能力时,您通过基于角色的协作、共享元数据和单一的统一运行时引擎,最大限度地提高了工作效率。 数据集成项目包括充当多个角色的 IT 和业务人员。他们都肩负着有待完成、差别很大的任务,可以提供不同的技能。每个角色都需要一套特别为其设计的不同工具。同时,项目团队成员必须精诚合作、共同承担工作和任务,以提高跨团队的工作效率并确保 IT 和业务部门的协调。
数据质量助力反洗黑钱 金融服务提供商需要比以往任何时候都要更加深入地了解他们的客户。洗黑钱是许多政府在打击犯罪和恐怖主义时考虑的一个主要问题,正因如此,他们已针对其管辖范围内运营的金融服务组织发布了众多指南。 数据质量管理是反洗黑钱 (AML) 的核心所在。例如,欧盟的《反黑钱第三指令》和《美国爱国者法案》都很注重以下领域中需要受到关注和严格管理的数据质量:客户身份标识, 了解客户 (KYC),客户(或增强的)尽职调查 反洗黑钱中的Informatica数据质量解决方案 Informatica Data Quality TM 包括用于业务和合规性数据分析的桌面工作台。它的界面可让那些需要充分了解数据和业务流程的用户创建自身的数据质量规则,以确定潜在的可疑或欺诈行为。 这种易于使用的功能是企业的一个关键优势。简言之,无需等待独立部门来制定和部署规则,从而由于实施时间的延迟而增加泄露风险。如今,公司不但可以制定、部署和集中管理规则,而且还可以快速对不断变化的业务情况做出反应。这种交叉引用可让企业按照以下列表来识别和验证客户和交易数据: • 观察列表(内部、政府和第三方) • 死亡率列表 • 政界人士 (PEP) 列表 • 抑制列表 • 地址数据 • 参考数据 最后,一旦规则建立后,可以通过 IT 组织对它们进行部署和优化,并设定为定期执行。这种自动检查可以确保在使用定期、计划的批处理作业的持续基础上管理数据,非常适用于连续的客户尽职调查 (CDD) 和特殊的可疑活动报告。 反洗黑钱(AML)中的客户信息计划制定规则 企业必须详尽地了解他们的客户。销售、营销和金融部门的有效运作都必须有准确和最新的客户数据。 过去,与数据保护相关的各种法规都要求更好的客户数据质量,例如《银行保密法》(美国)和 HIPAA。但是,立法者和监管者已通过附加的合规举措对最近的一些违规行为做出了反应,包括《萨班斯—奥克斯利法案》、欧盟的《反黑钱第三指令》、《美国爱国者法案》、《金融工具市场法规》(MiFID) 和 Solvency II。 这其中的许多举措表明了企业在以下领域内的整合要求: • 数据治理 • 数据集成 • 数据存储和仓库 • 商业智能和报告 要管理他们的客户信息计划 (CIP),许多金融机构均会依赖于 Informatica 的数据质量产品。业务分析师使用基于角色的 Data Quality Workbench 来定义规则,以确保 CIP 所需的数据适合于其目的。 通常情况下,需要衡量和报告以下数据质量维度: • 完整性: 确保填写所有 CIP 数据 • 符合性: 确保所有 CIP 数据的格式均正确无误 • 一致性: 分析多个属性以保证数据的一致性,例如货币与国家/地区和城市与 国家/地区 • 重复性: 此客户是否已经存在? • 真实性: 此客户是否在 PEP 列表上?此客户是否与员工相关 (KYE)?此客户是 否与其他客户相关?
数据治理如何反客为主 数据治理是指从使用零散数据变为使用统一主数据、从具有很少或没有组织和流程治理到企业范围内的综合数据治理、从尝试处理主数据混乱状况到主数据井井有条的一个过程。 应对型数据治理是指通过客户关系管理 (CRM) 等“前台”应用程序和诸如 企业资源规划 (ERP) 等“后台”应用程序授权主数据,例如客户、产品、供应商、员工等。然后,数据移动工具将最新的或更新的主数据移动到多领域 MDM 系统中。它整理、匹配和合并数据,以创建或更新“黄金记录”,然后同步回原始系统、其它企业应用程序以及数据仓库或商业智能/分析系统。 但是,批量集成和应对型数据治理方法引入的时间延迟可能导致业务部门继续操作重复、不完整且不精确的主数据。因此,这会降低多领域 MDM 方案实现在正确的时间向正确的人员提供正确数据这一预期业务目标的能力。在期望被设定为数据将变得干净、精确且及时之后,批量集成引入的时间延迟让人感到沮丧。应对型数据治理(下游数据管理员小组负责整理、去重复、纠正和完成关键主数据)可能导致让人认为“数据治理官僚化”。应对型数据治理还会导致最终用户将数据管理团队看做“数据质量**”,并产生相应的官僚化和延迟以及主数据仍然不干净的负面认识。这还将使得 MDM 方案更难实现它的所有预期优势,并可能导致更高的数据管理总成本。此方法的风险是组织可能以“两个领域中的最差”而告终,至少部分上如此 – 已在 MDM 方案中投资,但是只能实现一些潜在优势,即在整个企业内获得干净、精确、及时以及一致的主数据。 我们可以从应对型数据治理过渡到主动数据治理来简化企业架构,在认证新的或更新后的主记录方面实现了更快的吞吐量,可更轻松地将它们发布到组织。主要优势是新记录的初始质量级别更高。主动数据治理还将主数据的授权推回给上游的业务用户,这提高了精确性并降低了成本,同时生成具有更高的清洁性、精确性、时效性和一致性级别数据。 主动数据治理最适合哪些领域 什么因素阻止公司采用主动数据治理方法?总的来说,问题在于它们在数据治理成熟度等级中处于什么位置。一家公司很难从成熟度模型的最左侧 — 它们在其中没有中央多领域 MDM 系统并且没有数据治理组织或流程 —直接跳到该等级的最右侧,它们在其中拥有强大的数据治理流程外加最新 MDM 系统和集成架构。通常,随着时间的推移,组织会改进它们的数据治理方法。例如,当初始 MDM 系统开启并运行之后,一些预期的优势需要较长时间才能实现,或应对方法的局限性变得显而易见,您可计划以便在原始源系统中取消授权记录的功能,并将该功能直接迁移到 MDM 系统中。 升级公司的集成或中间件功能(例如,添加一个能处理实时更新的集成工具)之后,可切换到主动数据治理方法,或作为现有 CRM 或 ERP 系统重大升级的一部分,因为这可能是引进需要的业务流程变更的最佳时机。 何时从“应对型”迁移为“主动型” 度量标准将推动业务案例从应对型数据治理迁移到主动数据治理。 问您自己以下问题,并尝试量化时间、精力和费用投资方面的答案: • 吸纳一个新客户需要多长时间? • 涉及多少个不同步骤? • 在普通新记录被接受到多领域 MDM 系统之前会接触它多少次? • 由于这些源系统的局限性,仍在源系统中创建多少个重复记录(然后在 MDM 系统中合并)? • 需要多少个数据管理员支持该企业? • 主记录是否进入了“更改,改回”循环,因为两个不同的用户组试图强制执行两个不同的业务规则集? • 主记录的重要方面是否因源系统和 MDM 系统之间的“裂缝而失败”? • 维护各个源系统和 MDM 系统之间的集成的流程是否成为一种负担? • 在 CRM 系统中输入新记录后,必须等待才能在 ERP 系统中变得可用,用户是否有所抱怨? • 是否存在数据治理的资金问题,因为它被看做是管理费用或一种官僚作风? 回答这些问题之后,应当明显看出您是否将能够迁移到更主动的数据治理方法。您可详细计划迁移流程,将它设立为一个独立的项目或将它集成到另一个相关项目中。 何时开始主动数据治理 一些情况要求立即开始主动数据治理,例如当您获得多个 CRM 系统和 ERP 系统,它们要求与多领域 MDM 系统集成,以便让它们继续充当录入系统,或当您的当前源系统非常脆弱或很难维护或修改。在这些情况下,要忍受困难并从一开始便为主动数据治理作出计划。一些组织拥有成千上万个直接在 MDM 系统中授权主数据的最终用户,并且有一个数据管理员团队支持他们、发现异常、解决低质量匹配、在需要时手动合并重复记录等等。 另一种应用情况是当您发现自己最终会选择主动数据治理方法 — 何必再为建立源系统到多领域 MDM 系统的双向集成而争论?您或许不妨直接授权最终用户来编写主数据。
看Informatica Data Archive如何帮助您的组织经济高效管理数据 Informatica Data Archive帮助您的IT组织经济高效地管理数据仓库中激增的数据量。它使您能够轻松、安全地存档非活动数据,在需要时很容易访问这些数据。Informatica Data Archive提供您的IT组织有效管理数据仓库中的数据增长所需的所有功能,包括: 1. 强大的存档技术,可确保存档后的数据完整性并支持多种存档格式,实现存储层最优化 2. 多种方法轻松访问存档数据 3. 自动索引存档数据 4. 自动管理变化数据结构 5. 通过连接 6. 与其他存档平台、ECM及存储解决方案(如Symantec、Commvault和EMC)集成 借助Informatica平台(行业领先的数据集成平台)的强大功能,Informatica Data Archive让组织能够处理大型跨国企业通常拥有的海量数据。该软件提供优秀的扩展性和性能,根据数据的价值将它们传送到最经济高效的存储设备中。它还提供无比的互操作性。该软件基于开放式、易于扩展的体系架构,很容易与第三方解决方案集成。 强大的存档技术实现存储层最优化 使用Informatica Data Archive,可以存档到另一个数据仓库实例,或存档到能极大节省存储空间的高度压缩文件格式。随着数据变旧和访问需求随时间变化,Informatica Data Archive自动将数据从一种存档格式转成另一种格式,并从一个位置迁移到另一个位置,启动多个经济高效的存储层。 Informatica Data Archive只允许存档事务数据和明细数据,这些数据是增长最快的。在维护数据完整性以及指向可能仍然存储在生产系统中的维表和聚合表的链接时执行此操作。最后,有些较旧的维记录也可能需要存档。Informatica Data Archive非常清楚应存档哪些类型的表来支持最优的存档策略。Informatica Data Archive也可以处理在生产数据仓库中创建的分区,并可在数据存档中维护这些分区,以维持可扩展性和性能。 Informatica Data Archive提供一个简单易用的图形用户界面,不需大量的配置、编写脚本或编制程序就可以轻松定义存档工作。利用提供多种存档格式和辅助功能选项的数据仓库存档解决方案,IT组织可以在存档大小、性能、应用程序可存取性以及成本之间确定一个适当的平衡点。 多种方法轻松访问存档数据 不管是哪种存档格式,已存档的数据都需要能够从原始应用程序接口或通过标准接口轻松访问,以便进行报告或合规性审计。Informatica Data Archive支持使用任何报告或商业智能工具通过标准SQL/ODBC/DBC接口进行报告。该解决方案还让您选择从应用程序能够识别的数据发现门户访问数据,能够基于业务实体轻松搜索、浏览和查看已存档或已停止使用的数据,并且使用与原始应用程序接口有类似外观的接口。 自动索引存档数据 在将数据存档到另一个数据仓库实例时,Informatica Data Archive自动建立和维护在生产数据仓库实例中存在的索引。当存档到高度压缩存档文件时,数据会自动进行索引并以最优格式存储,以便于高效存储和可扩展检索。不需对存档数据进行性能调整和维护、减少IT职员的工作时间。自动管理变化数据结构随着生产数据仓库结构不断演变,Informatica Data Archive自动更新存档数据仓库的元数据和结构。当存档到高度压缩文件格式时,Informatica Data Archive维护多个版本的元数据,与生产数据仓库结构的定期快照相对应。这样就可以基于某个时间点的数据仓库结构对存档数据执行时间点查询。根据生产数据仓库的结构变化自动管理存档数据的元数据和结构,Informatica Data Archive减少了存档基础设施所需的维护工作。 通用连接 如果您的组织与许多其他企业类似,则您的数据仓库和应用程序可能在不同操作系统上的多个数据库系统中运行。为了支持您的企业需求,Informatica Data Archive允许您管理数据仓库和使用不同数据库的应用程序的存档过程,这些数据库包括:关系型(如Oracle、DB2、Sybase、SQL Server、Teradata、Informix)、大型机(如 IDMS、VSAM 和 IMS)、文件以及开放系统(如 Windows、Linux 和 UNIX)或大型机系统(如 z/OS 和 AS/400)上的封装 CRM 和 ERP 应用程序。 与其他存档平台、ECM 和存储解决方案集成 您的公司可能已经有用于电子邮件和文件的存档解决方案。此外,您的 IT 组织可能也有自己的企业内容管理 (ECM) 解决方案标准来管理您的非结构化数据。为了支持合规性需求并确保留存数据的不变和单实例存储,可以使用需要专属连接的存档 平台,如内容寻址存储 (CAS)。 为了让您的组织快速而精确地响应审计请求以及经济高效地长期留存数据,Informatica Data Archive 允许您集中管理和发现所有类型(结构数据和非结构数据)的存档数据。这通过与现有存档、内容管理和存储解决方案(包括EMC Documentum、Symantec Enterprise Vault 和 Discovery Accelerator、CommVault Simpana 和 eDiscovery)集成来完成,以促进所有类型存档数据的集中管理和电子搜索。 Informatica Data Archive 使组织能够处理大型跨国企业通常拥有的海量数据。通过提供全面而强大的技术来轻松、安全地存档非活动数据,然后在需要时很容易访问数据,Informatica Data Archive 提供了全面的存档解决方案,可提供最优化、经济高效的数据仓库基础设施。
深入探讨数据质量和五种形式的商业智能 商业智能已经发展成为多种形式,旨在满足企业不断增长的要求和任务关键型活动日益增长的水平。这些形式都有其自己的一套数据质量要求。 记分卡和仪表板 记分卡和仪表板正被广泛采用,越来越多的用户利用它们获取财务,业务和绩效监控的鸟瞰图。通过可视化的图形、图标和计量表,这些传输机制帮助跟踪性能指标并向员工通知相关趋势和可能需要的决策。提供集成视图所需的数据元素通常跨越多个部门和学科,需要绝对最新才能有效。 数据质量会影响记分卡和仪表板用户,因此这些用户必须能够: 1. 使用仪表板中计量表和刻度盘上的完整数据,并迅速采取措施 2. 获取集成视图并使用标准化数据进行协作 3. 利用具有一致数据的正式记分卡方法 4. 向下钻取以查看组或个人级别绩效的准确数据 5. 找到能够生成明显趋势且重复数据最少的业务流程 6. 推导关联性并通过验证的数据执行交叉影响分析 企业报告 企业报告为所有级别的个人提供来自企业资源规划(ERP)、客户关系管理(CRM)、合作伙伴关系管理(PRM)、发票和帐单系统,以及整个企业内其他源系统的各种运营报告和其他业务报告。这些报告分布广泛,而薪酬和其他激励计划通常与报告的结果有关。 数据质量会影响组织报告,因为组织必须: 1. 浏览多个报告,将它们显示到从不同来源聚合数据的多个表单中 2. 选择各种参数并通过标准化数据为用户定制报告 3. 利用各种性能指标的协调数据呈现多个表格和图表 4. 使业务用户能够利用高精准数据创建自己的报告,无需IT部门参与 5. 通过清洗和匹配的数据减少合规性管理的人工检查和审计 6. 利用完整财务数据直接从商业智能报告开具发票和帐单 OLAP分析 OLAP使用户能够即时以交互方式对相关数据子集进行“切片和切块”。同时,OLAP功能,比如向上钻取、向下钻取、或任意挖掘(跨业务维度)、透视、排序、筛选、以及翻阅,可用于提供关于绩效的基本详细信息。最为重要的是它能够回答存在的任何业务问题。这意味着调查深入到单个或多个数据仓库中可用的最原子级别的详细信息。 数据质量会影响OLAP分析,因为用户和组织需要: 1. 通过对目标数据的完全访问在所有维度中任意钻取以进行深入调查 2. 通过设置好格式的一致数据将OLAP轻松应用于任何维度子集 3. 利用一致的基本数据对象最大限地减少冲突报告,确保交互性 4. 利用多个维度的正确数据执行用户驱动的适时分析 5. 提供更新的同步数据来处理事务级数据分析 高级/预测分析 高级和预测分析使富有经验的用户能够充分调查和发现特定业务绩效背后的详细信息并使用该信息预测远期效果。此方法可能涉及高级统计分析和数据挖掘功能。为了推动积极决策和改进对潜在商业威胁的姿态,预测分析可能包括假设测试,客户流失预测,供应和需求预测,以及客户评分。预测建模可用于预测各种业务活动及相关效果。 数据质量会影响高级和预测分析,因为用户会寻求: 1. 为可定制报告创建跨越任何数据元素的报告过滤标准 2. 为标准化数据格式搜索模式和预测洞察力以促进积极决策 3. 通过一致数据获得信心,找出相互依存的趋势和预期成果 4. 对准确数据采用多变量复原和其他技术,以实现更好的预测 5. 在无数据重复的前提下定制数据分组,最大限度减少冲突 6. 使用经认证的数据检验假设并使用统计、财务和数字函数 通知和警报 使用电子邮件、浏览器、网络服务器和打印机、PDA或门户网站时,通过通知和警报在广泛的用户触点间主动共享信息。通过及时交付目标信息,关键相关人士和决策者可以识别潜在的机会领域并发现要采取措施的问题领域。这种“***I传输机制使组织能够保持协调一致,与业务风险和机会并进,同时事件仍将保持新鲜和有意义以保证响应。 在此领域,数据质量会影响组织,因为组织会努力: 1. 从任何和所有数据源向最广泛的用户接触点发布警报 2. 确保标准化及非冲突数据集上各种订阅类型的高吞吐量 3. 使用户能够打开附件或点击链接,同时呈现一致、集成的数据 4. 通过预先评定并核准的数据质量来降低发布错误警报和通知的风险 5. 允许在多个事件数据符合特定阙值时实时触发警报 6. 利用经验证的数据进行内容个性化和组关联
利用Informatica 主数据管理,降低IT成本的七种方法 标签:Informatica MDM,主数据管理,降低成本 随着企业的IT预算增加,IT经理们都希望能够寻求到更高效的降低IT成本的方法。并非所有的MDM技术都能带来这些成本效益。只有配置容易的多领域、模型驱动且灵活的MDM技术才能在更短的时间里实现价值和降低总拥有成本。灵活的Informatica MDM解决方案,即多领域主数据管理,就能帮助IT部门实现与投资价值的最大化。主要从以下七个方面实现: 1. 降低接口成本:减少应用程序之间的点对点集成。点对点集成的开发和维护成本很高,但是Informatica MDM(多域主数据管理)可以通过集中公共信息(主数据)对它们进行简化,并且做到在业务流程的不同环节都能提供这些信息。 2. 降低多域的第三方数据采集成本:消除来自外部数据提供商的重复数据采集可显著节省成本。使用MDM(主数据管理),第三方数据可以直接集成到MDM系统中,并分发到所有下游应用程序,避免了重复的数据采集。 3. 降低数据清理成本:在MDM系统中集中清洗数据是机构可用来降低成本的另一种方法。通过将数据从这些不同的应用程序集成到中央MDM系统,就有可能在一个单独的系统中进行整个企业所有数据的清洗。 4. 降低外包清洗成本:MDM系统可通过消除昂贵的外包手动清洗而节约大量成本。MDM系统用持续的自动清洗、扩充和重复数据删除、集中存储以备日后使用、跟踪数据更改,以及为营销和合规性应用程序提供清洗、扩充后的数据,消除了对外包手动清洗的需要。 5. 降低多余系统的许可证、支持和硬件成本:MDM通过集中企业数据实现了冗余数据存储数量的减少甚至消除,并且可以淘汰保存有重复数据的实例,从而显著降低成本。 6. 降低定制解决方案开发和维护成本:通过用可配置的MDM系统替代过时的定制共享区块,公司可省下定制解决方案巨大的开发和维护成本,有助于使IT部门重新侧重于用即时的数据支持业务运营。使用灵活的配置,您可以迅速接管当前的共享区块,并可以扩展您的MDM实施,解决公司其他部门未来的业务需要。 7. 降低信息交付成本:IT部门可通过即时交付正确信息来降低成本。合规性和管理报告时IT部门支持的两个主要功能。使用MDM很容易实现数据准确性的验证,这是因为它存储了数据的所有改动。因此,MDM系统有助于通过交付可靠的信息来降低IT成本。
普通深入的数据质量控制 ——让数据质量控制的开展深入到所有相关人士、所有数据域和所有应用程序 劣质数据每年可带来数百万美元的业务损失。根据最近的 Gartner报告显示:“参与调查的组织估计,数据质量问题使它们平均每年损失 820万美元”。 劣质数据的业务影响从日常失误(例如低劣的客户服务、低效的市场营销流程和供应链错误)到重大运营失误(例如客户和产品中心崩溃或并购中止)不等。 阻止坏数据进入业务部门并非易事。由于数据通过在应用程序之间的移动,会在整个业务部门传播,因此难以限制数据的蔓延。在组织尝试解决该问题时,应对措施实质上往往较为策略化,应对措施的范围较为部门化,并且不可避免地无法长期开展。 要遏制劣质数据造成的影响,组织需要建立人员配置、流程和基础设施并在这些方面进行投资,从而确保可以随时随地按所需方式交付相关的可信数据。这些企业需要向数据驱动型转变。 数据驱动型企业可以最大限度提高其数据的业务价值,并通过将其数据作为一项策略资产进行管理,从而最大限度地降低风险,确保在整个业务部门普遍深入地开展数据质量控制。 随着越来越多的研究报告发布,数据质量控制的业务案例变得不言自明。投资数据质量的公司会看到这样的效益:他们对自己的系统愈发自信;统一数据所需的时间更短,并能够带来唯一版本的真相;更高的客户满意度以及更低的成本。这些公司能够利用其数据资产,更快、更好和更明智地展开竞争。 随着数据量增加、数据要求提高、数据流采用的新渠道,必须在企业层处理数据质量。数据质量控制必须做到普遍而深入。为了普遍深入地开展数据质量控制: 更多人员需要参与到数据质量控制流程中。数据质量控制必须得到整个企业的共同努力。每个人(包括业务经理、数据管理员、分析师和 IT开发人员)都需要配备他们所需的工具来共同承担有关数据的责任。 对于低劣数据对业务的影响,必须有清楚的认识。在您组织中的每个人都必须将数据视为最为宝贵的企业资产。在清楚数据的宝贵价值后,业务部门和 IT部门需要更为主动地参与、负责并确保数据的质量。 数据质量控制需要拓展到各个领域。数据质量控制的开展不仅限于名称和地址,还应纳入所有数据域,例如产品、财务以及资产数据。 必须在所有应用程序中部署通用的数据质量规则。必须主动防范劣质数据进入组织;必须主动使用数据服务清洗劣质数据。 必须公布和共享数据质量记分卡。整个组织需要跨所有项目、流程和应用程序,监控并检测数据质量。
为什么我发的关于Informatica数据质量控制方法的帖子,显示不存在? 如下图,请吧主释疑,是我帖子没有发布出去么?
探讨Informatica Data Quality的主要功能 在之前我们发的帖子中,我们介绍了数据,数据质量以及Informatica Data Quality的一些基础性的知识,而且我们还介绍了Informatica Data Quality的优点,包括帮助组织降低成本,更高效的运作,提高IT部门的工作效率以及降低风险。这次,我们主要就Informatica Data Quality的主要功能进行探讨。 Informatica Data Quality适用于所有相关人员并基于角色的统一数据质量工具 Informatica Analyst 这款简便易用、基于浏览器的工具旨在于,使业务部门无需 IT 部门介入,即可主动参与数据质量流程。它使业务领域经理、数据管理员和业务分析师 能够: • 探查、分析和创建数据质量记分卡 • 向下钻取到数据质量低劣的特定记录,从而判断其业务影响以及如何修正 • 只需将 URL 通过电子邮件发给同事,即可监控和共享数据质量度量和报告 • 定义数据质量控制目标和有效的参考数据集 • 指定、验证、配置和测试数据质量规则 • 与 IT 开发人员展开有效协作,以共享配置文件并实施数据质量规则 • 找出异常并管理数据质量异常记录 • 持续跟踪数据质量目标 • 最终让所有相关人士均能够参与到数据质量改善过程中 Informatica Developer 这款基于 Eclipse 的强大数据质量开发环境可提高 IT 的工作效率。它使 IT 开发人员能够: • 发现并访问所有数据源,不论它们在内部预置、在合作伙伴处还是在云中 • 分析、探查和清理数据。 • 定义逻辑数据对象并为其建模。 • 将数据质量规则与复杂的数据转换逻辑合并。 • 随着逻辑的开发,通过执行中途探查来验证和调试逻辑 • 配置数据质量服务,以物理或虚拟方式,按任何延迟时间配置数据 • 在所有应用程序和项目中重复使用业务分析师和数据管理员的所有探查和规则规范。 Informatica Administrator 此工具方便易用,基于浏览器,拥有管理数据集成环境的集中配置和部署功能,使 IT 管理员能够: • 管理服务和节点,包括支持网格和高可用性的配置。 • 监管安全性和用户管理,包括用户、组、角色、权限和许可 • 执行高级监控和记录。 可共享的书签和注释 • 使所有团队成员能够轻松沟通并分享其成果,例如数据配置文件和数据质量记分卡。他们只需通过书签发送并在注释中进行备注。 Informatica Data Quality能为所有数据和各种用途提供全面支持 准确的全球匹配 • 轻松地识别全球不同地区和语言的重复的客户数据,提供适用于 60 多个国家/地区的客户数据的地域敏感型预建数据匹配规则。 • 通过预建规则扩展了医疗保健、金融服务行业和公共部门的数据质量 全球地址清洗 • 通过集成的地址编码来扩充数据,可清洗多达 240 个不同国家的地址 • 充分利用对结构化和非结构化地址数据的支持 • 利用最全面和最新的全球邮政参考数据 • 充分利用对六种非拉丁语编写系统的音译支持。 适用于所有项目类型的通用数据质量控制 • 管理各个数据域的数据质量 — 包括客户、产品、财务和资产 — 使用单一可配置的开发环境 • 将所有数据质量规则、参考数据和流程重复用于所有数据集成项目类型,以降低成本和支持数据治理 Informatica Data Quality对所有应用程序开放 至所有数据源的通用连接 • 访问和清洗任何源的任何数据 — 企业内、合作伙伴的系统中或是在云中 — 基于成熟的数据集成连接性 • 根据应用要求,按任何延迟或模式(例如,联合 SQL、Web 服务、消息收发、基于事件的警报和 ETL)获取、清洗和交付数据 • 探查和清洗跨不同数据源联合的虚拟数据视图 适用于所有应用程序的集中数据质量规则 • 创建、测试和部署数据质量规则,以利用基于服务的体系架构来支持所有应用程序 • 可以通过跨应用程序的方式集中管理数据质量服务,从而促进重复利用并为数据治理提供支持。 • 成批或实时地部署数据质量规则(包括在输入时),以防劣质数据流入应用程序
1
下一页