霍顿工厂发布节奏可以在创新与可靠的Hadoop核心之间取得平衡

Hadoop的发行供应商将每年更新一次核心Apache Hadoop组件,同时不断更新运行在Hadoop之上的服务。

霍顿工厂标志
Marc Ferranti

霍顿工厂 今天发布了其Hortonworks数据平台(HDP)和Hortonworks DataFlow(HDF)的最新版本,并发布了一种新的分发策略,该策略将为企业客户提供更稳定的Apache Hadoop核心,同时提高在以下平台上运行的扩展服务的发布节奏。核心。

[相关: 不同的SQL-on-Hadoop引擎如何满足BI工作负载 ]

霍顿工厂产品管理副总裁Tim Hall表示:“这是我们向客户交付进步的决定性时刻。 “我们可以在不牺牲稳定和可靠的内核的情况下,为客户提供所有最新的创新。这将改变人们使用Hadoop的方式。”

从今天开始,HDP的分发策略将遵循不同的发布节奏:

  • 核心Apache Hadoop组件(HDFS,MapReduce和YARN)和Apache Zookeeper(为Hadoop提供分布式配置服务,同步服务和命名注册表)将每年进行更新。这些组件将与ODPi联盟的努力保持一致,以为Apache Hadoop和相关的大数据技术创建通用的参考平台。
  • 逻辑上将扩展运行在核心之上的扩展服务(包括Spark,Hive,HBase,Ambari等),并在全年中不断发布,以适应社区中每个项目团队的创新步伐。

为了强调其对新发行战略的承诺,Hortonworks周二宣布将在HDP 2.4中全面提供Apache Spark 1.6,Apache Ambari 2.2和SmartSense 1.2。

HDF与HDP结合将推动切实可行的见解

此外,其用于实时数据流传输的动态数据平台Hortonworks DataFlow(HDF)1.2将于今年第一季度上市。新版本增加了对Apache Kafka和Apache Storm的支持,从而改善了对流分析的支持。

通过将用于静态数据的HDP和用于动态数据的HDF集成到一个集成的整体中,Hortonworks寻求提供所谓的互联数据平台。这个想法是关闭预测分析的循环,使它可以将所谓的“互联网”转化为可行的见解。

HDF旨在使客户易于自动化和保护数据流,以及收集,执行和管理实时业务洞察力以及从移动数据中得出的行动。与HDP结合使用,它使用户可以将流数据和历史数据整合为一个整体,从而创建预测分析应用程序。

[相关: 2016年将主导21种数据和分析趋势 ]

霍顿工厂客户Royal Mail Group的高级经理Jan Rock说:“我们选择Hortonworks的原因之一是因为其互联数据平台是100%开放的,这使我们能够与开放社区的最新创新保持紧密联系。” “总的来说,用于静态数据的HDP和用于动态数据的HDF正是我们的业务所需要的,以推动可行的见解。”

版权© 2016 IDG通讯,Inc.