报告和分析

洞察力推动更好的决策和效率

HK-Adaptive Computing 的报告和分析工具使组织能够通过将资源使用情况和工作负载数据流式传输到自定义报告和个性化仪表板中来获得洞察力。这推动了……

  • 提高资源利用率和效率
  • 更好的容量规划
  • 使资源与任务目标更加一致

它是如何工作的

Viewpoint Reporting and Analytics 使组织能够创建数据流,从 Moab 和 TORQUE 中提取作业、节点、凭证和资源信息,并将这些信息关联到聚合视图中。然后可以将这些聚合视图进一步细化为基于图表的可视化报告或结构化表格。最后,相关报告可以放置在可定制的仪表板中,以帮助组织掌握关键指标,例如服务交付、容量规划、资源使用等。

  • 使用闪电般快速的 Apache Spark 处理引擎和灵活的 Mongo 数据库流式传输数据。
  • 处理数据以确保与传统分析功能(分组​​、归约、连接、过滤等)的相关性
  • 在基于图表的报告或结构化表格中可视化汇总信息。
  • 在可定制的仪表板中监控关键指标
  • 推动更好的决策和政策执行。

数据处理和准备

  • 可扩展性和性能——该工具基于闪电般快速的 Apache Spark 数据处理引擎和高度可扩展且灵活的 MongoDB 数据库。
  • JSON 数据流 – 数据流基于 JSON。
  • 丰富的数据流设计器:
    • 源 – 从各种源数据流(作业、预留、节点、ACL 等)中挑选。
    • 过滤器——筛选出不匹配的数据。
    • 分组和缩减——分组数据消息并将它们缩减为单个记录(例如,将用户的所有工作记录缩减为聚合结果)。
    • 加入 – 将两个数据流合二为一。
    • 状态——检测和拦截对象状态变化。
    • 转换——通过对属性值的内联更改来​​更改数据或执行数学函数。
    • Distinct – 确保数据不包含重复项。
    • Flatten – 将分层数据结构更改为平面数据结构。
    • Fork – 处理数据流,以便它们可以并行执行操作。
    • 联合——重新联合两个数据流。
    • 数据库布局——将数据流转换为实际可查询的记录集合。
  • 聚合视图 – 预览数据流的聚合视图并估计能够以多快的速度生成结果以调整最佳报告体验。

数据流和聚合视图

报告引擎生成 JSON 数据流,可以使用传统的数据分析功能(如分组、归约、连接、过滤等)进行扩充。然后将这些流存储在数据库集合中。Adaptive Computing 的报告引擎基于 Apache Spark,并存储在我们的 MongoDB 数据库中,以最大限度地提高可扩展性和性能。

报告

要创建新报告,用户需要选择他们有权访问的聚合视图。然后,他们使用 SQL 查询编辑器指定数据字段、详细粒度、输出(图表或表格),并在创建结果图表之前对其进行预览。结果可以作为报告单独应用,实施到仪表板中,或导出为 .pdf、.csv 或图像文件。运行报告时,用户指定刷新率并传递过滤结果的输入(时间范围、用户、用户组)。

  • 平均等待时间 –用户、组、帐户、类和 QoS
  • 作业状态持续时间 –空闲、启动、运行、保持等。
  • 最高请求——资源、分区、功能等。
  • 分配/使用的资源——用户、组等。
  • 中断影响 –每个时间段的节点状态百分比
  • 作业开始时间延迟 –确定等待时间
  • 核心使用效率 –每个使用的节点

仪表板

仪表板可用于统一报告元素,这有助于生成特定问题的所需全局视图,无论是操作性、资源容量等。仪表板允许用户访问多达三个通道,以使用简单的拖动和布局来布局所需的报告滴设计师。报告可以包括传统图表(折线图、条形图、饼图)或表格

概括

Adaptive Computing 的报告和分析工具使组织能够流入和组织他们的数据以获得洞察力,以帮助推动更好的决策制定和政策执行。这推动了资源利用率和效率的提高、更好的容量规划以及资源与任务目标的更大一致性。该工具直接与 Viewpoint 集成,成为管理员和经理的自然授权扩展。