Skip to content
Allure report logoAllure Report
Main Navigation MódulosDocumentaciónStart

Español

English

Español

English

Appearance

Sidebar Navigation

Introducción

Instalación y Actualización

Instalación para Windows

Instalación para macOS

Instalación para Linux

Instalación para Node.js

Actualización

Primeros pasos

Cómo ver un informe

Mejorar la legibilidad de informes

Mejorar la navegación en informe

Funcionalidades

Pasos de prueba

Adjuntos

Estados de prueba

Ordenar y filtrar

Categorías de defectos

Análisis visual

Análisis de estabilidad de prueba

Historial y reintentos

Cronología

Exportar a CSV

Exportar métricas

Guías

Parametrización JUnit 5

JUnit 5 & Selenide: capturas de pantalla y adjuntos

JUnit 5 & Selenium: capturas de pantalla y adjuntos

Configurar JUnit 5 con GitHub Actions

Parametrización en Pytest

Pytest & Selenium: capturas de pantalla y adjuntos

Pytest & Playwright: capturas de pantalla y adjuntos

Pytest & Playwright: videos

Parametrización en Playwright

Cómo funciona

Visión general

Archivo de resultados de prueba

Archivo de contenedor

Archivo de categorías

Archivo de entorno

Archivo de ejecutor

Archivos de historial

Integraciones

Azure DevOps

Bamboo

GitHub Actions

Jenkins

IDEs de JetBrains

TeamCity

Visual Studio Code

Frameworks

Behat

Empezando

Configuración

Referencia

Behave

Empezando

Configuración

Referencia

Codeception

Empezando

Configuración

Referencia

CodeceptJS

Empezando

Configuración

Referencia

Cucumber.js

Empezando

Configuración

Referencia

Cucumber-JVM

Empezando

Configuración

Referencia

Cucumber.rb

Empezando

Configuración

Referencia

Cypress

Empezando

Configuración

Referencia

Jasmine

Empezando

Configuración

Referencia

JBehave

Empezando

Configuración

Referencia

Jest

Empezando

Configuración

Referencia

JUnit 4

Empezando

Configuración

Referencia

JUnit 5

Empezando

Configuración

Referencia

Mocha

Empezando

Configuración

Referencia

Newman

Empezando

Configuración

Referencia

NUnit

Empezando

Configuración

Referencia

PHPUnit

Empezando

Configuración

Referencia

Playwright

Empezando

Configuración

Referencia

pytest

Empezando

Configuración

Referencia

Pytest-BDD

Empezando

Configuración

Referencia

Reqnroll

Empezando

Configuración

Referencia

REST Assured

Empezando

Configuración

Robot Framework

Empezando

Configuración

Referencia

RSpec

Empezando

Configuración

Referencia

SpecFlow

Empezando

Configuración

Referencia

Spock

Empezando

Configuración

Referencia

TestNG

Empezando

Configuración

Referencia

Vitest

Empezando

Configuración

Referencia

WebdriverIO

Empezando

Configuración

Referencia

xUnit.net

Empezando

Configuración

Referencia

On this page

Exportar métricas ​

En un directorio de informe de pruebas, el subdirectorio export contiene archivos que pueden ser importados a InfluxDB o Prometheus para la creación de gráficos personalizados.

Exportar a InfluxDB ​

El archivo export/influxDbData.txt contiene datos agregados de las pruebas en formato protocolo de línea para InfluxDB. Al importarlo, crea las siguientes mediciones.

MediciónEtiquetas

launch_status

Una etiqueta para cada posible estado de prueba: failed, broken, passed, skipped, unknown.

Cada valor representa el número de pruebas con el estado.

launch_time

duration — el tiempo que tardó en ejecutar todas las pruebas.
min_duration — la duración de la prueba más rápida.
max_duration — la duración de la prueba más lenta.
sum_duration — todas las duraciones combinadas.

Los valores de duration y sum_duration pueden diferir significativamente si tu marco de pruebas ejecuta las pruebas en paralelo o pasa un tiempo significativo preparándose para cada prueba.

launch_problems

Una etiqueta para cada categoría de defecto no vacía.

El nombre de cada categoría se convierte en minúsculas y los espacios se reemplazan por guiones bajos, por ejemplo: test_defects, product_defects.

Cada valor representa el número de pruebas en la categoría.

launch_retries

retries — el número de ejecuciones de prueba únicas.
run — el número de ejecuciones de prueba que fueron reintentos de otras ejecuciones de prueba.

Exportar a Prometheus ​

El archivo export/prometheusData.txt contiene datos agregados de las pruebas en formato basado en texto para Prometheus. Al importarlo, crea las siguientes métricas.

PrefijoMétricas

launch_status_*

Una métrica para cada posible estado de prueba:
launch_status_failed,
launch_status_broken,
launch_status_passed,
launch_status_skipped,
launch_status_unknown.

Cada valor representa el número de pruebas con el estado.

launch_time_*

launch_time_duration — el tiempo que tardó en ejecutar todas las pruebas.
launch_time_min_duration — la duración de la prueba más rápida.
launch_time_max_duration — la duración de la prueba más lenta.
launch_time_sum_duration — todas las duraciones combinadas.

Los valores de launch_time_duration y launch_time_sum_duration pueden diferir significativamente si tu marco de pruebas ejecuta las pruebas en paralelo o pasa un tiempo significativo preparándose para cada prueba.

launch_problems_*

Una métrica para cada categoría de defecto no vacía.

El nombre de cada categoría se convierte en minúsculas, los espacios se reemplazan por guiones bajos y se agrega el prefijo, por ejemplo: launch_problems_test_defects, launch_problems_product_defects.

Cada valor representa el número de pruebas en la categoría.

launch_retries_*

launch_retries_retries — el número de ejecuciones de prueba únicas.
launch_retries_run — el número de ejecuciones de prueba que fueron reintentos de otras ejecuciones de prueba.

Pager
Previous pageExportar a CSV
Next pageGuías
Powered by

Únete a nuestro boletín

Allure TestOps
  • Visión general
  • Por qué elegirnos
  • Nube
  • Autoalojado
  • Historias de éxito
Compañía
  • Documentación
  • Blog
  • Sobre nosotros
  • Contacto
  • Eventos
© 2025 Qameta Software Inc. All rights reserved.