Most important new features of release 2.6

Release date: 2020.01.21

 

Extending released data types

The modules (test elements) of the Keyword-Driven Test are locked for all changes from the moment they receive the status "released". However, if data types are used in additional modules or tests, it is often necessary to insert new values in the equivalence classes and data tables, as the existing ones are not sufficient. Up to now, in such cases, the data type was reset to the status "in progress", which then led to the reset of the status "released" of all elements using it.

From now on, additional, new values can also be entered in released data types, i.e. they no longer have to be reset to the status "in progress".
Data and values existing at the time of release can of course still not be changed.

Drag interactions and data types directly into static view

With the modules (test elements) of the Keyword-Driven Test, very complex structures can be modeled in a very compressed way. To see the complexity of a test element at a glance, you can use the static view of the Test Element Browser.

Test elements can now be dragged directly from their position of use within test sequences or parameter lists into the static view. This makes the analysis of existing test definitions a bit easier and faster again.

Jump exactly in place of use

For each element in the TestBench, it is stored which other elements use or call this element. This makes it easy to determine which elements are affected by changes, for example, or which tests need to be repeated after a change. From this so-called usage list, you can jump directly to the user.

From now on, you can jump directly to the position of use within the using element. For example, for interactions (keywords of the keyword-driven test), the system jumps directly to the test definition and marks the position of the interaction within the test sequence.
This makes jumping between elements noticeably easier and faster. Impact analyses of changes are simplified.

Optimized assignment of errors

It is now easier to assign errors to test cases:

  • Test cases no longer have to be preselected, but errors can be assigned directly to a test case in the list of test cases.
  • Errors can be assigned to all test cases simultaneously or removed from all test cases simultaneously.

Updating a variant

Within the variant management, changes within a basic test object version (basic TOV) can now be transferred to already derived variants. The transfer is carried out manually from the variant, so that variants can be checked and only updated if there is a real need to update them.

Complete variants, individual sub-trees of the test theme tree or individual tests can be updated.
It is also possible to copy new elements from the basic TOV to a variant. In this cases the derivation for the variant is performed automatically.

New plugins to integrate the Robot Framework

The integration of the Robot Framework with the test automation interface of the TestBench was newly implemented.

There are now three plugins available:

  1. Robot Framework Export-Plugin
    Serves to prepare the test specification for execution of the automated tests with the Robot Framework.
    The tests can be called directly from the plugin if required.
  2. Robot Framework Import-Plugin
    Used to transfer test results from the Robot Framework to the TestBench.
  3. Robot Framework Library Import-Plugin
    A large number of libraries exist around the Robot Framework to facilitate the test specification of specific systems or environments. For example there are several libraries around Selenium available. With the help of the plugin, the libraries can be imported into the TestBench, where they are available as test elements in the keyword-driven test. In this way, tests can be specified that can be executed quasi out-of-the-box automatically.

Testing Intelligence: Save presentation of the diagrams

The settings for displaying the diagrams in the Testing Intelligence metric add-on are now saved permanently:

  • Grouped or stacked display of bar charts
  • Hidden statuses

Hidden statuses can be shown again by simply clicking on the legend.
If these statuses are to become invisible, they can be completely removed from the display.

Testing Intelligence: Filtering by keywords

In the TestBench, the most frequently used mechanism is to mark tests or combine them into sets, that is, the assignment of keywords to tests.
For example, a keyword can mark all tests to be executed automatically every night, which can then be filtered to generate reports or evaluations of the nightly test runs.

This mechanism for filtering by keywords is now also available directly in Testing Intelligence, i.e. the data displayed in the metrics can be subsequently filtered at any time using the keywords set in TestBench.

Testing Intelligence: New metric on quality progress

Testing Intelligence has a new metric that represents the progression of the quality of a system. This is done by relating the test results of the requirements to the number of open errors.

Over time, it is easy to see how the coverage of requirements with tests and the number of errors evolves over time and whether a test end can be reached soon.

Wichtigste Neuerungen der Version 2.5.4.1 (minor Version)

Release-Datum: 02.07.2019

automatische Freigabe von Unterelementen

Bisher mussten beim Setzen des Status von Tests auf "freigegeben" bereits auch alle darin verwendeten Unterelemente den Status "freigegeben" besitzen.
Jetzt kann diese Freigabe in einen Schritt erfolgen, d.h. werden Tests freigegeben, kann der Benutzer gleichzeitig alle verwendeten Unterelemente ebenfalls freigeben. Können davon Elemente nicht freigegeben werden, werden dem Benutzer diese Elemente mitgeteilt und der Grund aufgeführt, warum die Freigabe nicht möglich ist, so dass diese Elemente zielgerichtet korrigiert werden können.

Freigegebene Elemente in neue Versionen übernehmen

Beim Erstellen einer neuen Testobjektversion (Testspezifikation für eine bestimmte Version des zu testenden Systems) auf Basis einer bestehenden Testobjektversion wurden alle darin freigegebenen Elemente auf den Status "in Review" zurück gesetzt. Jetzt kann auch der Status "freigegeben" erhalten bleiben. Neben der Testspezifikation gilt dies auch für den Status der Testautomatisierung.

Geschwindigkeit und Speichermanagement der Anbindung der Testautomatisierung

Das Speichermanagement der Steuerung der Testautomatisierung wurde vollständig überarbeitet.

Der maximale Speicherverbrauch orientiert sich jetzt am größten Test und nicht mehr an der Größe des gesamten Testlaufs.
Gleichzeitig konnte eine deutliche Verbesserung des Ablaufgeschwindigkeit erreicht werden, was sich gerade bei großen Testläufen sehr stark bemerkbar macht.

Neue Berichte im Anforderungsmanagement

Die bestehenden Berichte des Anforderungsmanagements wurden um zwei weitere Berichte, jeweils in Deutsch und Englisch, ergänzt:

Traceability Matrix

Die Testergebnisse der zu testenden Anforderungen werden übergreifend über mehrere Testobjektversionen und Testzyklen tabellarisch dargestellt. Es lässt sich sehr schnell ablesen, welche Anforderungen erfolgreich getestet wurden und welche Anforderungen noch Probleme bereiten.

Detaillierter Bericht zum Status der Anforderungen

Bericht auf Basis von MS Word mit allen Details der getesten Anforderungen, den damit verknüpften Tests und deren Ergebnissen

Wichtigste Neuerungen der Version 2.5.4

Release-Datum: 30.10.2018

Phasen in der Testsequenz

Ein Testschritt innerhalb einer Testsequenz kann jetzt einer von drei Phasen zugeordnet werden

  • Vorbereitung (Setup)
  • Testschritt
  • Nachbereitung (Teardown)

Diese drei Phasen stehen sowohl beim manuellen Testen bei Nutzung des Testassistenten für manuelle Testdurchführung, als auch bei der automatisierten Testdurchführung für alle angeschlossenen Testautomaten zur Verfügung.

Verwendete Parameter ermitteln

Innerhalb der Testsequenz kann für einen Testschritt ermittelt werden, welche der Parameter aus der Parameterschnittstelle des Tests von diesem Testschritt verwendet werden.

So kann im Data-Driven Test auch bei intensiver Nutzung von Parametern die Schnittstelle effektiv gewartet und alle Vorteile des Daten-Driven Tests genutzt werden.
Diese Funktionalität kann auch für die Untertestsequenzen von zusammengesetzten Testschritten verwendet werden.

Ebenso können umgekehrt die verwendenden Testschritte eines Parameters ermittelt werden und, z.B. im Rahmen eines Refactorings, nicht mehr verwendete Parameter identifiziert werden.

Import und Export von Testfällen

Die Datentabelle der Testfälle kann exportiert bzw. importiert werden.

Parameter und Parameterkombinationen können außerhalb verändert, ermittelt oder entfernt werden. Die mächtigen Funktionen einer Tabellenkalkulation bieten dabei viele Möglichkeiten.

Bei zusammengesetzten Datentypen können deren Werte bzw. Repräsentanten, die dann aus den Repräsentanten der Unterdatentypen zusammengesetzt sind, ebenfalls als CSV-Tabelle exportiert und importiert werden.

Projektbaum nach Datum anordnen

Die Versionen von Testobjekten, als Träger der Testspezifikations-Informationen dieser Version und deren Testzyklen, als Träger der Testergebnis-Informationen, werden jetzt zuerst nach dem eingetragenen Startdatum, dann nach dem Enddatum und dann erst, wie bisher, nach dem Anlagedatum angeordnet.

Die Projektstruktur ist leichter an die tatsächliche Versionsfolge anpassbar und auch nachträgliche Patch- oder Feature-Versionen können an die passende Stelle im Projektbaum eingefügt werden.

Contact show/hide Contact show/hide

Your contact person at imbus

Mr. Dierk Engelhardt

mail:testbench@imbus.de
phone:+49 9131 / 7518-0
fax:+49 9131 / 7518-50

You might find this also interesting