software testing terms complete glossary
Um die Unklarheiten bei verschiedenen Begriffen für Softwaretests zu vermeiden, füge ich a bei Glossar zum Testen von Software Hier.
Alle Begriffe zum Testen von Software sind in diesem Glossar enthalten. Wenn Sie der Meinung sind, dass Sie die Definition eines Begriffs besser kennen als hier erwähnt, können Sie dies verwenden Kontakt Formular um mir die Definitionen zu schicken. Bei der Überprüfung werde ich sie in diese Glossarliste aufnehmen.
Mit den grundlegenden Definitionen von Softwaretests und Qualitätssicherung zu wissen, ist dies das beste Glossar, das von zusammengestellt wurde Erik van Veenendaal . Außerdem gibt es für jede Definition eine in Klammern angegebene IEEE- oder ISO-Referenz.
ZU
Akzeptanzkriterium: Die Ausstiegskriterien, die eine Komponente oder ein System erfüllen muss, um zu seinvon einem Benutzer, Kunden oder einer anderen autorisierten Stelle akzeptiert. (IEEE 610)
Abnahmeprüfung: Formale Tests in Bezug auf Benutzeranforderungen, -anforderungen und Geschäftsprozesse, die durchgeführt werden, um festzustellen, ob ein System die Akzeptanzkriterien erfüllt oder nicht, und um es dem Benutzer, Kunden oder einer anderen autorisierten Stelle zu ermöglichen, zu bestimmen, ob das System akzeptiert werden soll oder nicht. (Nach IEEE 610)
Zugänglichkeitstests: Testen, um festzustellen, wie einfach Benutzer mit Behinderungen eine Komponente oder ein System verwenden können. (Gerrard)
Richtigkeit: Die Fähigkeit des Softwareprodukts, die richtigen oder vereinbarten Ergebnisse oder Effekte mit der erforderlichen Präzision bereitzustellen. (ISO 9126) Siehe auch Funktionstests.
tatsächliche Ergebnis: Das Verhalten, das beim Testen einer Komponente oder eines Systems erzeugt / beobachtet wird.
Ad-hoc-Tests: Informell durchgeführte Tests; Es findet keine formale Testvorbereitung statt, es wird keine anerkannte Testdesign-Technik verwendet, es gibt keine Erwartungen an Ergebnisse und Zufälligkeiten leiten die Testausführungsaktivität.
Anpassungsfähigkeit: Die Fähigkeit des Softwareprodukts, für verschiedene spezifizierte Umgebungen angepasst zu werden, ohne andere als die für diesen Zweck vorgesehenen Maßnahmen oder Mittel für die betrachtete Software anzuwenden. (ISO 9126) Siehe auch Portabilitätstests.
Agiles Testen: Testpraxis für ein Projekt unter Verwendung agiler Methoden wie Extreme Programming (XP), Behandlung der Entwicklung als Testkunde und Hervorhebung des Test-First-Design-Paradigmas.
Alpha-Test: Simulierte oder tatsächliche Betriebstests durch potenzielle Benutzer / Kunden oder ein unabhängiges Testteam beim Entwickler, jedoch außerhalb der Entwicklungsorganisation. Alpha-Tests werden häufig als interne Akzeptanztests eingesetzt.
Analysierbarkeit: Die Fähigkeit des Softwareprodukts, auf Mängel oder Fehlerursachen in der Software diagnostiziert zu werden oder die zu modifizierenden Teile zu identifizieren. (ISO 9126) Siehe auch Wartbarkeitstests.
Anomalie: Jede Bedingung, die von den Erwartungen aufgrund von Anforderungsspezifikationen, Konstruktionsdokumenten, Benutzerdokumenten, Standards usw. oder von der Wahrnehmung oder Erfahrung einer Person abweicht. Anomalien können während der Überprüfung, Prüfung, Analyse, Zusammenstellung oder Verwendung von Softwareprodukten oder der entsprechenden Dokumentation auftreten, sind jedoch nicht darauf beschränkt. (IEEE 1044) Siehe auch Defekt, Abweichung, Fehler, Fehler, Ausfall, Vorfall, Problem.
Attraktivität: Die Fähigkeit des Softwareprodukts, für den Benutzer attraktiv zu sein. (ISO 9126)
Prüfung: Eine unabhängige Bewertung von Softwareprodukten oder -prozessen, um die Einhaltung von Standards, Richtlinien, Spezifikationen und / oder Verfahren anhand objektiver Kriterien sicherzustellen, einschließlich Dokumenten, in denen Folgendes angegeben ist:
(1) Form oder Inhalt der herzustellenden Produkte
(2) das Verfahren, nach dem die Produkte hergestellt werden sollen
(3) wie die Einhaltung von Normen oder Richtlinien zu messen ist. (IEEE 1028)
Buchungskontrolle: Ein Pfad, über den die ursprüngliche Eingabe in einen Prozess (z. B. Daten) durch den Prozess zurückverfolgt werden kann, wobei die Prozessausgabe als Ausgangspunkt verwendet wird. Dies erleichtert die Fehleranalyse und ermöglicht die Durchführung eines Prozessaudits. (Nach TMap)
automatisierte Testware: Testware, die beim automatisierten Testen verwendet wird, z. B. Toolskripte.
Verfügbarkeit: Der Grad, in dem eine Komponente oder ein System betriebsbereit und bei Bedarf zugänglich ist. Oft als Prozentsatz ausgedrückt. (IEEE 610)
B.
wie man eine XML-Datei im Browser öffnet
Back-to-Back-Tests: Testen, bei dem zwei oder mehr Varianten einer Komponente oder eines Systems mit denselben Eingaben ausgeführt, die Ausgaben verglichen und bei Unstimmigkeiten analysiert werden. (IEEE 610)
Grundlinie: Eine Spezifikation oder ein Softwareprodukt, das formell überprüft oder vereinbart wurde, das danach als Grundlage für die weitere Entwicklung dient und das nur durch einen formalen Änderungskontrollprozess geändert werden kann. (Nach IEEE 610)
Grundblock: Eine Folge von einer oder mehreren aufeinanderfolgenden ausführbaren Anweisungen, die keine Verzweigungen enthalten.
Basistest-Set: Eine Reihe von Testfällen, die aus der internen Struktur oder Spezifikation abgeleitet wurden, um sicherzustellen, dass 100% eines bestimmten Abdeckungskriteriums erreicht werden.
Verhalten: Die Reaktion einer Komponente oder eines Systems auf eine Reihe von Eingabewerten und Voraussetzungen.
Benchmark-Test: (1) Ein Standard, anhand dessen Messungen oder Vergleiche durchgeführt werden können. (2) Ein Test, mit dem Komponenten oder Systeme miteinander oder mit einem Standard wie in (1) verglichen werden. (Nach IEEE 610)
maßgeschneiderte Software: Software, die speziell für eine Reihe von Benutzern oder Kunden entwickelt wurde. Das Gegenteil ist Standard-Software.
beste Übung: Eine überlegene Methode oder innovative Praxis, die zur Verbesserung der Leistung einer Organisation in einem bestimmten Kontext beiträgt und von anderen Peer-Organisationen normalerweise als „am besten“ anerkannt wird.
Beta-test: Betriebstests durch potenzielle und / oder vorhandene Benutzer / Kunden an einem externen Standort, die nicht anderweitig mit den Entwicklern befasst sind, um festzustellen, ob eine Komponente oder ein System die Benutzer- / Kundenanforderungen erfüllt und in die Geschäftsprozesse passt. Beta-Tests werden häufig als externe Akzeptanztests eingesetzt, um Feedback vom Markt zu erhalten.
Urknalltests: Eine Art von Integrationstests, bei denen Softwareelemente, Hardwareelemente oder beides gleichzeitig und nicht schrittweise zu einer Komponente oder einem Gesamtsystem kombiniert werden. (Nach IEEE 610) Siehe auch Integrationstests.
Black-Box-Test: Funktionale oder nicht funktionale Tests ohne Bezugnahme auf die interne Struktur der Komponente oder des Systems.
Black-Box-Test-Designtechniken: Dokumentiertes Verfahren zum Ableiten und Auswählen von Testfällen basierend auf einer Analyse der funktionalen oder nicht funktionalen Spezifikation einer Komponente oder eines Systems ohne Bezugnahme auf deren interne Struktur.
blockierter Testfall: Ein Testfall, der nicht ausgeführt werden kann, weil die Voraussetzungen für seine Ausführung nicht erfüllt sind.
Bottom-up-Test: Ein inkrementeller Ansatz für Integrationstests, bei dem die Komponenten der untersten Ebene zuerst getestet und dann verwendet werden, um das Testen von Komponenten der höheren Ebene zu erleichtern. Dieser Vorgang wird wiederholt, bis die Komponente oben in der Hierarchie getestet wird. Siehe auch Integrationstests.
Grenzwert: Ein Eingabewert oder Ausgabewert, der sich am Rand einer Äquivalenzpartition oder im kleinsten inkrementellen Abstand auf beiden Seiten einer Kante befindet, beispielsweise der Minimal- oder Maximalwert eines Bereichs.
Grenzwertanalyse: Eine Black-Box-Testdesign-Technik, bei der Testfälle basierend auf Grenzwerten entworfen werden.
Grenzwertabdeckung: Der Prozentsatz der Grenzwerte, die von einer Testsuite ausgeübt wurden.
Ast: Ein Basisblock, der zur Ausführung basierend auf einem Programmkonstrukt ausgewählt werden kann, in dem einer von zwei oder mehr alternativen Programmpfaden verfügbar ist, z. Fall, springen, gehen zu, wenn sonst.
Filialabdeckung: Der Prozentsatz der Zweige, die von einer Testsuite ausgeübt wurden. 100% Filialabdeckung bedeutet sowohl 100% Entscheidungsabdeckung als auch 100% Kontoauszugsabdeckung.
Branchentests: Eine White-Box-Testdesign-Technik, bei der Testfälle zum Ausführen von Verzweigungen entworfen werden.
Geschäftsprozessbasiertes Testen: Ein Testansatz, bei dem Testfälle basierend auf Beschreibungen und / oder Kenntnissen der Geschäftsprozesse entworfen werden.
C.
Capability Maturity Model (CMM): Ein fünfstufiges Framework, das die Schlüsselelemente eines effektiven Softwareprozesses beschreibt. Das Capability Maturity Model umfasst Verfahren zur Planung, Entwicklung und Verwaltung der Softwareentwicklung und -wartung. (KMG)
Integration des Capability Maturity Model (CMMI): Ein Framework, das die Schlüsselelemente eines effektiven Produktentwicklungs- und Wartungsprozesses beschreibt. Die Integration des Capability Maturity Model umfasst Verfahren zur Planung, Entwicklung und Verwaltung der Produktentwicklung und -wartung. CMMI ist der designierte Nachfolger des CMM. (CMMI)
Aufnahme- / Wiedergabetool: Eine Art Testausführungswerkzeug, bei dem Eingaben während manueller Tests aufgezeichnet werden, um automatisierte Testskripte zu generieren, die später ausgeführt (d. H. Wiedergegeben) werden können. Diese Tools werden häufig zur Unterstützung automatisierter Regressionstests verwendet.
FALL: Akronym für Computer Aided Software Engineering.
BESETZUNG: Akronym für Computer Aided Software Testing. Siehe auch Testautomatisierung.
Ursache-Wirkungs-Diagramm: Eine grafische Darstellung von Eingaben und / oder Reizen (Ursachen) mit den zugehörigen Ausgaben (Effekten), mit denen Testfälle entworfen werden können.
Ursache-Wirkungs-Grafik: Eine Black-Box-Testdesign-Technik, bei der Testfälle anhand von Ursache-Wirkungs-Diagrammen entworfen werden. (BS 7925/2)
Zertifizierung: Der Prozess des Bestätigens, dass eine Komponente, ein System oder eine Person ihren spezifizierten Anforderungen entspricht, z. durch Bestehen einer Prüfung.
Veränderlichkeit: Die Fähigkeit des Softwareprodukts, die Implementierung bestimmter Änderungen zu ermöglichen. (ISO 9126) Siehe auch Wartbarkeit.
Klassifizierungsbaummethode: Eine Black-Box-Testdesign-Technik, bei der Testfälle, die mittels eines Klassifizierungsbaums beschrieben werden, entworfen werden, um Kombinationen von Vertretern von Eingabe- und / oder Ausgabedomänen auszuführen. (Grochtmann)
Codeabdeckung: Ein Analyseverfahren, das bestimmt, welche Teile der Software von der Testsuite ausgeführt (abgedeckt) wurden und welche Teile nicht ausgeführt wurden, z. Anweisungsabdeckung, Entscheidungsabdeckung oder Bedingungsabdeckung.
Koexistenz: Die Fähigkeit des Softwareprodukts, mit anderer unabhängiger Software in einer gemeinsamen Umgebung zusammen zu existieren, die gemeinsame Ressourcen nutzt. (ISO 9126) Siehe Portabilitätstests.
Komplexität: Der Grad, in dem eine Komponente oder ein System ein Design und / oder eine interne Struktur aufweist, die schwer zu verstehen, zu warten und zu überprüfen ist. Siehe auch zyklomatische Komplexität.
Beachtung: Die Fähigkeit des Softwareprodukts, Standards, Konventionen oder Vorschriften in Gesetzen und ähnlichen Vorschriften einzuhalten. (ISO 9126)
Anforderungsprüfung :: Der Testprozess zur Feststellung der Konformität von Komponenten oder Systemen.
Komponente: Ein minimales Softwareelement, das isoliert getestet werden kann.
Testen der Komponentenintegration: Es wurden Tests durchgeführt, um Fehler in den Schnittstellen und die Interaktion zwischen integrierten Komponenten aufzudecken.
Komponentenspezifikation: Eine Beschreibung der Funktion einer Komponente in Bezug auf ihre Ausgabewerte für bestimmte Eingabewerte unter bestimmten Bedingungen und das erforderliche nicht funktionierende Verhalten (z. B. Ressourcennutzung).
Komponententest: Das Testen einzelner Softwarekomponenten. (Nach IEEE 610)
zusammengesetzter Zustand: Zwei oder mehr einzelne Bedingungen, die mittels eines logischen Operators (AND, OR oder XOR) verbunden sind, z. 'A> B UND C> 1000'.
Parallelitätstests: Testen, um festzustellen, wie das Auftreten von zwei oder mehr Aktivitäten innerhalb desselben Zeitintervalls, das entweder durch Verschachteln der Aktivitäten oder durch gleichzeitige Ausführung erreicht wird, von der Komponente oder dem System behandelt wird. (Nach IEEE 610)
Bedingung: Ein logischer Ausdruck, der als wahr oder falsch bewertet werden kann, z. A> B. Siehe auch Testbedingung.
Zustandsdeckung: Der Prozentsatz der Zustandsergebnisse, die von einer Testsuite ausgeführt wurden. Für eine 100% ige Bedingungsabdeckung muss jede einzelne Bedingung in jeder Entscheidungserklärung als wahr und falsch getestet werden.
Zustandsbestimmungsabdeckung: Der Prozentsatz aller Einzelbedingungsergebnisse, die sich unabhängig auf ein Entscheidungsergebnis auswirken, das von einer Testfallsuite ausgeführt wurde. Eine 100% ige Abdeckung der Zustandsbestimmung impliziert eine 100% ige Abdeckung der Entscheidungsbedingung.
Zustandsbestimmungstest: Eine White-Box-Testdesign-Technik, bei der Testfälle so entworfen werden, dass einzelne Bedingungsergebnisse ausgeführt werden, die sich unabhängig auf ein Entscheidungsergebnis auswirken.
Zustandsprüfung: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Bedingungsergebnisse auszuführen.
Zustand Ergebnis: Die Bewertung einer Bedingung auf Richtig oder Falsch.
Aufbau: Die Zusammensetzung einer Komponente oder eines Systems, wie durch die Anzahl, Art und Verbindungen ihrer Bestandteile definiert.
Konfigurationsprüfung: Die Funktion zum Überprüfen des Inhalts von Bibliotheken von Konfigurationselementen, z. für die Einhaltung von Standards. (IEEE 610)
Konfigurationskontrolle: Ein Element des Konfigurationsmanagements, das aus der Bewertung, Koordination, Genehmigung oder Ablehnung und Implementierung von Änderungen an Konfigurationselementen nach formeller Festlegung ihrer Konfigurationsidentifikation besteht. (IEEE
610)
Konfigurationsidentifikation: Ein Element des Konfigurationsmanagements, das aus der Auswahl der Konfigurationselemente für ein System und der Aufzeichnung ihrer funktionalen und physikalischen Eigenschaften in der technischen Dokumentation besteht. (IEEE 610)
Konfigurationselement: Eine Aggregation von Hardware, Software oder beidem, die für das Konfigurationsmanagement vorgesehen ist und im Konfigurationsmanagementprozess als eine Einheit behandelt wird. (IEEE 610)
Konfigurationsmanagement: Eine Disziplin, die technische und administrative Anweisungen und Überwachung anwendet, um: die funktionalen und physischen Merkmale eines Konfigurationselements zu identifizieren und zu dokumentieren, Änderungen an diesen Merkmalen zu kontrollieren, den Verarbeitungs- und Implementierungsstatus von Änderungen aufzuzeichnen und zu melden und die Einhaltung der festgelegten Anforderungen zu überprüfen. (IEEE 610)
Konsistenz: Der Grad der Einheitlichkeit, Standardisierung und Widerspruchsfreiheit zwischen den Dokumenten oder Teilen einer Komponente oder eines Systems. (IEEE 610)
Kontrollfluss: Eine abstrakte Darstellung aller möglichen Folgen von Ereignissen (Pfaden) bei der Ausführung durch eine Komponente oder ein System.
Konvertierungstests: Testen von Software zum Konvertieren von Daten aus vorhandenen Systemen zur Verwendung in Ersatzsystemen.
COTS: Akronym für Commercial Off-The-Shelf-Software.
Abdeckung: Der Grad, ausgedrückt als Prozentsatz, bis zu dem ein bestimmter Deckungsgegenstand von einer Testsuite ausgeübt wurde.
Abdeckungsanalyse: Messung der erreichten Abdeckung eines bestimmten Abdeckungselements während der Testausführung anhand vorgegebener Kriterien, um festzustellen, ob zusätzliche Tests erforderlich sind und wenn ja, welche Testfälle erforderlich sind.
Deckungsgegenstand: Eine Entität oder Eigenschaft, die als Grundlage für die Testabdeckung verwendet wird, z. Äquivalenzpartitionen oder Code-Anweisungen.
Coverage-Tool: Ein Werkzeug, das objektive Messungen darüber liefert, welche Strukturelemente, z. Aussagen, Zweige wurden von der Testsuite ausgeübt.
zyklomatische Komplexität: Die Anzahl der unabhängigen Pfade durch ein Programm. Die zyklomatische Komplexität ist definiert als: L - N + 2P, wobei -L = Anzahl der Kanten / Verknüpfungen in einem Diagramm -N = die Anzahl der Knoten in einem Diagramm - P = die Anzahl der nicht verbundenen Teile des Diagramms (z. B. ein aufrufender Diagramm und ein Unterprogramm). (Nach McCabe)
D.
Datendefinition: Eine ausführbare Anweisung, bei der einer Variablen ein Wert zugewiesen wird.
datengesteuertes Testen: Eine Skripttechnik, die Testeingaben und erwartete Ergebnisse in einer Tabelle oder Tabelle speichert, sodass ein einziges Steuerungsskript alle Tests in der Tabelle ausführen kann. Datengesteuertes Testen wird häufig verwendet, um die Anwendung von Testausführungstools wie Erfassungs- / Wiedergabetools zu unterstützen. (Fewster und Graham) Siehe auch Keyword-gesteuertes Testen.
Datenfluss: Eine abstrakte Darstellung der Sequenz und möglicher Änderungen des Status von Datenobjekten, wobei der Status eines Objekts einer von ist::Schaffung, Verwendung oder Zerstörung. (Beizer)
Datenflussanalyse: Eine Form der statischen Analyse basierend auf der Definition und Verwendung von Variablen.
Datenflussabdeckung: Der Prozentsatz der Definitions-Verwendungs-Paare, die von einer Testfallsuite ausgeführt wurden.
Datenflusstest: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Definitionen auszuführen und Variablenpaare zu verwenden.
Debugging: Der Prozess des Findens, Analysierens und Entfernens der Fehlerursachen in der Software.
Debugging-Tool: Ein Tool, mit dem Programmierer Fehler reproduzieren, den Status von Programmen untersuchen und den entsprechenden Fehler finden können. Mit Debuggern können Programmierer Programme Schritt für Schritt ausführen, ein Programm an einer beliebigen Programmanweisung anhalten und Programmvariablen festlegen und untersuchen.
Entscheidung: Ein Programmpunkt, an dem der Kontrollfluss zwei oder mehr alternative Routen hat. Ein Knoten mit zwei oder mehr Links zu separaten Zweigen.
Entscheidungsbedingungsdeckung: Der Prozentsatz aller Bedingungs- und Entscheidungsergebnisse, die von einer Testsuite ausgeführt wurden. 100% Entscheidungsbedingungsabdeckung bedeutet sowohl 100% Bedingungsabdeckung als auch 100% Entscheidungsabdeckung.
Prüfung der Entscheidungsbedingungen: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Bedingungsergebnisse und Entscheidungsergebnisse auszuführen.
Entscheidungsabdeckung: Der Prozentsatz der Entscheidungsergebnisse, die von einer Testsuite ausgeführt wurden. 100% Entscheidungsabdeckung bedeutet sowohl 100% Zweigstellenabdeckung als auch 100% Kontoauszugsabdeckung.
Entscheidungstabelle: Eine Tabelle mit Kombinationen von Eingaben und / oder Stimuli (Ursachen) mit den zugehörigen Ausgaben und / oder Aktionen (Effekten), die zum Entwerfen von Testfällen verwendet werden können.
Testen der Entscheidungstabelle: Eine Black-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um die in einer Entscheidungstabelle gezeigten Kombinationen von Eingaben und / oder Stimuli (Ursachen) auszuführen. (Veenendaal)
Entscheidungstests: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Entscheidungsergebnisse auszuführen.
Entscheidungsergebnis: Das Ergebnis einer Entscheidung (die daher die zu treffenden Zweige bestimmt).
Defekt: Ein Fehler in einer Komponente oder einem System, der dazu führen kann, dass die Komponente oder das System ihre erforderliche Funktion nicht erfüllt, z. eine falsche Aussage oder Datendefinition. Ein Fehler, der während der Ausführung auftritt, kann zu einem Ausfall der Komponente oder des Systems führen.
Defektdichte: Die Anzahl der in einer Komponente oder einem System identifizierten Fehler geteilt durch die Größe der Komponente oder des Systems (ausgedrückt in Standardmessbegriffen, z. B. Codezeilen, Anzahl der Klassen oder Funktionspunkte).
Prozentsatz der Fehlererkennung (DDP): die Anzahl der durch eine Testphase gefundenen Fehler, geteilt durch die Anzahl der durch diese Testphase gefundenen Fehler und alle anderen Mittel danach.
Fehlerbericht: Ein Dokument, das über Fehler in einer Komponente oder einem System berichtet, die dazu führen können, dass die Komponente oder das System die erforderliche Funktion nicht ausführt. (Nach IEEE 829)
Fehlermanagement: Der Prozess des Erkennens, Untersuchens, Ergreifens von Maßnahmen und Beseitigung von Mängeln. Es geht darum, Fehler aufzuzeichnen, zu klassifizieren und die Auswirkungen zu identifizieren. (Nach IEEE 1044)
Fehlermaskierung: Ein Ereignis, bei dem ein Defekt die Erkennung eines anderen verhindert. (Nach IEEE 610)
Definitions-Verwendungs-Paar: Die Zuordnung der Definition einer Variablen zur Verwendung dieser Variablen. Zu den variablen Verwendungen gehört die Berechnung (z. B. Multiplikation) oder die Steuerung der Ausführung eines Pfads ('Prädikat' -Verwendung).
lieferbar: Jedes (Arbeits-) Produkt, das an eine andere Person als den Autor des (Arbeits-) Produkts geliefert werden muss.
designbasiertes Testen: Ein Testansatz, bei dem Testfälle basierend auf der Architektur und / oder dem detaillierten Design einer Komponente oder eines Systems entworfen werden (z. B. Tests von Schnittstellen zwischen Komponenten oder Systemen).
Schreibtischprüfung: Testen von Software oder Spezifikation durch manuelle Simulation ihrer Ausführung.
Entwicklungstests: Formelle oder informelle Tests, die während der Implementierung einer Komponente oder eines Systems durchgeführt werden, normalerweise in der Entwicklungsumgebung von Entwicklern. (Nach IEEE 610)
Dokumentationsprüfung: Testen der Qualität der Dokumentation, z. Benutzerhandbuch oder Installationshandbuch.
Domain: Der Satz, aus dem gültige Eingabe- und / oder Ausgabewerte ausgewählt werden können.
Treiber: Eine Softwarekomponente oder ein Testtool, das eine Komponente ersetzt, die sich um die Steuerung und / oder den Aufruf einer Komponente oder eines Systems kümmert. (Nach TMap)
dynamische Analyse: Der Prozess der Bewertung des Verhaltens, z. Speicherleistung, CPU-Auslastung eines Systems oder einer Komponente während der Ausführung. (Nach IEEE 610)
dynamischer Vergleich: Vergleich der tatsächlichen und erwarteten Ergebnisse, die während der Ausführung der Software durchgeführt werden, beispielsweise durch ein Testausführungstool.
dynamisches Testen: Tests, bei denen die Software einer Komponente oder eines Systems ausgeführt wird.
IS
Effizienz: Die Fähigkeit des Softwareprodukts, eine angemessene Leistung im Verhältnis zur Menge der unter den angegebenen Bedingungen verwendeten Ressourcen bereitzustellen. (ISO 9126)
Effizienzprüfung: Der Testprozess zur Bestimmung der Effizienz eines Softwareprodukts.
elementare Vergleichstests: Eine Black-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Kombinationen von Eingaben unter Verwendung des Konzepts der Zustandsbestimmungsabdeckung auszuführen. (TMap)
Emulator: Ein Gerät, Computerprogramm oder System, das dieselben Eingaben akzeptiert und dieselben Ausgaben wie ein bestimmtes System erzeugt. (IEEE 610) Siehe auch Simulator.
Aufnahmekriterien: der Satz allgemeiner und spezifischer Bedingungen, um einem Prozess zu ermöglichen, mit einer definierten Aufgabe fortzufahren, z. Testphase. Der Zweck von Eingabekriterien besteht darin, zu verhindern, dass eine Aufgabe gestartet wird, die mehr (verschwendeten) Aufwand erfordert als der Aufwand, der zum Entfernen der fehlgeschlagenen Eingabekriterien erforderlich ist. (Gilb und Graham)
Einstiegspunkt: Die erste ausführbare Anweisung innerhalb einer Komponente.
Äquivalenzpartition: Ein Teil einer Eingabe- oder Ausgabedomäne, für den das Verhalten einer Komponente oder eines Systems basierend auf der Spezifikation als gleich angenommen wird.
Abdeckung der Äquivalenzpartition: Der Prozentsatz der Äquivalenzpartitionen, die von einer Testsuite ausgeführt wurden.
Äquivalenzpartitionierung: Eine Black-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Vertreter von Äquivalenzpartitionen auszuführen. Grundsätzlich sind Testfälle so konzipiert, dass sie jede Partition mindestens einmal abdecken.
Error: Eine menschliche Handlung, die zu einem falschen Ergebnis führt. (Nach IEEE 610)
Fehler erraten: Eine Testdesign-Technik, bei der die Erfahrung des Testers verwendet wird, um zu antizipieren, welche Fehler in der zu testenden Komponente oder dem zu testenden System aufgrund von Fehlern vorliegen könnten, und um Tests speziell zu entwerfen, um sie freizulegen.
Fehler beim Seeding: Der Vorgang des absichtlichen Hinzufügens bekannter Fehler zu den bereits in der Komponente oder im System vorhandenen Fehlern, um die Erkennungs- und Entfernungsrate zu überwachen und die Anzahl der verbleibenden Fehler abzuschätzen. (IEEE 610)
Fehlertoleranz: Die Fähigkeit eines Systems oder einer Komponente, den normalen Betrieb trotz fehlerhafter Eingaben fortzusetzen. (Nach IEEE 610).
Ausnahmebehandlung: Verhalten einer Komponente oder eines Systems als Reaktion auf fehlerhafte Eingaben eines menschlichen Benutzers oder einer anderen Komponente oder eines anderen Systems oder auf einen internen Fehler.
ausführbare Anweisung: Eine Anweisung, die beim Kompilieren in Objektcode übersetzt wird und die beim Ausführen des Programms prozedural ausgeführt wird und möglicherweise eine Aktion für Daten ausführt.
ausgeübt: Ein Programmelement wird von einem Testfall ausgeführt, wenn der Eingabewert die Ausführung dieses Elements verursacht, z. B. eine Anweisung, eine Entscheidung oder ein anderes Strukturelement.
ausführliche Tests: Ein Testansatz, bei dem die Testsuite alle Kombinationen von Eingabewerten und Voraussetzungen umfasst.
Abbruchkriterium: Die mit den Stakeholdern vereinbarten allgemeinen und spezifischen Bedingungen für den offiziellen Abschluss eines Prozesses. Der Zweck der Beendigungskriterien besteht darin, zu verhindern, dass eine Aufgabe als erledigt betrachtet wird, wenn noch offene Teile der Aufgabe noch nicht erledigt sind. Ausstiegskriterien werden beim Testen verwendet, um zu melden und zu planen, wann der Test abgebrochen werden soll. (Nach Gilb und Graham)
Ausgangspunkt: Die letzte ausführbare Anweisung innerhalb einer Komponente.
erwartetes Ergebnis: Das Verhalten, das von der Spezifikation oder einer anderen Quelle der Komponente oder des Systems unter bestimmten Bedingungen vorhergesagt wird.
Versuchsforschung: Testen, bei dem der Tester das Design der Tests während der Durchführung dieser Tests aktiv steuert und die beim Testen gewonnenen Informationen verwendet, um neue und bessere Tests zu entwerfen. (Bach)
F.
Scheitern: Ein Test gilt als fehlgeschlagen, wenn sein tatsächliches Ergebnis nicht mit dem erwarteten Ergebnis übereinstimmt.
Fehler: Tatsächliche Abweichung der Komponente oder des Systems von der erwarteten Lieferung, Wartung oder dem erwarteten Ergebnis. (Nach Fenton)
Fehlermodus: Die physische oder funktionale Manifestation eines Fehlers. Beispielsweise kann ein System im Fehlermodus durch langsamen Betrieb, falsche Ausgaben oder vollständige Beendigung der Ausführung gekennzeichnet sein.
Fehlermodus- und Effektanalyse (FMEA): Ein systematischer Ansatz zur Risikoidentifizierung und -analyse zur Identifizierung möglicher Ausfallarten und zum Versuch, deren Auftreten zu verhindern.
Fehlerrate: Das Verhältnis der Anzahl von Fehlern einer gegebenen Kategorie zu einer gegebenen Maßeinheit, z. Fehler pro Zeiteinheit, Fehler pro Anzahl von Transaktionen, Fehler pro Anzahl von Computerläufen. (IEEE 610)
Fehlertoleranz: Die Fähigkeit des Softwareprodukts, ein bestimmtes Leistungsniveau bei Softwarefehlern (Defekten) oder bei Verstößen gegen die angegebene Schnittstelle aufrechtzuerhalten. (ISO 9126) Siehe auch Zuverlässigkeit.
Fehlerbaumanalyse: Eine Methode zur Analyse der Fehlerursachen.
machbarer Weg: Ein Pfad, für den eine Reihe von Eingabewerten und Voraussetzungen vorhanden ist, der die Ausführung bewirkt.
Merkmal: Ein Attribut einer Komponente oder eines Systems, das bzw. das in der Anforderungsdokumentation angegeben oder impliziert wird (z. B. Zuverlässigkeit, Benutzerfreundlichkeit oder Konstruktionsbeschränkungen). (Nach IEEE 1008)
endliche Zustandsmaschine: Ein Rechenmodell, das aus einer endlichen Anzahl von Zuständen und Übergängen zwischen diesen Zuständen besteht, möglicherweise mit begleitenden Aktionen. (IEEE 610)
formelle Überprüfung: Eine Überprüfung, die durch dokumentierte Verfahren und Anforderungen gekennzeichnet ist, z. Inspektion.
gefrorene Testbasis: Ein Testbasisdokument, das nur durch einen formalen Änderungskontrollprozess geändert werden kann. Siehe auch Grundlinie.
Funktionspunktanalyse (FPA): Methode zur Messung der Größe der Funktionalität eines Informationssystems. Die Messung ist unabhängig von der Technologie. Diese Messung kann als Grundlage für die Messung der Produktivität, die Schätzung der benötigten Ressourcen und die Projektsteuerung verwendet werden.
funktionale Integration: Ein Integrationsansatz, der die Komponenten oder Systeme kombiniert, um eine grundlegende Funktionalität frühzeitig zum Laufen zu bringen. Siehe auch Integrationstests.
funktionale Anforderung: Eine Anforderung, die eine Funktion angibt, die eine Komponente oder ein System ausführen muss. (IEEE 610)
Funktionstest-Design-Technik: Dokumentiertes Verfahren zum Ableiten und Auswählen von Testfällen basierend auf einer Analyse der Spezifikation der Funktionalität einer Komponente oder eines Systems ohne Bezugnahme auf deren interne Struktur. Siehe auch Black-Box-Testdesign-Technik.
Funktionsprüfung: Testen basierend auf einer Analyse der Spezifikation der Funktionalität einer Komponente oder eines Systems. Siehe auch Black-Box-Tests.
Funktionalität: Die Fähigkeit des Softwareprodukts, Funktionen bereitzustellen, die den angegebenen und implizierten Anforderungen entsprechen, wenn die Software unter bestimmten Bedingungen verwendet wird. (ISO 9126)
Funktionstests: Der Testprozess zur Bestimmung der Funktionalität eines Softwareprodukts.
G
Glasbox-Test: Siehe White-Box-Test.
H.
heuristische Evaluation: Eine statische Usability-Testtechnik, um die Konformität einer Benutzeroberfläche mit anerkannten Usability-Prinzipien (den sogenannten „Heuristiken“) zu bestimmen.
Testfall auf hohem Niveau: Ein Testfall ohne konkrete Werte (Implementierungsebene) für Eingabedaten und erwartete Ergebnisse.
horizontale Rückverfolgbarkeit: Die Rückverfolgung von Anforderungen für eine Teststufe durch die Ebenen der Testdokumentation (z. B. Testplan, Testdesignspezifikation, Testfallspezifikation und Testverfahrensspezifikation).
ich
Einflussanalyse: Die Bewertung von Änderungen an den Ebenen der Entwicklungsdokumentation, Testdokumentation und Komponenten, um eine bestimmte Änderung an bestimmten Anforderungen umzusetzen.
inkrementelles Entwicklungsmodell: Ein Entwicklungslebenszyklus, in dem ein Projekt in eine Reihe von Schritten unterteilt ist, von denen jeder einen Teil der Funktionalität in den allgemeinen Projektanforderungen liefert. Die Anforderungen werden priorisiert und in der entsprechenden Reihenfolge in der entsprechenden Reihenfolge geliefert. In einigen (aber nicht allen) Versionen dieses Lebenszyklusmodells folgt jedes Teilprojekt einem „Mini-V-Modell“ mit eigenen Entwurfs-, Codierungs- und Testphasen.
inkrementelle Tests: Testen, wo Komponenten oder Systeme integriert oder einzeln getestet werden, bis alle Komponenten oder Systeme integriert und getestet sind.
Vorfall: Jedes Ereignis, das während des Testens auftritt und untersucht werden muss. (Nach IEEE 1008)
Incident Management: Der Prozess des Erkennens, Erforschens, Ergreifens und Entsorgens von Vorfällen. Es geht darum, Vorfälle aufzuzeichnen, zu klassifizieren und die Auswirkungen zu identifizieren. (Nach IEEE 1044)
Incident Management Tool: Ein Tool, das die Aufzeichnung und Statusverfolgung von Vorfällen erleichtert, die während des Tests festgestellt wurden. Sie verfügen häufig über Workflow-orientierte Funktionen zur Verfolgung und Steuerung der Zuordnung, Korrektur und erneuten Prüfung von Vorfällen sowie zur Bereitstellung von Berichtsfunktionen.
Vorfallsbericht: Ein Dokument, das über jedes Ereignis berichtet, das während des Tests auftritt und untersucht werden muss. (Nach IEEE 829)
Unabhängigkeit: Aufgabentrennung, die die Durchführung objektiver Tests fördert. (Nach DO-178b)
undurchführbarer Weg: Ein Pfad, der von keinem Satz möglicher Eingabewerte ausgeübt werden kann.
informelle Überprüfung: Eine Überprüfung, die nicht auf einem formellen (dokumentierten) Verfahren basiert.
Eingang: Eine Variable (ob innerhalb oder außerhalb einer Komponente gespeichert), die von einer Komponente gelesen wird.
Eingabedomäne: Der Satz, aus dem gültige Eingabewerte ausgewählt werden können. Siehe auch Domäne.
eingegebener Wert: Eine Instanz einer Eingabe. Siehe auch Eingabe.
Inspektion: Eine Art der Überprüfung, die auf der visuellen Prüfung von Dokumenten beruht, um Fehler zu erkennen, z. Verstöße gegen Entwicklungsstandards und Nichteinhaltung der Dokumentation auf höherer Ebene. Die formalste Überprüfungstechnik und basiert daher immer auf einem dokumentierten Verfahren. (Nach IEEE 610, IEEE 1028)
Installierbarkeit: Die Fähigkeit des Softwareprodukts, in einer bestimmten Umgebung installiert zu werden (ISO 9126). Siehe auch Portabilität.
Installierbarkeitstests: Der Prozess des Testens der Installierbarkeit eines Softwareprodukts. Siehe auch Portabilitätstests.
Installationsanleitung: Mitgelieferte Anweisungen auf geeigneten Medien, die den Installateur durch den Installationsprozess führen. Dies kann eine manuelle Anleitung, eine schrittweise Anleitung, ein Installationsassistent oder eine andere ähnliche Prozessbeschreibung sein.
Installationsassistent: Mitgelieferte Software auf einem geeigneten Medium, die den Installer durch den Installationsprozess führt. Normalerweise wird der Installationsprozess ausgeführt, Feedback zu den Installationsergebnissen gegeben und nach Optionen gefragt.
Instrumentierung: Das Einfügen von zusätzlichem Code in das Programm, um Informationen über das Programmverhalten während der Ausführung zu sammeln.
Instrumente: Ein Software-Tool zur Instrumentierung.
Aufnahme-Test: Eine spezielle Instanz eines Rauchtests, um zu entscheiden, ob die Komponente oder das System für detaillierte und weitere Tests bereit ist. Ein Einlasstest wird typischerweise zu Beginn der Testausführungsphase durchgeführt.
Integration: Der Prozess des Kombinierens von Komponenten oder Systemen zu größeren Baugruppen.
Integrationstests: Es wurden Tests durchgeführt, um Fehler in den Schnittstellen und in den Wechselwirkungen zwischen integrierten Komponenten oder Systemen aufzudecken. Siehe auch Testen der Komponentenintegration, Testen der Systemintegration.
Schnittstellentests: Ein Integrationstesttyp, der sich mit dem Testen der Schnittstellen zwischen Komponenten oder Systemen befasst.
Interoperabilität: Die Fähigkeit des Softwareprodukts, mit einer oder mehreren bestimmten Komponenten oder Systemen zu interagieren. (Nach ISO 9126) Siehe auch Funktionalität.
Interoperabilitätstests: Der Testprozess zur Bestimmung der Interoperabilität eines Softwareprodukts. Siehe auch Funktionstests.
ungültiger Test: Testen mit Eingabewerten, die von der Komponente oder dem System abgelehnt werden sollen. Siehe auch Fehlertoleranz.
Isolationstests: Testen einzelner Komponenten isoliert von umgebenden Komponenten, wobei umgebende Komponenten bei Bedarf von Stichleitungen und Treibern simuliert werden.
ZU
Keyword-gesteuertes Testen: Eine Skripttechnik, die Datendateien verwendet, um nicht nur Testdaten und erwartete Ergebnisse, sondern auch Schlüsselwörter für die zu testende Anwendung zu enthalten. Die Schlüsselwörter werden von speziellen unterstützenden Skripten interpretiert, die vom Steuerungsskript für den Test aufgerufen werden. Siehe auch datengesteuertes Testen.
L.
LCSAJ: Eine lineare Codesequenz und ein Sprung, bestehend aus den folgenden drei Elementen (üblicherweise durch Zeilennummern in einer Quellcodeliste gekennzeichnet): dem Beginn der linearen Sequenz ausführbarer Anweisungen, dem Ende der linearen Sequenz und der Zielzeile, zu der die Steuerung erfolgt Der Durchfluss wird am Ende der linearen Sequenz übertragen.
LCSAJ-Berichterstattung: Der Prozentsatz der LCSAJs einer Komponente, die von einer Testsuite ausgeführt wurden. 100% LCSAJ-Abdeckung impliziert 100% Entscheidungsabdeckung.
LCSAJ-Tests: Eine White-Box-Testdesign-Technik, bei der Testfälle zur Ausführung von LCSAJs entwickelt werden.
Lernfähigkeit: Die Fähigkeit des Softwareprodukts, dem Benutzer das Erlernen seiner Anwendung zu ermöglichen. (ISO 9126) Siehe auch Benutzerfreundlichkeit.
lade Test: Ein Testtyp, der sich mit der Messung des Verhaltens einer Komponente oder eines Systems mit zunehmender Last befasst, z. Anzahl der parallelen Benutzer und / oder Anzahl der Transaktionen, um zu bestimmen, welche Last von der Komponente oder dem System verarbeitet werden kann.
Testfall auf niedrigem Niveau: Ein Testfall mit konkreten Werten (Implementierungsebene) für Eingabedaten und erwartete Ergebnisse.
M.
Instandhaltung: Änderung eines Softwareprodukts nach der Lieferung, um Fehler zu korrigieren, die Leistung oder andere Eigenschaften zu verbessern oder das Produkt an eine geänderte Umgebung anzupassen. (IEEE 1219)
Wartungstests: Testen der Änderungen an einem Betriebssystem oder der Auswirkungen einer geänderten Umgebung auf ein Betriebssystem.
Wartbarkeit: Die Leichtigkeit, mit der ein Softwareprodukt geändert werden kann, um Fehler zu korrigieren, um neuen Anforderungen gerecht zu werden, um die zukünftige Wartung zu vereinfachen oder um es an eine geänderte Umgebung anzupassen. (ISO 9126)
Wartbarkeitstests: Der Testprozess zur Bestimmung der Wartbarkeit eines Softwareprodukts.
Management Review: Eine systematische Bewertung des Softwarebeschaffungs-, -lieferungs-, -entwicklungs-, -betriebs- oder -wartungsprozesses, die vom oder im Auftrag des Managements durchgeführt wird, überwacht den Fortschritt, bestimmt den Status von Plänen und Zeitplänen, bestätigt die Anforderungen und die Zuweisung des Erbensystems oder bewertet die Wirksamkeit von Managementansätzen Gebrauchstauglichkeit zu erreichen. (Nach IEEE 610, IEEE 1028)
Reife: (1) Die Fähigkeit einer Organisation hinsichtlich der Effektivität und Effizienz ihrer Prozesse und Arbeitspraktiken. Siehe auch Capability Maturity Model, Test Maturity Model. (2) Die Fähigkeit des Softwareprodukts, Fehler aufgrund von Fehlern in der Software zu vermeiden. (ISO 9126) Siehe auch Zuverlässigkeit.
messen: Die Nummer oder Kategorie, die einem Attribut einer Entität durch eine Messung zugewiesen wurde (ISO 14598).
Messung: Der Prozess des Zuweisens einer Nummer oder Kategorie zu einer Entität, um ein Attribut dieser Entität zu beschreiben. (ISO 14598)
Messskala: Eine Skala, die die Art der Datenanalyse einschränkt, die für sie durchgeführt werden kann. (ISO 14598)
Speicherleck: Ein Fehler in der dynamischen Speicherzuweisungslogik eines Programms, der dazu führt, dass es nach Beendigung der Verwendung keinen Speicher mehr zurückfordert, was schließlich dazu führt, dass das Programm aufgrund von Speichermangel fehlschlägt.
metrisch: Eine Messskala und die Messmethode. (ISO 14598)
Meilenstein: Ein Zeitpunkt in einem Projekt, zu dem definierte (Zwischen-) Ergebnisse undErgebnisse sollten bereit sein.
Moderator: Der Leiter und die Hauptperson, die für eine Inspektion oder einen anderen Überprüfungsprozess verantwortlich sind.
Monitor: Ein Software-Tool oder Hardwaregerät, das gleichzeitig mit der zu testenden Komponente oder dem zu testenden System ausgeführt wird und das Verhalten der Komponente oder des Systems überwacht, aufzeichnet und / oder analysiert. (Nach IEEE 610)
Abdeckung mehrerer Zustände: Der Prozentsatz der Kombinationen aller einzelnen BedingungenErgebnisse innerhalb einer Aussage, die von einer Testsuite ausgeübt wurden. 100% mehrfachZustandsabdeckung bedeutet 100% Zustandsbestimmungsabdeckung.
Mehrfachbedingungstest: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Kombinationen einzelner Bedingungsergebnisse (innerhalb einer Anweisung) auszuführen.
Mutationsanalyse: Eine Methode zur Bestimmung der Gründlichkeit der Testsuite durch Messung des Ausmaßes, in dem eine Testsuite das Programm von geringfügigen Varianten (Mutanten) des Programms unterscheiden kann.
N.
N-Schalter-Abdeckung: Der Prozentsatz der Sequenzen von N + 1-Übergängen, die von einer Testsuite ausgeführt wurden. (Chow)
N-Schalter-Test: Eine Form des Zustandsübergangstests, bei der Testfälle so ausgelegt sind, dass alle gültigen Sequenzen von N + 1-Übergängen ausgeführt werden. (Chow) Siehe auch Zustandsübergangstests.
negative Prüfung: Tests, die zeigen sollen, dass eine Komponente oder ein System nicht funktioniert. Negative Tests beziehen sich eher auf die Einstellung der Tester als auf einen bestimmten Testansatz oder eine bestimmte Testdesign-Technik. (Nach Beizer).
Nichtkonformität: Nichterfüllung einer bestimmten Anforderung. (ISO 9000)
nicht funktionale Anforderung: Eine Anforderung, die sich nicht auf die Funktionalität bezieht, sondern auf Attribute wie Zuverlässigkeit, Effizienz, Benutzerfreundlichkeit, Wartbarkeit und Portabilität.
nicht funktionale Prüfung: Testen der Attribute einer Komponente oder eines Systems, die sich nicht auf die Funktionalität beziehen, z. Zuverlässigkeit, Effizienz, Benutzerfreundlichkeit, Wartbarkeit und Portabilität.
nicht funktionale Testdesign-Techniken: Methoden zum Entwerfen oder Auswählen von Tests für nicht funktionierende Tests.
ODER
Standard-Software: Ein Softwareprodukt, das für den allgemeinen Markt entwickelt wurde, d. H. Für eine große Anzahl von Kunden, und das in identischem Format an viele Kunden geliefert wird.
Bedienbarkeit: Die Fähigkeit des Softwareprodukts, dem Benutzer die Bedienung und Steuerung zu ermöglichen. (ISO 9126) Siehe auch Benutzerfreundlichkeit.
Betriebsumgebung: Hardware- und Softwareprodukte, die an Standorten von Benutzern oder Kunden installiert werden, an denen die zu testende Komponente oder das zu testende System verwendet wird. Die Software kann Betriebssysteme, Datenbankverwaltungssysteme und andere Anwendungen enthalten.
Betriebsprofiltest: Statistische Tests unter Verwendung eines Modells von Systemoperationen (Aufgaben von kurzer Dauer) und ihrer Wahrscheinlichkeit einer typischen Verwendung. (Musa)
Funktionsprüfung: Tests zur Bewertung einer Komponente oder eines Systems in ihrer Betriebsumgebung. (IEEE 610)
Ausgabe: Eine Variable (ob innerhalb oder außerhalb einer Komponente gespeichert), die von einer Komponente geschrieben wird.
Ausgabedomäne: Der Satz, aus dem gültige Ausgabewerte ausgewählt werden können. Siehe auch Domain.
Ausgabewert: Eine Instanz einer Ausgabe. Siehe auch Ausgabe.
P.
Paar-Programmierung: Ein Softwareentwicklungsansatz, bei dem Codezeilen (Produktion und / oder Test) einer Komponente von zwei Programmierern geschrieben werden, die an einem einzelnen Computer sitzen. Dies bedeutet implizit, dass fortlaufende Echtzeit-Codeüberprüfungen durchgeführt werden.
Paartests: Zwei Tester arbeiten zusammen, um Fehler zu finden. Normalerweise teilen sie sich einen Computer und tauschen ihn während des Testens aus.
Bestehen: Ein Test gilt als bestanden, wenn sein tatsächliches Ergebnis mit dem erwarteten Ergebnis übereinstimmt.
Bestanden / Nicht Bestanden-Kriterien: Entscheidungsregeln, anhand derer bestimmt wird, ob ein Testelement (eine Funktion) oder ein Merkmal einen Test bestanden hat oder nicht. (IEEE 829)
Pfad: Eine Folge von Ereignissen, z. ausführbare Anweisungen einer Komponente oder eines Systems von einem Einstiegspunkt zu einem Ausstiegspunkt.
Pfadabdeckung: Der Prozentsatz der Pfade, die von einer Testsuite ausgeführt wurden. 100% Pfadabdeckung bedeutet 100% LCSAJ-Abdeckung.
Pfadsensibilisierung: Auswählen einer Reihe von Eingabewerten, um die Ausführung eines bestimmten Pfads zu erzwingen.
Pfadprüfung: Eine White-Box-Testdesign-Technik, bei der Testfälle zum Ausführen von Pfaden entworfen werden.
Performance: Der Grad, in dem ein System oder eine Komponente ihre festgelegten Funktionen innerhalb vorgegebener Einschränkungen hinsichtlich Verarbeitungszeit und Durchsatzrate erfüllt. (Nach IEEE 610) Siehe Effizienz.
Leistungsindikator: Ein hohes Maß an Effektivität und / oder Effizienz, das verwendet wird, um die fortschreitende Entwicklung zu steuern und zu steuern, z. Fehlererkennungsprozentsatz (DDP) zum Testen. (CMMI)
Leistungstest: Der Testprozess zur Bestimmung der Leistung eines Softwareprodukts. Siehe Effizienzprüfung.
Leistungstest-Tool: Ein Tool zur Unterstützung von Leistungstests, das normalerweise zwei Hauptfunktionen bietet: Lastgenerierung und Testtransaktionsmessung. Die Lastgenerierung kann entweder mehrere Benutzer oder große Mengen an Eingabedaten simulieren. Während der Ausführung werden Antwortzeitmessungen von ausgewählten Transaktionen vorgenommen und diese protokolliert. Leistungstest-Tools bieten normalerweise Berichte basierend auf Testprotokollen und Lastdiagrammen für die Antwortzeiten.
Phasentestplan: Ein Testplan, der normalerweise eine Teststufe abdeckt.
Portabilität: Die Leichtigkeit, mit der das Softwareprodukt von einer Hardware- oder Softwareumgebung in eine andere übertragen werden kann. (ISO 9126)
Portabilitätstests: Der Testprozess zur Bestimmung der Portabilität eines Softwareprodukts.
Nachbedingung: Umgebungsbedingungen und Zustandsbedingungen, die nach Durchführung eines Tests oder Testverfahrens erfüllt sein müssen.
Vergleich nach der Ausführung: Vergleich der tatsächlichen und erwarteten Ergebnisse, durchgeführt nach Beendigung der Software.
Voraussetzung: Umgebungsbedingungen und Zustandsbedingungen, die erfüllt sein müssen, bevor die Komponente oder das System mit einem bestimmten Test oder Testverfahren ausgeführt werden kann.
Priorität: Der Grad der (Geschäfts-) Wichtigkeit, der einem Gegenstand zugewiesen ist, z. Defekt.
Prozesszyklustest: Eine Black-Box-Testdesign-Technik, bei der Testfälle zur Ausführung von Geschäftsabläufen und -prozessen entwickelt werden. (TMap)
Prozess: Eine Reihe miteinander verbundener Aktivitäten, die Eingaben in Ausgaben umwandeln. (ISO 12207)
Projekt: Ein Projekt ist ein einzigartiger Satz koordinierter und kontrollierter Aktivitäten mit Start- und Enddaten, deren Ziel es ist, bestimmten Anforderungen zu entsprechen, einschließlich der Einschränkungen von Zeit, Kosten und Ressourcen. (ISO 9000)
Projekttestplan: Ein Testplan, der normalerweise mehrere Teststufen abdeckt.
pseudozufällig: Eine Reihe, die zufällig zu sein scheint, aber tatsächlich gemäß einer vorher festgelegten Reihenfolge erzeugt wird.
Q.
Qualität: Inwieweit eine Komponente, ein System oder ein Prozess bestimmte Anforderungen und / oder Benutzer- / Kundenbedürfnisse und -erwartungen erfüllt. (Nach IEEE 610)
Qualitätskontrolle: Ein Teil des Qualitätsmanagements konzentrierte sich darauf, das Vertrauen zu schaffen, dass die Qualitätsanforderungen erfüllt werden. (ISO 9000)
Qualitätsmerkmal: Ein Merkmal oder eine Eigenschaft, die die Qualität eines Artikels beeinflusst. (IEEE 610)
Qualitätsmanagement: Koordinierte Aktivitäten zur Leitung und Kontrolle einer Organisation in Bezug auf Qualität. Die Leitung und Kontrolle in Bezug auf die Qualität umfasst im Allgemeinen die Festlegung der Qualitätspolitik und der Qualitätsziele, die Qualitätsplanung, die Qualitätskontrolle, die Qualitätssicherung und die Qualitätsverbesserung. (ISO 9000)
R.
zufällige Tests: Eine Black-Box-Testdesign-Technik, bei der Testfälle ausgewählt werden, möglicherweise unter Verwendung eines Pseudozufallsgenerierungsalgorithmus, um einem Betriebsprofil zu entsprechen. Diese Technik kann zum Testen nicht funktionaler Attribute wie Zuverlässigkeit und Leistung verwendet werden.
Wiederherstellbarkeit: Die Fähigkeit des Softwareprodukts, ein bestimmtes Leistungsniveau wiederherzustellen und die im Falle eines Fehlers direkt betroffenen Daten wiederherzustellen. (ISO 9126) Siehe auch Zuverlässigkeit.
Wiederherstellbarkeitstests: Der Testprozess zur Bestimmung der Wiederherstellbarkeit eines Softwareprodukts. Siehe auch Zuverlässigkeitstests.
Regressionstests: Testen eines zuvor getesteten Programms nach einer Änderung, um sicherzustellen, dass aufgrund der vorgenommenen Änderungen keine Fehler in unveränderten Bereichen der Software eingeführt oder aufgedeckt wurden. Es wird ausgeführt, wenn die Software oder ihre Umgebung geändert wird.
Veröffentlichungshinweis: Ein Dokument, in dem die Testelemente, ihre Konfiguration, der aktuelle Status und andere Bereitstellungsinformationen aufgeführt sind, die von der Entwicklung an die Tests und möglicherweise an andere Interessengruppen zu Beginn einer Testausführungsphase geliefert werden. (Nach IEEE 829)
Verlässlichkeit: Die Fähigkeit des Softwareprodukts, seine erforderlichen Funktionen unter festgelegten Bedingungen für einen bestimmten Zeitraum oder für eine bestimmte Anzahl von Vorgängen auszuführen. (ISO 9126)
Zuverlässigkeitsprüfung: Der Testprozess zur Bestimmung der Zuverlässigkeit eines Softwareprodukts.
Austauschbarkeit: Die Fähigkeit des Softwareprodukts, anstelle eines anderen angegebenen Softwareprodukts für denselben Zweck in derselben Umgebung verwendet zu werden. (ISO 9126) Siehe auch Portabilität.
Anforderung: Eine Bedingung oder Fähigkeit, die ein Benutzer benötigt, um ein Problem zu lösen oder ein Ziel zu erreichen, das von einem System oder einer Systemkomponente erfüllt oder besessen werden muss, um einen Vertrag, einen Standard, eine Spezifikation oder ein anderes formal auferlegtes Dokument zu erfüllen. (Nach IEEE 610)
Anforderungsbasiertes Testen: Ein Testansatz, bei dem Testfälle basierend auf Testzielen und Testbedingungen entworfen werden, die aus Anforderungen abgeleitet sind, z. Tests, die bestimmte Funktionen ausüben oder nicht funktionale Attribute wie Zuverlässigkeit oder Benutzerfreundlichkeit untersuchen.
Anforderungsmanagement-Tool: Ein Tool, das die Aufzeichnung von Anforderungen, Anforderungsattributen (z. B. Priorität, verantwortliches Wissen) und Anmerkungen unterstützt und die Rückverfolgbarkeit durch Ebenen von Anforderungs- und Anforderungsänderungsmanagement erleichtert. Einige Tools für das Anforderungsmanagement bieten auch Funktionen für statische Analysen, z. B. Konsistenzprüfungen und Verstöße gegen vordefinierte Anforderungsregeln.
Anforderungsphase: Der Zeitraum im Software-Lebenszyklus, in dem die Anforderungen für ein Softwareprodukt definiert und dokumentiert werden. (IEEE 610)
Ressourcennutzung: Die Fähigkeit des Softwareprodukts, geeignete Mengen und Arten von Ressourcen zu verwenden, beispielsweise die vom Programm verwendeten Mengen an Haupt- und Sekundärspeicher und die Größe der erforderlichen temporären oder Überlaufdateien, wenn die Software ihre Funktion unter angegebenen Bedingungen ausführt. (Nach ISO 9126) Siehe auch Effizienz.
Ressourcenauslastungstests: Der Testprozess zur Ermittlung der Ressourcennutzung eines Softwareprodukts.
Ergebnis: Die Konsequenz / das Ergebnis der Durchführung eines Tests. Es enthält Ausgaben für Bildschirme, Änderungen an Daten, Berichten und gesendeten Kommunikationsnachrichten. Siehe auch tatsächliches Ergebnis, erwartetes Ergebnis.
Wiederaufnahmekriterien: Die Testaktivitäten, die wiederholt werden müssen, wenn der Test nach einer Suspendierung erneut gestartet wird. (Nach IEEE 829)
erneutes Testen: Tests, bei denen Testfälle ausgeführt werden, die beim letzten Ausführen fehlgeschlagen sind, um den Erfolg von Korrekturmaßnahmen zu überprüfen.
Rezension: Eine Bewertung eines Produkt- oder Projektstatus, um Abweichungen von den geplanten Ergebnissen festzustellen und Verbesserungen zu empfehlen. Beispiele hierfür sind Managementüberprüfung, informelle Überprüfung, technische Überprüfung, Inspektion und exemplarische Vorgehensweise. (Nach IEEE 1028)
Rezensent: Die an der Überprüfung beteiligte Person, die Anomalien im zu überprüfenden Produkt oder Projekt identifiziert und beschreibt. Prüfer können ausgewählt werden, um unterschiedliche Standpunkte und Rollen im Überprüfungsprozess darzustellen.
Risiko: Ein Faktor, der in Zukunft negative Folgen haben könnte; normalerweise ausgedrückt als Auswirkung und Wahrscheinlichkeit.
Risikoanalyse: Der Prozess der Bewertung identifizierter Risiken, um deren Auswirkungen und Eintrittswahrscheinlichkeit (Wahrscheinlichkeit) abzuschätzen.
risikobasierte Tests: Tests, die darauf ausgerichtet sind, Produktrisiken zu untersuchen und Informationen darüber bereitzustellen. (Nach Gerrard)
Risikokontrolle: Der Prozess, durch den Entscheidungen getroffen und Schutzmaßnahmen umgesetzt werden, um Risiken auf bestimmte Ebenen zu reduzieren oder diese innerhalb eines bestimmten Niveaus zu halten.
Risiko-Einschätzung: Der Prozess der Identifizierung von Risiken mithilfe von Techniken wie Brainstorming, Checklisten und Fehlerhistorie.
Risikomanagement: Systematische Anwendung von Verfahren und Praktiken auf die Aufgaben der Identifizierung, Analyse, Priorisierung und Kontrolle von Risiken.
Robustheit: Der Grad, in dem eine Komponente oder ein System bei ungültigen Eingaben oder stressigen Umgebungsbedingungen ordnungsgemäß funktionieren kann. (IEEE 610) Siehe auch Fehlertoleranz, Fehlertoleranz.
Ursache: Ein zugrunde liegender Faktor, der eine Nichtkonformität verursacht hat und möglicherweise durch Prozessverbesserung dauerhaft beseitigt werden sollte.
S.
Sicherheit: Die Fähigkeit des Softwareprodukts, in einem bestimmten Verwendungskontext ein akzeptables Risiko für Personen, Unternehmen, Software, Eigentum oder die Umwelt zu erreichen. (ISO 9126)
Sicherheitsprüfung: Der Testprozess zur Bestimmung der Sicherheit eines Softwareprodukts.
Skalierbarkeit: Die Fähigkeit des Softwareprodukts, aktualisiert zu werden, um erhöhten Lasten Rechnung zu tragen. (Nach Gerrard)
Skalierbarkeitstests: Testen, um die Skalierbarkeit des Softwareprodukts zu bestimmen.
Schreiber: Die Person, die jeden erwähnten Fehler und Verbesserungsvorschläge während eines Überprüfungsmeetings auf einem Protokollierungsformular festhalten muss. Der Schreiber muss sicherstellen, dass das Protokollierungsformular lesbar und verständlich ist.
Skriptsprache: Eine Programmiersprache, in der ausführbare Testskripte geschrieben sind, die von einem Testausführungstool (z. B. einem Erfassungs- / Wiedergabetool) verwendet wird.
Sicherheit: Attribute von Softwareprodukten, die sich auf die Fähigkeit auswirken, ungewollten oder absichtlichen Zugriff auf Programme und Daten zu verhindern. (ISO 9126)
Sicherheitstests: Testen, um die Sicherheit des Softwareprodukts zu bestimmen.
Schwere: Der Grad der Auswirkung eines Defekts auf die Entwicklung oder den Betrieb einer Komponente oder eines Systems. (Nach IEEE 610)
Simulation: Die Darstellung ausgewählter Verhaltensmerkmale eines physischen oder abstrakten Systems durch ein anderes System. (ISO 2382/1)
Simulator: Ein Gerät, Computerprogramm oder System, das während des Testens verwendet wird und sich wie ein bestimmtes System verhält oder funktioniert, wenn es mit einer Reihe gesteuerter Eingänge ausgestattet ist. (Nach IEEE 610, DO178b) Siehe auch Emulator.
Rauchtest: Eine Teilmenge aller definierten / geplanten Testfälle, die die Hauptfunktionalität einer Komponente oder eines Systems abdecken, um sicherzustellen, dass die wichtigsten Funktionen eines Programms funktionieren, ohne sich jedoch um feinere Details zu kümmern. Ein täglicher Bau- und Rauchtest gehört zu den Best Practices der Branche. Siehe auch Einlasstest.
Softwarequalität: Die Gesamtheit der Funktionen und Merkmale eines Softwareprodukts, die sich auf seine Fähigkeit auswirken, festgelegte oder implizite Anforderungen zu erfüllen. (Nach ISO 9126)
Spezifikation: Ein Dokument, in dem im Idealfall vollständig, präzise und überprüfbar die Anforderungen, das Design, das Verhalten oder andere Merkmale einer Komponente oder eines Systems sowie häufig die Verfahren zur Feststellung, ob diese Bestimmungen erfüllt wurden, angegeben sind. (Nach IEEE 610)
spezifikationsbasierte Testdesign-Technik: Siehe Black-Box-Testdesign-Technik.
angegebene Eingabe: Eine Eingabe, für die die Spezifikation ein Ergebnis vorhersagt.
Stabilität: Die Fähigkeit des Softwareprodukts, unerwartete Auswirkungen von Änderungen in der Software zu vermeiden. (ISO 9126) Siehe auch Wartbarkeit.
Zustandsdiagramm: Ein Diagramm, das die Zustände darstellt, die eine Komponente oder ein System annehmen kann, und die Ereignisse oder Umstände zeigt, die einen Wechsel von einem Zustand in einen anderen verursachen und / oder daraus resultieren. (IEEE 610)
Zustandstabelle: Ein Raster mit den resultierenden Übergängen für jeden Zustand in Kombination mit jedem möglichen Ereignis, das sowohl gültige als auch ungültige Übergänge anzeigt.
Zustandsübergang: Ein Übergang zwischen zwei Zuständen einer Komponente oder eines Systems.
Zustandsübergangstest: Eine Black-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um gültige und ungültige Zustandsübergänge auszuführen. Siehe auch N-Schalter-Test.
Erklärung: Eine Entität in einer Programmiersprache, die normalerweise die kleinste unteilbare Ausführungseinheit ist.
Aussage Berichterstattung: Der Prozentsatz der ausführbaren Anweisungen, die von einer Testsuite ausgeführt wurden.
Anweisungstest: Eine White-Box-Testdesign-Technik, bei der Testfälle entworfen werden, um Anweisungen auszuführen.
statische Analyse: Analyse von Software-Artefakten, z. Anforderungen oder Code, ausgeführt ohne Ausführung dieser Software-Artefakte.
statischer Analysator: Ein Tool, das statische Analysen durchführt.
statische Code-Analyse: Analyse des Programmquellcodes ohne Ausführung dieser Software.
statischer Code-Analysator: Ein Tool, das statische Code-Analysen durchführt. Das Tool überprüft den Quellcode auf bestimmte Eigenschaften wie Konformität mit Codierungsstandards, Qualitätsmetriken oder Datenflussanomalien.
statische Prüfung: Testen einer Komponente oder eines Systems auf Spezifikations- oder Implementierungsebene ohne Ausführung dieser Software, z. Überprüfungen oder statische Code-Analyse.
statistische Tests: Eine Testdesign-Technik, bei der ein Modell der statistischen Verteilung der Eingabe verwendet wird, um repräsentative Testfälle zu erstellen. Siehe auch Betriebsprofiltest.
Statusabrechnung: Ein Element der Konfigurationsverwaltung, das aus der Aufzeichnung und Berichterstattung von Informationen besteht, die zur effektiven Verwaltung einer Konfiguration erforderlich sind. Diese Informationen enthalten eine Liste der genehmigten Konfigurationsidentifikation, den Status der vorgeschlagenen Änderungen an der Konfiguration und den Implementierungsstatus der genehmigten Änderungen. (IEEE 610)
Belastbarkeitstest: Tests, die durchgeführt wurden, um ein System oder eine Komponente an oder außerhalb der Grenzen der festgelegten Anforderungen zu bewerten. (IEEE 610)
strukturelle Abdeckung: Abdeckungsmaßnahmen basierend auf der internen Struktur der Komponente.
Konstruktionstechnik für strukturelle Tests: Siehe White-Box-Testdesign-Technik.
Stummel: Eine Skelett- oder Spezialimplementierung einer Softwarekomponente, die zum Entwickeln oder Testen einer Komponente verwendet wird, die diese aufruft oder auf andere Weise davon abhängig ist. Es ersetzt eine aufgerufene Komponente. (Nach IEEE 610)
Unterpfad: Eine Folge von ausführbaren Anweisungen innerhalb einer Komponente.
Suspendierungskriterien: Die Kriterien, mit denen (vorübergehend) alle oder ein Teil der Testaktivitäten für die Testobjekte gestoppt werden. (Nach IEEE 829)
Eignung: Die Fähigkeit des Softwareprodukts, einen geeigneten Satz von Funktionen für bestimmte Aufgaben und Benutzerziele bereitzustellen. (ISO 9126) Siehe auch Funktionalität.
Software Usability Measurement Inventory (SUMI): Eine auf einem Fragebogen basierende Usability-Testtechnik zur Bewertung der Usability, z. Benutzerzufriedenheit einer Komponente oder eines Systems. (Veenendaal)
Syntaxtests: Eine Black-Box-Testdesign-Technik, bei der Testfälle basierend auf der Definition der Eingabe- und / oder Ausgabedomäne entworfen werden.
System: Eine Sammlung von Komponenten, die zur Ausführung einer bestimmten Funktion oder eines Satzes von Funktionen organisiert sind. (IEEE 610)
Systemintegrationstests: Testen der Integration von Systemen und Paketen; Testen von Schnittstellen zu externen Organisationen (z. B. Electronic Data Interchange, Internet).
Systemtests: Der Prozess des Testens eines integrierten Systems, um zu überprüfen, ob es die angegebenen Anforderungen erfüllt. (Hetzel)
T.
technische Überprüfung: Eine Peer-Group-Diskussionsaktivität, die darauf abzielt, einen Konsens über den technischen Ansatz zu erzielen. Eine technische Überprüfung wird auch als Peer Review bezeichnet. (Gilb und Graham, IEEE 1028)
Testansatz: Die Umsetzung der Teststrategie für ein bestimmtes Projekt. Es umfasst in der Regel die Entscheidungen, die auf der Grundlage des Ziels des (Test-) Projekts und der durchgeführten Risikobewertung getroffen werden, die Ausgangspunkte für den Testprozess, die anzuwendenden Testdesign-Techniken, die Ausstiegskriterien und die durchzuführenden Testtypen.
Testautomatisierung: Die Verwendung von Software zur Durchführung oder Unterstützung von Testaktivitäten, z. Testmanagement, Testdesign, Testdurchführung und Ergebnisprüfung.
Testbasis: Alle Dokumente, aus denen die Anforderungen einer Komponente oder eines Systems abgeleitet werden können. Die Dokumentation, auf der die Testfälle basieren. Wenn ein Dokument nur durch ein formelles Änderungsverfahren geändert werden kann, wird die Testbasis als eingefrorene Testbasis bezeichnet. (Nach TMap)
Testfall: Eine Reihe von Eingabewerten, Ausführungsvoraussetzungen, erwarteten Ergebnissen und Ausführungsnachbedingungen, die für ein bestimmtes Ziel oder eine bestimmte Testbedingung entwickelt wurden, z. B. um einen bestimmten Programmpfad auszuüben oder um die Einhaltung einer bestimmten Anforderung zu überprüfen. (Nach IEEE 610)
Testfallspezifikation: Ein Dokument, in dem eine Reihe von Testfällen (Ziel, Eingaben, Testaktionen, erwartete Ergebnisse und Ausführungsvoraussetzungen) für einen Testgegenstand angegeben sind. (Nach IEEE 829)
Testcharter: Eine Erklärung der Testziele und möglicherweise der Testideen. Testcharter werden unter anderem bei Erkundungstests verwendet. Siehe auch Erkundungstests.
Testkomparator: Ein Testwerkzeug zur Durchführung eines automatisierten Testvergleichs.
Testvergleich: Der Prozess der Identifizierung von Unterschieden zwischen den tatsächlichen Ergebnissen der zu testenden Komponente oder des zu testenden Systems und den erwarteten Ergebnissen für einen Test. Der Testvergleich kann während der Testausführung (dynamischer Vergleich) oder nach der Testausführung durchgeführt werden.
Testbedingung: Ein Gegenstand oder Ereignis einer Komponente oder eines Systems, das durch einen oder mehrere Testfälle verifiziert werden könnte, z. eine Funktion, eine Transaktion, ein Qualitätsattribut oder ein Strukturelement.
Testdaten: Daten, die (z. B. in einer Datenbank) vor der Ausführung eines Tests vorhanden sind und die von der zu testenden Komponente oder dem zu testenden System beeinflusst oder beeinflusst werden.
Tool zur Vorbereitung von Testdaten: Eine Art Testwerkzeug, mit dem Daten aus vorhandenen Datenbanken ausgewählt oder zur Verwendung beim Testen erstellt, generiert, bearbeitet und bearbeitet werden können.
Testdesign-Spezifikation: Ein Dokument, in dem die Testbedingungen (Abdeckungselemente) für ein Testelement, der detaillierte Testansatz und die zugehörigen Testfälle auf hoher Ebene angegeben sind. (Nach IEEE 829)
Testdesign-Tool: Ein Tool, das die Testdesignaktivität unterstützt, indem Testeingaben aus einer Spezifikation generiert werden, die in einem CASE-Tool-Repository gespeichert sein kann, z. Anforderungsmanagement-Tool oder unter bestimmten Testbedingungen, die im Tool selbst enthalten sind.
Testdesign-Technik: Eine Methode zum Ableiten oder Auswählen von Testfällen.
Test Umgebung: Eine Umgebung mit Hardware, Instrumenten, Simulatoren, Softwaretools und anderen Unterstützungselementen, die für die Durchführung eines Tests erforderlich sind. (Nach IEEE 610)
Testbewertungsbericht: Ein am Ende des Testprozesses erstelltes Dokument, in dem alle Testaktivitäten und -ergebnisse zusammengefasst sind. Es enthält auch eine Bewertung des Testprozesses und der gewonnenen Erkenntnisse.
Test Ausführung: Der Prozess des Ausführens eines Tests durch die zu testende Komponente oder das zu testende System, wobei die tatsächlichen Ergebnisse erzielt werden.
Automatisierung der Testausführung: Die Verwendung von Software, z. Capture / Playback-Tools zur Steuerung der Testausführung, zum Vergleich der tatsächlichen Ergebnisse mit den erwarteten Ergebnissen, zur Einrichtung von Testvoraussetzungen und anderen Teststeuerungs- und Berichtsfunktionen.
Testausführungsphase: Der Zeitraum in einem Softwareentwicklungslebenszyklus, in dem die Komponenten eines Softwareprodukts ausgeführt werden und das Softwareprodukt bewertet wird, um festzustellen, ob die Anforderungen erfüllt wurden oder nicht. (IEEE 610)
Testausführungsplan: Ein Schema für die Ausführung von Testverfahren. Die Testverfahren sind in ihrem Kontext und in der Reihenfolge, in der sie ausgeführt werden sollen, im Testausführungsplan enthalten.
Testausführungstechnik: Die Methode zur Durchführung der eigentlichen Testausführung,entweder manuell oder automatisiert.
Testausführungstool: Eine Art Testwerkzeug, das andere Software unter Verwendung eines automatisierten Testskripts ausführen kann, z. Aufnahme / Wiedergabe. (Fewster und Graham)
Prüfkabel: Eine Testumgebung, die aus Stubs und Treibern besteht, die für die Durchführung eines Tests erforderlich sind.
Testinfrastruktur: Die für die Durchführung der Tests erforderlichen organisatorischen Artefakte, bestehend aus Testumgebungen, Testtools, Büroumgebung und Verfahren.
Testgegenstand: Das zu testende Einzelelement. Es gibt normalerweise ein Testobjekt und viele Testobjekte. Siehe auch Testobjekt.
Testlevel: Eine Gruppe von Testaktivitäten, die gemeinsam organisiert und verwaltet werden. Eine Teststufe ist mit den Verantwortlichkeiten in einem Projekt verknüpft. Beispiele für Teststufen sind Komponententest, Integrationstest, Systemtest und Abnahmetest. (Nach TMap)
Testprotokoll: Eine chronologische Aufzeichnung relevanter Details zur Durchführung von Tests. (IEEE 829)
Testprotokollierung: Der Prozess des Aufzeichnens von Informationen zu Tests, die in einem Testprotokoll ausgeführt werden.
Testmanager: Die Person, die für das Testen und Bewerten eines Testobjekts verantwortlich ist. Die Person, die Pläne leitet, kontrolliert, verwaltet und die Bewertung eines Testobjekts reguliert.
Testmanagement: Die Planung, Schätzung, Überwachung und Steuerung von Testaktivitäten, die normalerweise von einem Testmanager durchgeführt werden.
Test Maturity Model (TMM): Ein fünfstufiges Framework zur Verbesserung des Testprozesses, das sich auf das Capability Maturity Model (CMM) bezieht und die Schlüsselelemente eines effektiven Testprozesses beschreibt.
Verbesserung des Testprozesses (TPI): Ein kontinuierlicher Rahmen zur Verbesserung des Testprozesses, der die Schlüsselelemente eines effektiven Testprozesses beschreibt, insbesondere für Systemtests und Abnahmetests.
Testobjekt: Die zu testende Komponente oder das zu testende System. Siehe auch Testobjekt.
Testziel: Ein Grund oder Zweck für das Entwerfen und Ausführen eines Tests.
Testorakel: Eine Quelle zur Ermittlung der erwarteten Ergebnisse zum Vergleich mit dem tatsächlichen Ergebnis der zu testenden Software. Ein Orakel kann das vorhandene System (für einen Benchmark), ein Benutzerhandbuch oder das Fachwissen einer Person sein, sollte jedoch nicht der Code sein. (Nach Adrion)
Testleistungsindikator: Eine im Allgemeinen hohe Metrik, die angibt, inwieweit ein bestimmter Zielwert oder ein bestimmtes Kriterium erfüllt ist. Oft im Zusammenhang mit Testprozessverbesserungszielen, z. Prozentsatz der Fehlererkennung (DDP).
Testphase: Ein bestimmter Satz von Testaktivitäten, die in einer überschaubaren Phase eines Projekts gesammelt wurden, z. die Ausführungsaktivitäten eines Testlevels. (Nach Gerrard)
Versuchsplan: Ein Dokument, das den Umfang, den Ansatz, die Ressourcen und den Zeitplan der beabsichtigten Testaktivitäten beschreibt. Es identifiziert unter anderem Testelemente, die zu testenden Merkmale, die Testaufgaben, die jede Aufgabe ausführen, den Grad der Unabhängigkeit des Testers, die Testumgebung, die zu verwendenden Testdesign- und Testmesstechniken und die Gründe für ihre Wahl und alle Risiken, die eine Notfallplanung erfordern. Es ist eine Aufzeichnung des Testplanungsprozesses (Nach IEEE 829)
Testplanung: Die Aktivität zum Erstellen oder Aktualisieren eines Testplans.
Testrichtlinie: Ein hochrangiges Dokument, das die Prinzipien, den Ansatz und die Hauptziele der Organisation in Bezug auf Tests beschreibt.
Testpunktanalyse (TPA): Eine formelbasierte Testschätzungsmethode basierend auf der Funktionspunktanalyse. (TMap)
Testprozedur: Siehe Spezifikation des Testverfahrens.
Spezifikation des Testverfahrens: Ein Dokument, das eine Abfolge von Aktionen für die Ausführung eines Tests angibt. Wird auch als Testskript oder manuelles Testskript bezeichnet. (Nach IEEE 829)
Testprozess: Der grundlegende Testprozess umfasst die Planung, Spezifikation, Ausführung, Aufzeichnung und Überprüfung auf Fertigstellung. (BS 7925/2)
Wiederholbarkeit des Tests: Ein Attribut eines Tests, das angibt, ob bei jeder Testausführung dieselben Ergebnisse erzielt werden.
Testlauf: Ausführung eines Tests für eine bestimmte Version des Testobjekts.
Testskript: Wird häufig verwendet, um sich auf eine Testverfahrensspezifikation zu beziehen, insbesondere auf eine automatisierte.
Testspezifikation: Ein Dokument, das aus einer Testdesignspezifikation, einer Testfallspezifikation und / oder einer Testverfahrensspezifikation besteht.
Teststrategie: Ein übergeordnetes Dokument, in dem die durchzuführenden Teststufen und die Tests innerhalb dieser Stufen für ein Programm (ein oder mehrere Projekte) definiert sind.
Testsuite: Eine Reihe von mehreren Testfällen für eine zu testende Komponente oder ein zu testendes System, wobei die Nachbedingung eines Tests häufig als Voraussetzung für den nächsten verwendet wird.
Testzusammenfassungsbericht: Ein Dokument, in dem die Testaktivitäten und -ergebnisse zusammengefasst sind. Es enthält auch eine Bewertung der entsprechenden Testobjekte anhand der Ausstiegskriterien.(Nach IEEE 829)
Testziel: Eine Reihe von Ausstiegskriterien.
Testwerkzeug: Ein Softwareprodukt, das eine oder mehrere Testaktivitäten unterstützt, z. B. Planung und Steuerung, Spezifikation, Erstellen von Anfangsdateien und -daten, Testausführung und Testanalyse. (TMap) Siehe auch CAST.
Testtyp: Eine Gruppe von Testaktivitäten, die darauf abzielen, eine Komponente oder ein System auf ein oder mehrere miteinander verbundene Qualitätsattribute zu testen. Ein Testtyp konzentriert sich auf ein bestimmtes Testziel, d. H. Zuverlässigkeitstest, Usability-Test, Regressionstest usw., und kann auf einer oder mehreren Testebenen oder Testphasen stattfinden. (Nach TMap)
Testbarkeit: Die Fähigkeit des Softwareprodukts, das Testen geänderter Software zu ermöglichen. (ISO 9126) Siehe auch Wartbarkeit.
Testbarkeitsprüfung: Eine detaillierte Überprüfung der Testbasis, um festzustellen, ob die Testbasis ein angemessenes Qualitätsniveau aufweist, um als Eingabedokument für den Testprozess zu dienen. (Nach TMap)
prüfbare Anforderungen: Inwieweit wird eine Anforderung in Begriffen angegeben, die die Erstellung von Testdesigns (und anschließend Testfällen) und die Durchführung von Tests ermöglichen, um festzustellen, ob die Anforderungen erfüllt wurden. (Nach IEEE 610)
Tester: Ein technisch versierter Fachmann, der an der Prüfung einer Komponente oder eines Systems beteiligt ist.
testen: Der Prozess, der aus allen statischen und dynamischen Lebenszyklusaktivitäten besteht, befasst sich mit der Planung, Vorbereitung und Bewertung von Softwareprodukten und zugehörigen Arbeitsprodukten, um festzustellen, ob sie den festgelegten Anforderungen entsprechen, um festzustellen, ob sie für den Zweck geeignet sind, und um Fehler zu erkennen.
Testware: Während des Testprozesses erzeugte Artefakte, die zum Planen, Entwerfen und Ausführen von Tests erforderlich sind, z. B. Dokumentation, Skripte, Eingaben, erwartete Ergebnisse, Einrichtungs- und Löschverfahren, Dateien, Datenbanken, Umgebung und zusätzliche Software oder Dienstprogramme, die in verwendet werden testen. (Nach Fewster und Graham)
Thread-Test: Eine Version des Komponentenintegrationstests, bei der die fortschreitende Integration von Komponenten auf die Implementierung von Teilmengen der Anforderungen folgt, im Gegensatz zur Integration von Komponenten durch Hierarchieebenen.
Rückverfolgbarkeit: Die Fähigkeit, verwandte Elemente in Dokumentation und Software zu identifizieren, wie zAnforderungen mit zugehörigen Tests. Siehe auch horizontale Rückverfolgbarkeit, vertikale Rückverfolgbarkeit.
Top-Down-Tests: Ein inkrementeller Ansatz für Integrationstests, bei dem zuerst die Komponente an der Spitze der Komponentenhierarchie getestet wird, wobei Komponenten niedrigerer Ebene durch Stubs simuliert werden. Getestete Komponenten werden dann verwendet, um Komponenten niedrigerer Ebene zu testen. Der Vorgang wird wiederholt, bis die Komponenten der untersten Ebene getestet wurden.
U.
Verständlichkeit: Die Fähigkeit des Softwareprodukts, dem Benutzer zu ermöglichen, zu verstehen, ob die Software geeignet ist und wie sie für bestimmte Aufgaben und Nutzungsbedingungen verwendet werden kann. (ISO 9126) Siehe auch Benutzerfreundlichkeit.
unerreichbarer Code: Code, der nicht erreichbar ist und daher nicht ausgeführt werden kann.
Benutzerfreundlichkeit: Die Fähigkeit der Software, verstanden, gelernt, verwendet und für den Benutzer attraktiv zu sein, wenn sie unter bestimmten Bedingungen verwendet wird. (ISO 9126)
Usability-Tests: Testen, um festzustellen, inwieweit das Softwareprodukt verstanden wird, leicht zu erlernen, leicht zu bedienen und für die Benutzer unter bestimmten Bedingungen attraktiv ist. (Nach ISO 9126)
Anwendungsfalltests: Eine Black-Box-Testdesign-Technik, bei der Testfälle zur Ausführung von Benutzerszenarien entwickelt werden.
Benutzertest: Ein Test, bei dem reale Benutzer beteiligt sind, um die Verwendbarkeit einer Komponente oder eines Systems zu bewerten.
V.
V-Modell: Ein Framework zur Beschreibung der Aktivitäten des Softwareentwicklungslebenszyklus von der Anforderungsspezifikation bis zur Wartung. Das V-Modell zeigt, wie Testaktivitäten in jede Phase des Softwareentwicklungslebenszyklus integriert werden können.
Validierung: Bestätigung durch Prüfung und durch Bereitstellung objektiver Nachweise, dass die Anforderungen für eine bestimmte beabsichtigte Verwendung oder Anwendung erfüllt wurden. (ISO 9000)
Variable: Ein Speicherelement in einem Computer, auf das ein Softwareprogramm zugreifen kann, indem es mit einem Namen darauf verweist.
Überprüfung: Bestätigung durch Prüfung und durch Bereitstellung objektiver Nachweise, dass bestimmte Anforderungen erfüllt wurden. (ISO 9000)
vertikale Rückverfolgbarkeit: Die Rückverfolgung von Anforderungen durch die Ebenen der Entwicklungsdokumentation zu Komponenten.
Volumentest: Testen, wo das System großen Datenmengen ausgesetzt ist. Siehe auch Ressourcenauslastungstests.
IM
Komplettlösung: Eine schrittweise Präsentation des Autors eines Dokuments, um Informationen zu sammeln und ein gemeinsames Verständnis seines Inhalts zu etablieren. (Freedman und W.Einberg, IEEE 1028)
White-Box-Test-Designtechnik: Dokumentiertes Verfahren zum Ableiten und Auswählen von Testfällen basierend auf einer Analyse der internen Struktur einer Komponente oder eines Systems.
White-Box-Test: Testen basierend auf einer Analyse der internen Struktur der Komponente oder des Systems.
Breitband Delphi: Eine auf Experten basierende Testschätzungstechnik, die darauf abzielt, eine genaue Schätzung unter Verwendung der kollektiven Weisheit der Teammitglieder vorzunehmen.
Kontaktiere mich Wenn Sie weitere Definitionen in dieses Glossar aufnehmen möchten.
Referenz: http://www.istqb.org/downloads/glossary-1.0.pdf
Literatur-Empfehlungen
- Beste Software-Test-Tools 2021 (QA Test Automation Tools)
- Software Testing QA Assistant Job
- Softwaretestkurs: An welchem Softwaretestinstitut soll ich teilnehmen?
- Wählen Sie Software-Tests als Ihre Karriere
- Software Testing Technical Content Writer Freiberufler Job
- QA-Outsourcing-Leitfaden: Software-Test-Outsourcing-Unternehmen
- Einige interessante Fragen zu Softwaretests
- Feedback und Bewertungen zum Softwaretestkurs