Chat with us, powered by LiveChat Zum Hauptinhalt springen
icon – künstliche intelligenz

künstliche intelligenz

Künstliche Intelligenz verändert den Softwaretest. Moderne Testteams stehen vor zwei Aufgaben: Sie müssen verstehen, wie KI-basierte Systeme getestet werden, und gleichzeitig lernen, wie sie Künstliche Intelligenz sinnvoll im eigenen Testprozess einsetzen.

Genau hier setzen moderne Strategien für KI im Softwaretest an. Es geht nicht darum, Tester:innen durch Tools zu ersetzen. Es geht darum, Qualität neu zu denken: datenbasierter, risikoorientierter, automatisierter und nachvollziehbarer.

Teams nutzen Generative AI bereits heute, um Anforderungen zu analysieren, Testideen zu entwickeln, Testfälle zu formulieren oder Testautomatisierung effizienter zu gestalten. Gleichzeitig entstehen Anwendungen, deren Verhalten durch Machine Learning, Trainingsdaten, Wahrscheinlichkeiten und Modelle geprägt ist. Diese Systeme brauchen andere Testansätze als klassische Software.

Bei trendig in den Trainings lernst Du, was morgen zählt: die KI, Softwaretest und praktische Anwendung verbinden.

Du möchtest KI-basierte Systeme testen? Dann ist ISTQB® Certified Tester AI Testing (CT-AI) v2.0 der passende Einstieg.

Du möchtest Generative AI im Testprozess einsetzen? Dann passt ISTQB® Certified Tester – Testing with Generative AI zu deinem Ziel.

Warum moderne Testteams neue KI-Strategien brauchen

Künstliche Intelligenz verändert den Softwaretest auf zwei Ebenen: Zum einen entstehen immer mehr Anwendungen, deren Verhalten durch Machine Learning, Trainingsdaten und Modelle geprägt ist. Zum anderen nutzen Testteams KI selbst, um schneller zu analysieren, Testideen zu entwickeln, Testfälle zu entwerfen oder Testautomatisierung zu unterstützen.

Damit wird Softwaretest nicht ersetzt – aber er verändert sich deutlich.

Klassische Software folgt in der Regel klar definierten Regeln: Ein bestimmter Input führt zu einem erwartbaren Output. KI-basierte Systeme arbeiten anders. Sie liefern Ergebnisse auf Basis von Daten, Wahrscheinlichkeiten und gelernten Mustern. Das macht sie leistungsfähig, aber auch schwerer vorhersehbar.

Für Tester:innen bedeutet das: Es reicht nicht mehr aus, nur Funktionen zu prüfen. Auch Datenqualität, Modellverhalten, Bias, Robustheit, Erklärbarkeit und Risiken müssen Teil der Teststrategie werden.

Gleichzeitig eröffnet Generative AI neue Möglichkeiten im Testprozess. Mit passenden Prompts können Anforderungen analysiert, Testbedingungen abgeleitet, Testfälle formuliert, Testdatenideen entwickelt oder Skripte für die Testautomatisierung vorbereitet werden. Entscheidend ist dabei nicht nur, dass KI genutzt wird, sondern wie kontrolliert, nachvollziehbar und verantwortungsvoll sie eingesetzt wird.

Gerade deshalb gewinnen Themen wie Explainable AI, Testdaten-Governance und der EU AI Act an Bedeutung. Wer KI im Softwaretest professionell einsetzen will, braucht ein Verständnis dafür, welche Risiken KI-Systeme mitbringen, wie Testergebnisse bewertet werden können und wo menschliche Prüfung unverzichtbar bleibt.

Bei trendig schauen wir deshalb nicht nur auf Tools. Wir schauen auf Kompetenzen: Was musst du verstehen, um KI-basierte Systeme zu testen? Und was musst du können, um Generative AI sinnvoll im Softwaretest einzusetzen.

AI Testing: KI-Systeme strukturiert testen statt als Blackbox akzeptieren

AI Testing bedeutet: KI-basierte Systeme so zu testen, dass ihr Verhalten, ihre Risiken und ihre Qualität nachvollziehbar bewertet werden können. Im Mittelpunkt steht nicht der Einsatz von KI als Werkzeug im Testprozess, sondern das Testen von Systemen, die selbst Künstliche Intelligenz nutzen.

Das ist besonders relevant bei Anwendungen, die mit Machine Learning arbeiten. Solche Systeme treffen Entscheidungen oder erzeugen Ergebnisse nicht nur auf Basis fester Regeln, sondern auf Basis von Daten, Modellen und gelernten Mustern. Dadurch entstehen neue Fragen für den Softwaretest:

  • Wie gut sind die Trainings- und Testdaten?
  • Reagiert das Modell robust auf neue oder unerwartete Eingaben?
  • Gibt es Verzerrungen oder Bias in den Ergebnissen?
  • Sind Entscheidungen erklärbar und nachvollziehbar?
  • Verändert sich die Qualität des Modells über die Zeit?

AI Testing erweitert den klassischen Softwaretest deshalb um daten- und modellbezogene Perspektiven. Neben funktionalen Tests werden auch Aspekte wie Datenqualität, Modellmetriken, Testorakel, Drift, Fairness, Robustheit, Transparenz und Explainable AI wichtig. Tester:innen müssen verstehen, wie KI-Systeme entstehen, wie sie trainiert werden und welche Risiken in den verschiedenen Phasen des KI-Lebenszyklus auftreten können.

Genau hier setzt das Training ISTQB® Certified Tester AI Testing (CT-AI) v2.0 an. Es vermittelt die Grundlagen, um KI-basierte Systeme strukturiert zu testen – von den verwendeten Daten über das Modell bis hin zum Verhalten des Gesamtsystems. Damit richtet sich CT-AI an alle, die im Softwaretest Künstliche Intelligenz nicht nur nutzen, sondern professionell bewerten wollen.

AI Testing hilft modernen Testteams, KI-Systeme nicht als Blackbox hinzunehmen. Es schafft die Grundlage, um Qualität sichtbar zu machen, Risiken früh zu erkennen und fundierte Entscheidungen über den Einsatz KI-basierter Software zu treffen.

GenAI Testing: Generative AI produktiv und kontrolliert im Testprozess nutzen

GenAI Testing bedeutet: Generative AI gezielt, kontrolliert und nachvollziehbar im Softwaretest einzusetzen. Im Mittelpunkt steht hier nicht das Testen eines KI-basierten Systems, sondern die Frage, wie Tester:innen Tools wie Large Language Models sinnvoll für ihre Testaufgaben nutzen können.

Generative AI kann Testteams an vielen Stellen unterstützen: bei der Analyse von Anforderungen, beim Ableiten von Testideen, beim Formulieren von Testfällen, beim Erzeugen von Testdaten, beim Vorbereiten von Automatisierungsskripten oder beim Zusammenfassen von Testergebnissen. Damit wird KI zu einem Werkzeug, das die tägliche Testarbeit beschleunigen und erweitern kann.

Entscheidend ist aber: GenAI liefert keine fertige Wahrheit. Antworten können unvollständig, falsch, verzerrt oder nicht zum Kontext passend sein. Deshalb braucht der Einsatz von GenAI im Softwaretest klare Prompts, fachliche Prüfung und ein Bewusstsein für Risiken wie Halluzinationen, Bias, Datenschutz, Security und unbeabsichtigte Preisgabe sensibler Informationen.

Hier wird Prompt Engineering zu einer wichtigen Testkompetenz. Wer Generative AI im Softwaretest nutzen will, muss Aufgaben klar formulieren, Kontext sinnvoll bereitstellen, Ergebnisse kritisch bewerten und wissen, wann eine menschliche Entscheidung unverzichtbar bleibt. GenAI kann gute Vorschläge machen – die Verantwortung für Qualität bleibt beim Team.

Das Training ISTQB® Certified Tester – Testing with Generative AI setzt genau an diesem Punkt an. Es zeigt, wie Generative AI den Testprozess unterstützen kann, welche Chancen sich für Analyse, Design, Automatisierung und Reporting ergeben und welche Grenzen Tester:innen kennen müssen.

So wird GenAI Testing zu mehr als Tool-Nutzung: Es geht darum, KI wirksam in bestehende Testprozesse einzubinden, ohne Kontrolle, Nachvollziehbarkeit und Qualität aus der Hand zu geben.

CT-AI oder CT-GenAI: Welche Strategie passt zu deinem Team?

KI im Softwaretest ist nicht gleich KI im Softwaretest. Deshalb ist die wichtigste Frage am Anfang: Möchtest du KI-basierte Systeme testen – oder möchtest du Generative AI im Testprozess nutzen?

Wenn du verstehen willst, wie Machine-Learning-Systeme funktionieren, wie Trainings- und Testdaten bewertet werden und wie du KI-Modelle systematisch testest, passt ISTQB® Certified Tester AI Testing (CT-AI) v2.0 zu dir.

Wenn du Generative AI nutzen möchtest, um Testanalyse, Testdesign, Testautomatisierung oder Reporting zu unterstützen, passt ISTQB® Certified Tester – Testing with Generative AI besser zu deinem Ziel.

Beide Trainings ergänzen sich. CT-AI stärkt dein Verständnis für die Qualität KI-basierter Systeme. CT-GenAI zeigt dir, wie du KI als Werkzeug im Softwaretest produktiv und verantwortungsvoll einsetzt.

Frage

ISTQB® CT-AI

ISTQB® CT-GenAI

Worum geht es?

Testen von KI-basierten Systemen

Einsatz von Generative AI im Testprozess

Strategischer Fokus

Qualität, Risiken und Testbarkeit von KI-Systemen verstehen

GenAI sinnvoll in bestehende Testprozesse integrieren

Du lernst

wie du KI-Systeme bewertest und testest

wie du GenAI für Testaufgaben nutzt

Typische Themen

AI Testing, Machine Learning, Datenqualität, Modellverhalten, Bias, Drift, Explainable AI

GenAI Testing, Prompt Engineering, Testanalyse, Testdesign, Automatisierung, Halluzinationen, Datenschutz

Passt zu dir, wenn …

du KI-basierte Software testest oder testen wirst

du KI-Tools im Softwaretest professionell einsetzen willst

Ergebnis

Du kannst Qualität und Risiken von KI-Systemen besser einschätzen

Du kannst GenAI kontrolliert, wirksam und kritisch im Testprozess nutzen

Du musst dich nicht dauerhaft für eine Richtung entscheiden. In vielen Teams werden beide Perspektiven gebraucht: die Fähigkeit, KI-basierte Systeme zu testen, und die Kompetenz, KI im eigenen Testprozess einzusetzen. Genau diese Kombination macht Tester:innen, Testmanager:innen und Quality Engineers fit für den nächsten Schritt im Softwaretest mit Künstlicher Intelligenz.

Daten, Modelle, Transparenz: Die Basis moderner KI-Teststrategien

Wer Künstliche Intelligenz im Softwaretest professionell einsetzen oder testen will, braucht ein solides Verständnis für die Grundlagen hinter KI-Systemen. Drei Themen sind dabei besonders wichtig: Machine Learning, Explainable AI und Testdaten-Governance.

Machine Learning ist die technische Basis vieler KI-basierter Anwendungen. Solche Systeme werden nicht klassisch programmiert, sondern lernen Muster aus Daten. Genau deshalb hängt ihre Qualität stark davon ab, mit welchen Daten sie trainiert, validiert und getestet werden. Für den Softwaretest bedeutet das: Daten sind nicht nur Vorbereitungsmaterial. Sie sind ein zentraler Bestandteil der Qualitätssicherung.

Wenn Trainingsdaten unvollständig, unausgewogen oder verzerrt sind, kann das Modell falsche oder ungerechte Ergebnisse liefern. Wenn sich die realen Eingabedaten im Betrieb verändern, kann die Modellqualität nachlassen. Deshalb müssen Tester:innen nicht nur prüfen, ob ein System funktioniert, sondern auch, ob Datenqualität, Modellverhalten und Einsatzkontext zusammenpassen.

Hier kommt Testdaten-Governance ins Spiel. Sie sorgt dafür, dass Testdaten nachvollziehbar, geeignet, geschützt und regelkonform verwendet werden. Gerade bei KI-Systemen ist das entscheidend: Welche Daten dürfen genutzt werden? Sind sie repräsentativ? Enthalten sie sensible Informationen? Sind sie aktuell genug? Und lässt sich später noch nachvollziehen, warum ein bestimmtes Testergebnis entstanden ist?

Ein weiteres zentrales Thema ist Explainable AI. KI-Systeme können leistungsfähig sein, aber ihre Entscheidungen sind nicht immer leicht nachvollziehbar. Für den Softwaretest reicht es deshalb nicht aus, nur ein Ergebnis zu akzeptieren. Teams müssen verstehen, warum ein System zu einem Ergebnis kommt, welche Einflussfaktoren relevant sind und wo Grenzen der Erklärbarkeit liegen.

Auch regulatorische Anforderungen werden wichtiger. Der EU AI Act rückt Risiken, Transparenz und Verantwortlichkeiten beim Einsatz von KI stärker in den Fokus. Für Unternehmen bedeutet das: Wer KI entwickelt, einführt oder testet, muss Qualität nicht nur technisch, sondern auch organisatorisch und rechtlich mitdenken.

Genau deshalb gehören diese Themen fest zum modernen Softwaretest mit Künstlicher Intelligenz. Es geht nicht nur um Tools oder Automatisierung. Es geht darum, KI-Systeme kontrollierbar, erklärbar und verantwortungsvoll einsetzbar zu machen.

Testautomatisierung mit KI: Schneller werden, ohne Qualität abzugeben

KI verändert auch die Testautomatisierung. Nicht, weil sie bestehende Automatisierung einfach ersetzt, sondern weil sie neue Möglichkeiten schafft: bei der Analyse, beim Entwurf, bei der Umsetzung und bei der Pflege automatisierter Tests.

Gerade Generative AI kann Testteams dabei unterstützen, schneller von einer Idee zu einem ersten konkreten Ergebnis zu kommen. Aus Anforderungen können Testideen entstehen. Aus Testideen können Testfälle formuliert werden. Aus Testfällen können Vorschläge für Automatisierungsskripte, Testdaten oder Prüfbedingungen abgeleitet werden. Das spart Zeit – besonders dort, wo Teams viele Varianten, wiederkehrende Aufgaben oder komplexe fachliche Kontexte bearbeiten müssen.

Trotzdem bleibt Testautomatisierung mit KI keine reine Tool-Frage. Gute Ergebnisse entstehen nur, wenn Tester:innen wissen, was sie erreichen wollen, welche Eingaben sie der KI geben und wie sie die Ergebnisse bewerten. Ein generierter Testfall ist noch kein guter Testfall. Ein generiertes Skript ist noch keine stabile Automatisierung. Und eine plausibel klingende Antwort ist noch kein belastbares Testergebnis.

Deshalb braucht KI-gestützte Testautomatisierung klare Leitplanken:

  • Welche Aufgaben darf GenAI unterstützen?
  • Welche Ergebnisse müssen fachlich geprüft werden?
  • Welche Daten dürfen in KI-Tools eingegeben werden?
  • Wie werden Prompts, Entscheidungen und Ergebnisse dokumentiert?
  • Wer trägt die Verantwortung für Qualität und Freigabe?

Besonders spannend wird KI dort, wo Testautomatisierung bisher viel manuelle Vorarbeit erfordert: beim Strukturieren von Anforderungen, beim Erkennen von Testlücken, beim Erzeugen von Varianten, beim Refactoring von Testskripten oder beim Erklären fehlgeschlagener Tests. In solchen Situationen kann KI den Testprozess beschleunigen und Tester:innen mehr Raum für Analyse, Bewertung und Qualitätsentscheidungen geben.

Damit wird Testautomatisierung KI nicht zum Selbstläufer, sondern zu einer Kompetenzfrage. Teams müssen lernen, KI gezielt einzusetzen, Ergebnisse kritisch zu prüfen und Automatisierung so aufzubauen, dass sie wartbar, nachvollziehbar und kontrollierbar bleibt.

Genau hier verbinden sich die beiden Perspektiven der Trainings: ISTQB® Certified Tester – Testing with Generative AI zeigt, wie GenAI den Testprozess und die Automatisierung unterstützen kann. ISTQB® Certified Tester AI Testing (CT-AI) v2.0 hilft zu verstehen, wie KI-basierte Systeme selbst getestet und bewertet werden. Gemeinsam liefern sie das Fundament für Teams, die KI im Softwaretest nicht nur ausprobieren, sondern professionell einsetzen wollen.

Unsere ISTQB®-Trainings: KI-Kompetenz für moderne Testteams

Künstliche Intelligenz im Softwaretest braucht mehr als Neugier auf neue Tools. Sie braucht fundiertes Wissen, praktische Anwendung und ein klares Verständnis dafür, wo KI hilft – und wo Tester:innen bewusst hinschauen müssen. Deshalb bieten wir dir zwei ISTQB®-Trainings an, die unterschiedliche Perspektiven auf KI und Softwaretest abdecken.

ISTQB® Certified Tester AI Testing (CT-AI) v2.0

Du möchtest KI-basierte Systeme testen und verstehen, wie Qualität bei Machine-Learning-Anwendungen bewertet werden kann? Dann ist ISTQB® Certified Tester AI Testing (CT-AI) v2.0 der passende Kurs für dich.

Im Training lernst du, wie sich KI-Systeme von klassischer Software unterscheiden, welche Rolle Daten im Test spielen und wie du Risiken rund um Modellverhalten, Bias, Robustheit, Transparenz und Explainable AI einordnest. Du beschäftigst dich mit dem Testen von Input-Daten, Modellen und ML-basierten Systemen – und entwickelst ein Verständnis dafür, wie Qualität bei KI-Systemen sichtbar und überprüfbar wird.

CT-AI passt zu dir, wenn du:

  • KI-basierte Systeme testest oder künftig testen wirst
  • verstehen willst, wie Machine Learning die Qualitätssicherung verändert
  • Datenqualität, Modellverhalten und Risiken systematisch bewerten möchtest
  • dich auf die ISTQB® CT-AI-Zertifizierung vorbereiten willst

Kurz gesagt:
CT-AI hilft dir, KI-Systeme nicht nur als Blackbox zu betrachten, sondern strukturiert und professionell zu testen.

ISTQB® Certified Tester – Testing with Generative AI

Du möchtest Generative AI im Testprozess einsetzen und wissen, wie du KI-Tools sinnvoll, kontrolliert und verantwortungsvoll nutzt? Dann ist ISTQB® Certified Tester – Testing with Generative AI der passende Einstieg.

Im Training lernst du, wie GenAI Testanalyse, Testdesign, Testautomatisierung und Reporting unterstützen kann. Du beschäftigst dich mit Prompt Engineering, typischen Einsatzszenarien im Softwaretest und den Grenzen generativer KI. Dazu gehören auch Risiken wie Halluzinationen, Bias, Datenschutz, Security und der Umgang mit sensiblen Informationen.

CT-GenAI passt zu dir, wenn du:

  • GenAI im Softwaretest praktisch einsetzen möchtest
  • Prompts für Testaufgaben gezielter formulieren willst
  • KI-Unterstützung für Testfälle, Testdatenideen oder Automatisierung nutzen möchtest
  • verstehen willst, wie du Ergebnisse von GenAI kritisch bewertest
  • dich auf die ISTQB® CT-GenAI-Zertifizierung vorbereiten willst

Kurz gesagt:
CT-GenAI hilft dir, Generative AI nicht nur auszuprobieren, sondern produktiv und kontrolliert in deine Testarbeit einzubinden.

Zwei Perspektiven, ein gemeinsames Ziel

Beide Trainings ergänzen sich. ISTQB® CT-AI zeigt dir, wie du KI-basierte Systeme testest. ISTQB® CT-GenAI zeigt dir, wie du KI im Testprozess nutzt.

Gemeinsam machen sie dich fit für einen Softwaretest, in dem Künstliche Intelligenz nicht mehr Sonderthema ist, sondern Teil der täglichen Qualitätsarbeit wird.

FAQ: Häufige Fragen zu KI-Strategien im Softwaretest

Was bedeutet KI im Softwaretest?

KI im Softwaretest beschreibt zwei Perspektiven: Einerseits geht es darum, KI-basierte Systeme zu testen. Andererseits geht es darum, Künstliche Intelligenz als Werkzeug im Testprozess zu nutzen. Beide Perspektiven werden wichtiger, weil immer mehr Software KI-Funktionen enthält und Testteams gleichzeitig neue Möglichkeiten durch Generative AI bekommen.

Was ist der Unterschied zwischen AI Testing und GenAI Testing?

AI Testing bedeutet: Du testest Systeme, die selbst Künstliche Intelligenz oder Machine Learning nutzen. Dabei stehen Datenqualität, Modellverhalten, Bias, Robustheit, Transparenz und Explainable AI im Mittelpunkt.

GenAI Testing bedeutet: Du nutzt Generative AI im Softwaretest, zum Beispiel für Testanalyse, Testdesign, Testdatenideen, Testautomatisierung oder Reporting. Hier geht es darum, KI-Tools sinnvoll, kontrolliert und kritisch in den Testprozess einzubinden.

Kurz gesagt:
AI Testing testet KI-Systeme. GenAI Testing nutzt KI für Testaufgaben.

Ist ISTQB® CT-AI dasselbe wie ISTQB® CT-GenAI?

Nein. Die beiden Zertifizierungen haben unterschiedliche Schwerpunkte.

ISTQB® Certified Tester AI Testing (CT-AI) v2.0 konzentriert sich auf das Testen KI-basierter Systeme. Du lernst, wie Machine-Learning-Systeme funktionieren, wie Daten und Modelle getestet werden und welche Qualitätsrisiken bei KI-Anwendungen entstehen.

ISTQB® Certified Tester – Testing with Generative AI konzentriert sich auf den Einsatz von Generative AI im Testprozess. Du lernst, wie du GenAI für Testanalyse, Testdesign, Automatisierung und Reporting nutzt – und welche Risiken du dabei beachten musst.

Brauche ich Machine-Learning-Erfahrung für KI im Softwaretest?

Du musst kein Data Scientist sein, um in den Einstieg zu finden. Für KI im Softwaretest ist aber ein grundlegendes Verständnis von Machine Learning hilfreich: Wie lernen Modelle aus Daten? Warum können Datenqualität und Bias Testergebnisse beeinflussen? Und warum ist das Verhalten KI-basierter Systeme nicht immer vollständig vorhersehbar?

Genau dieses Verständnis wird im Kontext von ISTQB® CT-AI aufgebaut und mit dem Blick auf den Softwaretest verbunden.

Welche Rolle spielt Explainable AI im Softwaretest?

Explainable AI hilft dabei, Entscheidungen und Ergebnisse von KI-Systemen nachvollziehbarer zu machen. Für Tester:innen ist das wichtig, weil ein korrekt wirkendes Ergebnis allein nicht immer ausreicht. Gerade bei kritischen Anwendungen müssen Teams verstehen, warum ein KI-System ein bestimmtes Ergebnis liefert, welche Faktoren eine Rolle spielen und wo mögliche Risiken liegen.

Explainable AI unterstützt damit Transparenz, Bewertung und Vertrauen in KI-basierte Systeme.

Warum ist Testdaten-Governance bei KI-Systemen so wichtig?

KI-Systeme hängen stark von Daten ab. Wenn Trainings-, Validierungs- oder Testdaten ungeeignet, verzerrt, veraltet oder nicht regelkonform genutzt werden, kann das direkte Auswirkungen auf die Qualität des Systems haben.

Testdaten-Governance sorgt dafür, dass Daten nachvollziehbar, geschützt, repräsentativ und passend zum Testziel verwendet werden. Das ist besonders wichtig, wenn sensible Informationen, regulatorische Anforderungen oder KI-spezifische Risiken eine Rolle spielen

Welche Bedeutung hat der EU AI Act für den Softwaretest?

Der EU AI Act macht deutlich, dass KI nicht nur technisch, sondern auch regulatorisch betrachtet werden muss. Für den Softwaretest bedeutet das: Qualität, Transparenz, Risiko, Dokumentation und Verantwortung werden wichtiger.

Tester:innen müssen nicht zu Jurist:innen werden. Sie sollten aber verstehen, dass KI-Systeme je nach Einsatzgebiet unterschiedliche Risiken mitbringen können – und dass diese Risiken im Testprozess berücksichtigt werden müssen.

Kann KI Testautomatisierung ersetzen?

Nein. KI kann Testautomatisierung unterstützen, beschleunigen und erweitern, aber sie ersetzt keine durchdachte Teststrategie. Generative AI kann zum Beispiel beim Formulieren von Testfällen, beim Erstellen erster Skriptvorschläge oder beim Analysieren fehlgeschlagener Tests helfen.

Die Bewertung bleibt trotzdem Aufgabe des Teams. Gute Testautomatisierung mit KI braucht klare Ziele, geeignete Daten, fachliche Prüfung und verantwortungsvolle Freigabe.

Welches Training passt besser zu mir: CT-AI oder CT-GenAI?

Wenn du KI-basierte Systeme testen möchtest, ist ISTQB® CT-AI die passende Wahl.

Wenn du Generative AI im Testprozess nutzen möchtest, passt ISTQB® CT-GenAI besser.

Wenn du beides brauchst – also KI-Systeme bewerten und KI-Tools im Testprozess einsetzen willst – ergänzen sich beide Trainings sehr gut. So baust du Kompetenzen für einen Softwaretest auf, in dem Künstliche Intelligenz fachlich, technisch und organisatorisch sicher eingesetzt wird.

newsletter – wochenpost

News über Software Engineering, Agile Practices und Innovation. Immer montags in Deinem E-Mail-Postfach.

Ansprechpartner

bettina aap

training journey composer +49 30 747628-0 bettina-schoch

steffen flegel

rock in the training surf +49 30 747628-0

trendig ist offiziell akkreditierter Schulungspartner

Boards und Programmausschüsse: