Jenseits von Prompts: Smarte Testpartner entwickeln
Wir beginnen einfach: Prompten wie ein Profi. Das machen wir so lange, bis die Prompt-Tricks nicht mehr ausreichen und Kontext entscheidend wird. Dann steigen wir schnell auf das nächste Level: SRS-Logik einbauen, Bug-Taxonomien schichten, CVEs live einbinden und alles in einen LangChain-Agenten einbetten, der sich erinnert, schlussfolgert und Informationen abruft.
Erwarte mehr Demos, als wir Zeit haben werden, eine umfangreiche Fallstudie und null Folien-Müdigkeit. Am Ende wirst du aufhören, ein LLM wie einen Getränkeautomaten zu behandeln – und anfangen, es wie einen kontextgetriebenen Testpartner zu nutzen.
Das ist kein KI-Hype. Das ist angewandtes Denken, unterstützt durch Sprachmodelle und verankert im Testdesign.