LLMs und Test: wo und wie setze ich die KI bei meinen Tests ein? Was bringt das? Geht es auch ohne?
Seit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT spielt KI eine wichtige Rolle in der SW-Entwicklung, auch in der Qualitätssicherung und im Testing. KI optimiert Tests, reduziert Routinen und überwindet Engpässe.
Ich habe die KI für meine Testlandschaft erkundet, wobei ich Literatur-Recherchen, Zusammenarbeit in einer Community of Practice und praktische Umsetzungen durchführte. Die Recherchen zeigten, dass LLMs gut als "Co-Piloten" für Testfall- & Bug-Analysen geeignet sind. Bereiche wie Test-Konzept und -Strategie werden hingegen kaum unterstützt.
Diese Erkenntnisse nutzte ich für die weitere Arbeit in der Community und in meiner Testlandschaft. Auch wenn viele Ansätze noch in den Anfängen stecken, ergeben sich wertvolle Dos und Don'ts, die ich in meinem Vortrag behandle
Nutzen für den Teilnehmer:
Gesamt-Betrachtung Testmanagement und LLM
Erkenntnisse über LLM Potenziale für Testing
Erkenntnisse über problematische Situationen in Zusammenhang mit LLM
Dos und Donts
Use case Betrachtung aus einem konkreten Projekt-Umfeld
Behandelte Problemstellungen:
Was eigentlich verbirgt sich unter „KI für Testing“? Welche Techniken der KI gibt es und welche eigenen sich für den Bereich Software-Test und Qualitätssicherung?
Welche Bereiche vom Test und Testmanagement können mit KI Techniken verbessert werden? Welche nicht?
Welche Risiken gibt es im Zusammenhang mit dem Einsatz der KI im Software-Test? Wo ist der Ansatz der KI nicht hilfreich oder gar gefährlich?
Vortragssprache: Deutsch
Level: Fortgeschrittene
Zielgruppe: Tester, Testmanager, Projektleiter
Unternehmen:
Rohde und Schwarz GmbH und Co. KG.

Hermann Bayala