LLMs und Test: wo und wie setze ich die KI bei meinen Tests ein? Was bringt das? Geht es auch ohne?

Kurzbeschreibung

Seit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT spielt KI eine wichtige Rolle in der SW-Entwicklung, auch in der Qualitätssicherung und im Testing. KI optimiert Tests, reduziert Routinen und überwindet Engpässe.

 

Ich habe die KI für meine Testlandschaft erkundet, wobei ich Literatur-Recherchen, Zusammenarbeit in einer Community of Practice und praktische Umsetzungen durchführte. Die Recherchen zeigten, dass LLMs gut als "Co-Piloten" für Testfall- & Bug-Analysen geeignet sind. Bereiche wie Test-Konzept und -Strategie werden hingegen kaum unterstützt.

 

Diese Erkenntnisse nutzte ich für die weitere Arbeit in der Community und in meiner Testlandschaft. Auch wenn viele Ansätze noch in den Anfängen stecken, ergeben sich wertvolle Dos und Don'ts, die ich in meinem Vortrag behandle

Nutzen für den Teilnehmer:
Gesamt-Betrachtung Testmanagement und LLM

Erkenntnisse über LLM Potenziale für Testing

Erkenntnisse über problematische Situationen in Zusammenhang mit LLM

Dos und Donts

Use case Betrachtung aus einem konkreten Projekt-Umfeld

Behandelte Problemstellungen:
Was eigentlich verbirgt sich unter „KI für Testing“? Welche Techniken der KI gibt es und welche eigenen sich für den Bereich Software-Test und Qualitätssicherung?

Welche Bereiche vom Test und Testmanagement können mit KI Techniken verbessert werden? Welche nicht?

Welche Risiken gibt es im Zusammenhang mit dem Einsatz der KI im Software-Test? Wo ist der Ansatz der KI nicht hilfreich oder gar gefährlich?

Vortragssprache: Deutsch
Level: Fortgeschrittene
Zielgruppe: Tester, Testmanager, Projektleiter

Unternehmen:
Rohde und Schwarz GmbH und Co. KG.

Vorgetragen von:
Hermann Bayala

Hermann Bayala