Moderne AI-Tools sollen die Softwareentwicklung beschleunigen, doch wo genau entsteht der Mehrwert im Entwicklungsalltag? In seinem interaktiven Vortrag zeigt Nils Hyoma, wie Entwicklerteams AI Agents gezielt einsetzen können, um technische und fachliche blinde Flecken frühzeitig sichtbar zu machen.
Anhand interaktiver Übungen und realer Projektbeispiele demonstriert Nils, wie Custom Chat Modes, AI Agenten bzw. Agent Skills direkt in der IDE eingesetzt werden können, unter anderem als GitHub Copilot Custom Chat Mode für Problem-Personas welche die Software und die Anforderungen auf Herz und Nieren testen.
Die Anforderungen werden gezielt aus Risiko- und Fehlerperspektiven hinterfragt und automatisch BDD-Szenarien erzeugt. Der Agent analysiert Anforderungen sowie bestehenden Code: Wo fehlen Randfälle? Welche Annahmen sind implizit? Welche Änderungen erzeugen unerwartete Seiteneffekte?
Die Szenarien können ein wertvoller Baustein für AI-Driven bzw. Spec Driven Development sein, um später automatisierte Tests im Browser laufen zu lassen oder einfach die Anforderungen mit dem Fachbereich zu besprechen.
Ergänzt wird der Ansatz durch ein leichtgewichtiges Problem-Persona-Kartenset mit Figuren wie Chaos Claus und Newby Nils, das Reviews und Refinements strukturiert und risikoorientierte Diskussionen fördert. Die vorgestellten Agent Skills sowie das Kartenset stellt Nils offen zur Verfügung – kostenlos und frei zugänglich auf GitHub, sodass die Teilnehmenden die Ansätze direkt im eigenen Team ausprobieren können. Der Vortrag zeigt konkrete Workflows, Tool-Setups und Learnings aus der Praxis – mit dem Ziel, testbarere Anforderungen, robusteres Design und messbar bessere Softwarequalität zu erreichen.
- Grundverständnis von User Stories und Refinement
- Basiswissen zu BDD/Given-When-Then ist hilfreich, aber nicht zwingend erforderlich.
AI-Vorkenntnisse sind nicht erforderlich
- Verstehen, wie LLMs Problem Paths und blinde Flecken in Anforderungen identifizieren
- AI-gestützte Problem Personas gezielt im Refinement einsetzen
- Aus AI-generierten Risiken konkrete BDD-Szenarien ableiten
- AI als kritischen Sparringspartner für bessere Anforderungen nutzen