easyDevel.net
Zurück zum Blog
Anforderungen & Klarheit

KI schreibt nur Anforderungen, die sie kennt

LLMs wie ChatGPT reproduzieren Muster aus Trainingsdaten. Für individuelle Softwareanforderungen fehlt ihnen der entscheidende Kontext: Ihr Unternehmen.

#Anforderungsmanagement#KI in der Softwareentwicklung#Requirements Engineering#LLM Grenzen
KI schreibt nur Anforderungen, die sie kennt

KI schreibt nur Anforderungen, die sie kennt

Sie haben ChatGPT oder ein anderes LLM gebeten, Anforderungen für Ihre geplante Software zu formulieren. Das Ergebnis klang professionell, war gut strukturiert – und hätte für jedes beliebige Unternehmen Ihrer Branche passen können.

Das ist kein Bedienungsfehler. Es liegt in der Natur dieser Werkzeuge.

Warum KI bei Anforderungen an Grenzen stößt

Large Language Models wie ChatGPT, Gemini oder Claude funktionieren nach einem Prinzip: Sie erkennen Muster in Texten und setzen diese Muster fort. Was sie ausgeben, basiert auf dem, was sie während des Trainings gelesen haben.

Für allgemeines Wissen funktioniert das bemerkenswert gut. Ein LLM kann erklären, was typische Anforderungen an ein Warenwirtschaftssystem sind. Es kann aufzählen, welche Funktionen eine Kundenverwaltung üblicherweise hat.

Was es nicht kann: verstehen, warum Ihr Unternehmen diese Software braucht.

Denn Ihr spezifischer Kontext – Ihre Prozesse, Ihre Engpässe, Ihre Kunden, Ihre internen Abhängigkeiten – existiert in keinem Trainingsdatensatz. Das LLM hat noch nie von Ihrer Firma gehört. Es weiß nicht, dass Ihre Auftragserfassung drei Abteilungen durchläuft, dass ein bestimmter Kunde Sonderkonditionen hat, oder dass Ihre Lagerverwaltung mit einer Software aus den 1990er Jahren kommunizieren muss.

Was LLMs tatsächlich liefern

Wenn Sie ein LLM bitten, Anforderungen zu schreiben, erhalten Sie eine Zusammenstellung dessen, was in öffentlich zugänglichen Texten über ähnliche Projekte steht. Das können sein:

  • Standardfunktionen, die in Lehrbüchern oder Produktbeschreibungen genannt werden
  • Formulierungen aus öffentlichen Ausschreibungen oder Vorlagen
  • Generische Best Practices, die für niemanden falsch, aber für Sie nicht spezifisch genug sind

Das Ergebnis wirkt vollständig. Es klingt nach jemandem, der sich auskennt. Aber es beschreibt nicht Ihr Problem, sondern ein statistisches Mittel aller Probleme, von denen das Modell gelesen hat.

Drei Denkfehler bei KI-generierten Anforderungen

"Mit dem richtigen Prompt wird das Ergebnis besser"

Bessere Prompts helfen, die Ausgabe zu strukturieren oder den Fokus zu lenken. Aber sie können dem Modell kein Wissen geben, das es nicht hat. Wenn Sie Ihren Kontext im Prompt beschreiben, kann das LLM diese Information aufgreifen – aber es versteht sie nicht. Es erkennt Schlüsselwörter und passt seine Musterausgabe an. Das ist ein Unterschied.

"KI versteht mein Geschäft, wenn ich es erkläre"

Ein LLM verarbeitet Ihre Eingabe nicht wie ein Berater, der nachfragt, Zusammenhänge herstellt und auf Widersprüche hinweist. Es nimmt Ihren Text als zusätzlichen Kontext und generiert auf dieser Basis wahrscheinliche Fortsetzungen. Missverständnisse, fehlende Details oder widersprüchliche Angaben werden nicht erkannt, sondern übergangen.

"Die Anforderungen klingen professionell, also sind sie brauchbar"

Sprachliche Qualität und inhaltliche Substanz sind zwei verschiedene Dinge. LLMs sind darauf trainiert, plausibel klingende Texte zu erzeugen. Eine Anforderung wie "Das System soll eine benutzerfreundliche Oberfläche haben" klingt vernünftig, sagt aber nichts aus. Sie beschreibt kein konkretes Problem und gibt Entwicklern keine Orientierung.

Was Anforderungen tatsächlich brauchen

Brauchbare Anforderungen entstehen nicht durch elegante Formulierungen. Sie entstehen durch das Verstehen von Zusammenhängen:

  • Welches Problem soll die Software lösen?
  • Für wen konkret?
  • Welche Abläufe gibt es heute, und was funktioniert daran nicht?
  • Welche Randbedingungen existieren – technisch, organisatorisch, wirtschaftlich?
  • Was passiert, wenn diese Anforderung nicht erfüllt wird?

Diese Fragen kann kein externes Werkzeug beantworten. Die Antworten liegen im Unternehmen, bei den Menschen, die täglich mit den Prozessen arbeiten. Ein LLM kann beim Formulieren helfen, aber die inhaltliche Arbeit nimmt es nicht ab.

Wo KI im Anforderungsprozess helfen kann

Trotz dieser Grenzen gibt es sinnvolle Einsatzmöglichkeiten:

  • Strukturierung: Ein LLM kann helfen, gesammelte Stichpunkte in eine lesbare Form zu bringen.
  • Vollständigkeitsprüfung: Bei Standardthemen kann es auf typische Aspekte hinweisen, die möglicherweise vergessen wurden.
  • Formulierungshilfe: Wenn der fachliche Inhalt feststeht, kann ein LLM bei der sprachlichen Ausarbeitung unterstützen.

Der entscheidende Punkt: Der Input muss von Menschen kommen, die den Kontext kennen. Das LLM ist ein Werkzeug zur Textverarbeitung, kein Ersatz für Domänenwissen.

Was das für Ihre Softwareentscheidung bedeutet

Wenn Sie mit generischen Anforderungen in ein Entwicklungsprojekt gehen, werden Sie generische Software bekommen. Oder – wahrscheinlicher – Sie werden während der Entwicklung feststellen, dass wesentliche Dinge fehlen, und nachbessern müssen. Das kostet Zeit und Geld.

Die Alternative ist nicht, KI zu vermeiden. Die Alternative ist, die inhaltliche Vorarbeit ernst zu nehmen. Das bedeutet: mit den richtigen Leuten sprechen, die richtigen Fragen stellen, Widersprüche klären und Prioritäten setzen. Erst dann wird formuliert – ob mit oder ohne KI-Unterstützung.

Fazit

LLMs wie ChatGPT oder Gemini sind beeindruckende Werkzeuge für viele Aufgaben. Für Softwareanforderungen fehlt ihnen das Entscheidende: der Zugang zu Ihrem spezifischen Problem. Was sie liefern, ist ein Durchschnitt aus dem, was öffentlich über ähnliche Projekte bekannt ist.

Gute Anforderungen entstehen anders. Sie entstehen, wenn jemand Ihr Geschäft versteht, die richtigen Fragen stellt und die Antworten strukturiert festhält. Das ist Arbeit, die sich nicht automatisieren lässt – aber Arbeit, die den Unterschied macht zwischen einem Projekt, das funktioniert, und einem, das nachgebessert werden muss.

Häufig gestellte Fragen

Bedingt. ChatGPT kann beim Strukturieren helfen oder Standardformulierungen vorschlagen. Die inhaltliche Substanz – also was Ihre Software konkret können muss – kann das Tool nicht liefern. Dafür fehlt ihm das Wissen über Ihre Prozesse, Ihre Kunden und Ihre Engpässe.
LLMs lernen aus öffentlich verfügbaren Texten. Sie kennen typische Anforderungen für E-Commerce-Systeme oder CRM-Software, weil diese häufig dokumentiert werden. Was Ihr Unternehmen von anderen unterscheidet, ist in diesen Trainingsdaten nicht enthalten.
Als Sparringspartner für Formulierungen, zur Prüfung auf Vollständigkeit bei Standardthemen oder zum Strukturieren von Gesprächsnotizen. Der fachliche Input und die Priorisierung müssen von Menschen kommen, die Ihr Geschäft kennen.
Gute Anforderungen beschreiben konkrete Probleme und Ziele Ihres Unternehmens. Sie benennen, wer etwas braucht, warum, und welche Randbedingungen gelten. Generische Anforderungen beschreiben Features, die theoretisch jeder haben könnte – ohne Bezug zu Ihrem tatsächlichen Bedarf.
Das hängt von der Komplexität ab. Bei überschaubaren Projekten reicht oft eine strukturierte interne Aufarbeitung. Bei größeren Vorhaben oder wenn verschiedene Abteilungen beteiligt sind, hilft eine externe Moderation, blinde Flecken aufzudecken und Prioritäten zu klären.

Bereit für klare Software-Entscheidungen?

Lassen Sie uns gemeinsam herausfinden, wie easyDevel.net Sie bei Ihrem Softwareprojekt unterstützen kann.

Erstgespräch anfragen

Weitere Artikel aus dieser Kategorie

Was ein gutes Software-Konzept leisten muss
Anforderungen & Klarheit

Was ein gutes Software-Konzept leisten muss

Ein Software-Konzept soll Entscheidungen ermöglichen – nicht technische Details dokumentieren. Was ein Konzept wirklich enthalten muss, damit es seinen Zweck erfüllt.

#Software-Konzept#Entscheidungsgrundlage#Projektplanung
Weiterlesen