KI schreibt nur Anforderungen, die sie kennt
Sie haben ChatGPT oder ein anderes LLM gebeten, Anforderungen für Ihre geplante Software zu formulieren. Das Ergebnis klang professionell, war gut strukturiert – und hätte für jedes beliebige Unternehmen Ihrer Branche passen können.
Das ist kein Bedienungsfehler. Es liegt in der Natur dieser Werkzeuge.
Warum KI bei Anforderungen an Grenzen stößt
Large Language Models wie ChatGPT, Gemini oder Claude funktionieren nach einem Prinzip: Sie erkennen Muster in Texten und setzen diese Muster fort. Was sie ausgeben, basiert auf dem, was sie während des Trainings gelesen haben.
Für allgemeines Wissen funktioniert das bemerkenswert gut. Ein LLM kann erklären, was typische Anforderungen an ein Warenwirtschaftssystem sind. Es kann aufzählen, welche Funktionen eine Kundenverwaltung üblicherweise hat.
Was es nicht kann: verstehen, warum Ihr Unternehmen diese Software braucht.
Denn Ihr spezifischer Kontext – Ihre Prozesse, Ihre Engpässe, Ihre Kunden, Ihre internen Abhängigkeiten – existiert in keinem Trainingsdatensatz. Das LLM hat noch nie von Ihrer Firma gehört. Es weiß nicht, dass Ihre Auftragserfassung drei Abteilungen durchläuft, dass ein bestimmter Kunde Sonderkonditionen hat, oder dass Ihre Lagerverwaltung mit einer Software aus den 1990er Jahren kommunizieren muss.
Was LLMs tatsächlich liefern
Wenn Sie ein LLM bitten, Anforderungen zu schreiben, erhalten Sie eine Zusammenstellung dessen, was in öffentlich zugänglichen Texten über ähnliche Projekte steht. Das können sein:
- Standardfunktionen, die in Lehrbüchern oder Produktbeschreibungen genannt werden
- Formulierungen aus öffentlichen Ausschreibungen oder Vorlagen
- Generische Best Practices, die für niemanden falsch, aber für Sie nicht spezifisch genug sind
Das Ergebnis wirkt vollständig. Es klingt nach jemandem, der sich auskennt. Aber es beschreibt nicht Ihr Problem, sondern ein statistisches Mittel aller Probleme, von denen das Modell gelesen hat.
Drei Denkfehler bei KI-generierten Anforderungen
"Mit dem richtigen Prompt wird das Ergebnis besser"
Bessere Prompts helfen, die Ausgabe zu strukturieren oder den Fokus zu lenken. Aber sie können dem Modell kein Wissen geben, das es nicht hat. Wenn Sie Ihren Kontext im Prompt beschreiben, kann das LLM diese Information aufgreifen – aber es versteht sie nicht. Es erkennt Schlüsselwörter und passt seine Musterausgabe an. Das ist ein Unterschied.
"KI versteht mein Geschäft, wenn ich es erkläre"
Ein LLM verarbeitet Ihre Eingabe nicht wie ein Berater, der nachfragt, Zusammenhänge herstellt und auf Widersprüche hinweist. Es nimmt Ihren Text als zusätzlichen Kontext und generiert auf dieser Basis wahrscheinliche Fortsetzungen. Missverständnisse, fehlende Details oder widersprüchliche Angaben werden nicht erkannt, sondern übergangen.
"Die Anforderungen klingen professionell, also sind sie brauchbar"
Sprachliche Qualität und inhaltliche Substanz sind zwei verschiedene Dinge. LLMs sind darauf trainiert, plausibel klingende Texte zu erzeugen. Eine Anforderung wie "Das System soll eine benutzerfreundliche Oberfläche haben" klingt vernünftig, sagt aber nichts aus. Sie beschreibt kein konkretes Problem und gibt Entwicklern keine Orientierung.
Was Anforderungen tatsächlich brauchen
Brauchbare Anforderungen entstehen nicht durch elegante Formulierungen. Sie entstehen durch das Verstehen von Zusammenhängen:
- Welches Problem soll die Software lösen?
- Für wen konkret?
- Welche Abläufe gibt es heute, und was funktioniert daran nicht?
- Welche Randbedingungen existieren – technisch, organisatorisch, wirtschaftlich?
- Was passiert, wenn diese Anforderung nicht erfüllt wird?
Diese Fragen kann kein externes Werkzeug beantworten. Die Antworten liegen im Unternehmen, bei den Menschen, die täglich mit den Prozessen arbeiten. Ein LLM kann beim Formulieren helfen, aber die inhaltliche Arbeit nimmt es nicht ab.
Wo KI im Anforderungsprozess helfen kann
Trotz dieser Grenzen gibt es sinnvolle Einsatzmöglichkeiten:
- Strukturierung: Ein LLM kann helfen, gesammelte Stichpunkte in eine lesbare Form zu bringen.
- Vollständigkeitsprüfung: Bei Standardthemen kann es auf typische Aspekte hinweisen, die möglicherweise vergessen wurden.
- Formulierungshilfe: Wenn der fachliche Inhalt feststeht, kann ein LLM bei der sprachlichen Ausarbeitung unterstützen.
Der entscheidende Punkt: Der Input muss von Menschen kommen, die den Kontext kennen. Das LLM ist ein Werkzeug zur Textverarbeitung, kein Ersatz für Domänenwissen.
Was das für Ihre Softwareentscheidung bedeutet
Wenn Sie mit generischen Anforderungen in ein Entwicklungsprojekt gehen, werden Sie generische Software bekommen. Oder – wahrscheinlicher – Sie werden während der Entwicklung feststellen, dass wesentliche Dinge fehlen, und nachbessern müssen. Das kostet Zeit und Geld.
Die Alternative ist nicht, KI zu vermeiden. Die Alternative ist, die inhaltliche Vorarbeit ernst zu nehmen. Das bedeutet: mit den richtigen Leuten sprechen, die richtigen Fragen stellen, Widersprüche klären und Prioritäten setzen. Erst dann wird formuliert – ob mit oder ohne KI-Unterstützung.
Fazit
LLMs wie ChatGPT oder Gemini sind beeindruckende Werkzeuge für viele Aufgaben. Für Softwareanforderungen fehlt ihnen das Entscheidende: der Zugang zu Ihrem spezifischen Problem. Was sie liefern, ist ein Durchschnitt aus dem, was öffentlich über ähnliche Projekte bekannt ist.
Gute Anforderungen entstehen anders. Sie entstehen, wenn jemand Ihr Geschäft versteht, die richtigen Fragen stellt und die Antworten strukturiert festhält. Das ist Arbeit, die sich nicht automatisieren lässt – aber Arbeit, die den Unterschied macht zwischen einem Projekt, das funktioniert, und einem, das nachgebessert werden muss.
Häufig gestellte Fragen
Bereit für klare Software-Entscheidungen?
Lassen Sie uns gemeinsam herausfinden, wie easyDevel.net Sie bei Ihrem Softwareprojekt unterstützen kann.
Erstgespräch anfragen



