Bewertungskriterien: Unterschied zwischen den Versionen

Aus Ameise-de
Zur Navigation springenZur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 12: Zeile 12:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   
Zeile 31: Zeile 31:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   
Zeile 57: Zeile 57:




>> [[Zurück zu:Klassifikation der Bewertungskriterien]]
>> Zurück zu:[[Klassifikation der Bewertungskriterien]]


   
   

Version vom 9. Mai 2013, 12:15 Uhr

Zielvorgaben

Zu folgenden Zielvorgaben können Auswertungen abgerufen werden:

  • Projektdauer
  • Budget
  • Realisierte AFPs im Code in Prozent >> zum Diagramm
  • Fehler pro KLOC im Code
  • realisierte AFPs im Handbuch in Prozent
  • Fehler pro Seite im Handbuch


Bei den Zielvorgaben handelt es sich um die wichtigsten Bewertungskriterien. Schließlich möchte der Spieler nach der Beendigung des Projekts wissen, ob er das Projekt innerhalb des vorgegebenen Budget- bzw. Zeitrahmens eingehalten hat und trotzdem die geforderten AFPs für Code und Handbuch realisieren konnte. Für jede Zielvorgabe liefert die Auswertungskomponente eine textuelle Beschreibung.


>> Zurück zu:Klassifikation der Bewertungskriterien


Vollständigkeit der Dokumente

Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert. >> zum Diagramm


Restfehler der Dokumente

Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:

  • Restfehler der Dokumente >> zum Diagramm
  • Restfehler in der Spezifikation
  • Restfehler im Systemdesign
  • Restfehler im Moduldesign
  • Restfehler im Code
  • Restfehler im Handbuch


>> Zurück zu:Klassifikation der Bewertungskriterien


Effizienz von Reviews bzw. Tests

Dieses Bewertungskriterium stellt den Aufwand für Reviews bzw. Tests, die gefundenen Fehler und den Aufwand für die Korrektur dieser Fehler gegenüber. Mit Hilfe dieser Diagramme kann auf einen Blick festgestellt werden, ob ein Review bzw. Test effizient durchgeführt wurde oder nicht.

  • Effizienz der Spezifikationsreviews
  • Effizienz der Systemdesignreviews
  • Effizienz der Moduldesignreviews
  • Effizienz der Codereviews
  • Effizienz der Handbuchreviews >> zum Diagramm
  • Effizienz der Modultests
  • Effizienz der Systemtests
  • Effizienz der Integrationstests


Effektivität von Reviews

Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.

  • Effektivität der Spezifikationsreviews
  • Effektivität der Systemdesignreviews >> zum Diagramm
  • Effektivität der Moduldesignreviews
  • Effektivität der Codereviews
  • Effektivität der Handbuchreviews


>> Zurück zu:Klassifikation der Bewertungskriterien


Verluste durch Reviews bzw. Tests

Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.


Aufwandsverteilung

Dieses Bewertungskriterium zeigt die Verteilung des Aufwands über die Phasen Spezifikation, Entwurf, Codierung, Test und Handbucherstellung. >> zum Diagramm


Autoren der Dokumente

Diese Auswertung soll prüfen, ob der Spieler für die einzelnen Phasen die richtigen Mitarbeiter eingesetzt hat. Zur Verfügung stehen folgende Auswertungen:

  • Autor/Autoren der Spezifikation
  • Autor/Autoren des Systemdesigns >> zum Diagramm
  • Autor/Autoren des Moduldesigns
  • Autor/Autoren des Codes
  • Autor/Autoren des Handbuchs