Evaluation Criteria: Difference between revisions

From Ameise-en
Jump to navigationJump to search
m (2 revision(s))
No edit summary
 
(17 intermediate revisions by the same user not shown)
Line 1: Line 1:
==Zielvorgaben==
==Objectives==
Zu folgenden Zielvorgaben können Auswertungen abgerufen werden:
The following objectives can be evaluated and retrieved:
* Projektdauer
* Project duration
* Budget
* Budget
* Realisierte AFPs im Code in Prozent >> [[zum Diagramm]]
* AFPs realised in the code as a percentage
* Fehler pro KLOC im Code
* Errors per KLOC  
* realisierte AFPs im Handbuch in Prozent
* AFPs realised in the manuals as a percentage
* Fehler pro Seite im Handbuch
* Errors per page in the manuals




Bei den Zielvorgaben handelt es sich um die wichtigsten Bewertungskriterien. Schließlich möchte der Spieler nach der Beendigung des Projekts wissen, ob er das Projekt innerhalb des vorgegebenen Budget- bzw. Zeitrahmens eingehalten hat und trotzdem die geforderten AFPs für Code und Handbuch realisieren konnte. Für jede Zielvorgabe liefert die Auswertungskomponente eine textuelle Beschreibung.
Objectives are the most important evaluation criteria. At the end of a simulation run, trainees want to know if they have managed the project within the budget, in time and if they have achieved the AFPs required for the code and manuals. The evaluation component provides a textual description for every objective.




>> [[Zurück zu: Klassifikation der Bewertungskriterien]]
>> Back to: [[Classification of the Evaluation Criteria]]


   
   
==Vollständigkeit der Dokumente==
==Completeness of Documents==
Dieses Bewertungskriterium gibt einen Überblick über die Vollständigkeit der Dokumente (Spezifikation, Systemdesign, Moduldesign, Code, Handbuch) und wird mit Hilfe von Diagrammen dem Spieler präsentiert. >> [[zum Diagramm]]
This criterion gives an overview of the completeness of the documents(specification, system design, modul design, code, manuals) and is presented to trainees in the form of a diagram.  


   
   
==Restfehler der Dokumente==
==Remaining Errors in Documents==
Ein weiteres wichtiges Bewertungskriterium gibt an, wie viele Fehler die Dokumente noch enthalten. Dabei lassen sich folgende Auswertungen unterscheiden:
Another important evaluation criterion gives an overview, how many errors are still left in the documents. You can distinguish the following evaluations:
* Restfehler der Dokumente >> [[zum Diagramm]]
* Remaining errors in Documents
* Restfehler in der Spezifikation
* Remaining errors in the Specification
* Restfehler im Systemdesign
* Remaining errors in the System Design
* Restfehler im Moduldesign
* Remaining errors in the Module Design
* Restfehler im Code
* Remaining errors in the Code
* Restfehler im Handbuch
* Remaining errors in the Manuals


 
>> Back to: [[Classification of the Evaluation Criteria]]
>> [[Zurück zu: Klassifikation der Bewertungskriterien]]


   
   
==Effizienz von Reviews bzw. Tests==
== Efficiency of Reviews or Tests==
Dieses Bewertungskriterium stellt den Aufwand für Reviews bzw. Tests, die gefundenen Fehler und den Aufwand für die Korrektur dieser Fehler gegenüber. Mit Hilfe dieser Diagramme kann auf einen Blick festgestellt werden, ob ein Review bzw. Test effizient durchgeführt wurde oder nicht.
 
* Effizienz der Spezifikationsreviews
This criterion relates the effort of reviews or tests, the errors found and the effort to correct these errors. These diagrams show at a glance, whether a review or test was performed efficiently or not.
* Effizienz der Systemdesignreviews
 
* Effizienz der Moduldesignreviews
* Efficiency of the Specification Reviews
* Effizienz der Codereviews
* Efficiency of the System Design Reviews
* Effizienz der Handbuchreviews >> [[zum Diagramm]]
* Efficiency of the Module Design Reviews
* Effizienz der Modultests
* Efficiency of Code Reviews
* Effizienz der Systemtests
* Efficiency of Manual Reviews
* Effizienz der Integrationstests
* Efficiency of Module Tests
* Efficiency of System Testing
* Efficiency of Integration Tests


   
   
==Effektivität von Reviews==
==Effectiveness of Reviews==
Dieses Bewertungskriterium stellt die durch Reviews gefundenen Fehler den im Dokument noch tatsächlich enthaltenen Fehlern gegenüber (Diese werden aufgrund empirischer Werte vom Simulationssystem geschätzt). Dadurch kann festgestellt werden, ob der Spieler die richtigen Gutachter eingesetzt hat.
* Effektivität der Spezifikationsreviews
* Effektivität der Systemdesignreviews >> [[zum Diagramm]]
* Effektivität der Moduldesignreviews
* Effektivität der Codereviews
* Effektivität der Handbuchreviews


This evaluation criterion relates to the errors still remaining in the documents located during reviews. Thereby, it can be determined if trainees have employed the proper reviewers.


>> [[Zurück zu: Klassifikation der Bewertungskriterien]]
* Effectiveness of Specification Reviews
* Effectiveness of System Design Reviews
* Effectiveness of Modul Design Reviews
* Effectiveness of Code Reviews
* Effectiveness of Manual Reviews
 
 
>> Back to: [[Classification of the Evaluation Criteria]]


   
   
==Verluste durch Reviews bzw. Tests==
== Losses by Reviews or Tests==
Dieses Bewertungskriterium zeigt die Anzahl der AFPs auf, die durch Reviews und Tests verloren gingen. Dieser Verlust kann durch eine schlechte Gutachterwahl entstehen. Darum sollten Spieler die Qualifikationen der Gutachter stets überprüfen.
* Verluste in Tests
* Verluste in Reviews >> [[zum Diagramm]]


This evaluation criterion shows the number of AFPs, which were lost during reviews and tests. This loss can be caused by a bad choice of reviewers.Therefore, the trainees should always consider the qualification of a reviewer.
* Losses in Tests
* Losses in Reviews
   
   
==Aufwandsverteilung==
==Expenses==
 
This evaluation criterion shows the expenses of each single phase(Specification, Design, Code, Test, Manual).


Dieses Bewertungskriterium zeigt die Verteilung des Aufwands über die Phasen Spezifikation, Entwurf, Codierung, Test und Handbucherstellung. >> [[zum Diagramm]]


   
   
==Autoren der Dokumente==
==Authors of Documents==


Diese Auswertung soll prüfen, ob der Spieler für die einzelnen Phasen die richtigen Mitarbeiter eingesetzt hat. Zur Verfügung stehen folgende Auswertungen:
This evaluation should check if trainees have used the proper developers for the different phases.
The following evaluation options are available:


* Autor/Autoren der Spezifikation
* Author / authors of  Specification
* Autor/Autoren des Systemdesigns >> [[zum Diagramm]]
* Author / authors of  System Design
* Autor/Autoren des Moduldesigns
* Author / authors of Module Design
* Autor/Autoren des Codes
* Author / authors of the Code
* Autor/Autoren des Handbuchs
* Author / authors of the Manuals


[[de:Bewertungskriterien]]
[[en:Evaluation Criteria]]
[[Category:Tutorial]]
[[Category:Tutorial]]
__NOTOC__
__NOTOC__
__NOEDITSECTION__
__NOEDITSECTION__

Latest revision as of 15:48, 13 August 2013

Objectives

The following objectives can be evaluated and retrieved:

  • Project duration
  • Budget
  • AFPs realised in the code as a percentage
  • Errors per KLOC
  • AFPs realised in the manuals as a percentage
  • Errors per page in the manuals


Objectives are the most important evaluation criteria. At the end of a simulation run, trainees want to know if they have managed the project within the budget, in time and if they have achieved the AFPs required for the code and manuals. The evaluation component provides a textual description for every objective.


>> Back to: Classification of the Evaluation Criteria


Completeness of Documents

This criterion gives an overview of the completeness of the documents(specification, system design, modul design, code, manuals) and is presented to trainees in the form of a diagram.


Remaining Errors in Documents

Another important evaluation criterion gives an overview, how many errors are still left in the documents. You can distinguish the following evaluations:

  • Remaining errors in Documents
  • Remaining errors in the Specification
  • Remaining errors in the System Design
  • Remaining errors in the Module Design
  • Remaining errors in the Code
  • Remaining errors in the Manuals

>> Back to: Classification of the Evaluation Criteria


Efficiency of Reviews or Tests

This criterion relates the effort of reviews or tests, the errors found and the effort to correct these errors. These diagrams show at a glance, whether a review or test was performed efficiently or not.

  • Efficiency of the Specification Reviews
  • Efficiency of the System Design Reviews
  • Efficiency of the Module Design Reviews
  • Efficiency of Code Reviews
  • Efficiency of Manual Reviews
  • Efficiency of Module Tests
  • Efficiency of System Testing
  • Efficiency of Integration Tests


Effectiveness of Reviews

This evaluation criterion relates to the errors still remaining in the documents located during reviews. Thereby, it can be determined if trainees have employed the proper reviewers.

  • Effectiveness of Specification Reviews
  • Effectiveness of System Design Reviews
  • Effectiveness of Modul Design Reviews
  • Effectiveness of Code Reviews
  • Effectiveness of Manual Reviews


>> Back to: Classification of the Evaluation Criteria


Losses by Reviews or Tests

This evaluation criterion shows the number of AFPs, which were lost during reviews and tests. This loss can be caused by a bad choice of reviewers.Therefore, the trainees should always consider the qualification of a reviewer.

  • Losses in Tests
  • Losses in Reviews


Expenses

This evaluation criterion shows the expenses of each single phase(Specification, Design, Code, Test, Manual).



Authors of Documents

This evaluation should check if trainees have used the proper developers for the different phases. The following evaluation options are available:

  • Author / authors of Specification
  • Author / authors of System Design
  • Author / authors of Module Design
  • Author / authors of the Code
  • Author / authors of the Manuals