Oto - UQAM

publicité
Oto
Un outil générique et extensible pour
corriger les travaux de programmation
Guy Tremblay et Frédéric Guérin
Département d’informatique, UQAM
(Université du Québec à Montréal)
ESILV, 13 décembre 2005
Plan de la présentation
1. Pourquoi automatiser la correction des travaux de
programmation?
2. Quels sont quelques-uns des outils de correction
existants?
3. L’outil Oto :
•
•
•
3.1 Comment l’utilise-t-on?
3.2 Comment peut-il être configuré et étendu?
3.3 Comment est-il mis en œuvre?
4. Conclusion et travaux futurs
2
1. Pourquoi automatiser
la
correction des travaux de
programmation?
Étapes typiques d’un TP
E
nseignant
et sesassistants
É
tudiants
1
C
om
poserT
P
2
D
istribuerT
P
3
FaireT
P
6
T
raiter
résultats
5
C
orrigerT
P
4
R
endreT
P
4
Correction d’un TP
• Divers aspects doivent être traités et corrigés
– Stylistiques :
• Bien présenté et bien indenté ?
• Commentaires présents et pertinents ?
• Identificateurs bien choisis ?
– Structuraux :
• Cohésion forte? Couplage faible?
• Bonne dissimulation d’information?
– Fonctionnels :
• Ça compile ?
• Ça marche correctement ?
• Imaginez 50, 100, 150 copies à corriger !!!
• Long, répétitif, ennuyant, résultats non-uniformes.
5
Remise des TP par les étudiants
• Dans certains cours, la remise des travaux
se fait encore avec des disquettes (sic)
• Feedback limité ou venant tardivement
– Le travail est corrigé par des auxiliaires
d’enseignement, sans beaucoup d’expérience;
– Le nombre élevé copies fait que le délai de
correction est parfois long;
– Si l’étudiant a mal compris l’énoncé,
impossible pour lui de se reprendre.
6
2. Quelques outils
de correction
existants
(Quelques sources d’inspiration)
Les trois principales
fonctionnalités
• Gestion des travaux
– Réception (électronique) des travaux
– Calcul des notes
– Transmission des résultats
• Évaluation de la justesse des résultats
• Évaluation de la « qualité » du code
8
TRY (Rochester Institute of Technology, 1989)
• Permet aux étudiants :
– De faire vérifier de façon préliminaire leur travail.
– De remettre leurs programmes électroniquement.
• Les vérifications se font deux façons possibles:
– Par comparaison des résultats textuels produits par le
programme (modulo les espaces blancs) avec les résultats
attendus;
– À l’aide de routines de sortie (définies par l’enseignant)
que les programmes des étudiants doivent appeler.
9
Autres outils semblables
• Curator (Virginia Polytechnic Institute, 1997)
– Support pour la soumission électronique.
– Tests basés sur la comparaison des entrées-sorties textuelles.
• BOSS (Univ. of Warwick, 1997-1999)
– Soumission électronique.
– Tests basés sur la comparaison des entrées-sorties textuelles.
• BOSS2 (Univ. of Warwick, 2000)
– Soumission électronique.
– Tests basés sur la comparaison d’objets (Java) produits par le programme.
10
ASSYST (University of Liverpool, 1997)
• Peut évaluer divers aspects, dont:
– Temps d’exécution.
– Complexité structurale (McCabe).
• Mais
– Tests basés sur la comparaison des E/S textuelles:
• Les résultats attendus sont spécifiés par une grammaire.
– Correction étoffée, mais figée.
– Ensemble fixe de langages : Ada, C/C++ ou Java.
11
OCETJ (UQAM et Cégep du Vieux-Montréal, 2002)
• OCETJ = Outil de Correction et d‘Évaluation de Travaux
Java.
• Objectifs clés =
– Fournir du feedback aux étudiants avant la remise finale.
– Éviter les tests basés sur la comparaison des E/S textuelles.
• Donc, OCETJ fournit du support pour:
– Vérification préliminaire des travaux par les étudiants.
– Remise électronique des travaux par les étudiants.
– Correction par l’enseignant d’un ensemble de travaux.
12
JUnit
• Popularisé par XP (eXtreme Programming).
• Utilisé pour tester des programmes et des
classes Java:
– Au niveau des méthodes et des classes;
– Pendant le développement du programme;
– En utilisant des assertions.
13
Tests JUnit
• Les tests JUnits sont organisés de façon
hiérarchique:
– Classe de tests = collection de suites de tests;
– Suite de tests = collection de méthodes de tests;
– Méthode de test = une ou plusieurs assertions.
• Lorsqu’un test échoue, JUnit indique:
– Quelles assertions ont échoué et dans quels tests ?
– Pourquoi le test a échoué (si documenté par le testeur)?
14
Exemple JUnit : classe pour Compte bancaire
class Compte {
private Client c;
private int s;
public Compte( Client cl, int soldeInit )
{ c = cl; s = soldeInit; }
public int solde() { return( s ); }
public Client client() { return( c ); }
public void deposer( int montant ) { s += montant; }
public void retirer( int montant ) { s += montant; }
}
15
Exemple JUnit : classe de tests
public class CompteTest extends TestCase {
public CompteTest( String nom ) { super(nom);
}
public void testSolde() {
Compte c = new Compte( new Client("Joe"), 100 );
assertTrue( c.solde() == 100 );
}
public void testTransfert() {
Compte c = new Compte( new Customer("Joe"), 100 );
int soldeInit = c.solde();
c.deposer( 50 );
c.retirer( 50 );
assertEquals( soldeInit, c.solde() );
}
16
Exemple JUnit : classe de tests (suite)
// Génération de la suite et de la classe de tests.
public static Test suite() {
return new TestSuite(CompteTest.class);
}
public static void main( String[] args ) {
junit.textui.TestRunner.run( suite() );
}
}
17
Exemple JUnit : résultats d’exécution
There was 1 failure:
1) testTransfert(CompteTest)
junit.framework.AssertionFailedError:
expected:<100> but was:<200>
at CompteTest.testTransfert(CompteTest.java:19)
at CompteTest.main(CompteTest.java:27)
FAILURES!!!
Tests run: 2,
Failures: 1,
Errors: 0
18
Relations entre OCETJ et JUnit
• Chaque TP est associé à une paire de tests JUnit:
– Un test public, utilisé par les étudiants : vérification
préliminaire (sommaire) d’un travail (feedback avant remise).
– Un test privé, utilisé par l’enseignant : correction finale
(détaillée) des travaux remis.
19
Faiblesses d’OCETJ
•
•
Support pour un unique langage : Java
Processus fixe de correction :
1. Compilation avec javac.
2. Vérification et correction avec junit.
•
Mise en œuvre liée au contexte spécifique du
Cégep du Vieux-Montréal:
–
Réseau (Novell) privé pour dossiers de remise.
20
3. Oto
Utilisation, scripts et modules
Oto (UQAM, 2005)
• « Successeur » d’OCETJ
• Caractéristiques clés :
– Correction sur mesure (programmable, adaptable);
– Indépendant du langage (adaptable à divers langages);
– Peut être étendu pour traiter des aspects variés:
• Qualités stylistiques, structurelles, fonctionnelles, etc.
• Deux mécanismes de configuration et extension :
– 3.1 Scripts de correction.
– 3.2 Modules d’extension.
22
Utilisation typique d’Oto
Script et
tests publics
1.
creer_boite
Enseignant
2.
activer_eval
--public
Rapport
Étudiant
3.
verifier_tp
TP
6.
detruire_boite
Script et
tests privés
7.
activer_eval
Rapport
8.
corriger_groupe
Les TP
9.
desact ive r_ eva l
10 .
desact ive r_ eval
--public
5.
prendre_tp
Délai
écoulé
4.
rendre_tp
23
3.1 Scripts Oto
• Rôle = Décrire les différentes tâches
requises pour évaluer un travail.
• Semblable à un shell script ou makefile:
– Déclarations de constantes et fichiers.
– Déclarations de tâches à effectuer.
– Annotations décrivant le contenu du rapport de
vérification.
– Expressions pour calculs divers (en Ruby).
24
Scripts Oto : grammaire
• scriptOto ::= (declaration | assertion)* {sortie}
• declaration ::= {<<Description>>} {visibilite} declarationNue
• assertion
::= 'assurer' Expression 'sinon' Expression
• sortie
::= 'sortir' '{' ID (',' ID)+ '}‘
• visibilite ::= { '+' | '-' }
• declarationNue ::= variable | fichier | tache
• variable ::=
• fichier ::=
• tache
::=
ID
ID
ID
'=' Expression
'=?' Expression
'::' ID '{' {parametres} '}'
• parametres ::= variable (',' variable )+
25
Script Oto: exemple
tp =? Compte.java
test = CompteTest
compilation :: javac { fichiers = $tp }
<<Vérification du bon fonctionnement>>
+ verification :: junit { classe = $test }
<<Nombre d'erreurs>>
nbErreurs = $verification.nb_erreurs
sortir { nbErreurs }
26
Rapport de vérification
tp =? Compte.java
test = CompteTest
compilation :: javac { fichiers = $tp }
SORTIES
¯¯¯¯¯¯¯
Nombre d'erreurs = 1
<<Vérification du bon fonctionnement>>
+ verification :: junit { classe = $test }
<<Nombre d'erreurs>>
nbErreurs = $verification.nb_erreurs
ETAPES
¯¯¯¯¯¯
sortir { nbErreurs }
Vérification du bon fonctionnement:
Nombre
Nombre
Nombre
Nombre
de tests:
d'erreurs
d'erreurs
d'erreurs
2
au total: 1
assertives: 1
exceptionnelles: 0
Resultats detailles:
27
... ( Sortie textuelle de la commande JUnit )
3.2 Modules d’extension
• Une tâche dans un script = module d’extension.
• Un module joue un rôle de proxy entre Oto et un
programme externe
– java, javac, JUnit, gcc, etc.
• Un module est décrit par une interface:
– Entrées requises;
– Sorties produites.
• Les modules (et Oto) sont écrits en Ruby.
28
Modules possibles
• Pour traiter divers langages : Java, C/C++, etc.
– Compilation : javac, gcc, etc.
– Vérification : JUnit, CUnit, etc.
• Pour traiter divers aspects:
–
–
–
–
–
Commentaires, dénominations, indentations, etc.
Normes de programmation, public vs privé, etc.
Complexité : McCabe, temps, mémoire, etc.
Détection de plagiat.
Etc.
29
Modules déjà existants
• Contexte initial d’utilisation = Cours d’introduction à la programmation Java (1ère année).
• Modules déjà disponibles:
– javac : Compilation d’un programme Java.
– junit : Exécution d’un test JUnit.
– tester_filtre: Exécution d’un test système (basé
sur diff, donc E/S textuelles) appliqué à main.
• Module en cours de développement:
– javaStyle: Vérification du style de programmation.
30
3.3 Mise en œuvre : architecture
Oto et son environnement
Utilisateur
Interface
conviviale
Traducteur
Oto
Données
Programmes
externes
Principal Oto
Compilateur
Java
Script
Oto
Image
Oto
TP
JUnit
Classe
TP
Test
JUnit
Rapport
Oto
31
Mise en œuvre : architecture (suite)
P r in c ip a l O t o
N o ya u O to
C om m andes
C o n c e p ts
( a d m in is t r a t io n )
M o te u r
( in t e r p r é t e u r )
M o d u le s O t o
( e x t e n s io n s )
C o n te xte
d 'e x é c u t io n
U t ils
D onnées
P ro g ra m m e s
e xte rn e s
32
Mise en œuvre : déploiement
physique
Oto (Serveur Unix)
Terminal
SSH, SFTP
Plug-in Oto
pour BlueJ
Interface Web
(Projet en cours)
33
Mise en œuvre : principales
difficultés
• Mise en œuvre en Ruby sous Unix (Solaris).
• Principales difficultés:
– Intégrité et confidentialité des données;
– Chargement des modules d’extension;
– Tests du système (avec Test/Unit en Ruby);
– Traitement des erreurs (plusieurs niveaux).
34
4. Conclusion et travaux futurs
Contributions
• Oto est un outil de correction qui est
– Générique et configurable
• Par l’enseignant
• Grâce aux scripts Oto
– Pour une correction sur mesure
– Extensible
• Par l’enseignant ou l’expert
• Grâce aux modules d’extension
– À de nouveaux langages
– À de nouveaux aspects de correction
36
Travaux en cours et futurs
• Tester Oto dans un cadre réel
– Labos (notés) du premier cours de Java
• Développer de nouveaux modules
– Métriques de « qualité » (structure, style)
– Autres langages (par ex. assembleur)
– Détection de plagiat
• Développer une interface Web conviviale
– Interface actuelle
• Enseignants = ligne de commande Unix
• Étudiants = plug-in BlueJ (outil pour l’apprentissage de Java)
37
Questions ?
• Pour plus d’informations
– Site web:
• http://www.info2.uqam.ca/~oto/
– Courriel:
• [email protected]
38
Téléchargement