iemodel evaluate model

La commande iemodel evaluate évalue un modèle du module Information Extraction précédemment formé.

Utilisation

iemodel evaluate model --n modelName --t testFileName --o outputFileName --c categoryCount --d trueOrfalse
Obligatoire Argument Description
Oui --n modelName Indique le nom et l'emplacement du modèle à évaluer. Les chemins de répertoire que vous indiquez ici sont relatifs à l'emplacement dans lequel vous exécutez l'utilitaire Administration.
Oui --t testFileName Indique le nom et l'emplacement du fichier de test utilisé pour évaluer le modèle.
Non --o outputFileName Indique le nom et l'emplacement du fichier de sortie qui va stocker les résultats de l'évaluation.
Non --c categoryCount Spécifie le nombre de catégories du modèle ; doit être une valeur numérique.
Remarque : S'applique uniquement au modèle Text Classification.
Non --d trueOrfalse Spécifie s’il faut afficher une table avec une analyse détaillée des entités ; la valeur doit être true ou false, comme suit :
true
Les résultats d’évaluation détaillés sont requis.
false
Les résultats d’évaluation détaillés ne sont pas requis.
La valeur par défaut est false.

La table Résultats d’évaluation du modèle, et Matrice de confusion avec ses colonnes, comme décrit ci-dessous, affichent les nombres par entité.

Remarque : Si la commande est exécutée sans cet argument, ou avec la valeur d'argument false, la table Résultats d’évaluation du modèle et Matrice de confusion ne sont pas affichées. Seules les Statistiques d’évaluation du modèle sont affichées.

Sortie

Statistiques d’évaluation du modèle
L'exécution de cette commande affiche ces statistiques d’évaluation sous forme de tableau :
  • Précision : il s’agit d’une mesure de l'exactitude. La précision définit la proportion d’uplets correctement identifiés.
  • Rappel : il s’agit d’une mesure de l’exhaustivité des résultats. Rappel peut être défini sous forme de fraction d’instances pertinentes récupérées.
  • Mesure F1 : il s’agit de la mesure de la précision d’un test. Le calcul du score F1 prend en compte à la fois la précision et le rappel du test. Il peut être interprété comme la moyenne pondérée de la précision et du rappel, où un score F1 de valeur 1 est le meilleur score et un score F1 de valeur 0 est le pire score.
  • Exactitude : cette option mesure le degré d’exactitude des résultats. Elle définit la proximité de la valeur mesurée par rapport à la valeur connue.
Résultats d’évaluation du modèle
Si la commande est exécutée avec l’argument --d true, le nombre de correspondances de toutes les entités est affiché dans un tableau. Les colonnes de la table sont les suivantes :
Input Count
Nombre d’occurrences de l’entité dans les données d’entrée.
Mismatch Count
Nombre de fois où la correspondance d'entités a échoué.
Match Count
Nombre de fois où la correspondance d'entités a réussi.
Matrice de confusion
La Matrice de Confusion (illustrée ci-dessous) permet de visualiser les performances d'un algorithme. Elle illustre les performances d’un modèle de classification.
La colonne représente les instances d'une classe prédite, tandis que la ligne représente les instances d'une classe réelle. Certains des termes associés à la matrice de confusion sont les suivants :
Réel
Nombre d’occurrences de l’entité dans la classe réelle.
Prédit
Nombre d’occurrences de l’entité dans la classe prédite.
TP
True Positive : Nombre d’occurrences de l’entité prédites comme positives et, en réalité, également vraies.
TN
True Negative : Nombre d’occurrences de l’entité prédites comme négatives mais, en réalité, vraies.
FP
False Positive : Nombre d’occurrences de l’entité prédites comme positives mais, en réalité, fausses.
FN
False Negative : Nombre d’occurrences de l’entité prédites comme négatives et, en réalité, également fausses.

Exemple

Cet exemple :
  • Évalue le modèle appelé « MyModel ».
  • Utilise un fichier de test appelé « ModelTestFile » au même emplacement.
  • Enregistre la sortie de l'évaluation dans un fichier appelé « MyModelTestOutput ».
  • Indique un nombre de catégories 4.
  • Indique qu’une analyse détaillée de l’évaluation est requise.
iemodel evaluate model --n MyModel --t C:\Spectrum\IEModels\ModelTestFile --o C:\Spectrum\IEModels\MyModelTestOutput --c 4 --d true