iemodel trainAndevaluate model
La commande iemodel trainAndevaluate model évalue et forme un nouveau modèle, ainsi que d’un modèle existant. S’il s’agit d’un modèle existant, vous devez le remplacer par le modèle récemment formé à l’aide de « true » pour l'argument--u de la commande.
Cette commande appelle votre fichier d'options de formation et fournit un fichier de sortie facultatif avec les résultats de l'évaluation, si vous décidez de produire ce fichier.
Utilisation
iemodel trainAndevaluate model--ftrainingOptionsFile--utrueOrFalse--ooutputFileName--ccategoryCount--dtrueOrfalseObligatoire | Argument | Description |
---|---|---|
Oui | --f trainingOptionsFile | Indique le nom et l'emplacement du fichier d'options de formation utilisé pour former le modèle. Les chemins de répertoire que vous indiquez ici sont relatifs à l'emplacement dans lequel vous exécutez l'utilitaire Administration. |
Non | --u overWriteIfExists | Spécifie s'il faut remplacer le modèle formé existant (le cas échéant).
|
Non | --o outputFileName | Indique le nom et l'emplacement du fichier de sortie qui va stocker les résultats de l'évaluation. |
Non | --c categoryCount | Spécifie le nombre de catégories du modèle ; doit être une valeur numérique. Remarque : S'applique uniquement au modèle Text Classification.
|
Non | --d trueOrfalse | Spécifie s’il faut afficher une table avec une analyse détaillée des entités ; la valeur doit être true ou false , comme suit :
false . La table Résultats d’évaluation du modèle, et Matrice de confusion avec ses colonnes, comme décrit ci-dessous, affichent les nombres par entité. Remarque : Si la commande est exécutée sans cet argument, ou avec la valeur d'argument false, la table Résultats d’évaluation du modèle et Matrice de confusion ne sont pas affichées. Seules les Statistiques d’évaluation du modèle sont affichées.
|
Sortie
- Statistiques d’évaluation du modèle
- L'exécution de cette commande affiche ces statistiques d’évaluation sous forme de tableau :
- Précision : il s’agit d’une mesure de l'exactitude. La précision définit la proportion d’uplets correctement identifiés.
- Rappel : il s’agit d’une mesure de l’exhaustivité des résultats. Rappel peut être défini sous forme de fraction d’instances pertinentes récupérées.
- Mesure F1 : il s’agit de la mesure de la précision d’un test. Le calcul du score F1 prend en compte à la fois la précision et le rappel du test. Il peut être interprété comme la moyenne pondérée de la précision et du rappel, où un score F1 de valeur 1 est le meilleur score et un score F1 de valeur 0 est le pire score.
- Exactitude : cette option mesure le degré d’exactitude des résultats. Elle définit la proximité de la valeur mesurée par rapport à la valeur connue.
- Résultats d’évaluation du modèle
- Si la commande est exécutée avec l’argument
--d true
, le nombre de correspondances de toutes les entités est affiché dans un tableau. Les colonnes de la table sont les suivantes :- Input Count
- Nombre d’occurrences de l’entité dans les données d’entrée.
- Mismatch Count
- Nombre de fois où la correspondance d'entités a échoué.
- Match Count
- Nombre de fois où la correspondance d'entités a réussi.
- Matrice de confusion
- La Matrice de Confusion (illustrée ci-dessous) permet de visualiser les performances d'un algorithme. Elle illustre les performances d’un modèle de classification.
Exemple
Cet exemple :
iemodel trainAndevaluate model --f C:\Spectrum\IEModels\ModelTrainingFile --u true --o C:\Spectrum\IEModels\MyModelTestOutput --c 4 --d true- Utilise un fichier d'options de formation appelé « ModelTrainingFile » qui se trouve dans « C:\Spectrum\IEModels ».
- Remplace tout fichier de sortie existant portant le même nom.
- Enregistre la sortie de l'évaluation dans un fichier appelé « MyModelTestOutput ».
- Indique un nombre de catégories 4.
- Indique qu’une analyse détaillée de l’évaluation est requise.