Cluster Process Discovery Analyzer
La détection automatique des processus à l'aide d'algorithmes de machine learning et l'augmentation du flux de données sur Process Discovery requièrent une plus grande puissance de traitement. Afin de faciliter le besoin d'un traitement des données efficace et performant, Process Discovery fournit une configuration en cluster d'Analyzer pour une analyse performante des Big data.
Le clusterProcess Discovery Analyzer est basé sur la technologie Apache Spark. Un cluster est un cadre de calcul distribué composé de plusieurs ordinateurs agissant comme des nœuds de cluster qui exécutent l'application Process Discovery Analyzer. Le cluster Spark se compose d'un nœud principal et d'un ou plusieurs nœuds de travailleur. La même application Analyzer est installée sur un nœud principal et sur chaque nœud de travailleur. Le nœud principal orchestre le travail d'un cluster et participe au traitement des données en exécutant le processus travailleur d'Analyzer. Les nœuds de travailleurs exécutent des processus de travailleurs Analyzer pour analyser les données. Vous pouvez mélanger les nœuds du cluster d'analyseurs fonctionnant sur différents systèmes d'exploitation. Le nœud principal est attribué en spécifiant son adresse dans Management Console.
La technologie du cluster Apache Spark implique que vous utilisiez des ordinateurs similaires en termes de puissance de traitement et de quantité de mémoire aux nœuds de travail. Si vous utilisez des ordinateurs avec une grande différence de RAM et de puissance de traitement que vous voulez transformer en nœuds de cluster, utilisez des conteneurs (par exemple, le conteneur Docker) sur les ordinateurs avec une grande quantité de RAM pour exécuter Analyzer. De cette façon, vous pouvez créer plusieurs groupes ayant des caractéristiques similaires à celles des nœuds moins puissants.
Nous recommandons d'utiliser l'ordinateur le plus puissant parmi les nœuds comme nœud principal pour équilibrer la charge plus lourde.
Le nombre minimum (par défaut) de nœuds est d'un nœud. En fonction de la quantité de données que Process Discovery Agents collecte et de vos exigences en matière de temps d'analyse, vous pouvez ajouter autant de nœuds de clusters que nécessaire. Par exemple, si vous voulez réduire le temps de traitement des données de l'analyseur, ajoutez un nœud au cluster et vérifiez à nouveau le temps de traitement. Le délai de traitement est présenté dans le rapport État de la vue Process Discovery dans Vues Kofax Analytics for RPA.
Notez que le fait d'ajouter deux fois plus de nœuds ne multiplie pas par deux la diminution du temps de traitement, car un certain temps est mis à contribution pour coordonner les nœuds et la transmission des données entre les nœuds. Par conséquent, la réduction de la latence du réseau augmente les performances du cluster. De plus, il est plus efficace d'ajouter un serveur puissant avec une grande quantité de RAM comme nœud au lieu d'en ajouter plusieurs moins puissants. Comme Analyzer utilise toute la puissance de traitement disponible du système, nous recommandons d'utiliser des ordinateurs dédiés comme nœuds dans le cluster.
- Définition du cluster Process Discovery Analyzer
-
-
Sous Process Discovery Analyzer pour plus d'informations.
sur Management Console, spécifiez tous les paramètres nécessaires, comme l'affectation du nœud principal, le schéma du réseau (facultatif) et d'autres paramètres. Voir -
-
Installez, configurez et démarrez Process Discovery Analyzer sur les ordinateurs que vous souhaitez analyser en tant que nœuds de travailleurs de cluster.
-
Après avoir démarré tous les nœuds travailleurs, installez, configurez et démarrez Process Discovery Analyzer sur un ordinateur qui doit être le nœud principal du cluster Analyzer.
Lorsque vous démarrez des instances de l'application Analyzer sur les nœuds, indiquez l'adresse Management Console où sont définis les paramètres des clusters d'Analyzer. Précisez d'autres paramètres si nécessaire. Voir Process Discovery Analyzer pour plus d'informations.
Une fois que tous les nœuds fonctionnent, vous pouvez ajouter, supprimer et configurer les nœuds de travailleurs selon vos besoins. Les changements sont appliqués lors de la prochaine exécution d'Analyzer.
-
Si l'un des nœuds de travail tombe en panne, la technologie Apache Spark sous-jacente préserve les données et répartit la charge entre les nœuds de travail. Si vous modifiez les paramètres d'Analyzer, redémarrez le nœud principal. Si vous attribuez un autre ordinateur comme nœud principal, redémarrez à la fois le nœud principal actuel et le nœud principal récemment attribué. Imaginons par exemple que votre cluster contient trois nœuds : A, B, et C. A est le nœud principal. Si vous assignez B comme nœud principal, redémarrez A et B.
Si vous rencontrez une erreur de type out-offmemory dans le journal d'Analyzer sur un nœud principal, ouvrez dans le Management Console, augmentez la quantité de mémoire dans le paramètre Mémoire principale (Go) et redémarrez le nœud principal. Voir « Paramètres du cluster » dans le Process Discovery Analyzer pour obtenir plus de détails.
-
- Surveiller les nœuds de clusters
-
Le cluster Apache Spark comprend un outil de surveillance des activités des nœuds. Une fois que vous avez mis en place un cluster dans votre environnement, ouvrez le tableau de bord du nœud principal pour vous assurer que tous les nœuds travailleurs sont actifs. Le tableau de bord contient quelques informations de base sur les applications en cours et terminées ainsi qu'une liste des travailleurs du cluster. Vous pouvez voir les détails de l'application en cliquant sur l'ID d'application dans la liste. Pour ouvrir le tableau de bord du nœud principal dans un navigateur, tapez l'adresse principale suivie du numéro de port spécifié dans l'option Port WebUI principal dans le Management Console. Par exemple :
10.10.0.15:8080
En cliquant sur une ID de travailleur dans la liste, vous pouvez ouvrir le tableau de bord du travailleur. Pour ouvrir le tableau de bord du travailleur directement dans un navigateur, tapez l'adresse du travailleur suivie du numéro de port spécifié dans l'option Port WebUI de worker dans le Management Console. Par exemple :
10.10.0.11:8081
Les journaux des nœuds principal et travailleur résident au même emplacement que le fichier journal de l'analyseur général. Pour localiser le fichier journal dans votre système, consultez la section Fichiers journal dans Process Discovery Analyzer.
Pour obtenir plus d'informations sur le cluster Apache Spark, voir la documentation Apache Spark ici : https://spark.apache.org/.