ISSN: 2165- 7866
Seethalakshmi V, Govindasamy V et Akila V
Une énorme quantité d'informations (informations dans l'unité de l'exaoctet ou du zettaoctet) est appelée Big Data. Quantifier une telle quantité de données et les stocker électroniquement n'est pas facile. Le système Hadoop est utilisé pour gérer ces grands ensembles de données. Pour collecter le Big Data en fonction de la demande, le programme Map Reduce est utilisé. Afin d'obtenir de meilleures performances, le Big Data nécessite une planification appropriée. Pour réduire la famine et augmenter l'utilisation des ressources et également pour attribuer les tâches aux ressources disponibles, la technique de planification est utilisée. Les performances peuvent être augmentées en implémentant des contraintes de délai sur les tâches. L'objectif de l'article est d'étudier et d'analyser divers algorithmes de planification pour de meilleures performances.