spark-submit
imprime la plupart de sa sortie sur STDERR
Pour rediriger toute la sortie vers un seul fichier, vous pouvez utiliser :
spark-submit something.py > results.txt 2>&1
Ou
spark-submit something.py &> results.txt
Si vous exécutez Spark-Submit sur un cluster, les journaux sont stockés avec l'ID d'application. Vous pouvez voir les journaux une fois l'application terminée.
yarn logs --applicationId <your applicationId> > myfile.txt
Devrait vous récupérer le journal de votre travail
L'applicationId de votre tâche est donnée lorsque vous soumettez la tâche Spark. Vous pourrez voir cela dans la console où vous soumettez ou à partir de l'interface utilisateur Hadoop.