Lorsque vous programmez pour le web, il est vital de surveiller quotidiennement vos fichiers logs (ou journaux) à la recherche d'anomalies.
J'avoue au début avoir été décontenancé par ce que j'y voyais, jusqu'à ce que je comprenne que ma logique de programmation n'avait rien à voir avec celle d'un utilisateur lambda mais aussi et surtout avec celle des spammeurs et autres personnes à la recherche de failles dans vos scripts...
Le monitoring permet :
- d'améliorer et corriger votre code.
- de trouver et corriger les erreurs de type warning.
- de trouver et corriger les erreurs 404.
- de trouver des vulnérabilités et failles.
- de traquer les tentatives de fraude et d'adapter votre code en conséquence.
- ...
Certaines données récoltées ne doivent pas être toujours prises au pied de la lettre. Il arrive que robots d'indexation (crawlers) ou que des personnes malintentionnées utilisent la technique du spoofing afin de masquer la référence du user-agent.
En analysant mes fichiers logs, je me suis aussi rendu compte que certaines entête http normalement présentes et retournées par le système ne le sont pas, ce qui peut provoquer des erreurs de scripts et donner des indications à un éventuel pirate.