Gnu/Linux Magazine HS 111

Débogage

Outils & méthodes pour traquer les erreurs

Plus de détails

14,90 € TTC

 
SOMMAIRE :

Actus

p.06 Côté livres...
p.08 Polynote, une alternative crédible à Jupyter ?

Bas Niveau

p.14 Comparaison de deux méthodes d’isolation CPU

Dossier : Débogage

p.41 Introduction au dossier
p.42 Mise au point à distance avec GDB
p.58 Déboguer un exécutable Java
p.84 Le point sur le débogage en Python
p.94 Débugage facile avec Sentry
p.112 Débogage JavaScript côté client

Outils

p.122 LibreOffice Writer : quels outils pour la traduction et la composition conditionnelle ?

ÉDITO :

Alors que je conduisais ma voiture et que je me retrouvais bloqué dans les embouteillages, une idée d’article me vint à l’esprit : et si j’étudiais l’évolution des conditions de circulations sur une dizaine d’années sur une route précise (celle que j’emprunte) ? Ces données pourraient être ensuite corrélées avec l’augmentation de la population sur la zone (sans modification de l’infrastructure routière existante bien entendu : il semblerait que bien trop peu de maires se soient frottés à Sim City...). L’idée était amusante, l’analyse des résultats m’intéressait et cela permettait de travailler sur de véritables données. Une fois rentré chez moi je me mis donc en quête de ses fameuses données.

Google Maps fournit une analyse du trafic en temps réel, mais bien entendu, comme tout ce qui concerne des données se monnaye, Google ne vous fournira pas l’historique du trafic. Pour cela, il faudrait lancer un programme de collecte quotidienne des données... et écrire l’article dans 10 ans ! Cette solution est donc à oublier.

Qu’à cela ne tienne, le mouvement de l’Open Data (données ouvertes) ayant pris de l’ampleur, je me dis qu’il y avait fort à parier que des données soient disponibles sur le site data.gouv.fr. En effectuant une recherche sur « trafic grandes villes », j’obtins un lien « Données de Trafic de grandes villes » qui me parut prometteur. Un fichier XML est proposé par Bison Futé, un service de l’État, pour quelques grandes villes dont Marseille, Lyon et Bordeaux (mais pas Paris...). Je cliquai donc sur le lien XML dont l’URL était http://www.bison-fute.equipement.gouv.fr/diffusions/datex2/base/marseille_mvs/TraficStatus_cigt_marseille_maintenant.xml, ce qui permettait d’en déduire que les données seraient ciblées sur Marseille. En fait, une redirection me fit aboutir sur la page d’accueil du site https://www.bison-fute.gouv.fr/index.html. Heureusement, j’avisai rapidement une entrée du menu en haut de page : Accès aux données. En fait, la page cible n’a d’accès aux données que le nom. On y apprend qu’effectivement les données de l’État sont « librement » accessibles sous licence opendata.fr, mais que pour y accéder il faut demander un identifiant et un mot de passe à diffusion-numerique@info-routiere.gouv.fr. J’avoue être resté dubitatif : des « open » data, accessibles « librement », mais pour lesquelles il faut une authentification ? Quelque chose a dû m’échapper...

« Les données ouvertes peuvent-elles être fermées ? ». Ce sera le sujet de réflexion philosophique du jour. Sinon, vous pouvez bien entendu lire votre GNU/Linux Magazine !

Tristan Colombo

A propos du magazine
Logo

Le magazine de référence technique pour les développeurs et les administrateurs sur systèmes UNIX, open source & embarqué !

Pionnier dans son domaine, GNU/Linux Magazine est depuis 1998 une véritable référence technique pour pour tous les développeurs et administrateurs sur systèmes Unix, open source et embarqués. Le premier magazine français 100 % Linux se démarque grâce à une ligne rédactionnelle résolument technique et pédagogique. Chaque mois de nombreux thèmes sont abordés permettant de toucher à différents domaines de l’informatique, que ce soit de l’intelligence artificielle, de la sécurité, de l’embarqué, du système/réseau ou du hack.

Nouveaux produits