Ce dépôt contient une liste de noms de domaine d’organismes remplissant des missions de service public.
Le dossier sources/
contient les domaines connus, qu’ils soient
accessibles en HTTP ou non.
Les ajouts et suppressions s’y font soit manuellement soit via des scripts de collecte (voir Contribution).
Le fichier urls.txt
est une liste d’URLs basée sur les domaines du
dossier sources/
et répondant 200 OK
en HTTP ou en HTTPS
éventuellement après une redirection sur le même domaine
(typiquement l’ajout d’un /fr/
).
Les ajouts et suppressions s’y font automatiquement, il n’est pas nécessaire de modifier ce fichier manuellement.
Attention, cette liste étant basée sur des noms de domaines d’organismes publics, certaines pages d’organismes publics comme https://sites.google.com/site/mairiedemacey/ ne peuvent pas y figurer.
La liste des domaines qui sont dans le dossier sources/
mais ne sont
pas dans le fichier urls.txt
sont inaccessibles en HTTP ou HTTPS
(n’ont pas d’adresse IP, ne répondent pas en HTTP, répondent autre
chose que 200 en HTTP…).
Pour obtenir cette liste vous pouvez utiliser :
export LC_COLLATE=C
comm -13 <(cut -d/ -f3 urls.txt | sort) <(sort sources/*.txt)
Il est possible de savoir ce qui cause l’inaccessibilité en regardant
dans domains.csv
:
$ head -n 1 domains.csv; grep mairie-valognes.fr domains.csv
name,http_status,https_status
mairie-valognes.fr,301 Moved Permanently https://www.valognes.fr/,[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: certificate has expired (_ssl.c:997)
Ici on apprend qu’en HTTP le domaine redirige en HTTPS, et qu’en HTTPS le certificat est expiré.
Ajoutez le ou les domaines que vous connaissez dans un des fichiers du
dossier sources/
.
Pour trier le fichier que vous venez de modifier, vous pouvez utiliser :
python scripts/sort.py sources/*.txt
Pour vérifier la cohérence des fichiers :
python scripts/check.py
Et éventuellement pour consolider dans urls.txt
:
python scripts/http_checker.py --check-new
L’action github refresh
exécute périodiquement :
python scripts/http_checker.py --limit 1000
Cette commande vérifie les 1000
domaines dont la vérification est la
plus ancienne. Il est possible de lancer cette commande à la main.
Une autre action github, fast-reinsert
re-vérifie les domaines
récement retirés d’urls.txt
pour leur donner rapidement une seconde
chance.
Le dossier scripts/
contient plusieurs scripts de collecte :
import-base-nationale-sur-les-intercommunalites.py
import-from-ct-logs.py
Vous pouvez rédiger de nouveaux scripts de collecte, ils ne sont pas exécutés automatiquement.
Sources de confiance est une extension de navigateur qui permet d’identifier instantanément les résultats issus du secteur public dans son moteur de recherche habituel. Une initiative de l’association Villes Internet.
Audit d’accessibilité avec Asqatasun
L’association ADULLACT souhaite établir des statistiques concernant le respect du RGAA par les sites des organismes publics.
Audits techniques variés avec DashLord
DashLord est né à la Fabrique des ministères sociaux pour répondre aux besoins d’évaluation et de mise en œuvre des bonnes pratiques de développement web.
2020-2021, DINUM et les contributrices et contributeurs du dépôt.
Le contenu de ce dépôt est sous licence Ouverte 2.0.