C’est un sujet qui m’a souvent interpellé ( http://niko.bokay.io/categories/ego/posts/2015/07/14/echangeons ).
J’avais pensé pour ma part à un service centralisé avec un robot qui crawlerait les sites (tout en respectant les robots.txt) et qui présenterait une page ou un flux RSS par domaine, montrant les liens pointant vers ce domaine.
Contrairement à un système de notification, c’est une solution qui reste non intrusive.

J’ai finalement abandonné l’idée du fait que crawler le web entier n’est pas viable économiquement, mais je pense que l’idée est viable si on part d’une démarche volontaire de vouloir faire partie d’un « réseau ».

Qu’en pensez-vous ?

C’est sur cette idée que j’ai commencé à bricoler ceci avec Elixir/Erlang :
https://github.com/bokay/sentinelle