Catégorie : Sauvegardes

  • Sauve­garde photos, juin 2025

    J’ar­rive enfin à la fin de mes aven­tures de sauve­gardes. J’ai une série de scripts qui récu­père toutes mes données sur un disque, puis un script qui fait de la sauve­garde incré­men­tal.

    Malheu­reu­se­ment arrive ce que je crai­gnais : Le temps de tout boucler j’ai quelque chose qui tombe en panne et qui néces­site que je m’y penche de nouveau.


    Aujourd’­hui nos appa­reils Android synchro­nisent leurs photos avec Google Photos. On s’en sert aussi pour des albums parta­gés entre nous.

    J’uti­li­sais rclone pour récu­pé­rer tout ça en local ensuite.

    Google a malheu­reu­se­ment changé et bridé ses APIs pour Google Photos. Les outils externes comme rclone ne peuvent plus accé­der qu’aux photos qu’ils ont créé eux-mêmes, ce qui perd tout inté­rêt pour de la sauve­garde.

    Il va falloir trou­ver autre chose, soit en utili­sant un outil qui mime les accès web, soit rempla­cer Google Photos par quelque chose de plus perti­nent sur tous nos télé­phones Android.

    Dites-moi si vous avez des idées.

    Note : J’aime beau­coup Nexcloud mais je ne souhaite pas forcé­ment mettre un serveur ouvert sur Inter­net aujourd’­hui chez moi.


    Mes critères :

    • Sauve­garde des photos prises avec les smart­phones Android
    • Ne consomme pas exces­si­ve­ment la batte­rie des smart­phones
    • Possi­bi­lité de sauve­garde incré­men­tale par un script externe
    • Gratuit ou vrai­ment vrai­ment pas cher (en sépa­rant les comptes de la famille)
    • Idéa­le­ment, quelque chose d’open source avec la possi­bi­lité de l’auto-héber­ger un jour (mais pas aujourd’­hui)

    Vous les synchro­ni­sez où vos photos vous ?

  • Sauve­garde distante avec Borg

    J’en suis à la dernière étape de mes sauve­gardes. Le plus long a été de trou­ver ou déve­lop­per des scripts pour rapa­trier toutes mes données d’in­ter­net en local. Ce ne sera jamais fini mais j’ai quand même le prin­ci­pal1.

    Main­te­nant il faut que j’ajoute une copie en ligne histoire que ce ne soit pas que sur mon disque person­nel.

    Outils

    Il y a plein d’ou­tils, Borg est celui qui m’a semblé le plus perti­nent pour mon usage du fait de son écono­mie en bande passante.

    Pour éviter de longues lignes de commandes, je passe par Borg­ma­tic. J’ai un petit jeu de fichiers yaml qui décrivent mes options, mes réper­toires sources et mes réper­toires desti­na­tion.

    Confi­gu­ra­tion

    Je n’ai rien de spéci­fique là dedans si ce n’est ce qui suit :

    • Confi­gu­rer heal­th­checks (nati­ve­ment supporté par borg­ma­tic) pour être averti quand mon script de sauve­garde ne tourne pas (ou mal)
    • Reti­rer des fichiers à sauve­gar­der les node_modules, .DS_Store, les fichiers spéci­fiques .Apple* et les caches Ligh­troom *.lrdata.
    • Ajou­ter une limite de bande passante à 100 Mb/s pour ne pas satu­rer ma ligne Inter­net par rapport à mes usages domes­tiques.
    • Para­mé­trer une réten­tion exces­si­ve­ment large (18 daily, 18 weekly, 18 monthly, 18 3monthly, et une infi­nité de yearly) — mes données chan­geant peu, ça ne me coûte pas très cher.

    Dépôts

    J’ai par contre fait le choix de démul­ti­plier les dépôts. J’ai un dépôt pour les calen­driers, un pour les contacts, un pour les emails, un pour les docs admi­nis­tra­tifs, etc. Le plus petit doit faire quelques Ko, le plus gros fait dans les 1.5 To, pour un total de 2.5 To.

    Divi­ser me permet d’évi­ter des temps longs pour éven­tuel­le­ment répa­rer ou relan­cer une archive qui a un problème. Je ne pense pas avoir de dupli­ca­tion de fichiers dans mes diffé­rents dépôts donc je ne vois pas le béné­fice à tout rassem­bler de toutes façons.

    Héber­ge­ment

    Tout ça part sur une storage box Hetz­ner. BorgBase me justi­fier de payer deux à trois fois plus cher.

    J’avoue que je suis extrê­me­ment content.

    Je ne sais pas quel est la limite de débit mais j’ai limité mon envoi à 100 Mb/s et il tient 100 Mb/s sans bron­cher. En comp­tant la compres­sion ça fait 1 Go d’en­voyé par minute, moins de deux jours pour initia­li­ser la tota­lité de mes 2,5 To. Je n’en demande pas plus.

    Ça va rempla­cer Crash­plan, qui deve­nait lour­dingue, envoyait des mauvais signaux sur leur capa­cité réelle à soute­nir mes volumes, et dont le débit était telle­ment famé­lique que ça perdait tout sens.


    1. Je suis certain d’en oublier plein mais pour l’ins­tant ce que j’ai noté à faire un jour : Impôts, Ameli/CPAM, Mutuelle, Docto­lib, Banques, Indy, EDF, SNCF, Amazon, Spotify, Netflix, Prime, Slack, Tele­gram, Silence, Signal, NewPipe, Bluesky, Masto­don, LeBonCoin, Decath­lon, Free Inter­net, Free Mobile, Sosh, Google Apps, Notion, Train­line ↩︎
  • Heal­th­checks

    Je conti­nue mes sauve­gardes et je redé­couvre heal­th­checks.io.

    Un système pour envoyer un ping lors d’évé­ne­ments comme les sauve­gardes et qui peut ensuite nous aler­ter si un événe­ment prend plus de temps que prévu ou s’il n’a pas fait de ping depuis trop long­temps.

    C’est la pièce essen­tielle pour les sauve­gardes : être alerté quand ça part en erreur.

    Ils proposent 10 projets dans la version gratuite, plus qu’il ne m’en faut.

  • Cozy, Woobs et le reste

    Je tente d’au­to­ma­ti­ser pas à pas le rapa­trie­ment de tout ce que j’ai mais c’est long, pénible, et ce n’est que les données majeures. Il manque tous les petits trucs, genre le justi­fi­ca­tif de domi­cile et les factures EDF.

    J’ai toujours dans un coin de ma tête le fantasme d’un système de reprise de contrôle des données en ligne.

    J’ai­me­rais une app qui se connecte partout avec mes mots de passe et récu­père toutes les qui n’ont pas encore été télé­char­gées en local ou qui ont été mises à jour depuis le dernier passage.

    Il me semble indis­pen­sable que cette app soit open­source et que le déve­lop­pe­ment, l’ins­tal­la­tion ou la mise à jour de nouveaux connec­teurs soit des plus simples.

    Parce que je n’ima­gine pas de lais­ser trai­ner tous mes mots de passe en clair en plusieurs exem­plaires, il me semble indis­pen­sable que l’app se connecte elle-même à mon gestion­naire de mots de passe (et donc que je dois déver­rouiller manuel­le­ment le coffre de mots de passe à chaque exécu­tion de l’app).


    Ce n’est pas simple. Rien que pour les factures d’éner­gie, ça demande des connec­teurs vers une dizaine de four­nis­seurs diffé­rents par pays.

    Parfois il suffit de mimer le navi­ga­teur ou l’app mobile. Parfois le système d’au­then­ti­fi­ca­tion est trop complexe pour être repro­duit faci­le­ment et il faut se résoudre à réel­le­ment pilo­ter un navi­ga­teur Web caché.

    Les services en ligne n’aiment pas trop les robots et il faut compo­ser avec des capt­cha. Certains sont simples mais d’autres demandent de vraies inter­ac­tions humaines.

    Même quand on réus­sit à faire tout ça, il faut le main­te­nir à jour à chaque chan­ge­ment du site web ou de l’api, et gérer de multiples cas parti­cu­liers qu’on ne peut débo­guer qu’a­vec les iden­ti­fiants des utili­sa­teurs.

    Bref, main­te­nir même la centaine de connec­teurs des services essen­tiels demande une vraie force de travail.


    Je ne suis pas le seul à imagi­ner tout ça.

    Les deux projets les plus proches que j’ai en tête sont Woob (web outside of brow­sers) et Cozy Cloud (dont l’ave­nir me semble incer­tain depuis la récu­pé­ra­tion par Lina­gora pour l’in­té­gra­tion dans Twake).

    Cozy j’y ai parti­cipé en mon temps, après la bascule vers le B2B. Cette orien­ta­tion B2B rendait diffi­cile d’in­ves­tir l’ef­fort néces­saire sur les connec­teurs, moins perti­nents pour cette cible. Je vois qu’ils ont tout de même créé un moteur d’exé­cu­tion côté client pour permettre de passer les authen­ti­fi­ca­tions complexes et les capt­chas.

    Ils l’ont fait sur mobile. Ça a du sens pour du SaaS avec un stockage serveur qu’on cherche à moné­ti­ser. C’est plus liti­gieux pour un système person­nel.

    Le projet à été repris par Lina­gora, qui risque de surtout d’ utili­ser le drive et ce qui peut s’in­té­grer dans une suite office en ligne. Je ne sais pas bien ce que vont deve­nir les connec­teurs, qui étaient déjà trop peu déve­lop­pés. J’ai peu d’es­poir.

    En face il y a Woob (web outside of brow­sers), vieux projet à base de python. L’ef­fort est ancien, commu­nau­taire, et il y a une biblio­thèque de connec­teurs assez four­nie. .

    Malheu­reu­se­ment pour l’ins­tant c’est moyen pour les geeks d’ac­cé­der à leurs données depuis une ligne de commande inter­ac­tive plus qu’une appli­ca­tion de récu­pé­ra­tion des données.

    On peut lister les docu­ments mais rien n’est télé­chargé ou sauve­gardé par défaut. Il faut lister les factures d’EDF via une ligne de commande inter­ac­tive et deman­der à les télé­char­ger une à une. Il n’y a pas les évidences comme les attes­ta­tions de domi­ci­lia­tion.

    Même chose, il y a ce qu’il faut pour récu­pé­rer les mots de passe d’un gestion­naire de mots de passe, mais rien n’est fourni par défaut.

    Je trou­vais Cozy plus adapté à mon objec­tif. Il faudrait croi­ser les deux. C’est du domaine du possible mais je ne sais pas s’il y aura assez de personnes ressen­tant le besoin pour ça.

  • Sauve­gar­der Inorea­der

    Inorea­der a déjà tout préparé.

    Le service sauve­garde heure par heure l’OPML de toutes les sous­crip­tions. Il est capable d’en­voyer cette sauve­garde tout seul via Google Drive ou Drop­box. Ça me suffit pour l’ins­tant puisque je sauve­garde déjà le contenu de Google Drive.

    C’est surtout à cette infor­ma­tion (la liste de mes flux) que je tiens. Je n’uti­lise pas les tags et les favo­ris, que je préfère centra­li­ser sur Pocket. Le cas échéant, Inorea­der propose un lien JSON ou RSS pour suivre chaque dossier parti­cu­lier.

  • Sauve­gar­der les favo­ris et l’his­to­rique Fire­fox

    Je conti­­nue mes sauve­­gardes. Je n’uti­lise pas mon navi­ga­teur direc­te­ment sur le serveur de sauve­garde donc je ne peux pas aller cher­cher manuel­le­ment dans les fichiers de profil Fire­fox.

    Je suis toute­fois connecté à mon profil Fire­fox en ligne et y synchro­nise mes données. J’ai trouvé un client en go assez simple à utili­ser et instal­lable via Home­brew.

    ffsclient login <login> <password> --device-name=my-backup --sessionfile=ffs-session.json

    puis

    ffsclient bookmarks list --format=json --sessionfile=ffs-session.json --output=bookmarks.json

    On peut ainsi récu­pé­rer toutes les collec­tions synchro­ni­sées : addons, adresses, favo­ris, formu­laires, histo­rique, mots de passe, préfé­rences, tabs ouverts, etc. Je vais me conten­ter des favo­ris pour l’ins­tant et consi­dé­rer que le reste est vola­tile.

  • Sauve­gar­der Pocket

    Je suis toujours dans mes sauve­gardes. Je veux avoir une copie de tout dans mes sauve­garde, données des services en ligne incluses.

    Je pensais faire ça faci­le­ment avec Pocket. Ils ont une API, assez simple.

    En pratique je me retrouve à faire essen­tiel­le­ment de l’in­gé­nie­rie inverse. La docu­men­ta­tion indique des choses qui n’existent pas ou ne fonc­tionnent pas, et ne donne aucune infor­ma­tion sur des éléments essen­tiels qu’on reçoit (genre la gestion des erreurs).

    Authen­ti­fi­ca­tion

    Contrai­re­ment aux méca­nismes OAuth habi­tuels, leur autho­rize ne renvoie pas de code tempo­raire à échan­ger. Pour récu­pé­rer l’access_token, il faut le deman­der avec le request_token obtenu lors de l’échange serveur à serveur initial.

    Ce request_token semble ne pas avoir de durée de vie. Il n’a en tout cas pas de refresh_token asso­cié.

    Méca­nisme de régu­la­tion

    L’API indique des limi­ta­tions à 320 appels par heure. C’est d’au­tant plus impor­tant que pour télé­char­ger mes plus de 29 0001 items par pages de 30 maxi­mum, je vais forcé­ment dépas­ser le nombre de requêtes que je peux faire en une heure.

    Il y a un méca­nisme auto­ma­tique prévu pour la régu­la­tion mais le serveur n’en­voie pas les entêtes prévues pour ça. Je sais juste qu’au bout d’un moment j’ob­tiens des erreurs 403 et que ça semble venir de là.

    Je vais devoir gérer ça à la main. Pour l’ins­tant je note l’heure de chaque requête dans un tableau. Quand mon tableau fait 320 éléments, je retire le premier élément et attend l’heure de cet élément + 1 heure avant de conti­nuer.

    Pagi­na­tion

    Le méca­nisme pour la pagi­na­tion est assez famé­lique : 30 items maxi­mum par requête, plus un offset pour passer à la page suivante. C’est une mauvaise méthode pour itérer à travers des milliers d’items et ça ne trompe pas : Les requêtes sont effec­ti­ve­ment de plus en plus lentes au fur et à mesure des pages. C’est visible et c’est pénible.

    Le serveur prévoit de renvoyer un champ total qui permet de savoir s’il reste encore des éléments. Les réponses du serveur ne me renvoient malheu­reu­se­ment pas ce champ alors je vais juste itérer jusqu’à obte­nir une réponse vide sans erreur.

    Il y a aussi un champ since qui permet de limi­ter la recherche aux éléments plus récents qu’une certaine date. J’ima­gi­nais pouvoir me baser là dessus pour la pagi­na­tion : Parcou­rir du plus vieux au plus récent, iden­ti­fier la date du plus récent et repar­tir de là à la prochaine itéra­tion. C’est d’ailleurs la procé­dure recom­man­dée pour beau­coup de services qui veulent éviter les problèmes que pose le parcours par offset. Malheu­reu­se­ment ça n’est pas utili­sable pour la pagi­na­tion : les items retour­nés ne sont correc­te­ment ordon­nés ni par date d’ajout ni par date de modi­fi­ca­tion.

    Étran­ge­ment, il semble que la limite de 30 items par page ne soit pas forcée. Il semble que ça fonc­tionne avec beau­coup plus, mais que ça génère aussi plus d’er­reurs. Le meilleur compro­mis semble effec­ti­ve­ment dans les 25 à 30 items par page.

    Dernière spéci­fi­cité, j’ai l’im­pres­sion de temps de réponse plus longs et d’er­reurs plus fréquentes quand je vais du plus vieux au plus récent. Je n’ai pas véri­fié cette impres­sion avec des chiffres mais autant rester sur l’ordre par défaut : du plus récent au plus vieux.

    Docu­men­ta­tion incom­plète

    J’ai dit qu’il me manquait les entêtes de régu­la­tion et le champ total à la racine de la réponse. À l’op­posé, j’ai quelques champs qui ne sont pas dans la docu­men­ta­tion.

    Le status semble être un entier avec, 0 pour une erreur, 1 pour OK, 2 quand il n’y a rien à affi­cher depuis une mise à jour. Quand status est à 0, le champ error contient le message d’er­reur.

    Il y a aussi un maxAc­tions, dont je ne connais pas le sens.

    Données irré­cu­pé­rables sur le serveur

    Pour une raison ou une autre, certaines de mes données semblent corrom­pues ou irré­cu­pé­rables sur leur serveur (comme quoi la sauve­garde est utile ;-)..

    J’ai 20 items qui provoquent systé­ma­tique­ment une erreur 504. Je peux récu­pé­rer ceux avant, ceux après, mais pas ceux là2. C’est vrai peu importe le sens de parcours (mais les offset ne sont logique­ment pas les mêmes dans les deux sens).

    Je n’ai pas plus d’ex­pli­ca­tion. Je ne peux même pas connaitre les iden­ti­fiants concer­nés pour deman­der leur suppres­sion.

    Poten­tiel­le­ment ce sont des données qui ne peuvent plus être réhy­dra­tées sur leurs serveurs, soient qu’il manque des infor­ma­tions essen­tielles, soit que leurs compo­sants ne savent pas complé­ter ce qui manque (le serveur du lien sauve­gardé qui répond bizar­re­ment ?).

    Erreurs aléa­toires

    Même avec une pagi­na­tion basique, dans l’ordre par défaut, j’ai des erreurs fréquentes, aléa­toires.

    La plupart des 403 semblent liées à la limi­ta­tion du nombre de requêtes, mais pas forcé­ment toutes.

    La plupart des 504 semblent liées à mes données irré­cu­pé­rables mais il est arrivé que ça finisse pas passer quand même.

    Les 502, en géné­ral il suffit de relan­cer la même requête, mais parfois l’er­reur semble persis­ter un moment.

    Auto­ma­ti­sa­tion

    Je parcours fina­le­ment tout par page de 30 et je mets à jour à chaque page le fichier de sauve­garde (pour les données récu­pé­rées) et le fichier de confi­gu­ra­tion (pour le nouvel offset de la prochaine requête). Si j’ai des erreurs inat­ten­dues, je pour­rai relan­cer de là où j’en étais.

    Si j’ai une page en erreur, je reprends tous les items de la page mais en allant les cher­cher mais 1 par 1 à partir de leur offset respec­tif. Parfois je ne retrouve pas l’er­reur et ça permet de récu­pé­rer tout. Parfois l’er­reur persiste sur un des éléments. Dans ce dernier cas l’idée c’est de pouvoir récu­pé­rer tous les bons items de la page et d’igno­rer l’unique qui est en erreur.

    Ça n’est pas parfait — si j’ai une erreur répé­tée mais tempo­raire sur un item, il sera ignoré silen­cieu­se­ment dans la sauve­garde — mais je n’ai pas mieux.

    Une fois le parcours tota­le­ment fait une fois, je peux utili­ser le since pour faire du diffé­ren­tiel.

    Le code est sur https://github.com/edas/pocket-backup

    RGPD à la rescousse

    J’ai quand même prévu de faire une requête RGPD pour deman­der un export de mes données. On verra s’ils arrivent à me récu­pé­rer les 20 items qui sont en erreur perma­nente.

    Si oui, je tente­rai de les effa­cer pour reprendre un fonc­tion­ne­ment sans erreur. Sinon, je tente­rai peut-être de réini­tia­li­ser le compte ou migrer ailleurs.


    1. Oui, tout ça. J’en suis moi-même étonné. J’ai tracé des usages depuis au moins fin 2010 mais je me demande si je ne l’uti­li­sais pas au début de mon passage à Yahoo! en 2007–2008 du temps où ça s’ap­pe­lait Read It Later. Ça fait une moyenne de 4 à 6 items par jour suivant la date rete­nue. ↩︎
    2. Je me les note pour moi-même : aujourd’­hui ce sont les offset 14053, 14481, 17689, 18291, 18629, 19389, 20363, 20815, 20996, 20999, 21512, 21923, 22275, 22283, 22346, 23386, 23841, 24189, 24414, 27441. ↩︎
  • Tout sauve­gar­der – mars 2025

    Nettoyer les écuries d’Au­gias c’est de la nioniotte à côté du projet de rapa­trier toutes mes données en local pour les sauve­gar­der.

    Ce que j’ai déjà

    1. Où sauve­gar­der en local
    2. Sauve­gar­der Gmail et Amélio­rer ma sauve­garde Gmail.
    3. Sauve­gar­der les SMS et les histo­riques d’ap­pel
    4. Sauve­gar­der Google Drive et Google Photos
    5. Sauve­gar­der Github
    6. Sauve­gar­der mes sites web
    7. Sauve­gar­der Stan­dard Notes
    8. Sauve­gar­der les calen­driers Google
    9. Sauve­gar­der les contacts Google
    10. Sauve­gar­der Bitwar­den
    11. Sauve­gar­der Pocket
    12. Sauve­gar­der les favo­ris Fire­fox
    13. Sauve­gar­der les abon­ne­ments Inorea­der

    Ce qui manque encore

    Je vais étendre la liste au fur et à mesure. Il me manque encore pas mal de choses, et pas le plus simple. Au moins :

    • Les abon­ne­ments, listes et peut-être messages Masto­don
    • Les abon­ne­ments, listes et peut-être messages Bluesky
    • Abon­ne­ments et messages Insta­gram
    • Les messages Tele­gram
    • Les messages What­sapp
    • Les messages Signal
    • Mes abon­ne­ments Newpipe (local Android)
    • Mon histo­rique et docu­ments Docto­lib
    • Mes contacts Linke­din, peut-être les messages aussi
    • Mes histo­riques Spotify, Netflix, etc.
    • Les discus­sions privées Slack
    • Les factures et histo­riques d’un peu partout (boutiques en ligne, abon­ne­ments divers, edf, sncf, hôtel, inter­net, télé­phone, etc.)
    • Les rele­vés sécu et mutuelle
    • Les rele­vés banque

    Je regrette qu’on n’ait pas un vrai gros projet Open Source dont l’objec­tif est d’avoir des connec­teurs pour tous les services en ligne de façon à rapa­trier toutes nos données en local.

    Cozy Cloud aurait pu faire ça mais la direc­tion prise ne se centrait pas sur les connec­teurs et le projet commer­cial n’a pas pu trou­ver sa place.


    Auto­ma­ti­sa­tion en trois niveaux

    Proba­ble­ment qu’il me faudra faire évoluer mes outils. Je ne peux pas lais­ser les mots de passe de tout et n’im­porte quoi en clair.

    J’ima­gine trois niveaux :

    1. Les sauve­gardes auto­ma­tiques. J’ai des token Oauth voire des mots de passe en clair dans les fichiers de confi­gu­ra­tion. C’est valable quand les données ne sont pas sensibles et que je tiens à ce que ça sauve­garde « sans moi »
    2. Les sauve­gardes que je lance­rai à la main, quand les données ou les mots de passe sont sensibles. Je pense faire des programmes qui s’in­ter­facent direc­te­ment avec le coffre Bitwar­den, que je déver­rouille­rai dans la session pour l’oc­ca­sion.
    3. Ce qui va être une énorme galère à coder : les service en ligne sans API ouverte avec de l’of­fus­ca­tion sur l’au­then­ti­fi­ca­tion, ainsi que les services en ligne derrière un 2FA non auto­ma­ti­sable ou un capt­cha complexe à mimer. Là j’ima­gine une exten­sion navi­ga­teur qui sauve­garde ce dont j’ai besoin quand je passe sur le site.

    Copie en ligne

    Bon, chaque chose en son temps.

    Avant tout ça il faudra déjà que je branche BorgBase ou BackB­laze pour avoir une copie chif­frée en ligne, parce que pour l’ins­tant ça ne fait que reco­pier en local.

    Avec dans les 3 To, ça me pren­dra bien un bon mois pour faire la première synchro­ni­sa­tion. Je sais envoyer plus vite mais je doute qu’on me libère des Gb/s pour moi tout seul.

  • Sauve­gar­der Bitwar­den

    Je conti­nue mes sauve­gardes.

    Le coffre avec tous mes mots de passe est parti­cu­lier. J’ai fait le choix de le stocker en ligne pour synchro­ni­ser tous mes appa­reils mais perdre tous mes mots de passe n’est pas une option.

    Bitwar­den a effec­ti­ve­ment une copie locale sur tous les appa­reils mais ça ne me couvre pas si quelque chose est supprimé sur le serveur et que la suppres­sion se réplique alors sur tous mes appa­reils.

    J’ai besoin d’une vraie copie locale, à moi.

    Je n’ai cepen­dant pas besoin que la copie soit en clair. Plus exac­te­ment, les données sont trop sensibles et je préfère n’avoir que la copie chif­frée. Je sais que je trou­ve­rais comment la déchif­frer à la main en cas de besoin (je l’ai déjà fait par le passé).

    Je pour­rais utili­ser la ligne de commande offi­cielle et synchro­ni­ser le coffre avec une clé d’API. Il n’y a pas besoin du mot de passe maitre pour ça. Je ne maitrise cepen­dant pas où il stocke le coffre et j’avais moyen­ne­ment envie de ça sur des tâches de sauve­garde.

    J’ai réim­plé­menté ça à la main avec un programme généré par IA. Il télé­charge les para­mètres de login, le profil utili­sa­teur et le coffre (chif­fré).


    C’est du Rust parce que j’es­pé­rais utili­ser le SDK offi­ciel. Malheu­reu­se­ment ils n’ex­portent pas les appels bas niveau que je souhaite. J’ai perdu bien trop long­temps à le comprendre et à batailler. J’ai fini par faire mon implé­men­ta­tion à la main.

    Si j’avais su que je fini­rais avec juste quelques appels HTTP, ça ne serait pas en Rust. Tant pis.

  • Sauve­gar­der les contacts Google

    Je conti­nue mes sauve­gardes mais je n’ai pas trouvé d’ou­til adapté pour aller télé­char­ger les contacts google. J’en suis même étonné.

    Je suis passé quelques minutes par IA et j’ai pu récu­pé­rer ce qui m’in­té­res­sait avec https://github.com/edas/google-contacts-backup

    Le programme récu­père le format brut en prove­nance de Google, avec juste une sauve­garde en base64 des images en lien.


    J’au­rais préféré un outil plus abouti qui sache ne reté­lé­charge que ce qui a changé. On verra une prochaine fois.

    Si toute­fois vous connais­sez un outil un peu smart, glis­sez-moi le nom en commen­taire.