Advertisement · 728 × 90

Posts by podCloud

Désolé pour la gêne occasionnée 🙏

1 week ago 1 0 1 0

Bonjour ! D'autres personnes me remontent récemment des pics d'écoutes inhabituels. On va regarder sous peu pour mette à jour nos filtres anti robots, les techniques ont dû évoluer, je soupçonne aussi des robots pour IA qui se font passer pour de vrais auditeurs plus finement qu'auparavant.

1 week ago 1 0 1 0

Non mais ne t'inquiète pas, je pense que c'est rien face à l'armada de serveur de Apple qui nous embarde constamment 😅 s'il y avait un coupable c'était probablement pas toi 😁 (directement)

1 week ago 0 0 1 0

On voyait bien qu'il y avait des petites micro coupures par-ci par-là, des gros ralentissements en période d'affluence. On a séparé la charge en 2 serveurs, les bases de données et les applications. En théorie depuis une semaine tout est beaucoup plus stable et réactif et résilient. 🙏

1 week ago 1 0 1 0

Honnêtement ces derniers mois on a eu pas mal de souci, c'est pour ça qu'on a travaillé à modifier énormément notre infrastructure pour optimiser au maximum les ressources parce qu'on commençait à être serré. On a dû investir dans un nouveau serveur supplémentaire pour répartir la charge.

1 week ago 0 0 1 0

On avait juste réduit le nombre de dossiers et la taille du chemin mais c'était le même préfixe

1 week ago 1 0 1 0

Et puis tu aurais pu nous contacter on t'aurait expliqué le pattern parce qu'en fait ancienne adresse vs nouvelle adresse c'était juste /aa/ff/bb/cc/de/ee/cc/ee/fichier.jpg -> /aaff/bbcc/fichier.jpg tu aurais pu faire un script de conversion sans aller chercher les nouvelles adresses dans les flux

1 week ago 1 0 2 0

Oh franchement tu aurais pu monter à une dizaine de requêtes par seconde. Les autres, et notamment iTunes, ne se gênent pas pour scanner tout le serveur à toute vitesse. En théorie on est censé tenir.

1 week ago 1 0 1 0
Advertisement

Notre ancien format d'adresse c'était un vrai problème d'infrastructure, trop de sous niveau de dossier c'était un casse-tête système ça prenait beaucoup de ressources à mettre à jour et à sauvegarder pour pas grand-chose.

1 week ago 1 0 1 0

Ah mince ! Désolé ! C'est vrai qu'on a mis à jour l'adresse dans les flux RSS mais on a pas de rétrocompatibilité et de redirection pour les anciennes adresses pour les images en théorie les différents lecteurs utilisent toujours la dernière version du flux RSS donc on n'y a pas réfléchi.

1 week ago 1 0 1 0

C'est particulièrement intéressant parce que si un jour on change l'adresse du lecteur (ce qui risque d'arriver dans les prochains mois) ça serait mis à jour automatiquement. Même si évidemment on va garder une redirection pour la rétrocompatibilité

1 week ago 0 0 1 0

(Par ailleurs il est retourné en une seule taille mais il s'adapte plus ou moins à la taille disponible, format horizontal ou vertical)

1 week ago 1 0 1 0
Balise dans le HTML

Balise dans le HTML

Réponse de l'API

Réponse de l'API

On est compatible avec oembed si besoin !
Sur chaque page d'épisode on a deux balises dans le HTML avec l'URL vers l'API oembed. Qui retourne lui-même le code d'embed, en json ou xml.
podcloud.fr/embed.json?u...

1 week ago 1 0 1 0

🔧 Maintenance ce soir mardi 24 mars à 23h00.

On migre une partie de notre infra sur un nouveau serveur pour améliorer stabilité et résilience.

Tous nos services seront hors ligne — a priori une vingtaine de minutes, mais on a prévu jusqu'à 1h du matin par précaution.

Merci pour votre confiance 🙏

2 weeks ago 9 5 2 1
C'est avec beaucoup de tristesse que nous vous annonçons le décès de François TJP, des suites de son cancer. Il nous a quittés sereinement, et entouré de ses proches.

Le père de la Ficson s'en est allé, mais son héritage reste.

Ce qui pourrait lui faire plaisir ? Vous voir continuer à créer, même juste sur une blague idiote, même pour faire marrer trois personnes : amusez-vous dans ce hobby qui est le nôtre, et restez gentils et humbles.

Il laisse un sacré vide derrière lui, charge à nous tous de le remplir avec de l'humour et de la joie, même si, pour l'instant, le temps des larmes est de mise.

Prenez soin de vous tous.

C'est avec beaucoup de tristesse que nous vous annonçons le décès de François TJP, des suites de son cancer. Il nous a quittés sereinement, et entouré de ses proches. Le père de la Ficson s'en est allé, mais son héritage reste. Ce qui pourrait lui faire plaisir ? Vous voir continuer à créer, même juste sur une blague idiote, même pour faire marrer trois personnes : amusez-vous dans ce hobby qui est le nôtre, et restez gentils et humbles. Il laisse un sacré vide derrière lui, charge à nous tous de le remplir avec de l'humour et de la joie, même si, pour l'instant, le temps des larmes est de mise. Prenez soin de vous tous.

1 month ago 162 88 85 85

Non le code était juste pour l'occasion de cette émission, mais c'est vrai qu'on pourrait en créer un permanent pour les copains de @techcraft.fr, je vais voir ça dans la semaine

2 months ago 0 0 1 0
Le paramètre est juste au dessus de l'email de contact public sur la page édition du podcast.

Le paramètre est juste au dessus de l'email de contact public sur la page édition du podcast.

Le paramètre est juste au dessus de l'email de contact public sur la page édition du podcast.

3 months ago 0 0 0 0
Preview
Inverser l'ordre des épisodes d'un podcast • Aide podCloud Cette option de classement chronologique (au lieu de l’habituel anti-chronologique) est disponible dans les fonctions basiques du flux. Elle touche autant l’affichage sur podCloud que celui sur iTunes...

Les épisodes sont rangés par date : la date de publication peut être changée n'importe quand pour n'importe quelle date.

Il est aussi possible d'inverser le tri : les plus récents en premier ou les plus anciens en premier. (Chronologique, ou anti chronologique)

aide.podcloud.fr/question/inv...

3 months ago 0 0 1 0
Advertisement

🙏

4 months ago 0 0 0 0

🎉 Et ça y'est Cloudflare a réglé le problème, on est de retour !

De notre coté la maintenance de nos composants est prometteuse : nous ne constatons plus de ralentissements.

Les récents problèmes d'instabilitée semblent derrière nous ! 🎈

Merci pour vos encouragements et de votre confiance ! 🙏

4 months ago 4 0 1 1
Preview
a woman in a plaid shirt says oops ! Alt: a woman in a plaid shirt says oops !

Voilà en fait on voulait juste redémarrer notre serveur et on s'est trompé d'interrupteur

4 months ago 0 0 1 0
Preview
Cloudflare Global Network experiencing issues Cloudflare's Status Page - Cloudflare Global Network experiencing issues.

⌚ Cloudflare a annoncé être en train de régler le problème, nos services devraient être disponibles prochainement de nouveau et enfin stables ! 🙏

www.cloudflarestatus.com/incidents/8g...

4 months ago 0 0 1 0

🟢 Maintenance terminée !

Bonne nouvelle, notre opération semble avoir ramené la stabilité nominale sur tous nos services !

🛑 Mauvaise nouvelle, une panne mondiale de @cloudflare.social bloque temporairement l'accès à tous nos services ! Quel timing ! 😅

4 months ago 5 1 2 0

Qui peut être raccourcie aussi 👀 🤞 merci de votre soutien !

4 months ago 1 0 0 0

* L'heure de fin de maintenance est susceptible d'être modifiée selon le déroulement de la maintenance.

4 months ago 1 0 2 0

⚠️ Maintenance programmée

➡️ Demain à 13h, la totalité de nos services seront hors ligne jusqu'à 14h*, afin réinstaller certains de nos composants internes et améliorer leur stabilité compromise après la panne de nos disques durs.

Merci de votre compréhension et de votre confiance.

4 months ago 8 3 3 2

On est sur pieds ! Demain midi on réinstalle tous nos composants au propre, ça devrait éviter toute rechute.

4 months ago 1 0 0 0
Advertisement

Je vous rassure notre "technologie" et nos yeux sont à la bonne place.

La panne d'un disque dur ou la réinstallation de services corrompus/défaillants, n'ont pas grand chose à voir avec la taille de notre clientèle, et son expansion ou non.

Ce sont des aléas techniques inopinés et temporaires 🤷‍♂️

4 months ago 0 0 0 0

Merci Georges pour votre retour. Sachez qu'à chaque plantage, c'est nous qui sommes sur le pont pour redémarrer les services à la main, weekend compris, et c'est vrai que c'est pénible. Désolé 🙏

Nous avons planifié demain midi une maintenance qui devrait régler l'instabilité récente définitivement.

4 months ago 0 0 1 0

On a quelques interruptions, 5 minutes par-ci par-là, ça devrait revenir à la normale d'ici la fin de la semaine à la fin des traitements en cours suite au crash d'il y a 10j, et ça devrait être aussi beaucoup mieux après là maintenance prévue demain midi.

Merci de votre compréhension 🙏

4 months ago 1 0 1 0