europrezes 3 Zgłoś post Napisano Grudzień 20, 2011 (edytowany) Na stronie www zamieszczana jest podstrona w konkretnym rozszerzeniu pliku np. .xls. Jakim narzędziem dałoby się zrobić coś takiego, aby np. program/skrypt wchodził pod przykladowa-domena/konretny-plik.xls i ściągał mi ten plik co określony czas np. codziennie na mój FTP? Chodzi o to, że na określonej stronie zmieniają się dane i chciałbym sobie archiwizować wersje strony, najlepiej by to się np. zapisywało na moim serwerze w katalogu z odpowiednio nadanymi uprawnieniami. Dzięki temu bym raz na jakiś czas ściągał z FTP pliki w różnych wersjach, a nie musiał codziennie wchodzić na stronę i ją zapisywać. Ewentualnie zadowoli mnie także jakiś pomysł na narzędzie zczytujące treść ze strony html i spisujące ją np. codziennie. Edytowano Grudzień 20, 2011 przez europrezes (zobacz historię edycji) Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość mSurf.eu Zgłoś post Napisano Grudzień 20, 2011 W cronie ustawiasz np. co godzinne i dajesz "wget http://adres.do/pliku.xls" Udostępnij ten post Link to postu Udostępnij na innych stronach
inzaghi89 0 Zgłoś post Napisano Grudzień 20, 2011 mSurf: no tak, ale ten plik się będzie nadpisywał ciągle, więc nici z archiwizacji. Musisz napisać skrypcik, który wykonasz co godzinę, on zamieni nazwę tego pliku na datę. Albo zawrzeć to jakoś w jednym poleceniu, w stylu: wget -o `date`.xls http://adres.do/pliku.xls Bardzo możliwe, że tym powyższym przekombinowałem coś. Udostępnij ten post Link to postu Udostępnij na innych stronach
kafi 2425 Zgłoś post Napisano Grudzień 20, 2011 mSurf: no tak, ale ten plik się będzie nadpisywał ciągle, więc nici z archiwizacji. Sprawdzałeś swoje teorie? Wg mojszych obserwacji, to jeśli plik istnieje, to wget go nie nadpisuje, tylko dodaje sufiksy w postaci numerków. Udostępnij ten post Link to postu Udostępnij na innych stronach