We are in the process of migrating this forum. A new space will be available soon. We are sorry for the inconvenience.

Pobieranie plików


no4b
10-11-2010, 10:49
E tam PHP, zabawka dla dzieci :P

Perl & Python FTW

dzimi
10-11-2010, 10:38
Cytat Napisał no4b
Wątki będą lżejsze niż procesy.
a dokładniej
pcntl_fork + curl (w php) lub freads/readfile("http://blablabla.pl/blablabla").
Byle by się nie pomyliło z forkiem + exec wgeta

no4b
10-11-2010, 10:22
Wątki będą lżejsze niż procesy.

dzimi
10-11-2010, 10:12
hmmm... napisz sobie coś szybkiego np w php. włącz obsługę fork(), zforkuj się ze 100 razy i w pętli zassaj to sobie na dysk. Jeśli to są małe pliki to wpierw zassaj na ramdysk a poźniej to sobie przeżuć na ext3/reiserfs/xfs/whatever. Po co ci ramdysk ? By 100 operacjami IO/sec nie zajechać sobie dysków
Ot to taka mała metoda brutal force.

no4b
31-10-2010, 14:22
No musisz generować te czasy i próbować ściągnąć.

JarekMk
31-10-2010, 14:04
Hmm, a coś jaśniej?

no4b
31-10-2010, 12:26
Jak nie masz listy tych "czasów" to zostaje jakieś lekko inteligentne brute force. Nic trudnego, ale szybko działać nie będzie.

JarekMk
31-10-2010, 12:21
Cześć,

Mam problem i nie wiem jak go rozwiązać. Chciał bym pobrać masowo pliki tekstowe o róznych nazwach, wzorzec jest ustalony: data+godzina+imienazwisko+.txt

Macie jakiś pomysł?

http://adres.pl/render.php?2010-10-3...ieNazwisko.txt - wielkość liter ma znaczenie, jednakże imiona i nazwiska pozostają takie same więc można podać je normalnie. Problem jest w czasie, zbyt duże złożenie...



Macie jakiś pomysł? Wget nie radzi sobie z pobraniem wszystkich plików z danej lokalizacji, gdyż katalog ma .htaccess z 403.