WGET(1) GNU Wget WGET(1) NAZWA wget - nieinteraktywny program do pobierania z sieci SKLADNIA wget [opcja]... [URL]... OPIS GNU Wget jest wolnym programem narzedziowym do pobierania plikow z sieci. Obsluguje protokoly HTTP, HTTPS i FTP, a takze pobieranie poprzez serwery proxy HTTP. Wget jest nieinteraktywny, co pozwala mu dzialac w tle, w czasie gdy uzytkownik nie jest zalogowany. Dzieki temu uzytkownik moze rozpoczac pobieranie i rozlaczyc sie z komputerem, pozwalajac Wgetowi na zakonczenie pracy. Wiekszosc przegladarek WWW wymaga ciaglej obecnosci czlowieka, co staje sie uciazliwe przy pobieraniu duzej ilosci danych. Wget potrafi podazac za odnosnikami zawartymi w stronach HMTL, XHTML i CSS oraz tworzyc lokalne wersje zdalnych witryn, w pelni odtwarzajac strukture katalogow oryginalnej strony. Jest to czasami nazywane "pobieraniem rekurencyjnym". Podczas takiego dzialania Wget respektuje ustalenia Standardu Robot Exclusion (/robots.txt). Mozliwe jest poinstruowanie programu, by w pobieranych plikach przeksztalcal odnosniki tak, aby wskazywaly na lokalne kopie, do przegladania bez polaczenia. Wget zostal zaprojektowany tak, by dzialac solidnie rowniez przy powolnych badz niestabilnych polaczeniach. Jezeli pobieranie nie udaje sie z powodu problemow z siecia, ponawia proby az do sciagniecia calosci pliku. Jesli dany serwer obsluguje taka mozliwosc, Wget nakaze kontynuacje pobierania od miejsca, w ktorym przerwano. OPCJE Skladnia opcji Wget uzywa GNU getopt do przetwarzania argumentow wiersza polecen, wiec kazda opcja ma dlugi i krotki format. Dlugie opcje sa latwiejsze do zapamietania, lecz wpisuje sie je dluzej. Mozna dowolnie laczyc oba style zapisu lub podac opcje po argumentach wiersza polecen. Mozna wiec uzyc: wget -r --tries=10 http://fly.srk.fer.hr/ -o log Spacja pomiedzy opcja akceptujaca argument i argumentem moze byc pomieta. Zamiast -o log mozna wpisac -olog. Mozna umiescic kilka opcji, ktore nie wymagaja argumentow razem, tak jak ponizej: wget -drc Jest to rownowazne zapisowi: wget -d -r -c Poniewaz opcje moga byc podane po argumentach, moze byc konieczne oddzielenie ich za pomoca --. Ponizsze polecenie sprobuje pobrac URL -x, zapisujac niepowodzenie do log: wget -o log -- -x Opcje, ktore akceptuja listy oddzielone przecinkami, respektuja konwencje podania pustej listy, ktora usuwa ich wartosc. Jest to przydatne do wyczyszczenia ustawien .wgetrc np. jesli .wgetrc uzytkownika ustawia "exclude_directories" na /cgi-bin, to ponizszy przyklad najpierw zresetuje wartosc, a nastepnie ustawi ja na /~nobody i /~somebody. Mozna rowniez wyczyscic liste w .wgetrc. wget -X "" -X /~nobody,/~somebody Wiekszosc opcji, ktora nie akceptuje argumentow sa opcjami logicznymi tzn. takimi, ktorych stan mozna opisac zmienna zero-jedynkowa ("logiczna"). Na przyklad --follow-ftp mowi Wgetowi, aby podazal za linkami FTP z plikow HTML, a --no-glob nakazuje nieprzeprowadzania rozwijania masek URL-i FTP. Opcje logiczna sa albo pozytywne, albo negatywne (te zaczynaja sie od --no). Wszystkie takie opcje maja kilka wlasnosci. Jezeli nie zaznaczono inaczej, to przyjmuje sie, ze domyslne zachowanie jest przeciwne niz to, ktore zapewnia opcja. Na przyklad udokumentowane istnienie --follow-ftp wskazuje, ze domyslnie nie podaza sie za linkami FTP ze stron HTML. Dzialanie opcji pozytywnych mozna odwrocic dodajac --no- do ich nazw; analogicznie w przypadku opcji negatywnych (wylaczajacych) - usuwajac przedrostek --no-. Moze to wygladac na niepotrzebne -- skoro domyslnym dzialaniem opcji pozytywnych jest nie robienie czegos, to po co zapewniac metode jawnego wylaczania ich? Wynika to z dzialania pliku startowego, ktory moze zmienic wartosci domyslne. Przykladowo, skorzystanie z wpisu follow_ftp = on w pliku .wgetrc powoduje, ze Wget domyslnie podaza (follow) za dowiazaniami FTP, natomiast opcja --no-follow-ftp jest jedynym sposobem na przywrocenie wartosci pierwotnie domyslnych z wiersza polecen. Podstawowe opcje uruchamiania -V --version Wyswietla wersje Wgeta. -h --help Wypisuje komunikat pomocy, opisujacy wszystkie opcje, jakie mozna przekazac Wgetowi w wierszu polecen. -b --background Przechodzi w tlo natychmiast po rozpoczeciu pracy. Jesli nie podano pliku wyjsciowego za pomoca -o, wyjscie jest przekierowywane do wget-log. -e polecenie --execute polecenie Wykonuje polecenie tak, jakby bylo czescia .wgetrc. Polecenie wywolane w ten sposob zostanie wykonane po poleceniach z .wgetrc, wiec bedzie miec nad nimi priorytet. Aby podac kilka polecen wgetrc, nalezy uzyc opcji -e wielokrotnie. Opcje dziennika i pliku wejsciowego -o dziennik --output-file=dziennik Rejestruje wszystkie komunikaty w pliku dziennika. Normalnie sa zglaszane na standardowym wyjsciu bledow. -a dziennik --append-output=dziennik Dodaje komunikaty na koncu pliku dziennika. Jest to to samo, co -o, tyle ze dopisuje do dziennika zamiast nadpisywac stary. Jesli plik dziennik nie istnieje, jest tworzony. -d --debug Wlacza wyjscie diagnostyczne, czyli wypisywanie rozmaitych informacji waznych dla tworcow Wget, gdy nie dziala on poprawnie. Administrator systemu mogl skompilowac Wget bez obslugi trybu usuwania bledow, wowczas -d nie bedzie dzialac. Nalezy zauwazyc, ze kompilacja z obsluga diagnostyki jest zawsze bezpieczna -- Wget skompilowany w ten sposob nie bedzie wypisywal zadnych informacji diagnostycznych dopoki nie zazada sie tego opcja -d. -q --quiet Tryb cichy. Wylacza wyjscie Wget. -v --verbose Pelne wyjscie, z wszystkimi dostepnymi danymi. Jest to opcja domyslna. -nv --non-verbose Niepelne wyjscie -- wylacza pelne wyjscie, ale nie ucisza calkowicie (to robi sie opcja -q); komunikaty o bledach i podstawowe informacje beda nadal wypisywane. --report-speed=typ Wypisuje przepustowosc jako typ. Jedyna akceptowana wartoscia sa bity (bits). -i plik --input-file=plik Odczytuje URL-e z lokalnego lub zewnetrznego pliku. Jesli jako plik podano -, to URL-e sa czytane ze standardowego wejscia (aby czytac z pliku nazwanego -, nalezy uzyc zapisu ./-). Czyta URL-e z pliku wejsciowego plik, w zwiazku z czym nie trzeba ich podawac w wierszu polecen. Jesli URL-e podano zarowno w wierszu polecen, jak i w pliku wejsciowym, to pierwsze zostana pobrane pliki wymienione w wierszu polecen. Jesli nie podano opcji --force-html, to plik powinien skladac sie z zestawu URL-i - po jednym na wiersz. Jednakze jesli zostanie podana opcja --force-html, to plik bedzie traktowany jak dokument html. Moga sie wowczas pojawic klopoty z odnosnikami wzglednymi, ktore mozna rozwiazac dodajac "" do pliku lub podajac --base=url w wierszu polecen. Jesli plik jest plikiem zewnetrznym, to dokument zostanie potraktowany automatycznie jako html, jesli jego Content-Type pasuje do text/html. Co wiecej, polozenie pliku zostanie uzyte jako href, jesli nie podano innego. --input-metalink=plik Downloads files covered in local Metalink file. Metalink version 3 and 4 are supported. --keep-badhash Keeps downloaded Metalink's files with a bad hash. It appends .badhash to the name of Metalink's files which have a checksum mismatch, except without overwriting existing files. --metalink-over-http Issues HTTP HEAD request instead of GET and extracts Metalink metadata from response headers. Then it switches to Metalink download. If no valid Metalink metadata is found, it falls back to ordinary HTTP download. Enables Content-Type: application/metalink4+xml files download/processing. --metalink-index=number Set the Metalink application/metalink4+xml metaurl ordinal NUMBER. From 1 to the total number of "application/metalink4+xml" available. Specify 0 or inf to choose the first good one. Metaurls, such as those from a --metalink-over-http, may have been sorted by priority key's value; keep this in mind to choose the right NUMBER. --preferred-location Set preferred location for Metalink resources. This has effect if multiple resources with same priority are available. --xattr Enable use of file system's extended attributes to save the original URL and the Referer HTTP header value if used. Be aware that the URL might contain private information like access tokens or credentials. -F --force-html Kiedy wejscie jest czytane z pliku, wymusza aby bylo traktowane jako plik HTML. Pozwala to na pobieranie wzglednych odnosnikow z istniejacych plikow HTML znajdujacych sie na lokalnym dysku naszego komputera, przez dodanie znacznika "" do pliku HTML lub uzycie opcji --base. -B URL --base=URL Przeksztalca linki wzgledne uzywajac URL-i jako punktu odniesienia, przy odczytywaniu linkow z pliku HTML okreslonego opcja -i/--input-file (razem z --force-html lub gdy plik zostal pobrany z serwera zewnetrznego, opisujacego go jako HTML). Jest to odpowiednik obecnosci znacznika BASE w pliku wejsciowym HTML, z wartoscia URL jako wartosc atrybutu href. Na przyklad przy podaniu http://foo/bar/a.html do URL i odczytaniu przez Wgeta ../baz/b.html z pliku wejsciowego, zostanie on przeksztalcony do http://foo/baz/b.html. --config=plik Specify the location of a startup file you wish to use instead of the default one(s). Use --no-config to disable reading of config files. If both --config and --no-config are given, --no-config is ignored. --rejected-log=logfile Logs all URL rejections to logfile as comma separated values. The values include the reason of rejection, the URL and the parent URL it was found in. Opcje pobierania --bind-address=adres Podczas tworzenia klienckich polaczen TCP/IP, wiaze z lokalnym komputerem, przez "bind()", zadany adres. Adres mozna podac jako nazwe hosta lub adres IP. Moze sie przydac jesli dany komputer ma przypisane kilka adresow IP. --bind-dns-address=adres [libcares only] This address overrides the route for DNS requests. If you ever need to circumvent the standard settings from /etc/resolv.conf, this option together with --dns-servers is your friend. ADDRESS must be specified either as IPv4 or IPv6 address. Wget needs to be built with libcares for this option to be available. --dns-servers=adres [libcares only] The given address(es) override the standard nameserver addresses, e.g. as configured in /etc/resolv.conf. ADDRESSES may be specified either as IPv4 or IPv6 addresses, comma-separated. Wget needs to be built with libcares for this option to be available. -t liczba --tries=liczba Ustawia liczbe prob na liczbe. 0 lub inf oznacza probowanie bez konca. Domyslna wartosc wynosi 20, z wyjatkiem bledow krytycznych, takich jak "connection refused" (odrzucono polaczenie) lub "not found" (nie znaleziono - 404), gdy nie podejmuje sie ponownych prob. -O plik --output-document=plik Dokumenty nie beda zapisywane do odpowiednich plikow, ale wszystkie zostana sklejone i zapisane do pliku. Jesli jako plik podano -, dokumenty beda zapisane na standardowe wyjscie, wylaczajac konwersje linkow (prosze uzyc ./-, aby zapisac do pliku o nazwie -). Uzycie -O nie jest przeznaczone jako "uzyj nazwy pliku zamiast tej z URL-a", lecz jest to odpowiednik przekierowania powloki: wget -O plik http://foo jest zaprojektowane do dzialania jak wget -O - http://foo > plik; plik zostanie natychmiast przyciety, i cala zawartosc pobierania zostanie do niego zapisana. Z tego powodu, -N (sprawdzanie znacznika czasowego) nie jest obslugiwane w polaczeniu z -O: poniewaz plik jest zawsze nowo tworzony, bedzie mial on zawsze calkiem nowy znacznik czasowy. Przy uzyciu tej kombinacji wyswietlane jest ostrzezenie. Podobnie, uzywanie -r lub -p z -O moze nie dzialac zgodnie z przewidywaniami: Wget nie bedzie pobieral pierwszego pliku do pliku, a reszty do zwyklych plikow; cala zawartosc pobierania zostanie umieszczona w pliku. Zostalo to wylaczone w wersji 1.11, lecz powrocilo (z ostrzezeniem) w 1.11.2, poniewaz sa przypadki, gdzie takie zachowanie moze miec sens. A combination with -nc is only accepted if the given output file does not exist. Prosze zauwazyc, ze kombinacja z -k jest dozwolona tylko przy pobieraniu pojedynczego dokumentu, poniewaz w takim przypadku, wszystkie relatywne URI zostana przeksztalcone w URI zewnetrzne. Opcja -k nie ma sensu przy wielu URI, ktore zostaly pobrane do pojedynczego pliku, stad -k moze byc uzyte tylko, jesli wyjsciem jest zwykly plik. -nc --no-clobber Jesli plik jest pobierany wiecej niz raz do tego samego katalogu, zachowanie Wgeta zalezy od kilku opcji, miedzy innymi -nc. W pewnych przypadkach istniejacy lokalny plik bedzie nadpisany lub przebity (ang. clobbered), przy powtorzeniu sciagania. W innych przypadkach zostanie zachowany. Przy uruchomieniu Wget bez opcji -N, -nc, -r lub -p pobranie tego samego pliku do tego samego katalogu spowoduje pozostawienie pierwotnego egzemplarza pliku i nadanie drugiemu nazwy plik.1. Gdy plik bedzie sciagany kolejny raz, trzeci egzemplarz otrzyma nazwe file.2, i tak dalej (jest tak rowniez z opcja -nd, nawet jesli dziala rownoczesnie -r lub -p). Przy podanej opcji -nc, zachowanie takie jest wstrzymywane, a Wget odmawia pobrania nowszych kopii pliku. Dlatego tez, "no-clobbe" jest w rzeczywistosci zla nazwa dla tego trybu -- nie chroni on przed nadpisywaniem (gdyz temu zapobiegaja juz numeryczne przyrostki), ale przed zachowywaniem wielu wersji pliku. Przy uruchomieniu Wget z -r lub -p, ale bez -N, -nd czy -nc, ponowne sciagniecie pliku powoduje, ze nowa kopia po prostu nadpisuje stara. Dodanie -nc zapobiega takiemu zachowaniu, skutkujac zamiast tego zachowaniem pierwotnej wersji i ignorowaniem ewentualnych nowych kopii z serwera. Przy uruchomieniu Wget z -N, z opcja -r lub -p albo bez niej, decyzja, czy sciagac nowa wersje pliku czy tez nie, zalezy od znacznikow czasu (dat modyfikacji) i rozmiarow lokalnego i zdalnego pliku. -nc nie mozna podawac rownoczesnie z -N. A combination with -O/--output-document is only accepted if the given output file does not exist. Prosze zauwazyc, ze jesli podano -nc, pliki z przyrostkami .html lub .htm beda odczytywane z dysku i przetwarzane tak, jakby zostaly pobrane z sieci. --backups=kopia-zapasowa Przed nadpisaniem pliku, istniejacy jest zachowywany poprzez dodanie przyrostka .1 (_1 w VMS) do nazwy pliku. Przy kolejnym przebiegu kolejne kopie zapasowe maja nazwy zmieniane na .2, .3 itd., az do osiagniecia liczby kopii-zapasowych (gdy ja przekrocza sa usuwane). --no-netrc Do not try to obtain credentials from .netrc file. By default .netrc file is searched for credentials in case none have been passed on command line and authentication is required. -c --continue Kontynuuje pobieranie czesciowo sciagnietego pliku. Przydatne, gdy chcemy dokonczyc sciaganie rozpoczete w poprzednim przebiegu Wgeta lub przez inny program. Przyklad: wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z Jesli w biezacym katalogu istnieje plik ls-lR.Z, Wget przyjmie, ze jest to poczatkowy fragment zdalnego pliku i zazada od serwera kontynuacji pobierania od przesuniecia rownego dlugosci lokalnego pliku. Prosze zauwazyc, ze nie ma potrzeby podawania tej opcji jesli chcemy tylko, by aktualnie wywolany Wget ponownie probowal sciagac plik, w polowie ktorego zostalo zerwane polaczenie. Jest to zachowanie domyslne. Opcja -c wplywa tylko na wznawianie pobran zaczetych przed biezacym wywolaniem Wget i tylko dla tych plikow, ktorych lokalne kopie nadal istnieja. Bez -c, polecenie z poprzedniego przykladu pobralby po prostu zdalny plik do ls-lR.Z.1, zostawiajac w spokoju obciety plik ls-lR.Z. If you use -c on a non-empty file, and the server does not support continued downloading, Wget will restart the download from scratch and overwrite the existing file entirely. Poczawszy od Wget 1.7, jesli uzyjemy -c dla pliku, ktorego rozmiar jest taki sam, jak na serwerze, to Wget odmowi sciagniecia pliku i wypisze komunikat objasniajacy. Tak samo dzieje sie, gdy plik jest mniejszy na serwerze niz lokalnie (prawdopodobnie dlatego, ze zostal zmieniony na serwerze od czasu naszej ostatniej proby sciagania) -- poniewaz "kontynuacja" jest bezsensowna, pobieranie nie zachodzi. Z drugiej strony, przy stosowaniu -c, kazdy plik, ktory jest wiekszy na serwerze niz lokalnie bedzie uwazany za nie w pelni sciagniety. Wowczas pobranych i doczepionych na koniec pliku lokalnego zostanie tylko "(wielkosc(zdalny) - wielkosc(lokalny))" bajtow. W pewnych przypadkach takie zachowanie jest pozadane -- na przyklad, mozna skorzystac z wget -c do sciagniecia tylko nowej porcji danych, dopisanej na koncu zbioru danych czy pliku dziennika. Jednakze, jesli plik na serwerze jest wiekszy dlatego, ze zostal zmieniony, a nie tylko doklejono do niego dane, to w efekcie otrzymamy znieksztalcony plik. Wget w zaden sposob nie moze sprawdzic, czy lokalny plik jest poprawna czescia poczatkowa zdalnego. Nalezy na to szczegolnie uwazac stosujac -c w polaczeniu z -r, gdyz kazdy plik bedzie uwazany za kandydata na "nieukonczone sciaganie". Inna sytuacja, w ktorej przy korzystaniu z -c uzyskuje sie znieksztalcony plik, zachodzi, gdy mamy do czynienia z ulomnym serwerami posredniczacymi HTTP, wstawiajacym lancuch "transfer interrupted" do lokalnego pliku. W przyszlosci bedzie moze dodana opcja "rollback", obslugujaca ten przypadek. Prosze zauwazyc, ze -c dziala tylko z serwerami FTP i HTTP, ktore obsluguja naglowek "Range". --start-pos=OFFSET Start downloading at zero-based position OFFSET. Offset may be expressed in bytes, kilobytes with the `k' suffix, or megabytes with the `m' suffix, etc. --start-pos has higher precedence over --continue. When --start-pos and --continue are both specified, wget will emit a warning then proceed as if --continue was absent. Server support for continued download is required, otherwise --start-pos cannot help. See -c for details. --progress=typ Umozliwia wskazanie typu wskaznika postepu. Dozwolonymi rodzajami wskaznika sa "dot" (kropka) i "bar" (pasek). Domyslnie stosowany jest wskaznik "bar". Rysowany jest wowczas pasek postepu zlozony ze znakow graficznych ASCII (zwany czasem wskaznikiem "termometrowym"), wskazujacy stan pobierania. Jezeli wyjsciem programu nie jest TTY, to domyslnie zostanie uzyty wskaznik typu "dot". Aby przelaczyc sie na zapis kropkowy nalezy uzyc opcji --progres=dot. Sledzi on pobieranie wypisujac kropki, a kazda oznacza okreslona ilosc pobranych danych. The progress type can also take one or more parameters. The parameters vary based on the type selected. Parameters to type are passed by appending them to the type sperated by a colon (:) like this: --progress=type:parameter1:parameter2. When using the dotted retrieval, you may set the style by specifying the type as dot:style. Different styles assign different meaning to one dot. With the "default" style each dot represents 1K, there are ten dots in a cluster and 50 dots in a line. The "binary" style has a more "computer"-like orientation---8K dots, 16-dots clusters and 48 dots per line (which makes for 384K lines). The "mega" style is suitable for downloading large files---each dot represents 64K retrieved, there are eight dots in a cluster, and 48 dots on each line (so each line contains 3M). If "mega" is not enough then you can use the "giga" style---each dot represents 1M retrieved, there are eight dots in a cluster, and 32 dots on each line (so each line contains 32M). With --progress=bar, there are currently two possible parameters, force and noscroll. When the output is not a TTY, the progress bar always falls back to "dot", even if --progress=bar was passed to Wget during invocation. This behaviour can be overridden and the "bar" output forced by using the "force" parameter as --progress=bar:force. By default, the bar style progress bar scroll the name of the file from left to right for the file being downloaded if the filename exceeds the maximum length allotted for its display. In certain cases, such as with --progress=bar:force, one may not want the scrolling filename in the progress bar. By passing the "noscroll" parameter, Wget can be forced to display as much of the filename as possible without scrolling through it. Note that you can set the default style using the "progress" command in .wgetrc. That setting may be overridden from the command line. For example, to force the bar output without scrolling, use --progress=bar:force:noscroll. --show-progress Force wget to display the progress bar in any verbosity. By default, wget only displays the progress bar in verbose mode. One may however, want wget to display the progress bar on screen in conjunction with any other verbosity modes like --no-verbose or --quiet. This is often a desired a property when invoking wget to download several small/large files. In such a case, wget could simply be invoked with this parameter to get a much cleaner output on the screen. This option will also force the progress bar to be printed to stderr when used alongside the --output-file option. -N --timestamping Wlacza stosowanie znacznikow czasu (time-stamping). --no-if-modified-since Do not send If-Modified-Since header in -N mode. Send preliminary HEAD request instead. This has only effect in -N mode. --no-use-server-timestamps Nie ustawia znacznika czasu pliku lokalnego na podstawie znacznika z serwera. Domyslnie, gdy plik jest pobierany, uzywany jest znacznik czasu pliku zdalnego. Pozwala to na uzycie opcji --timestamping w kolejnych wywolaniach wgeta. Czasem korzystniej jest ustawic znacznik czasu na podstawie rzeczywistego czasu pobierania; w tym celu powstala opcja --no-use-server-timestamps. -S --server-response Wypisuje naglowki wysylane przez serwery HTTP i odpowiedzi wysylane przez serwery FTP. --spider Wywolany z ta opcja, Wget bedzie zachowywal sie jak sieciowy pajak (Web spider), to znaczy, ze nie bedzie pobieral stron, a jedynie sprawdzal, czy tam sa. Mozna to wykorzystac to sprawdzenia zakladek (bookmarks), na przyklad tak: wget --spider --force-html -i bookmarks.html Ta funkcja wymaga jeszcze wiele pracy, by Wget osiagnal mozliwosci zblizone do prawdziwych pajakow WWW. -T seconds --timeout=sekundy Ustawia sieciowy czas oczekiwania na sekundy sekund. Jest to odpowiednik jednoczesnego podania --dns-timeout, --connect-timeout i --read-timeout. Podczas interakcji z siecia, Wget moze sprawdzic czas oczekiwania i przerwac operacje, gdy zabiera zbyt duzo czasu. Zapobiega to takim anomaliom jak zawieszenie odczytu i niekonczace sie laczenie. Jedynym domyslnym czasem oczekiwania jest 900 sekundowe oczekiwanie na odczyt. Ustawienie "0", wylaczy go. Nie poleca sie zmian domyslnych ustawien, chyba ze wie sie, co sie robi. Wszystkie opcje zwiazane z czasami oczekiwania akceptuja wartosci dziesietne oraz ulamki sekundowe, np. 0.1 jest poprawna (choc bezsensowna) wartoscia czasu oczekiwania. Wartosci mniejsze od sekundy sa przydatne do sprawdzania czasu odpowiedzi serwera lub w celu testowania opoznienia sieciowego. --dns-timeout=sekundy Ustawia czas translacji adresow DNS na sekundy sekund. Jesli translacja DNS nie zostanie ukonczona w podanym czasie, zakonczy sie bledem. Domyslnie, nie ma ograniczen czasowych innych niz wynikajacych z implementacji bibliotek systemowych. --connect-timeout=sekundy Ustawia czas oczekiwania polaczenia na sekundy sekund. Polaczenia TCP, ktore potrzebuja wiecej czasu do poprawnego nawiazania, zostana przerwane. Domyslnie, czas oczekiwania polaczenia nie jest zdefiniowany, z wylaczeniem rozwiazan zaimplementowanych w bibliotekach systemowych. --read-timeout=sekundy Ustawia czasy oczekiwania odczytu (i zapisu) na sekundy sekund. "Czas" odnosi sie tu do czasu bezczynnosci, tzn. jesli w dowolnej chwili pobierania, dane nie sa otrzymywane przez wiecej niz podana liczba sekund, to odczyt zwraca blad, a pobieranie jest restartowane. Opcja ta nie wplywa bezposrednio na czas trwania samego pobierania. Zdalny serwer moze oczywiscie przerwac polaczenie wczesniej, niz wynika to z wymagan tej opcji. Domyslny czas oczekiwania odczytu wynosi 900 sekund. --limit-rate=wielkosc Ogranicza predkosc pobierania do wielkosc bajtow na sekunde. Wielkosc moze byc wyrazona w bajtach, kilobajtach (z przyrostkiem k lub megabajtach (z przyrostkiem m. Na przyklad --limit-rate=20k ograniczy predkosc pobierania do 20 KB/s. Jest to przydatne, gdy z jakiegos powodu nie chce sie pozwolic Wgetowi na zajecie calej przepustowosci lacza. Opcja wymaga liczb dziesietnych, polaczonych z reguly z odpowiednim przyrostkiem; poprawna wartoscia jest na przyklad --limit-rate=2.5k. Prosze zauwazyc, ze implementacje Wgeta jest wstrzymywanie transferu na pewny czas po tym, gdy odczyt sieciowy zabiera mniej czasu niz wynikaloby to z zadanej przepustowosci. Ta strategia skutkuje ostatecznie spowolnieniem transferu TCP do wartosci przyblizonej do podanej. Osiagniecie zbalansowanego poziomu moze chwile potrwac, dlatego prosze sie nie dziwic, ze ograniczanie przepustowosci nie dziala zbyt dobrze w przypadku bardzo malych plikow. -w sekundy --wait=sekundy Odczekuje zadana liczbe sekund pomiedzy kolejnymi pobraniami. Zaleca sie uzywanie tej opcji, gdyz zmniejsza obciazenie serwera dzieki rzadszym zadaniom. Czas, zamiast w sekundach, mozna podac w minutach dodajac przyrostek "m", w godzinach - dodajac "h" lub w dniach - dodajac "d". Okreslanie duzej wartosci tej opcji przydaje sie jesli siec lub komputer docelowa sa wylaczone. Wowczas Wget moze odczekac wystarczajaco dlugo, by rozsadnie spodziewac sie, ze przed ponowna proba blad sieci zostal naprawiony. Na czas oczekiwania okreslony przez te opcje wplywa --random-wait. --waitretry=sekundy Opcje te stosujemy jesli nie chcemy, by Wget czekal pomiedzy kazdym pobraniem, a tylko pomiedzy ponawianymi probami nieudanych pobran. Wget zastosuje odczekiwanie liniowe (linear backoff), czekajac 1 sekunde po pierwszym niepowodzeniu z danym plikiem, nastepnie 2 sekundy po drugim niepowodzeniu z tym plikiem, az do maksymalnej liczby sekund, jaka podano. Zatem, wartosc 10 faktycznie spowoduje, ze Wget bedzie odczekiwal lacznie do (1 + 2 + ... + 10) = 55 sekund na kazdy plik. Domyslna wartosc jaka zostanie przyjeta, wynosi 10 sekund. --random-wait W niektorych z osrodkow wykonywana jest analiza plikow dziennikowych (tzw. logow), ktora ma na celu zidentyfikowanie programow do pobierania, takich jak Wget. Polega ona na wyszukiwaniu statystycznie znaczacych podobienstw miedzy roznicami czasu, jaki uplynal pomiedzy kolejnymi zadaniami. Ta opcja powoduje, ze dla zamaskowania przed takimi analizami obecnosci Wgeta czas pomiedzy zadaniami bedzie sie wahac od 0,5 do 1,5 * sekundy, gdzie sekundy podano opcja --wait (-w). W artykule z 2001, w pewnej publikacji poswieconej rozwijaniu oprogramowania na popularnych platformach klienckich, podano kod wykonujacy taka analize na biezaco. Autor sugerowal blokowanie na poziomie adresu klasy C, co ma gwarantowac, ze programy pobierajace zostana zablokowane niezaleznie od zmiany adresow przedzielanych przez DHCP. Opcja --random-wait powstala z powodu tej wlasnie nierozwaznej porady, zalecajacej blokowanie wielu postronnych uzytkownikow osrodka z powodu dzialan jednego z nich. --no-proxy Wylacza uzywanie serwerow posredniczacych, nawet jesli zdefiniowano odpowiednia zmienna srodowiskowa *_proxy. -Q wielkosc --quota=wielkosc Okresla ograniczenie wielkosci pobieranych danych przy sciaganiu automatycznym. Limit podawany jest w bajtach (domyslnie), kilobajtach (z przyrostkiem k) lub megabajtach (z przyrostkiem m). Note that quota will never affect downloading a single file. So if you specify wget -Q10k https://example.com/ls-lR.gz, all of the ls-lR.gz will be downloaded. The same goes even when several URLs are specified on the command-line. The quota is checked only at the end of each downloaded file, so it will never result in a partially downloaded file. Thus you may safely type wget -Q2m -i sites---download will be aborted after the file that exhausts the quota is completely downloaded. Ustawienie limitu na 0 lub na inf znosi ograniczenie pobierania. --no-dns-cache Wylacza buforowanie translacji DNS. Wget zwykle zapamietuje przetlumaczone adresy IP z DNS, dzieki czemu nie musi odpytywac ponownie serwera DNS w sprawie tego samego (zwykle malego) zestawu hostow, z ktorych nastepuje pobieranie. Bufor istnieje wylacznie w pamieci; nowa kopia Wgeta ponownie odpyta serwery DNS. W niektorych przypadkach zostalo zgloszone, ze buforowanie nazw hostow nie jest pozadane nawet, gdy trwa to tylko tyle, ile dzialanie Wgeta. Po uzyciu tej opcji, Wget wysyla nowe zadanie translacji DNS (bardziej precyzyjnie: nowe wywolanie gethostbyname lub getaddrinfo) przy kazdym zestawianiu nowego polaczenia. Prosze zauwazyc, ze opcja ta nie wplywa na buforowanie, ktore moze byc wykonywane przez odpowiednia biblioteke lub w zewnetrznej warstwie buforowania, takiej jak NSCD. Jesli przeznaczenie tej opcji nie jest calkowicie jasne, prawdopodobnie nie ma potrzeby jej stosowania. --restrict-file-names=tryby Zmienia znaki, ktore maja byc cytowane w odnosnikach zewnetrznych podczas tworzenia lokalnych nazw plikow. Znaki, ktore sa ograniczone przez te opcje, sa cytowane - tzn. zastepowane przez %HH, gdzie HH jest liczba szesnastkowa odpowiadajaca ograniczonemu znakowi. Opcje mozna wykorzystac rowniez do wymuszenia okreslonej wielkosci liter. Domyslnie, Wget cytuje znaki, ktore nie sa prawidlowe lub bezpieczne jako czesc nazwy pliku w danym systemie operacyjnym, jak rowniez znaki kontrolne, ktore zwykle nie sa wyswietlane. Opcja jest przydatna do zmiany wartosci domyslnych, np. poniewaz plik zostal pobrany na partycje nienatywna, aby wylaczyc cytowanie znakow kontrolnych lub aby jeszcze bardziej ograniczyc zestaw znakow, do wartosci ASCII. Tryby sa zestawem wartosci tekstowych, oddzielonych przecinkiem. Akceptowanymi wartosciami sa: unix, windows, nocontrol, ascii, lowercase i uppercase. Wartosci unix i windows sa wzajemnie sprzeczne (jedna przesloni druga), podobnie jak lowercase i uppercase. Dwie ostatnie sa wartosciami specjalnymi, poniewaz nie zmieniaja one zestawu znakow do cytowania, lecz wymuszaja przeksztalcenie sciezek plikow lokalnych na, odpowiednio, male litery i duze litery. Jesli uzyje sie trybu unix, to Wget bedzie cytowal znak / oraz znaki kontrolne z przedzialow 0-31 i 128-159. Jest to domyslne zachowanie w systemach uniksowych. Przy podaniu trybu windows, Wget cytuje znaki \, |, /, :, ?, ", *, <, > oraz znaki kontrolne w przedzialach 0-31 i 128-159. Dodatkowo, w lokalnych nazwach plikow, w trybie windowsowym Wget oddziela nazwe komputera i port znakiem + zamiast :, oraz uzywa @ zamiast ? do oddzielenia czesci zapytania w nazwie pliku od reszty. Dlatego, URL ktory w trybie uniksowym zostalby zachowany jako www.xemacs.org:4300/search.pl?input=blah, w trybie windowsowym zostanie zapisany jako www.xemacs.org+4300/search.pl@input=blah. Jest to domyslny tryb w systemie Windows. Tryb nocontrol wylacza cytowanie znakow kontrolnych. Opcja ta ma sens, gdy pobierane sa URL-e zawierajace znaki UTF-8 w systemie, ktory moze zapisywac i wyswietlac nazwy plikow w UTF-8 (czesc mozliwych wartosci bajtow uzywanych w sekwencjach UTF-8 miesci sie w zakresie wartosci opisywanych przez Wgeta jako "kontrolne". Tryb ascii cytuje wszystkie bajty spoza zakresu znakow ASCII (czyli wieksze niz 127). Przydatne, gdy kodowanie nazw plikow nie pasuje do tego uzywanego lokalnie. -4 --inet4-only -6 --inet6-only Wymusza polaczenia z adresami IPv4 lub IPv6. Z opcja --inet4-only lub -4, Wget polaczy sie wylacznie z adresami IPv4, ignorujac rekordy AAAA w DNS i odmawiajac polaczenia z adresami IPv6 podanymi w URL-u. Analogicznie, opcja --inet6-only lub -6 spowoduje laczenie sie wylacznie z adresami IPv6 i ignorowanie rekordow A i adresow IPv4. Nie powinno sie zwykle uzywac zadnej z tych opcji. Domyslnie, Wget obslugujacy adresy IPv6 bedzie uzywal rodziny adresow okreslonych przez rekord DNS hosta. Jesli DNS odpowie zarowno adresem IPv4 jak i IPv6, to Wget sprobuje polaczyc sie z nimi po kolei, dopoki mu sie to nie uda (zob. tez opcja --prefer-family opisana ponizej). Opcje te moga posluzyc do celowego wymuszenia uzycia rodzin adresow IPv4 lub IPv6 w systemach o podwojnej rodzinie adresow, zwykle w celu pomocy w debugowaniu lub do obslugi nieprawidlowej konfiguracji sieci. W tym samym czasie mozna uzyc tylko jednej z opcji --inet6-only i --inet4-only. Zadna z nich nie jest dostepna we Wgecie skompilowanym bez obslugi IPv6. --prefer-family=none/IPv4/IPv6 Gdy do wyboru bedzie kilka adresow, laczy sie najpierw z adresami z podanej rodziny. Kolejnosc adresow zwrocona przez DNS domyslnie jest uzywana bez zmian. Zapobiega sie w ten sposob falszywym bledom i probom laczenia przy dostepnie do hostow, ktore obsluguja zarowno adresy IPv6 jak i IPv4 z sieci IPv4. Na przyklad www.kame.net tlumaczy sie na 2001:200:0:8002:203:47ff:fea5:3085 i 203.178.141.194. Jesli preferowana rodzina adresow jest "IPv4", to one sa uzywane jako pierwsze; jesli preferowana rodzina jest "IPv6", adresy IPv6 maja pierwszenstwo. Jesli podana wartoscia jest "none", to uzywana jest kolejnosc adresow zwracana przez DNS. W przeciwienstwie do opcji -4 i -6, ta opcja nie wyklucza dostepu do ktorejs rodziny adresow - zmienia jedynie kolejnosc wykorzystania adresow. Prosze rowniez zauwazyc, ze zmiana kolejnosci wykonywana za pomoca tej opcji jest stabilna - nie dotyka kolejnosci adresow w tej samej rodzinie. Oznacza to, ze wzgledna kolejnosc adresow IPv4 i adresow IPv6, we wszystkich przypadkach pozostaje bez zmian. --retry-connrefused Uznaje "odrzucenie polaczenia" za blad przejsciowy i probuje ponownie. Zwykle Wget poddaje sie w przypadku URL-i, przy ktorych nie moze sie polaczyc, poniewaz taki blad uznawany jest za znak calkowitego niedzialania serwera i ponowne proby zwykle nie przynioslyby rezultatu. Opcja jest przeznaczona do tworzenia kopii lustrzanych stron na niestabilnych serwerach, ktore maja tendencje do znikania na krotki czas z sieci. --user=uzytkownik --password=haslo Okresla uzytkownika uzytkownik i haslo haslo do pobierania plikow za pomoca FTP i HTTP. Mozna przeslonic te parametry za pomoca opcji --ftp-user i --ftp-password w przypadku polaczen FTP oraz --http-user i --http-password w przypadku polaczen HTTP. --ask-password Pyta o haslo po zestawieniu kazdego polaczenia. Nie mozna uzyc tej opcji z --password, poniewaz wzajemnie sie wykluczaja. --use-askpass=polecenie Prompt for a user and password using the specified command. If no command is specified then the command in the environment variable WGET_ASKPASS is used. If WGET_ASKPASS is not set then the command in the environment variable SSH_ASKPASS is used. You can set the default command for use-askpass in the .wgetrc. That setting may be overridden from the command line. --no-iri Wylacza obsluge URI ze znakami narodowymi (IRI). Opcja --iri wlacza ja. Obsluga IRI jest domyslnie wlaczona. Mozna ustawic domyslna wartosc obslugi IRI za pomoca polecenia iri w .wgetrc, ktore moze byc przesloniete z wiersza polecen. --local-encoding=kodowanie Wymusza uzycie kodowania jako domyslnego kodowania systemowego. Wplywa to na sposob, w jaki Wget przeksztalca URL-e podane jako argumenty do kodowania UTF-8, w celu obslugi IRI. Wget uzywa funkcji nl_langinfo(), a nastepnie zmiennej srodowiskowej CHARSET w celu ustalenia kodowania. Jesli nie powiedzie sie to, uzywane jest ASCII. Mozna ustawic domyslne kodowanie lokalne za pomoca polecenia local_encoding w .wgetrc, ktore moze byc przesloniete z wiersza polecen. --remote-encoding=kodowanie Wymusza uzycie kodowania jako domyslnego kodowania serwera zdalnego. Wplywa to na sposob tlumaczenia URI znajdowanych w plikach, z kodowania zdalnego na UTF-8 podczas pobierania rekurencyjnego.Opcja jest przydatna tylko do obslugi IRI, w celu interpretacji znakow spoza ASCII. W przypadku HTTP, kodowanie zdalne mozna znalezc w naglowku HTTP Content-Type i w metaznaczniku Content-Type http-equiv. Mozna ustawic domyslne kodowanie za pomoca polecenia remoteencoding w .wgetrc, ktore moze byc przesloniete z wiersza polecen. --unlink Wymusza wykonywanie unlink na plikach, zamiast przebijania plikow istniejacych. Opcja jest przydatna w przypadku pobierania do katalogu zawierajacego dowiazania zwykle (twarde). Opcje katalogow -nd --no-directories Nie tworzy hierarchii katalogow przy pobieraniu rekurencyjnym. Po wlaczeniu tej opcji wszystkie pliki beda zapisywane do biezacego katalogu bez przebijania (jesli nazwa pojawi sie wiecej niz raz, nazwy plikow otrzymaja rozszerzenie .n). -x --force-directories Przeciwienstwo -nd. Wymusza utworzenie hierarchii katalogow nawet jesli nie mialaby byc stworzona. Np. wget -x http://fly.srk.fer.hr/robots.txt zapisze sciagniety plik jako fly.srk.fer.hr/robots.txt. -nH --no-host-directories Wylacza tworzenie katalogow z nazwa hosta jako przedrostkiem. Domyslnie, -r http://fly.srk.fer.hr/ spowoduje utworzenie struktury katalogow zaczynajacej sie od fly.srk.fer.hr/, gdzie trafi cala reszta. Ta opcja wylacza takie zachowanie. --protocol-directories Uzywa nazwy protokolu jako czesci nazwy katalogu plikow lokalnych. Na przyklad, po uzyciu tej opcji wget -r http://host zostanie zapisane do katalogu http/host/... zamiast do host/.... --cut-dirs=liczba Ignoruje podana liczbe skladowych katalogu. Przydatne do precyzyjnego sterowania katalogami, w ktorych beda skladowane pliki z pobierania rekurencyjnego. Wezmy, na przyklad, katalog ftp://ftp.xemacs.org/pub/xemacs/. Jezeli pobierzemy go z -r, to lokalnie zostanie zachowany jako ftp.xemacs.org/pub/xemacs/. Mimo ze opcja -nH pozwala na usuniecie czesci ftp.xemacs.org/, nadal utkniemy z pub/xemacs. Tu wlasnie z pomoca przychodzi --cut-dirs. Powoduje, ze Wget "nie widzi" zadanej liczby skladowych zdalnego katalogu. Oto kilka przykladow pokazujacych, jak dziala opcja --cut-dirs. Brak opcji -> ftp.xemacs.org/pub/xemacs/ -nH -> pub/xemacs/ -nH --cut-dirs=1 -> xemacs/ -nH --cut-dirs=2 -> . --cut-dirs=1 -> ftp.xemacs.org/xemacs/ ... Jesli chcemy po prostu pozbyc sie struktury katalogow, to opcja ta jest podobna do kombinacji -nd i -P. Jednak --cut-dirs, w przeciwienstwie do -nd, nie pozbywa sie podkatalogow -- na przyklad, przy -nH --cut-dirs=1, podkatalog beta/ bedzie, zgodnie z oczekiwaniami, umieszczony w xemacs/beta. -P przedrostek --directory-prefix=prefiks Ustawia przedrostek katalogow na prefiks. Przedrostek katalogow oznacza katalog, zostana zapisane wszystkie inne pliki i katalogi, tzn. wierzcholek drzewa pobierania. Domyslnym przedrostkiem jest ., katalog biezacy. Opcje HTTP --default-page=nazwa Uzywa nazwy jako domyslnej nazwy pliku, gdy nie jest ona znana (np. w przypadku URL-ow konczacych sie ukosnikiem), zamiast index.html. -E --adjust-extension Jesli pobierany jest plik typu application/xhtml+xml lub text/html a jego URL nie konczy sie wyrazeniem regularnym \.[Hh][Tt][Mm][Ll]?, to opcja ta spowoduje dodanie przyrostka .html do lokalnej nazwy pliku. Przydatne, na przyklad, gdy tworzymy kopie lustrzana witryny, ktora uzywa stron .asp, ale chcemy, by pozyskane strony dawaly sie przegladac za pomoca wlasnego serwera Apache. Innym dobrym zastosowaniem jest pobieranie wyjscia generowanego przez skrypty CGI. URL typu http://site.com/article.cgi?25 zostanie zachowany jako article.cgi?25.html. Prosze zauwazyc, ze pliki o zmienionych w ten sposob nazwach beda ponownie pobierane za kazdym razem gdy bedziemy odswiezac kopie lustrzana witryny. Dzieje sie tak, poniewaz Wget nie potrafi stwierdzic, ze lokalny plik X.html odpowiada zdalnemu URL-owi X (gdyz nie wie, ze ten URL tworzy wyjscie typu text/html lub application/xhtml+xml). Wget upewni sie tez (stan na wersje 1.12), ze pobierane pliki typu text/css koncza sie przyrostkiem .css. Zmieniono nazwe tej opcji z --html-extension, aby lepiej oddac to nowe zachowanie. Stara nazwa opcji jest wciaz akceptowana, ale jest przestarzala. As of version 1.19.2, Wget will also ensure that any downloaded files with a "Content-Encoding" of br, compress, deflate or gzip end in the suffix .br, .Z, .zlib and .gz respectively. W przyszlosci, opcja moze zostac poszerzona, aby objac rowniez przyrostki innych typow zawartosci, w tym takich, ktore nie sa przetwarzane przez Wget. --http-user=uzytkownik --http-password=haslo Okresla nazwe uzytkownika i haslo, ktore Wget przesle serwerowi HTTP. W zaleznosci od rodzaju protokolu wezwanie-odpowiedz, Wget koduje je stosujac albo uwierzytelnianie podstawowe (basic, niechronione), albo w oparciu o skrot (digest) lub tez korzystajac z metody Windowsa (NTLM). Another way to specify username and password is in the URL itself. Either method reveals your password to anyone who bothers to run "ps". To prevent the passwords from being seen, use the --use-askpass or store them in .wgetrc or .netrc, and make sure to protect those files from other users with "chmod". If the passwords are really important, do not leave them lying in those files either---edit the files and delete them after Wget has started the download. --no-http-keep-alive Wylacza funkcje "keep-alive" pobieran HTTP. Wget zwykle prosi serwer o utrzymywanie otwartego polaczenia, dzieki czemu, jesli pobiera sie wiecej niz jeden dokument z tego samego serwera, sa przesylane tym samym polaczeniem TCP. Oszczedza to czas i redukuje obciazenie serwera. Opcja jest przydatna, gdy polaczenia stale (keep-alive) nie dzialaja poprawnie, np. z powodu bledu serwera lub niemoznosci obslugi takich polaczen przez skrypty po stronie serwera. --no-cache Disable server-side cache. In this case, Wget will send the remote server appropriate directives (Cache-Control: no-cache and Pragma: no-cache) to get the file from the remote service, rather than returning the cached version. This is especially useful for retrieving and flushing out-of-date documents on proxy servers. Domyslnie, buforowanie jest dozwolone. --no-cookies Wylacza uzywanie ciasteczek (cookies). Ciasteczka sa mechanizmem do przechowywania stanu po stronie serwera. Serwer przesyla klientowi ciasteczko stosujac naglowek Set-Cookie, a klient przy pozniejszych zadaniach odpowiada tym samym ciasteczkiem. Poniewaz ciasteczka umozliwiaja wlascicielom serwera prowadzenie rejestrow gosci i wymiane sie tymi informacjami z innymi osrodkami, niektorzy uwazaja je za pogwalcenie prywatnosci. Domyslnie cookies sa uzywane, jednak ich zapisywanie nie jest domyslnie wlaczone. --load-cookies plik Przed pierwszym pobraniem HTTP wczytuje ciasteczka z pliku. Plik jest plikiem tekstowym w formacie, jaki pierwotnie zastosowano dla pliku cookies.txt przegladarki Netscape. Na ogol korzysta sie z tej opcji przy tworzeniu kopii lustrzanych tych osrodkow, ktore do skorzystania z czesci lub calosci zasobow wymagaja zalogowania sie. Proces logowania sie zwykle polega na tym, ze po otrzymaniu od nas informacji uwierzytelniajacej i jej zweryfikowaniu serwer WWW wysyla ciasteczko HTTP. Nastepnie, gdy przegladarka siega do zasobow, odsyla serwerowi otrzymane ciasteczko, potwierdzajac w ten sposob nasza tozsamosc. Utworzenie kopii tego rodzaju witryny wymaga wysylania przez Wget takich samych ciasteczek, jakie podczas komunikowania sie z tym osrodkiem przesyla nasza przegladarka. Osiaga sie to za pomoca --load-cookies -- wystarczy wskazac programowi lokalizacje pliku cookies.txt, a on wysle te same ciasteczka, ktore w tej samej sytuacji wyslalaby przegladarka. Poszczegolne przegladarki przechowuja tekstowe pliki ciasteczek w roznych miejscach: "Netscape 4.x." Ciasteczka sa w ~/.netscape/cookies.txt. "Mozilla and Netscape 6.x." Plik ciasteczek Mozilli nazywa sie rowniez cookies.txt, jest polozony gdzies w ~/.mozilla, w katalogu wlasciwym dla profilu uzytkownika. Pelna sciezka zazwyczaj konczy sie czyms w rodzaju ~/.mozilla/default/cos-dziwnego/cookies.txt. "Internet Explorer." Ciasteczko, jakiego moglby uzyc Wget, mozna utworzyc korzystajac z menu "Plik" i opcji "Importuj i Eksportuj", "Eksportuj pliki cookie". Zostalo to przetestowane z Internet Explorerem 5 -- nie ma gwarancji, ze bedzie dzialac z wczesniejszymi wersjami. "Other browsers." Jezeli do tworzenia ciasteczek korzysta sie z innej przegladarki, --load-cookies bedzie dzialac tylko wtedy, gdy uda sie je zlokalizowac lub utworzyc plik ciasteczek w formacie Netscape, jakiego oczekuje Wget. Jesli nie mozna skorzystac z --load-cookies, jest jeszcze inna mozliwosc. Jesli uzywana przegladarka udostepnia "menedzera plikow cookie", mozna z niego skorzystac, zeby podgladnac ciasteczka, jakie zostaly wykorzystane podczas uzyskiwania dostepu do witryny, ktorej kopie chce sie utworzyc. Prosze zapisac nazwe i wartosc ciasteczka, a nastepnie recznie nakazac Wgetowi wyslanie ciasteczka o zadanej postaci, obchodzac rownoczesnie "oficjalny" kod odpowiedzialny za obsluge ciasteczek: wget --no-cookies --header "Cookie: I=I" --save-cookies plik Zachowuje ciasteczka do pliku przed wyjsciem. Nie zostana zapisane ciasteczka przeterminowane lub nieposiadajace daty waznosci (zwane "ciasteczkami sesyjnymi"); por. --keep-session-cookies. --keep-session-cookies Po podaniu, powoduje ze --save-cookies zachowuje rowniez ciasteczka sesyjne, ktore zwykle nie sa zapisywane, poniewaz sa przeznaczone do zachowania w pamieci i usuniecia z niej po zamknieciu przegladarki. Zachowywanie ich moze byc przydatne na stronach, ktore wymagaja logowania lub odwiedzenia strony glownej przed uzyskaniem dostepu do innych stron. Po skorzystaniu z tej opcji, rozne przebiegi Wgeta moga byc traktowane jako jedna sesja przegladarki, w zaleznosci od strony internetowej. Poniewaz format pliku ciasteczek nie przechowuje zwykle ciasteczek sesyjnych, Wget oznacza je znacznikiem czasowym przedawnienia rownym 0. Opcja --load-cookies rozpoznaje je jako ciasteczka sesyjne, lecz moze to zmylic inne przegladarki. Prosze zwrocic uwage, ze tak zaladowane ciasteczka beda traktowane jak inne ciasteczka sesji, co oznacza, ze trzeba uzyc opcji --keep-session-cookies ponownie, aby zachowac je za pomoca opcji --save-cookies. --ignore-length Niestety, niektore serwery HTTP (dokladniej mowiac, programy CGI) wysylaja bledne naglowki Content-Length, co powoduje, ze Wget glupieje, sadzac, ze nie zostala pobrana calosc dokumentu. Syndrom ten mozna uchwycic, gdy Wget probuje w kolko pobierac ten sam dokument, za kazdym razem twierdzac, ze (inaczej niz zwykle) polaczenie zostalo zamkniete na dokladnie tym samym bajcie. Wywolany z ta opcja, Wget bedzie ignorowal naglowek Content-Length, tak jakby nie istnial. --header=wiersz-naglowka Wysyla wiersz-naglowka razem z pozostala czescia naglowka w kazdym zadaniu HTTP. Podany naglowek jest wysylany bez zmian, tak wiec musi zawierac nazwe i wartosc (po dwukropku) i nie moze zawierac znaku nowego wiersza. Mozliwe jest okreslenie wiecej niz jednego dodatkowego naglowka przez kilkakrotne podanie opcji --header. wget --header='Accept-Charset: iso-8859-2' \ --header='Accept-Language: hr' \ http://fly.srk.fer.hr/ Podanie pustego lancucha jako naglowka kasuje wszystkie uprzednio zdefiniowane przez uzytkownika naglowki. Od Wgeta 1.10, mozna uzyc tej opcji do przesloniecia naglowkow, ktore bylyby wygenerowane automatycznie. Oto przyklad nakazania Wgetowi polaczenie z komputerem lokalnym, jednak podajac foo.bar w naglowku Host: wget --header="Host: foo.bar" http://localhost/ W wersjach ponizej 1.10, takie uzycie opcji --header powodowalo wysylanie zduplikowanych naglowkow. --compression=typ Choose the type of compression to be used. Legal values are auto, gzip and none. If auto or gzip are specified, Wget asks the server to compress the file using the gzip compression format. If the server compresses the file and responds with the "Content-Encoding" header field set appropriately, the file will be decompressed automatically. If none is specified, wget will not ask the server to compress the file and will not decompress any server responses. This is the default. Compression support is currently experimental. In case it is turned on, please report any bugs to "bug-wget@gnu.org". --max-redirect=liczba Okresla maksymalna liczbe przekierowan w celu dotarcia do zasobu. Domyslnie jest to 20, czyli znaczniej wiecej niz z reguly potrzeba. Opcja moze sie przydac, jesli zajdzie potrzeba pozwolenia na wiecej (lub mniej) przekierowan. --proxy-user=uzytkownik --proxy-passwd=haslo Okreslaja nazwe uzytkownika i haslo, ktore zostana uzyte do uwierzytelnianiana serwerze posredniczacym. Wget koduje je stosujac podstawowy (basic) schemat uwierzytelniania. Odnosza sie do tego podobne zagadnienia zwiazane z bezpieczenstwem, jak w przypadku opcji --http-password. --referer=url Zamieszcza naglowek "Referer: url" w zadaniu HTTP. Przydatne do pobierania dokumentow z takim przetwarzaniem po stronie serwera, ktore zaklada, ze sa one zawsze pobierane przez interaktywne przegladarki internetowe i uznawane za poprawne tylko wtedy, gdy Referer jest ustawione na jedna ze stron, ktore na nie wskazuja. --save-headers Zapisuje naglowki wysylane przez serwer HTTP do pliku, przed wlasciwa zawartoscia, z pustym wierszem jako separatorem. -U nazwa-agenta --user-agent=nazwa-agenta Serwerowi HTTP przedstawia sie jako agent o podanej nazwie. Protokol HTTP pozwala klientom na podanie, za pomoca pola User-Agent naglowka swojej tozsamosci. Umozliwia to rozroznianie oprogramowania WWW, zwykle do celow statystycznych lub sledzenia naruszen protokolu. Wget normalnie przedstawia sie jako Wget/wersja, gdzie wersja jest aktualnym numerem wersji programu. Znane sa jednak pewne witryny narzucajace polityke przykrawania wynikow stosownie do informacji dostarczonej im w polu User-Agent. Mimo iz koncepcyjnie nie jest to taki zly pomysl, zaczal byc naduzywany przez serwery odmawiajace informacji klientom innym niz (kiedys) Netscape lub, czesciej, Internet Explorer. Ta opcja umozliwia zmiane linii User-Agent wysylanej przez Wget. Nie zachecamy do uzywania tej opcji, chyba ze z pelna swiadomoscia. Podanie pustego lancucha za pomoca --user-agent="" powoduje, ze Wget nie bedzie wysylal naglowka User-Agent w zadaniach HTTP. --post-data=lancuch --post-file=plik Uzywa metody POST do wszystkich zadan HTTP i wysyla podane dane w ciele zadania. --post-data wysyla lancuch jako dane, podczas gdy --post-file wysyla zawartosc pliku. W pozostalych aspektach ich dzialanie jest identyczne. W szczegolnosci obie opcje oczekuja zawartosci w postaci klucz=wartosc&klucz2=wartosc2, kodowaniem znakow specjalnych w postaci procentowej; jedyna roznica jest, ze jedna oczekuje zawartosci jako parametru wiersza polecenia, a druga akceptuje swa tresc z pliku. W szczegolnosci, --post-file nie przysyla plikow w postaci zalacznikow, musza byc to dane w postaci klucz=wartosc (z wlasciwym kodowaniem "procentowym"), jak zaznaczono wyzej. Wget nie obsluguje obecnie multipart/form-data przy przesylaniu danych POST, a jedynie application/x-www-form-urlencoded. Prosze uzyc jedynie jednej z opcji --post-data i --post-file. Prosze zauwazyc, ze wget nie wymaga aby zawartosc byla w postaci "klucz1=wartosc1&klucz2=wartosc2" ani nie sprawdza tego. Wget przesyla takie dane, jakie mu dostarczono. Wiekszosc serwerow oczekuje jednak, aby dane POST wystepowaly w powyzszej postaci przy przetwarzaniu formularzy HTML. When sending a POST request using the --post-file option, Wget treats the file as a binary file and will send every character in the POST request without stripping trailing newline or formfeed characters. Any other control characters in the text will also be sent as-is in the POST request. Prosze zwrocic uwage, ze Wget musi znac rozmiar danych POST z gory. W zwiazku z tym, argumentem do opcji --post-file musi byc zwykly plik; przekazanie potoku FIFO lub czegos takiego jak /dev/stdin nie zadziala. Nie jest do konca jasne, jak obejsc to ograniczenie wpisane w protokol HTTP/1.0. Choc HTTP/1.1 wprowadza transfer fragmentaryczny, ktory nie wymaga wiedzy o dlugosci zadania z gory, to klient nie moze go uzywac, dopoki nie wie, ze komunikuje sie z serwerem HTTP/1.1. Nie moze tego wiedziec, dopoki nie otrzyma odpowiedzi, ktora wymaga pelnego zadania... Uwaga: Wedlug stanu na wersje 1.15 przy przekierowaniu Wgeta po sfinalizowaniu zadania POST, zachowanie programu bedzie zalezalo od kodu zwroconego przez serwer. Jesli bedzie to 301 Moved Permanently, 302 Moved Temporarily lub 307 Temporary Redirect, Wget, zgodnie z RFC2616, bedzie kontynuowal wysylanie zadania POST. Jesli serwer chce zmienic metode zadan klienta przy przekierowaniu powinien wyslac kod 303 See Other. Przyklad pokazuje, jak zalogowac sie do serwera uzywajacego POST, a nastepnie przejsc do pobierania zadanych stron, dostepnych prawdopodobnie tylko dla uzytkownikow uwierzytelnionych: # Logowanie do serwera. Mozna to zrobic tylko raz. wget --save-cookies cookies.txt \ --post-data 'user=foo&password=bar' \ http://example.com/auth.php # Teraz przechwytujemy strone lub strony o ktore nam chodzi. wget --load-cookies cookies.txt \ -p http://example.com/interesting/article.php Jesli serwer uzywa ciasteczek sesji do sledzenia uwierzytelnienia uzytkownika, to powyzszy przyklad nie zadziala, poniewaz --save-cookies nie zachowa ich (podobnie jak przegladarki), a plik cookies.txt bedzie pusty. W takim przypadku, oprocz --save-cookies nalezy uzyc rowniez --keep-session-cookies. --method=metoda-HTTP Do skryptow "restowych" (RESTfull, gdzie REST oznacza Representational State Transfer) Wget pozwala na wyslanie innych metod HTTP bez koniecznosci jawnego ustawiania ich przy pomocy opcji --header=Header-Line. Wget uzyje takiego lancucha, jaki jest mu podany po --method jako metoda HTTP do serwera. --body-data=lancuch-danych --body-file=plik-danych Opcja musi byc ustawiona gdy konieczne jest wyslanie dodatkowych danych do serwera przy uzyciu metody podanej w --method. --body-data wysyla lancuch-danych jako dane, a --body-file wysyla zawartosc pliku-danych. Poza tym obie opcje dzialaja tak samo. Obecnie --body-file nie sluzy do transmisji plikow jako calosci. Wget nie obsluguje w tej chwili "multipart/form-data" do transmisji danych, a jedynie "application/x-www-form-urlencoded". W przyszlosci moze sie to zmienic tak, aby wget wysylal --body-file jako caly plik zamiast wysylania jego zawartosci na serwer. Prosze zauwazyc, ze Wget musi znac wpierw zawartosc danych BODY, dlatego argument do opcji --body-file powinien byc zwyklym plikiem. Wiecej szczegolow znajduje sie w opisie opcji --post-file. Powinno sie podawac albo opcje --body-data albo --body-file. Jesli Wget zostanie przekierowany po sfinalizowaniu zadania, wznowi biezaca metode i bedzie wysylal zadanie GET az do zakonczenia przekierowania. Jest tak w przypadku wszystkich kodow z wyjatkiem 307 Temporary Redirect, ktory sluzy do bezposredniego wskazania, ze metoda nie powinna sie zmienic. Inny wyjatek ma miejsce gdy metoda jest ustawiona na "POST", poniewaz wowczas przestrzegane sa zasady okreslone przez --post-data. --content-disposition Opcja wlacza eksperymentalna (niepelna) obsluge naglowka Content-Disposition. Moze to obecnie spowodowac dodatkowe kluczenie serwera zwiazane z zadaniami HEAD, znane jest rowniez kilka bledow, co powoduje, ze opcja ta domyslnie nie jest wlaczona. Opcja jest przydatna niektorym programom CGI pobierajacym pliki, ktore uzywaja naglowkow Content-Disposition do opisania nazwy pobieranego pliku. When combined with --metalink-over-http and --trust-server-names, a Content-Type: application/metalink4+xml file is named using the "Content-Disposition" filename field, if available. --content-on-error Jesli ta opcja jest wlaczona, to wget nie bedzie pomijal zawartosci gdy serwer odpowie kodem statusu http wskazujacym na blad. --trust-server-names If this is set, on a redirect, the local file name will be based on the redirection URL. By default the local file name is based on the original URL. When doing recursive retrieving this can be helpful because in many web sites redirected URLs correspond to an underlying file structure, while link URLs do not. --auth-no-challenge Jesli opcja jest podana, Wget bedzie wysylal proste (Basic) informacje uwierzytelniajace HTTP (nazwa uzytkownika i haslo w jawnym tekscie) przy wszystkich zadaniach, tak jak domyslnie robil to Wget w wersjach 1.10.2 i wczesniejszych. Uzywanie tej opcji nie jest zalecane, jako ze zostala przeznaczona jedynie do obslugiwania kilku zapomnianych serwerow, ktore nigdy nie wysylaja pytan o uwierzytelnienie HTTP, lecz akceptuja niezadane informacje uwierzytelniajace, oprocz uwierzytelnienia opartego na formularzu. --retry-on-host-error Consider host errors, such as "Temporary failure in name resolution", as non-fatal, transient errors. --retry-on-http-error=code[,code,...] Consider given HTTP response codes as non-fatal, transient errors. Supply a comma-separated list of 3-digit HTTP response codes as argument. Useful to work around special circumstances where retries are required, but the server responds with an error code normally not retried by Wget. Such errors might be 503 (Service Unavailable) and 429 (Too Many Requests). Retries enabled by this option are performed subject to the normal retry timing and retry count limitations of Wget. Using this option is intended to support special use cases only and is generally not recommended, as it can force retries even in cases where the server is actually trying to decrease its load. Please use wisely and only if you know what you are doing. Opcje (SSL/TLS) HTTPS To support encrypted HTTP (HTTPS) downloads, Wget must be compiled with an external SSL library. The current default is GnuTLS. In addition, Wget also supports HSTS (HTTP Strict Transport Security). If Wget is compiled without SSL support, none of these options are available. --secure-protocol=protokol Choose the secure protocol to be used. Legal values are auto, SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2, TLSv1_3 and PFS. If auto is used, the SSL library is given the liberty of choosing the appropriate protocol automatically, which is achieved by sending a TLSv1 greeting. This is the default. Podanie SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2 lub TLSv1_3 wymusza uzycie odpowiedniego protokolu. Jest to przydatne przy komunikacji ze starymi i blednymi implementacjami SSL serwera, ktore nie pozwalaja na latwy wybor poprawnej wersji protokolu przez biblioteke SSL. Na szczescie, takie serwery sa rzadkoscia. Specifying PFS enforces the use of the so-called Perfect Forward Security cipher suites. In short, PFS adds security by creating a one-time key for each SSL connection. It has a bit more CPU impact on client and server. We use known to be secure ciphers (e.g. no MD4) and the TLS protocol. This mode also explicitly excludes non-PFS key exchange methods, such as RSA. --https-only W trybie rekurencyjnym podaza wylacznie za odnosnikami HTTPS. --ciphers Set the cipher list string. Typically this string sets the cipher suites and other SSL/TLS options that the user wish should be used, in a set order of preference (GnuTLS calls it 'priority string'). This string will be fed verbatim to the SSL/TLS engine (OpenSSL or GnuTLS) and hence its format and syntax is dependent on that. Wget will not process or manipulate it in any way. Refer to the OpenSSL or GnuTLS documentation for more information. --no-check-certificate Nie sprawdza certyfikatu serwera pod katem dostepnego osrodka certyfikacji. Nie wymaga rowniez tego, aby nazwa hosta URL-a pasowala do nazwy ogolnej w certyfikacie. Od wersji 1.10, Wget domyslnie weryfikuje certyfikat serwera w odniesieniu do znanych osrodkow certyfikacji, przerywajac nawiazanie polaczenia SSL (handshaking) i pobieranie pliku, jesli weryfikacja sie nie powiedzie. Choc zwieksza sie w ten sposob bezpieczenstwo pobieran, zrywa to jednak kompatybilnosc z niektorymi stronami, ktore dzialaly z poprzednimi wersjami Wgeta, szczegolnie korzystajacymi z podpisanych przez siebie, wygaslych lub niepoprawnych z innego powodu certyfikatow. Opcja ta wymusza "niebezpieczny" tryb dzialania, ktory zmienia bledy weryfikacji certyfikatow w ostrzezenia i pozwala kontynuowac. If you encounter "certificate verification" errors or ones saying that "common name doesn't match requested host name", you can use this option to bypass the verification and proceed with the download. Only use this option if you are otherwise convinced of the site's authenticity, or if you really don't care about the validity of its certificate. It is almost always a bad idea not to check the certificates when transmitting confidential or important data. For self-signed/internal certificates, you should download the certificate and verify against that instead of forcing this insecure mode. If you are really sure of not desiring any certificate verification, you can specify --check-certificate=quiet to tell wget to not print any warning about invalid certificates, albeit in most cases this is the wrong thing to do. --certificate=plik Uzywa certyfikatu klienta z pliku. Jest to konieczne w przypadku serwerow wymagajacych certyfikatow od klientow, ktorzy sie z nimi lacza. Zwykle taki certyfikat nie jest wymagany, a ten przelacznik jest opcjonalny. --certificate-type=typ Okresla typ certyfikatu klienta. Poprawnymi wartosciami sa PEM (zakladany domyslnie) i DER, znany rowniez jako BASN1. --private-key=plik Odczytuje klucz prywatny z pliku. Pozwala to na dostarczenie klucza prywatnego w oddzielnym od certyfikatu pliku. --private-key-type=typ Okresla typ klucza prywatnego. Akceptowanymi wartosciami sa PEM (domyslnie) i DER. --ca-certificate=plik Uzywa pliku jako pliku z zestawem osrodkow certyfikacji ("CA") do weryfikacji posrednikow. Certyfikaty musza byc w formacie PEM. Bez tej opcji, Wget szuka certyfikatow CA w lokalizacji systemowej, wybranej podczas instalacji OpenSSL. --ca-directory=katalog Okresla katalog zawierajacy certyfikaty CA w formacie PEM. Kazdy plik zawiera certyfikat CA, a nazwa pliku jest oparta o wartosci skrotu wyliczonego na podstawie certyfikatu. Osiaga sie to przetwarzajac katalog certyfikatow narzedziem rehash pochodzacego z OpenSSL. Uzywanie --ca-directory jest efektywniejsze od --ca-certificate w przypadku, gdy zainstalowanych jest wiele certyfikatow, poniewaz pozwala Wgetowi pobierac certyfikaty na zadanie. Bez tej opcji, Wget szuka certyfikatow CA w lokalizacji systemowej, wybranej podczas instalacji OpenSSL. --crl-file=plik Specifies a CRL file in file. This is needed for certificates that have been revocated by the CAs. --pinnedpubkey=file/hashes Tells wget to use the specified public key file (or hashes) to verify the peer. This can be a path to a file which contains a single public key in PEM or DER format, or any number of base64 encoded sha256 hashes preceded by "sha256//" and separated by ";" When negotiating a TLS or SSL connection, the server sends a certificate indicating its identity. A public key is extracted from this certificate and if it does not exactly match the public key(s) provided to this option, wget will abort the connection before sending or receiving any data. --random-file=plik [OpenSSL and LibreSSL only] Use file as the source of random data for seeding the pseudo-random number generator on systems without /dev/urandom. W takich systemach biblioteka SSL wymaga zewnetrznego zrodla losowosci do rozpoczecia pracy. Moze byc EGD (por. --egd-file ponizej) lub odczyt z zewnetrznego zrodla podanego przez uzytkownika. Jesli nie poda sie tej opcji, Wget poszuka losowych danych w $RANDFILE lub, jesli zmienna nie jest ustawiona, w $HOME/.rnd. Pojawienie sie bledu "Could not seed OpenSSL PRNG; disabling SSL." oznacza, ze nalezy zapewnic losowe dane korzystajac z jednej z powyzszych metod. --egd-file=plik [OpenSSL only] Use file as the EGD socket. EGD stands for Entropy Gathering Daemon, a user-space program that collects data from various unpredictable system sources and makes it available to other programs that might need it. Encryption software, such as the SSL library, needs sources of non-repeating randomness to seed the random number generator used to produce cryptographically strong keys. OpenSSL pozwala uzytkownikowi podac swoje zrodlo entropii za pomoca zmiennej srodowiskowej RAND_FILE. Jesli pozostanie ona nieustawiona lub podany plik nie tworzy wystarczajacej losowosci, OpenSSL odczyta dane losowe z gniazda EGD podanego za pomoca opisywanej opcji. If this option is not specified (and the equivalent startup command is not used), EGD is never contacted. EGD is not needed on modern Unix systems that support /dev/urandom. --no-hsts Wget supports HSTS (HTTP Strict Transport Security, RFC 6797) by default. Use --no-hsts to make Wget act as a non-HSTS-compliant UA. As a consequence, Wget would ignore all the "Strict-Transport-Security" headers, and would not enforce any existing HSTS policy. --hsts-file=plik By default, Wget stores its HSTS database in ~/.wget-hsts. You can use --hsts-file to override this. Wget will use the supplied file as the HSTS database. Such file must conform to the correct HSTS database format used by Wget. If Wget cannot parse the provided file, the behaviour is unspecified. The Wget's HSTS database is a plain text file. Each line contains an HSTS entry (ie. a site that has issued a "Strict-Transport-Security" header and that therefore has specified a concrete HSTS policy to be applied). Lines starting with a dash ("#") are ignored by Wget. Please note that in spite of this convenient human-readability hand-hacking the HSTS database is generally not a good idea. An HSTS entry line consists of several fields separated by one or more whitespace: " SP [] SP SP SP " The hostname and port fields indicate the hostname and port to which the given HSTS policy applies. The port field may be zero, and it will, in most of the cases. That means that the port number will not be taken into account when deciding whether such HSTS policy should be applied on a given request (only the hostname will be evaluated). When port is different to zero, both the target hostname and the port will be evaluated and the HSTS policy will only be applied if both of them match. This feature has been included for testing/development purposes only. The Wget testsuite (in testenv/) creates HSTS databases with explicit ports with the purpose of ensuring Wget's correct behaviour. Applying HSTS policies to ports other than the default ones is discouraged by RFC 6797 (see Appendix B "Differences between HSTS Policy and Same-Origin Policy"). Thus, this functionality should not be used in production environments and port will typically be zero. The last three fields do what they are expected to. The field include_subdomains can either be 1 or 0 and it signals whether the subdomains of the target domain should be part of the given HSTS policy as well. The created and max-age fields hold the timestamp values of when such entry was created (first seen by Wget) and the HSTS-defined value 'max-age', which states how long should that HSTS policy remain active, measured in seconds elapsed since the timestamp stored in created. Once that time has passed, that HSTS policy will no longer be valid and will eventually be removed from the database. If you supply your own HSTS database via --hsts-file, be aware that Wget may modify the provided file if any change occurs between the HSTS policies requested by the remote servers and those in the file. When Wget exits, it effectively updates the HSTS database by rewriting the database file with the new entries. If the supplied file does not exist, Wget will create one. This file will contain the new HSTS entries. If no HSTS entries were generated (no "Strict-Transport-Security" headers were sent by any of the servers) then no file will be created, not even an empty one. This behaviour applies to the default database file (~/.wget-hsts) as well: it will not be created until some server enforces an HSTS policy. Care is taken not to override possible changes made by other Wget processes at the same time over the HSTS database. Before dumping the updated HSTS entries on the file, Wget will re-read it and merge the changes. Using a custom HSTS database and/or modifying an existing one is discouraged. For more information about the potential security threats arose from such practice, see section 14 "Security Considerations" of RFC 6797, specially section 14.9 "Creative Manipulation of HSTS Policy Store". --warc-file=plik Uzywa pliku jako celu pliku WARC. --warc-header=lancuch Uzywa lancucha jako rekordu warcinfo. --warc-max-size=rozmiar Ustawia maksymalny rozmiar plikow WARC na rozmiar. --warc-cdx Zapisuje pliku indeksu CDX. --warc-dedup=pliku Nie przechowuje rekordow wyszczegolnionych w danym pliku CDX. --no-warc-compression Nie kompresuje plikow WARC za pomoca GZIP. --no-warc-digests Nie oblicza sum SHA1. --no-warc-keep-log Nie przechowuje pliku dziennika w rekordzie WARC. --warc-tempdir=katalog Okresla polozenie plikow tymczasowych tworzonych przy zapisie WARC. Opcje FTP --ftp-user=uzytkownik --ftp-password=haslo Okresla nazwe uzytkownika i haslo serwera FTP. Bez tej opcji (i rownowaznej opcji uruchomieniowej) uzywane jest domyslne haslo -wget@, uzywane zwykle do anonimowych FTP. Inna metode podania nazwy i hasla uzytkownika jest wyszczegolnienie ich w samym URL-u. Obie te metody ujawniaja haslo kazdemu, kto zechce uruchomic ps. Zeby uchronic hasla przed podpatrzeniem, nalezy przechowywac je w pliku .wgetrc lub .netrc i, za pomoca chmod, zapewnic tym plikom ochrone przed innymi uzytkownikami. Jezeli hasla sa naprawde wazne, w tych plikach tez nie nalezy trzymac ich na stale -- prosze usunac je z plikow zaraz po rozpoczeciu pobierania przez Wgeta. --no-remove-listing Nie usuwa tymczasowych plikow .listing generowanych przez odczyty FTP. Normalnie, pliki te zawieraja nieprzetworzone listingi katalogow otrzymane z serwerow FTP. Pozostawienie ich moze sie przydac do celow diagnostycznych lub latwego sprawdzenia zawartosci katalogow zdalnego serwera (np. do sprawdzenia, ze tworzona kopia lustrzana jest kompletna). Prosze zauwazyc, ze mimo iz Wget zapisuje w tym przypadku do pliku o znanej nazwie, nie jest to dziura w zabezpieczeniach w sytuacji, gdy uzytkownik stworzy .listing jako dowiazanie symboliczne do /etc/passwd czy innego pliku i poprosi superuzytkownika (roota) o uruchomienie Wget w tym katalogu. W zaleznosci od uzytych opcji, Wget albo odmowi zapisu do .listing (co spowoduje niepowodzenie operacji na maskach, rekurencyjnej czy zaleznej od znacznikow czasu), albo dowiazanie symboliczne zostanie usuniete i zastapione faktycznym plikiem .listing, albo tez listing zostanie zapisany do pliku .listing.numer. Choc ta sytuacja nie stwarza klopotow, jednak root nie powinien nigdy uruchamiac Wget w katalogu niezaufanego uzytkownika. Uzytkownik taki moglby na przyklad dowiazac index.html do /etc/passwd i poprosic "root"a o uruchomienie Wget z opcjami -N lub -r, tak ze plik ten zostalby nadpisany. --no-glob Wylacza obsluge masek w przypadku FTP. Obsluga masek oznacza, ze mozna uzywac znakow specjalnych, uogolniajacych (wieloznacznikow), takich jak *, ?, [ i ], do pobrania wiekszej liczby plikow z tego samego katalogu naraz, np. wget ftp://gnjilux.srk.fer.hr/*.msg Domyslnie obsluga masek bedzie wlaczona jesli URL zawiera znaki uogolniajace. Tej opcji mozna uzyc do wlaczenia badz wylaczenia obslugi masek na stale. Moze zajsc potrzeba ujecia URL-a w znaki cudzyslowu, by uchronic go przed rozwinieciem przez powloke. Obsluga masek powoduje, ze Wget oczekuje listingu katalogu, ktorego postac jest zalezna od systemu. Z tego powodu obecnie dziala tylko z uniksowymi serwerami FTP (i z tymi, ktore potrafia emulowac wyjscie uniksowego ls). --no-passive-ftp Wylacza uzycie pasywnego trybu transferu FTP. Pasywny FTP nakazuje klientowi laczacemu sie z serwerem zestawic polaczenie, zamiast wykorzystywac inne rozwiazania. Jesli komputer ma bezposrednie polaczenie z Internetem, to zarowno pasywne jak i aktywne FTP powinny dzialac tak samo dobrze. Za wiekszoscia zapor sieciowych i konfiguracji NAT, pasywny FTP ma wieksza szanse dzialania. Jednak w niektorych rzadkich konfiguracjach zapor, aktywny FTP dziala, a pasywny FTP nie. Jesli zachodzi prawdopodobienstwo, ze ma miejsce ta sytuacja, prosze uzyc opisywanej opcji lub ustawic w swym pliku konfiguracyjnym passive_ftp=off. --preserve-permissions Zachowuje uprawnienia zdalnych plikow zamiast uprawnien wynikajacych z umask. --retr-symlinks By default, when retrieving FTP directories recursively and a symbolic link is encountered, the symbolic link is traversed and the pointed-to files are retrieved. Currently, Wget does not traverse symbolic links to directories to download them recursively, though this feature may be added in the future. When --retr-symlinks=no is specified, the linked-to file is not downloaded. Instead, a matching symbolic link is created on the local file system. The pointed-to file will not be retrieved unless this recursive retrieval would have encountered it separately and downloaded it anyway. This option poses a security risk where a malicious FTP Server may cause Wget to write to files outside of the intended directories through a specially crafted .LISTING file. Prosze zauwazyc, ze przy pobieraniu pliku (nie katalogu) podanego w wierszu polecen, a nie osiagnietego z powodu pobierania rekurencyjnego, opcja nie odnosi skutku. W takich przypadkach plik docelowy dowiazania jest zawsze pobierany. Opcje FTPS --ftps-implicit This option tells Wget to use FTPS implicitly. Implicit FTPS consists of initializing SSL/TLS from the very beginning of the control connection. This option does not send an "AUTH TLS" command: it assumes the server speaks FTPS and directly starts an SSL/TLS connection. If the attempt is successful, the session continues just like regular FTPS ("PBSZ" and "PROT" are sent, etc.). Implicit FTPS is no longer a requirement for FTPS implementations, and thus many servers may not support it. If --ftps-implicit is passed and no explicit port number specified, the default port for implicit FTPS, 990, will be used, instead of the default port for the "normal" (explicit) FTPS which is the same as that of FTP, 21. --no-ftps-resume-ssl Do not resume the SSL/TLS session in the data channel. When starting a data connection, Wget tries to resume the SSL/TLS session previously started in the control connection. SSL/TLS session resumption avoids performing an entirely new handshake by reusing the SSL/TLS parameters of a previous session. Typically, the FTPS servers want it that way, so Wget does this by default. Under rare circumstances however, one might want to start an entirely new SSL/TLS session in every data connection. This is what --no-ftps-resume-ssl is for. --ftps-clear-data-connection All the data connections will be in plain text. Only the control connection will be under SSL/TLS. Wget will send a "PROT C" command to achieve this, which must be approved by the server. --ftps-fallback-to-ftp Fall back to FTP if FTPS is not supported by the target server. For security reasons, this option is not asserted by default. The default behaviour is to exit with an error. If a server does not successfully reply to the initial "AUTH TLS" command, or in the case of implicit FTPS, if the initial SSL/TLS connection attempt is rejected, it is considered that such server does not support FTPS. Opcje pobierania rekurencyjnego -r --recursive Wlacza pobieranie rekurencyjne. Domyslny maksymalny poziom wynosi 5. -l glebokosc --level=glebokosc Set the maximum number of subdirectories that Wget will recurse into to depth. In order to prevent one from accidentally downloading very large websites when using recursion this is limited to a depth of 5 by default, i.e., it will traverse at most 5 directories deep starting from the provided URL. Set -l 0 or -l inf for infinite recursion depth. wget -r -l 0 http://I/1.html Ideally, one would expect this to download just 1.html. but unfortunately this is not the case, because -l 0 is equivalent to -l inf---that is, infinite recursion. To download a single HTML page (or a handful of them), specify them all on the command line and leave away -r and -l. To download the essential items to view a single HTML page, see page requisites. --delete-after Ta opcja nakazuje Wget usuniecie kazdego z plikow, jaki pobiera, po wykonaniu sciagania. Jest przydatna do pobierania wstepnego (prefetching) popularnych stron poprzez serwer posredniczacy, np.: wget -r -nd --delete-after http://whatever.com/~popular/page/ Opcja -r nakazuje pobieranie rekurencyjne, a -nd nietworzenie katalogow. Prosze zauwazyc, ze --delete-after usuwa pliki z lokalnego komputera. Nie wydaje polecenia DELE, na przyklad zdalnym osrodkom FTP. Takze jesli podano --delete-after, to --convert-links jest ignorowane, wiec przede wszystkim pliki .orig po prostu nie sa tworzone. -k --convert-links Po zakonczeniu pobierania konwertuje odnosniki w dokumencie tak, by nadawaly sie do lokalnego przegladania. Dotyczy to nie tylko widzialnych odnosnikow hipertekstowych, ale kazdej czesci dokumentu, ktora prowadzi do zewnetrznych materialow, jak osadzone obrazki, odnosniki do arkuszy stylow, odnosniki hipertekstowe do zawartosci innej niz HTML, itp. Kazdy odnosnik bedzie zmieniony na jeden z dwu sposobow: o Odnosniki do plikow, ktore zostaly sciagniete przez Wget zostana zmienione tak, by odwolywaly sie do pliku, na jaki wskazuja, jako odnosniki wzgledne. Przyklad: jesli sciagniety plik /foo/doc.html jest powiazany z z /bar/img.gif, rowniez sciagnietym, to odnosnik w doc.html zostanie zmieniony tak, by wskazywal na ../bar/img.gif. Ten rodzaj przeksztalcenia dziala bezproblemowo dla dowolnej kombinacji katalogow. o Odnosniki do plikow, ktore nie zostaly sciagniete przez Wget zostana zmienione tak, by zawieraly nazwe hosta i sciezke bezwzgledna miejsca, na ktore wskazuja. Przyklad: jesli sciagniety plik /foo/doc.html jest powiazany z z /bar/img.gif (lub z ../bar/img.gif), to odnosnik w doc.html zostanie zmieniony tak, by wskazywal na http://hostname/bar/img.gif. Z tego powodu, przegladanie lokalne dziala niezawodnie: jesli powiazany plik byl sciagniety, to odnosnik wskazuje na jego lokalna nazwe, jesli nie byl -- to na pelny adres internetowy, a nie pojawia sie popsuty odnosnik. Konwersja pierwotnych odnosnikow na odnosniki wzgledne zapewnia nam mozliwosc przesuwania pobranej hierarchii katalogow do innego katalogu. Prosze zauwazyc, ze dopiero na samym koncu pobierania Wget moze rozpoznac, ktore odnosniki zostaly sciagniete. Z tego powodu, opcja -k wykonuje swoja prace po zakonczeniu wszystkich pobran. --convert-file-only This option converts only the filename part of the URLs, leaving the rest of the URLs untouched. This filename part is sometimes referred to as the "basename", although we avoid that term here in order not to cause confusion. It works particularly well in conjunction with --adjust-extension, although this coupling is not enforced. It proves useful to populate Internet caches with files downloaded from different hosts. Example: if some link points to //foo.com/bar.cgi?xyz with --adjust-extension asserted and its local destination is intended to be ./foo.com/bar.cgi?xyz.css, then the link would be converted to //foo.com/bar.cgi?xyz.css. Note that only the filename part has been modified. The rest of the URL has been left untouched, including the net path ("//") which would otherwise be processed by Wget and converted to the effective scheme (ie. "http://"). -K --backup-converted Podczas konwersji pliku zachowuje kopie zapasowa pierwotnej wersji z przyrostkiem .orig. Wplywa na zachowanie opcji -N. -m --mirror Wlacza opcje odpowiednie do tworzenia kopii lustrzanych. Ta opcja wlacza rekurencje, stosowanie znacznikow czasu, ustawia nieograniczony poziom rekurencji i zachowuje wypisania zawartosci katalogow FTP. Obecnie jest rownowazna uzyciu -r -N -l inf --no-remove-listing. -p --page-requisites Opcja powoduje, ze Wget sciagnie wszystkie pliki niezbedne do poprawnego wyswietlenia danej strony HTML. Obejmuje to takie rzeczy jak grafike, dzwieki i powiazane arkusze stylow. Przy zwyklym trybie pracy, podczas pobierania pojedynczej strony HTML, ewentualne powiazane dokumenty, ktore moga byc potrzebne do poprawnego jej wyswietlenia, nie sa pobierane. Pomoc moze uzycie opcji -r z -l, ale poniewaz Wget normalnie nie odroznia dokumentow zewnetrznych od wlaczonych, na ogol pozostaje sie z "oskubanymi dokumentami", ktorym brakuje potrzebnych elementow towarzyszacych. Na przyklad, powiedzmy, ze dokument 1.html zawiera znacznik odnoszacy sie do 1.gif i znacznik wskazujacy na zewnetrzny dokument 2.html. Powiedzmy, ze 2.html jest podobny, tyle, ze jego obrazkiem jest 2.gif a odnosnik wskazuje na 3.html. Zalozmy, ze kontynuujemy takie zaleznosci az do jakiejs dowolnie duzej liczby. Jesli wykona sie polecenie: wget -r -l 2 http://I/1.html to zostana pobrane 1.html, 1.gif, 2.html, 2.gif i 3.html. Jak widac, 3.html nie posiada towarzyszacego mu elementu, gdyz Wget w celu okreslenia miejsca, gdzie powinien przerwac rekurencje po prostu zlicza liczbe skokow (az do 2) od poczatkowego 1.html. Jednak przy takim poleceniu: wget -r -l 2 -p http://I/1.html zostana sciagniete wszystkie powyzsze pliki oraz wymagany przez 3.html plik 3.gif. Podobnie, wget -r -l 1 -p http:///1.html spowoduje pobranie 1.html, 1.gif, 2.html i 2.gif. Mozna by sadzic, ze: wget -r -l 0 -p http://I/1.html pobraloby tylko 1.html i 1.gif, ale niestety tak nie jest, gdyz -l 0 jest rownowaznikiem -l inf -- czyli nieskonczonej rekurencji. Do pobrania pojedynczej strony HTML (lub ich grupy, wszystkich podanych w wierszu polecen lub w pliku wejsciowym URL-i -i) i towarzyszacych jej (lub im) elementow, wystarczy pominac -r i -l: wget -p http:///1.html Prosze zauwazyc, ze Wget zachowa sie tak, jakby podano opcje -r, ale zostanie pobrana tylko pojedyncza strona i jej elementy. Program nie bedzie podazal za odnosnikami z tej strony do zewnetrznych dokumentow. Faktycznie, do sciagania pojedynczej strony i wszystkich towarzyszacych jej elementow (nawet jesli leza one na odrebnych serwerach WWW) i upewnienia sie, ze calosc lokalnie poprawnie sie wyswietla, autor oprocz -p korzysta z kilku dodatkowych opcji: wget -E -H -k -K -p http:/// Konczac ten temat, warto wiedziec, ze Wget uwaza za odnosnik do dokumentu zewnetrznego kazdy URL podany w znaczniku , lub , oprocz . --strict-comments Wlacza scisle przetwarzanie komentarzy HTML. Domyslnie, komentarze sa przerywane po pierwszym wystapieniu -->. Zgodnie ze specyfikacja, komentarze HTML sa wyrazone jako deklaracje SGML. Deklaracja jest specjalnym znacznikiem, rozpoczynajacym sie , np. , ktora moze zawierac dodatkowe komentarze, miedzy para ogranicznikow --. Komentarze HTML sa "pustymi deklaracjami", bez tekstu niebedacego komentarzem. Stad jest poprawnym komentarzem, jak rowniez , lecz nim nie jest. Z drugiej strony, wiekszosc piszacym HTML nie odczytuje komentarzy jako cokolwiek innego poza tekstem ograniczonym , co nie jest tym samym. Np. cos takiego: jest poprawnym komentarzem o ile liczba minusow jest wielokrotnoscia czterech (sic!). Jesli tak nie jest, to scisle mowiac komentarz konczy sie dopiero po nastepnym wystapieniu --, ktore moze nastapic np. na koncu dokumentu. Z tego powodu, wiele popularnych przegladarek internetowych calkowicie ignoruje specyfikacje i implementuje cos, czego uzytkownicy moga sie spodziewac: komentarze ograniczone . Do wersji 1.9 Wget interpretowal komentarze w sposob scisly, co powodowalo wybrakowanie wielu linkow w stronach internetowych wyswietlajacych sie poprawnie w przegladarkach, lecz majacych nieszczescie w postaci niezgodnych z norma komentarzy. Poczawszy od wersji 1.9, Wget dolaczyl do grona klientow implementujacych "naiwne" komentarze, zamykajac kazdy komentarz po pierwszym wystapieniu -->. Jesli zajdzie potrzeba scislego parsowania komentarzy, ta opcja je wlaczy. Opcje rekurencyjnego akceptowania/odrzucania -A lista-akc --accept lista-akc -R lista-odrz --reject lista-odrz Okresla oddzielona przecinkami liste przyrostkow lub wzorcow nazw plikow do, odpowiednio, zaakceptowania lub odrzucenia. Prosze pamietac, ze maski (wieloznaczniki) tzn. *, ?, [ lub ], ktore pojawia sie jako element listy-akc lub listy-odrz, zostana potraktowane jako wzorzec, a nie przyrostek. W takim przypadku, aby uniknac rozwiniecia nazwy przez powloke nalezy ujac wzorzec w cudzyslowy, jak w przykladach -A "*.mp3" lub -A '*.mp3'. --accept-regex url-wyr-reg --reject-regex url-wyr-reg Okresla wyrazenie regularne do zaakceptowania lub odrzucenia calego URL-a. --regex-type typ-wyr-reg Okresla typ wyrazenia regularnego. Dozwolonymi wartosciami sa posix i pcre. Prosze zauwazyc, ze w celu uzycia typu pcre wget musi miec wkompilowana obsluge libpcre. -D lista-domen --domains=lista-domen Ustala domeny, do ktorych program moze przechodzic. Lista-domen jest lista separowana przecinkami. Prosze zauwazyc, ze ta opcja nie wlacza -H. --exclude-domains lista-domen Podaje domeny, do ktorych program ma nie przechodzic. --follow-ftp Podaza za odnosnikami FTP z dokumentow HTML. Bez tej opcji Wget bedzie ignorowal wszelkie odnosniki do FTP. --follow-tags=lista Wget ma wewnetrzna tablice par: znacznik HTML/atrybut, ktora posluguje sie przy poszukiwaniu powiazanych dokumentow podczas pobierania rekurencyjnego. Aby brany byl pod uwage tylko pewien podzbior tych znacznikow, nalezy uzyc tej opcji, podajac je w postaci listy separowanej przecinkami. --ignore-tags=lista Jest to przeciwienstwo opcji --follow-tags. Dzieki podaniu listy rozdzielonych przecinkami znacznikow HTML mozna pominac je podczas rekurencyjnego szukania dokumentow do pobrania. Niegdys, ta opcja byla najlepszym wyborem do sciagania pojedynczej strony razem z jej elementami, uzyta w wierszu polecen: wget --ignore-tags=a,area -H -k -K -r http:/// Jednak autor tej opcji przeszedl przez strone ze znacznikami typu i uswiadomil sobie, ze -G nie wystarcza. Nie mozna po prostu nakazac Wget ignorowania , gdyz wowczas nie beda sciagane arkusze stylow. Obecnie najlepszym sposobem pobierania pojedynczej strony razem z jej elementami jest specjalnie przeznaczona do tego opcja --page-requisites. --ignore-case Ignoruje wielkosc znakow przy dopasowywaniu plikow i katalogow. Wplywa to na zachowanie opcji -R, -A, -I i -X, podobnie jak przy stosowaniu masek przy pobieraniu stron FTP. Na przyklad, po zastosowaniu tej opcji -A "*.txt" dopasuje plik1.txt, lecz rowniez plik.TXT, plik3.TxT itd. Cudzyslowy w przykladzie powoduja, ze powloka nie rozwija wzorca. -H --span-hosts Wlacza przechodzenie pomiedzy hostami przy pobieraniu rekurencyjnym. -L --relative Podaza tylko za odnosnikami wzglednymi. Przydatne do pobierania konkretnej strony bez zadnych odwracajacych uwage dodatkow, nawet z tego samego hosta. -I lista --include-directories=lista Okresla liste rozdzielonych przecinkami katalogow, do ktorych ma przechodzic program podczas pobierania. Elementy listy moga zawierac znaki uogolniajace (maski). -X lista --exclude-directories=lista Okresla liste rozdzielonych przecinkami katalogow, ktore chcemy wykluczyc z pobierania. Elementy listy moga zawierac znaki uogolniajace (maski). -np --no-parent Powoduje, ze Wget przy pobieraniu rekurencyjnym nigdy nie wchodzi do katalogu nadrzednego. Przydatna opcja, gdyz gwarantuje, ze sciagane beda tylko pliki ponizej pewnego poziomu. SRODOWISKO Wget obsluguje serwery posredniczace do pobieran przez HTTP i FTP. Standardowa metoda podawania polozenia serwera posredniczacego w przypadku Wgeta, sa ponizsze zmienne srodowiskowe: http_proxy https_proxy Gdy ustawione, zmienne http_proxy i https_proxy powinny zawierac URL-e serwerow posredniczacych w, odpowiednio, polaczeniach HTTP i HTTPS. ftp_proxy Zmienna powinna zawierac URL serwera posredniczacego w polaczeniach FTP. Dosc czesto spotyka sie sytuacje, gdy http_proxy i ftp_proxy zawieraja ten sam URL. no_proxy Zmienna powinna zawierac liste rozszerzen domen (separatorem jest przecinek), do ktorych nie beda stosowane serwery posredniczace. Jesli na przyklad wartosc no_proxy wynosi .mit.edu, to serwery posredniczace nie beda stosowane do pobierania dokumentow z MIT. STATUS ZAKONCZENIA W przypadku wystapienia problemow Wget moze zwrocic jeden z ponizszych kodow zakonczenia. 0 Nie wystapily zadne problemy. 1 Podstawowy kod bledu. 2 Blad przetwarzania danych -- np. przy przetwarzaniu opcji wiersza polecenia, .wgetrc lub .netrc... 3 Blad wejscia/wyjscia pliku. 4 Blad sieci. 5 Blad weryfikacji SSL. 6 Blad uwierzytelnienia nazwy uzytkownika/hasla. 7 Bledy protokolow. 8 Serwer zwrocil bledna odpowiedz. Oprocz kodow 0 i 1, kody zakonczenia o mniejszej wartosci liczbowej maja pierwszenstwo w sytuacji, gdy wystapi wiele typow bledow. W wersjach Wgeta do 1.12, kody zakonczenia byly niespojne i niezbyt pomocne. Pobierania rekurencyjne zawsze zwracaly 0 (powodzenie) bez wzgledu na wystapienie ewentualnych bledow, a nierekurencyjne zwracaly zawsze kod zakonczenia odpowiadajacy ostatniej probie pobierania. PLIKI /usr/local/etc/wgetrc Domyslne polozenie globalnego pliku startowego. .wgetrc Plik startowy uzytkownika. USTERKI You are welcome to submit bug reports via the GNU Wget bug tracker (see ) or to our mailing list . Visit to get more info (how to subscribe, list archives, ...). Przed faktycznym przedlozeniem zgloszenia bledu, prosze sprobowac zastosowac sie do kilku prostych wskazowek. 1. Prosze upewnic sie, ze obserwowane zachowanie jest rzeczywiscie bledem. Jesli Wget sie wywala, jest to blad. Jesli nie zachowuje sie zgodnie z dokumentacja, jest to blad. Jesli cos dziala dziwnie, ale nie ma pewnosci jak powinno to wygladac, rowniez moze byc to blad, ale prosze dwa razy sprawdzic dokumentacje i listy dyskusyjne. 2. Prosze sprobowac powtorzyc ten blad w mozliwie najprostszych warunkach. Np. jesli Wget pada podczas sciagania wget -rl0 -kKE -t5 -Y0 http://example.com -o /tmp/log, nalezy sprobowac sprawdzic, czy to wywalanie sie jest powtarzalne i czy pojawia sie przy prostszym zestawie opcji. Mozna nawet sprobowac zaczac pobieranie od strony, przy ktorej wystapila awaria i sprawdzic, czy to nie ta strona w jakis sposob ja powoduje. Ponadto, choc co prawda prawdopodobnie autor bedzie zainteresowany zawartoscia pliku .wgetrc uzytkownika, zwykle skopiowanie go do wiadomosci o bledzie jest raczej zlym pomyslem. Zamiast tego, nalezy najpierw sprawdzic, czy blad powtarza sie przy .wgetrc przeniesionym w inne miejsce. Prosze przeslac odpowiednie fragmenty tego pliku tylko wtedy, gdy okaze sie, ze blad zalezy od ustawien .wgetrc. 3. Prosze uruchomic Wget z opcja -d i przeslac uzyskany wynik (lub zwiazane z bledem jego czesci). Jesli Wget zostal skompilowany bez obslugi debugowania, prosze go przekompilowac. Duzo latwiej jest sledzic bledy z udostepniona diagnostyka. Uwaga: prosze upewnic sie, ze usunelo sie wszystkie potencjalnie prywatne dane z dziennika debugowania, przed wyslaniem go na adres zgloszen bledow. Opcja -d nie bedzie starala sie zbierac danych prywatnych, lecz dziennik bedzie zawieral dosc kompletny zapis komunikacji Wgeta z serwerem, co moze obejmowac takze hasla i czesc pobranych danych. Zgloszenia bledow sa archiwizowane publicznie, tak wiec nalezy uznac, ze zgloszenia bledow sa rowniez dostepne publicznie. 4. Jesli Wget sie wywala, prosze uruchomic go w debuggerze, np. gdb `which wget` core i wpisac where, by otrzymac stos wywolania (backtrace). Moze sie to nie powiesc, jesli administrator systemu wylaczyl pliki core, ale zawsze mozna sprobowac. ZOBACZ TAKZE Nie jest to kompletny podrecznik GNU Wgeta. Wiecej informacji, w tym pelniejszy opis niektorych opcji oraz wiele polecen mozliwych do zastosowania w plikach .wgetrc i z opcja -e znajduje sie we wpisie wget w GNU Info. Also see wget2(1), the updated version of GNU Wget with even better support for recursive downloading and modern protocols like HTTP/2. AUTOR Originally written by Hrvoje Niksic . Currently maintained by Darshit Shah and Tim Ruhsen . PRAWA AUTORSKIE Copyright (c) 1996--2011, 2015, 2018--2023 Free Software Foundation, Inc. Zezwala sie na kopiowanie, rozpowszechnianie i/lub modyfikowanie tego dokumentu na warunkach Licencji Wolnej Dokumentacji GNU (GNU Free Documentation License) w wersji 1.3 lub jakiejkolwiek nowszej wersji opublikowanej przez Fundacje Wolnego Oprogramowania, przy czym Sekcjami niezmiennymi sa "GNU General Public License" i "GNU Free Documentation License", bez tresci przedniej lub tylnej strony okladki. Egzemplarz licencji zamieszczono w sekcji zatytulowanej "GNU Free Documentation License". TLUMACZENIE Autorami polskiego tlumaczenia niniejszej strony podrecznika sa: Wojtek Kotwica i Michal Kulach Niniejsze tlumaczenie jest wolna dokumentacja. Blizsze informacje o warunkach licencji mozna uzyskac zapoznajac sie z GNU General Public License w wersji 3 lub nowszej. Nie przyjmuje sie ZADNEJ ODPOWIEDZIALNOSCI. Bledy w tlumaczeniu strony podrecznika prosimy zglaszac na adres listy dyskusyjnej . GNU Wget 1.21.4 20 maja 2023 r. WGET(1)