WGET(1) GNU Wget WGET(1) NOM Wget - L'outil de telechargement reseau non interactif. SYNOPSIS wget [option]... [URL]... DESCRIPTION GNU Wget est un utilitaire libre pour le telechargement non-interactif de fichiers sur le Web. Il prend en charge les protocoles HTTP, HTTPS, et FTP, ainsi que le telechargement au travers des mandataires HTTP. Wget est non interactif, c'est-a-dire qu'il peut travailler en arriere-plan, sans intervention de l'utilisateur. Cela permet de lancer un telechargement et de se deconnecter du systeme, laissant wget finir le travail. En revanche, la plupart des navigateurs Web requierent la presence constante de l'utilisateur, ce qui est particulierement penible lorsqu'il y a beaucoup de donnees a transferer. wget peut suivre les liens des pages HTML et XHTML, et CSS, pour creer des copies locales de sites web distants, en recreant completement la structure du site original. Cela est parfois designe sous le nom de << telechargement recursif >>. En faisant cela, wget respecte le standard d'exclusion de robots (/robots.txt). wget peut aussi etre charge de convertir les liens dans les fichiers telecharges pour pointer sur des fichiers locaux, pour une consultation hors-ligne. wget a ete concu pour etre robuste en depit des connexions reseaux lentes ou instables ; si un telechargement echoue suite a un probleme reseau, il reessayera jusqu'a ce que l'integralite du fichier soit recuperee. Si le serveur gere la reprise, il lui demandera de reprendre la ou le telechargement s'est interrompu. OPTIONS Syntaxe d'option Comme wget utilise GNU getopt pour traiter les arguments de la ligne de commande, chaque option a une forme longue en plus de la forme courte. Les options longues sont plus pratiques a retenir, mais prennent du temps a taper. Vous etes libre de melanger differentes formes d'options, ou d'indiquer les options apres les arguments de la ligne de commande. Ainsi, vous pouvez ecrire : wget -r --tries=10 http://fly.srk.fer.hr/ -o log L'espace entre l'option acceptant un argument et l'argument peut etre omise. Vous pouvez ecrire -olog au lieu de -o log. Vous pouvez mettre ensemble plusieurs options ne necessitant pas d'arguments, comme : wget -drc Cela est absolument equivalent a : wget -d -r -c Comme les options peuvent etre indiquees apres les arguments, vous pouvez les terminer avec --. Ainsi, ce qui suit va essayer de telecharger URL -x, en signalant l'echec a log : wget -o log -- -x Les options qui acceptent des listes separees par des virgules respectent toutes la convention selon laquelle specifier une liste vide efface sa valeur. Cela peut etre utile pour nettoyer les reglages de .wgetrc. Par exemple, si .wgetrc indique "exclude_directories" a /cgi-bin, l'exemple suivant le reinitialisera d'abord, puis lui indiquera d'exclure /~nobody et /~somebody. Vous pouvez aussi effacer les listes dans .wgetrc. wget -X "" -X /~nobody,/~somebody La majorite des options qui n'acceptent pas d'arguments sont des options de type booleen, ainsi nommees car leur etat peut etre capture avec une variable oui-ou-non (<< booleenne >>). Par exemple, --follow-ftp indique a wget de suivre les liens FTP de fichiers HTML et, d'un autre cote, --no-glob lui dit de ne pas effectuer le << globbing >> de fichiers sur les URL FTP. Une option booleenne peut etre affirmative ou negative (commencant par --no). Toutes ces options partagent plusieurs proprietes. Sauf indication contraire, il est suppose que le comportement par defaut soit l'oppose de ce que l'option realise. Par exemple, l'existence documentee de --follow-ftp suppose que le comportement par defaut est de ne pas suivre les liens FTP des pages HTML. Les options affirmatives peuvent etre niees en anteposant le --no au nom de l'option ; les options negatives peuvent etre niees en ommettant le prefixe --no. Cela peut sembler superflu : si le comportement par defaut d'une option affirmative est de ne pas faire quelque chose, alors pourquoi lui fournir un moyen pour le faire ? Mais le fichier de demarrage peut en fait changer le comportement par defaut. Par exemple, l'utilisation de "follow_ftp = on" dans .wgetrc fait suivre les liens FTP a wget par defaut, et l'utilisation de --no-follow-ftp est la seule maniere de restaurer le comportement par defaut d'origine depuis la ligne de commande. Options de base pour demarrer -V --version Afficher la version de wget. -h --help Afficher un message d'aide decrivant toutes les options en ligne de commande de wget. -b --background Passer en arriere-plan aussitot apres le demarrage. Si aucun fichier de sortie n'est indique avec -o, la sortie est redirigee dans wget-log. -e commande --execute commande Executer la commande comme faisant partie de .wgetrc. Une commande invoquee ainsi sera executee apres les commandes dans .wgetrc, par consequent prevalant sur elles. Si vous avez besoin d'indiquer plus d'une commande dans wgetrc, utilisez plusieurs instances de -e. Options de journalisation et de fichier d'entree -o fichier_journal --output-file=fichier_journal Enregistrer tous les messages dans fichier_journal. Les messages sont habituellement affiches sur la sortie d'erreur standard. -a fichier_journal --append-output=fichier_journal Ajouter dans fichier_journal. Cela est equivalent a -o, mais ajoute au fichier_journal au lieu d'ecraser l'ancien fichier fichier_journal. Si fichier_journal n'existe pas, un nouveau fichier est cree. -d --debug Activer la sortie de debogage, c'est-a-dire des informations importantes pour les developpeurs de wget si quelque chose ne fonctionne pas correctement. Votre administrateur systeme peut avoir choisi de compiler wget sans l'option de debogage, dans ce cas -d ne fonctionnera pas. Remarquez que compiler avec l'option de debogage est toujours sur, wget compile sans la prise en charge du debogage n'affichera pas d'informations de debogage, a moins de le demander avec -d. -q --quiet Desactiver la sortie de wget. -v --verbose Activer le mode verbeux, avec toutes les donnees disponibles. Ce mode est active par defaut. -nv --no-verbose Desactiver le mode verbeux sans etre totalement silencieux (utilisez -q pour cela), signifiant que les messages d'erreur et les informations de base seront encore affiches. --report-speed=type Bande passante de sortie comme type. La seule valeur acceptee est bits. -i fichier --input-file=fichier Lire les URL depuis un fichier local ou externe. Si - est indique comme fichier, les URL sont lues depuis l'entree standard. (Utilisez ./- pour lire a partir d'un fichier nomme -). Si cette fonction est utilisee, aucune URL n'a besoin d'etre presente sur la ligne de commande. S'il y a des URL a la fois sur la ligne de commande et dans le fichier d'entree, celles sur la ligne de commande seront les premieres a etre extraites. Si --force-html n'est pas indique, alors le fichier devrait consister en une suite d'URL, une par ligne. Cependant, si vous indiquez --force-html, le document sera considere comme html. Dans ce cas, vous pourriez avoir des problemes avec les liens relatifs, que vous pouvez resoudre en ajoutant << >> aux documents ou en indiquant --base=url sur la ligne de commande. Si le fichier est externe, le document sera automatiquement traite comme du html si le type de contenu correspond a text/html. Par ailleurs, l'emplacement du fichier sera implicitement utilise comme href de base si aucun n'est indique. --input-metalink=fichier Telecharger les fichiers couverts par le fichier Metalink local. Metalink versions 3 et 4 sont pris en charge. --keep-badhash Garder les fichiers Metalink telecharges avec un mauvais hachage. Cela ajoute .badhash aux noms de fichiers Metalink qui sont incoherents avec la somme de controle, sans ecraser les fichiers existants. --metalink-over-http Emettre une requete HTTP HEAD au lieu de GET et extraire les metadonnees Metalink des en-tetes de reponse. Ensuite, il passe au telechargement de Metalink. Si aucune metadonnee Metalink n'est trouvee, il revient au telechargement ordinaire HTTP. Cela permet le telechargement et le traitement des fichiers Content-Type: application/metalink4+xml. --metalink-index=numero Definir le NUMERO. ordinal de la meta-url application/metalink4+xml de Metalink de 1 au nombre total de "application/metalink4+xml" disponibles. Specifier 0 ou inf pour choisir la premiere qui est bonne. Les meta-url, telles que celles d'un --metalink-over-http, peuvent avoir ete triees par une valeur de cle de priorite ; gardez cela a l'esprit pour choisir le bon NUMERO. --preferred-location Definir l'emplacement prefere pour les ressources Metalink. Cela est utile si plusieurs ressources ayant la meme priorite sont disponibles. --xattr Activer l'utilisation des attributs etendus du systeme de fichiers pour sauvegarder la valeur l'URL d'origine et la valeur de l'en-tete referent HTTP si elle est utilisee. Gardez a l'esprit que les URL pourraient contenir des informations privees telles que des jetons d'acces ou des identifiants. -F --force-html Lorsque l'entree lue est un fichier, le forcer a etre traite comme un fichier HTML. Cela vous permet de retrouver des liens relatifs de fichiers HTML sur votre disque local, en ajoutant a HTML, ou en utilisant l'option de la ligne de commande --base. -B URL --base=URL Resoudre les liens relatifs en utilisant URL comme point de reference lors de la lecture de liens d'un fichier HTML specifie a l'aide de l'option -i/--input-file (conjointement avec --force-html, ou lorsque le fichier d'entree a ete recupere a distance depuis un serveur le decrivant comme HTML). Cela est equivalent a la presence d'un drapeau "BASE" dans le fichier en entree, avec URL comme valeur de l'attribut "href". Par exemple, si vous indiquez http://machin/truc/a.html comme URL, et que wget lit ../bidule/b.html sur le fichier d'entree, il sera resolu en http://machin/bidule/b.html. --config=FILE Indiquer l'emplacement du fichier d'initialisation que vous voulez utiliser a la place de celui ou ceux par defaut. Utiliser --no-config pour desactiver la lecture des fichiers de configuration. Si a la fois --config et --no-config sont donnes, --no-config est ignore. --rejected-log=fichier_journal Enregistrer tous les rejets d'URL dans fichier_journal avec des valeurs separees par des virgules. Les valeurs incluent la raison du rejet, l'URL et l'URL parent dans lequel il a ete trouve. Options de telechargement --bind-address=ADDRESS Lors des connexions TCP/IP client, l'attacher a ADDRESS sur la machine locale. ADDRESS peut etre indiquee comme un nom d'hote ou une adresse IP. Cette option peut etre utile si votre machine est attachee a plusieurs IP. --bind-dns-address=ADDRESS [seulement avec libcares] Cette adresse surcharge la route pour les requetes DNS. Si vous avez besoin de contourner les reglages standard de /etc/resolv.conf, cette option avec --dns-servers est votre amie.ADDRESS doit etre specifiee comme une adresse soit IPV4, soit IPV6. wget doit etre construit avec libcares pour que cette option soit disponible. --dns-servers=ADDRESSES [seulement avec libcares] Les adresses donnees ecrasent les adresses du serveur de noms standard, par exemple comme configure dans /etc/resolv.conf. Les ADDRESSES doivent etre specifiees en adresses IPV4 ou IPV6 separees par des virgules. wget a besoin d'etre construit avec libcares pour que cette option soit disponible. -t nombre --tries=nombre Definir le nombre d'essais a nombre. Specifier 0 ou inf pour reessayer indefiniment. Par defaut, la commande reessaie 20 fois, a l'exception des erreurs fatales comme "connection refused" ou "not found" (404), qui ne sont pas reessayees. -O fichier --output-document=fichier Les documents ne seront pas ecrits dans les fichiers appropries, mais seront tous concatenes et ecrits dans fichier. Si - est utilise comme fichier, les documents seront ecrits sur la sortie standard, desactivant la conversion de liens. (Utilisez ./- pour ecrire dans un fichier litteralement appele -.) L'utilisation de -O ne signifie pas simplement << utiliser le nom fichier au lieu de celui dans l'URL >>. Cela est plutot similaire a une redirection d'interpreteur : wget -O fichier http://truc est destine a fonctionner comme wget -O - http://truc > fichier . fichier sera tronque immediatement et tout le contenu telecharge sera ecrit la. Pour cette raison, -N (pour le controle d'horodatage) n'est pas pris en charge en combinaison avec -O : dans la mesure ou fichier est tout le temps nouvellement cree, il aura toujours un horodatage tres recent. Un avertissement sera affiche si la combinaison des deux est utilisee. De meme, l'utilisation de -r ou -p avec -O peut ne pas fonctionner comme vous voudriez : wget ne telechargera pas seulement le premier fichier dans fichier et ensuite le reste dans leurs noms courants : tout le contenu telecharge sera place dans fichier. Cela a ete desactive dans la version 1.11, mais a ete reimplante (avec un avertissement) dans la version 1.11.2, puisqu'il y a des cas ou ce fonctionnement peut avoir une certaine utilite. Une combinaison avec -nc n'est acceptee que si le fichier donne en sortie n'existe pas. Remarquez qu'une combinaison avec -k n'est permise que lors du telechargement d'un seul document, car dans ce cas il convertira seulement toutes les URl relatives en URL externes ; -k n'a pas de sens pour des URl multiples lorsqu'elles sont toutes telechargees dans un seul fichier ; -k ne peut etre utilise que lorsque la sortie est un fichier normal. -nc --no-clobber Si un fichier est telecharge plus d'une fois dans le meme repertoire, le comportement de wget depend de quelques options, incluant -nc. Dans certains cas, le fichier local sera corrompu ou ecrase apres un telechargement repete. Dans d'autres cas, il sera preserve. Lorsque wget est lance sans -N, -nc, -r ou -p, le telechargement du meme fichier dans le meme repertoire preservera la copie d'origine de fichier et la seconde copie sera nommee fichier.1. Si ce fichier est a nouveau telecharge, la troisieme copie sera nommee fichier.2, et ainsi de suite. (Cela est aussi le comportement avec -nd, meme si -r ou -p sont effectifs.) Lorsque -nc est specifie, ce comportement est supprime, et wget refusera de telecharger de nouvelles copies de fichier. Par consequent, << no-clobber >> est en fait un terme mal choisi dans ce mode -- ce n'est pas la corruption qui est empechee (comme les suffixes numeriques empechent deja la corruption), mais plutot l'enregistrement de plusieurs versions qui est empeche. Lorsque wget est lance avec -r ou -p, mais sans -N, -nd ou -nc, telecharger a nouveau un fichier resultera en ce que la nouvelle copie ecrasera simplement la precedente. Ajouter -nc empechera ce comportement, provoquant plutot la preservation de la version originale et faisant que les copies plus recentes sur le serveur seront ignorees. Lors du lancement de wget avec -N, avec ou sans -r ou -p, la decision de telecharger ou non une copie plus recente d'un fichier depend de l'horodatage local et distant et de la taille du fichier. -nc peut ne pas etre specifie au meme moment que -N. Une combinaison avec -O/--output-document n'est acceptee que si le fichier donne en sortie n'existe pas. Notez que lorsque -nc est specifie, les fichiers avec les suffixes .html ou .htm seront charges depuis le disque local et analyses comme s'ils avaient ete recuperes sur le Web. --backups=sauvegardes Avant d'ecrire ou d'ecraser un fichier, faire une sauvegarde du fichier existant en ajoutant un suffixe .1 (_1 sur VMS) au nom de fichier. De tels fichiers de sauvegarde sont numerotes .2, .3, et ainsi de suite, jusqu'a sauvegardes (et perdus apres). --no-netrc Ne pas essayer d'obtenir des identifiants du fichier .netrc. Par defaut les identifiants sont recherches dans le fichier .netrc dans le cas ou aucun n'ait ete passe sur la ligne de commande et qu'une authentification serait necessaire. -c --continue Continuer a recuperer un fichier partiellement telecharge. Cela est utile lorsque vous voulez finir un telechargement commence lors d'une precedente instance de wget, ou par un autre programme. Par exemple : wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z S'il y a un fichier nomme ls-lR.Z dans le repertoire actuel, wget supposera qu'il s'agit de la premiere partie du fichier distant, et demandera au serveur de poursuivre la recuperation a partir d'un decalage egal a la longueur du fichier local. Remarquez que vous n'avez pas besoin d'indiquer cette option si vous voulez simplement que l'invocation actuelle de wget reessaie de telecharger un fichier si la connexion est perdue en cours de route. C'est le comportement par defaut. -c n'affecte que la reprise des telechargements commences avant cette invocation de wget, et dont les fichiers locaux sont toujours en attente. Sans -c, l'exemple precedent devrait juste telecharger le fichier distant dans ls-lR.Z.1, laissant seul le fichier tronque ls-lR.Z. Si vous utilisez -c sur un fichier non vide, et que le serveur ne prend pas en charge la reprise du telechargement, wget relancera le telechargement depuis le debut et ecrasera entierement le fichier existant. A partir de Wget 1.7, si vous utilisez -c sur un fichier ayant une taille egale a celui sur le serveur, wget refusera de telecharger le fichier et affichera un message explicatif. La meme chose arrive lorsque le fichier est plus petit sur le serveur que celui en local (probablement parce qu'il a ete modifie depuis votre derniere tentative de telechargement) -- parce que << continuing >> n'est pas assez explicite, aucun telechargement n'est lance. D'un autre cote, en utilisant -c, tout fichier qui est plus gros sur le serveur qu'en local sera considere comme un telechargement incomplet et seulement (longueur(distante) - longueur(locale)) octets seront telecharges et ajoutes a la fin du fichier local. Ce comportement est appreciable dans quelques cas. Par exemple, vous pouvez utiliser wget -c pour telecharger uniquement la nouvelle partie qui a ete ajoutee a une collection de donnees ou a un fichier journal. En tout cas, si le fichier est plus gros sur le serveur parce qu'il a ete modifie, contrairement a juste ajoute, vous vous retrouverez avec un fichier brouille. wget n'a pas la possibilite de verifier que le fichier local est reellement un debut valable du fichier distant. Vous devez etre particulierement attentif a cela lors de l'utilisation de -c en combinaison avec -r, vu que tout fichier sera considere comme un << telechargement incomplet >> potentiel. Un autre cas ou vous obtiendrez un fichier brouille si vous essayez d'utiliser -c, est celui ou vous avez un mandataire HTTP bancal qui insere une chaine "transfer interrupted") dans le fichier local. Dans le futur, une option "rollback" (retour a l'etat precedent) devrait etre ajoutee pour gerer ce cas de figure. Prenez en compte que -c ne fonctionne qu'avec les serveurs FTP et les serveurs HTTP qui prennent en charge l'en-tete "Range". --start-pos=OFFSET Commencer le telechargement a la position d'OFFSET par rapport a zero. Le decalage doit etre exprime en octets, kilooctets avec le suffixe k ou megaoctets avec le suffixe m, etc. --start-pos a la priorite sur --continue. Lorsque --start-pos et --continue sont toute deux indiquees, wget emettra un avertissement et procedera comme si --continue etait absent. La prise en charge du serveur pour la poursuite du telechargement est necessaire, sinon --start-pos ne pourra pas aider. Voir -c pour les details. --progress=type Selectionnez le type d'indicateur de progression que vous desirez utiliser. Les indicateurs classiques sont << dot >> (point) et << bar >> (trait). L'indicateur "bar" est utilise par defaut. Il dessine un graphique de barre de progression ASCII (comme un affichage << thermometre >>) indiquant l'etat de la recuperation. Si la sortie n'est pas une console TTY, la barre de progression << dot >> sera utilisee par defaut. Utilisez --progress=dot pour passer a l'affichage "pointille"). Il retrace la recuperation en affichant des points sur l'ecran, chaque point representant une quantite fixe de donnees telechargees. Le type de progression peut aussi prendre un ou plusieurs parametres. Les parametres varient suivant le type selectionne. Les parametres sont passes au type en les ajoutant au type, separes par un deux-points ( : ) comme ceci : --progress=type:parametre1:parametre2. Lorsque vous utilisez la representation de la recuperation par points, vous pouvez definir le style en specifiant le type comme dot:style. Les differents styles assignent differents roles a un point. Avec le style << default >> chaque point represente 1Ko, il y a dix points par grappe et 50 points sur une ligne. Le style << binary >> a plus une orientation du genre << ordinateur >> : points de 8Ko, 16 points par grappe et 48 points par ligne (ce qui fait des lignes de 384Ko). Le style << mega >> est adapte au telechargement de gros fichiers : chaque point representant 64Ko de recuperation, il y a huit points dans une grappe, et 48 points sur chaque ligne (chaque ligne contenant 3Mo). Si << mega >> n'est pas suffisant, alors vous pouvez utiliser le style << giga >> -- chaque point represente 1 Mo recuperes, il y a huit points par grappe, et 32 points par ligne (donc chaque ligne contient 32Mo). Avec --progress=bar, il y a actuellement deux parametres possibles, force et noscroll. Lorsque la sortie n'est pas une console TTY, la barre de progression retombe toujours sur "dot", meme si --progress=bar a ete passe a wget lors de l'invocation. Ce comportement peut etre outrepasse et la sortie "bar" forcee avec le parametre "force" comme --progress=bar:force. Par defaut, la barre de progression du style bar fait defiler le nom du fichier de gauche a droite pour le fichier en cours de telechargement si le nom du fichier depasse la longueur maximale allouee a son affichage. Dans certains cas, comme avec --progress=bar:force, il peut ne pas y avoir de defilement du nom de fichier dans la barre de progression. En passant le parametre "noscroll", wget peut etre force a afficher la plus grande partie possible du nom de fichier sans le faire defiler. Remarquez que vous pouvez indiquer le style par defaut en utilisant la commande "progress" dans .wgetrc. Ce reglage peut etre ecrase par la ligne de commande. Par exemple, pour forcer la barre de sortie a ne pas defiler, utilisez --progress=bar:force:noscroll. --show-progress Forcer wget a afficher la barre de progression quelque soit le niveau de detail. Par defaut, wget affiche seulement la barre de progression en mode detaille. Il est possible de vouloir que wget affiche la barre de progression en accord avec un autre mode de detail comme --no-verbose ou --quiet. Cela peut etre desirable lors de l'invocation de wget pour telecharger plusieurs petits et/ou grands fichiers. Dans un tel cas, wget pourrait simplement etre invoque avec ce parametre pour avoir une sortie plus propre sur l'ecran. Cette option forcera egalement la barre de progression a etre affichee dans stderr lorsqu'elle est utilisee avec l'option --output-file. -N --timestamping Activer l'horodatage. --no-if-modified-since Ne pas envoyer d'en-tete If-Modified-Since en mode -N. Envoyer d'abord une reponse HEAD a la place. Cela n'est effectif qu'en mode -N. --no-use-server-timestamps Ne pas regler l'horodatage du fichier local sur celui du serveur. Par defaut, lorsqu'un fichier est telecharge, son horodatage est regle pour correspondre a celui du fichier distant. Cela permet l'utilisation de --timestamping sur les invocations suivantes de wget. Cependant, il est parfois necessaire de baser l'horodatage du fichier local sur celui de son telechargement ; l'option --no-use-server-timestamps a ete fournie dans ce but. -S --server-response Afficher les en-tetes envoyes par les serveurs HTTP et les reponses envoyees par les serveurs FTP. --spider Lorsqu'il est invoque avec cette option, wget se comportera comme un robot d'indexation, il ne telechargera pas les pages, il verifiera simplement leur presence. Par exemple, vous pouvez utiliser wget pour verifier vos marque-pages : wget --spider --force-html -i marque-pages.html Cette caracteristique necessite encore quelques travaux pour se rapprocher des fonctionnalites de veritables robots d'indexation. -T secondes --timeout=secondes Definir le delai d'attente du reseau a secondes. Cela est equivalent a specifier --dns-timeout, --connect-timeout et --read-timeout, tous en meme temps. Lorsqu'il interagit avec le reseau, wget peut verifier le delai d'attente et annuler l'operation si cela dure trop. Cela permet d'eviter les anomalies telles que les lectures suspendues et les connexions infinies. Le seul delai d'attente active par defaut est un delai d'attente de lecture de 900 secondes (15 min). Definir un delai d'attente a 0 desactive l'ensemble. A moins de savoir ce que vous faites, il vaut mieux ne pas changer les reglages du delai d'attente par defaut. Toutes les options liees au delai d'attente acceptent les valeurs decimales, ainsi que les valeurs en dixieme de seconde. Par exemple, 0.1 seconde est un choix classique (bien que peu judicieux) du delai d'attente. Les temps d'attente en dixiemes de seconde sont utiles pour la verification des temps de reponse du serveur ou pour tester la latence du reseau. --dns-timeout=secondes Definir le delai de consultation de DNS a secondes. Les recherches DNS qui ne sont pas terminees dans le delai specifie echouent. Par defaut, il n'y a pas de delai sur les recherches DNS, autre que celui implemente par les bibliotheques du systeme. --connect-timeout=secondes Definir le delai de connexion a secondes. Les connexions TCP qui mettent trop longtemps a s'etablir seront annulees. Il n'y a pas de delai de connexion par defaut, autre que celui qui est implemente par les bibliotheques du systeme. --read-timeout=secondes Definir le delai de lecture (et d'ecriture) a secondes. Le << temps >> de ce delai correspond a idle time : si, a quelque moment du telechargement, aucune donnee n'est recue durant plus que le nombre specifie de secondes, la lecture echoue et le telechargement est recommence. Cette option n'influe pas directement sur la duree totale du telechargement. Bien sur, le serveur distant peut choisir de terminer la connexion plus tot que requis par cette option. Le delai de lecture est de 900 secondes (15 min) par defaut. --limit-rate=quantite Limiter la vitesse de telechargement a quantite octets par seconde. Cette quantite doit etre exprimee en octets, kilooctets (avec le suffixe k), ou megaoctets (avec le suffixe m). Par exemple, --limit-rate=20K limitera le debit de recuperation a 20 ko/s. Cela est utile lorsque, pour une raison quelconque, vous ne voulez pas que wget consomme toute la bande passante disponible. Cette option autorise l'usage de nombres decimaux, habituellement en conjonction avec des suffixes de puissance ; par exemple, --limit-rate=2.5k est une valeur classique. Remarquez que wget implemente la limitation en dormant pendant la duree appropriee apres une reception depuis le reseau qui a pris moins de temps que specifie par le debit. Finalement cela peut causer le ralentissement du tranfert TCP jusqu'a approximativement le debit specifie. Cependant, il se peut que cela prenne un peu de temps avant de se stabiliser ; ne soyez pas surpris si cette limite n'est pas vraiment respectee lors du transfert de tres petits fichiers. -w secondes --wait=secondes Attendre le nombre de secondes specifie entre deux recuperations. L'utilisation de cette option est encouragee, car elle allege le travail du serveur en diminuant la frequence des requetes. Au lieu de secondes, le temps peut etre indique en minutes en utilisant le suffixe "m", en heures avec le suffixe "h", ou en jours avec le suffixe "d". L'indication d'une grande valeur pour cette option est pratique si le reseau ou l'hote de destination est eteint, ainsi wget peut attendre assez longtemps pour raisonnablement esperer que l'erreur reseau soit reparee d'ici le prochain essai. L'intervalle de temps d'attente indique par cette fonction est influence par "--random-wait" qui surveille. --waitretry=secondes Si vous ne voulez pas que wget attende entre chaque recuperation, mais seulement entre les nouvelles tentatives suite a des echecs de telechargement, vous pouvez utiliser cette option. wget utilisera linear backoff, en attendant une seconde apres le premier echec sur un fichier donne, puis deux secondes apres le second echec sur ce fichier, jusqu'au nombre maximal de secondes indique. Par defaut, wget prendra une valeur de dix secondes. --random-wait Certains sites web peuvent effectuer une analyse des journaux pour identifier les programmes d'extraction tels que wget en recherchant des similitudes statistiquement significatives dans le delai entre les requetes. Cette option fait varier entre 0,5 et 1,5 * secondes d'attente, ou secondes d'attente est indiquee par l'usage de l'option --wait, pour masquer la presence de wget a partir de ce type d'analyse. Un article est paru en 2001 dans une publication consacree au developpement sur une plate-forme populaire grand public qui fournissait un code permettant d'effectuer cette analyse a la volee. Son auteur a suggere un blocage au niveau des adresses de classe C pour s'assurer que les programmes d'extraction automatique soient bloques malgre le changement des adresses fournies par le DHCP. L'option --random-wait a ete inspiree par cette recommandation peu judicieuse qui consiste a bloquer l'acces a un site web a de nombreux utilisateurs non concernes en raison des actions d'un seul. --no-proxy Ne pas utiliser de mandataire, meme si la variable d'environnement appropriee *_proxy est definie. -Q quota --quota=quota Indiquer le quota de telechargement pour l'extraction automatique. Cette valeur peut etre indiquee en octets (par defaut), kilooctets (avec le suffixe k) ou megaoctets (avec le suffixe m). Remarquez que le quota n'affectera jamais le telechargement d'un seul fichier. Donc si vous indiquez wget -Q10k https://example.com/ls-lR.gz, tout le fichier ls-lR.gz sera telecharge. C'est la meme chose lorsque plusieurs URL sont indiquees sur la ligne de commande. Le quota n'est seulement verifie qu'a la fin de chaque fichier telecharge, donc il ne provoquera jamais le telechargement partiel d'un fichier. Ainsi vous pouvez tranquillement taper wget -Q2m -i sites, le telechargement s'arretera apres que le fichier qui depasse le quota a ete completement telecharge. Definir le quota a 0 ou a inf retire la limite du quota de telechargement. --no-dns-cache Desactiver la mise en cache des recherches de DNS. Normalement, wget se souvient des adresses IP qu'il a recherche aupres de DNS afin de ne pas avoir a contacter de maniere repetee le serveur DNS pour le meme (generalement petit) ensemble d'hotes utilise pour la recuperation. Ce cache n'existe qu'en memoire ; un nouveau lancement de wget recontactera encore le DNS. Cela dit, il a ete rapporte que dans quelques situations, il n'est pas desirable de mettre en cache les noms d'hotes, meme pour la duree d'une application breve et rapide comme wget. Avec cette option, wget effectue une nouvelle recherche DNS (plus precisement, un nouvel appel a "gethostbyname" ou "getaddrinfo") a chaque nouvelle connexion. Veuillez prendre en compte que cette option n'affectera pas la mise en cache qui pourrait etre effectuee par la bibliotheque de resolution ou par une couche de mise en cache externe, telle que NSCD. Si vous ne comprenez pas exactement ce que fait cette option, vous n'en avez probablement pas besoin. --restrict-file-names=modes Modifier les caracteres trouves dans les URL distants qui doivent etre proteges lors de la generation des noms de fichiers locaux. Les caracteres qui sont restreints par cette option sont proteges, c'est-a-dire remplaces par %HH, ou HH est le nombre hexadecimal qui correspond au caractere restreint. Cette option peut aussi etre utilisee pour forcer les caracteres alphabetiques a etre soit en minuscules, soit en capitales. Par defaut, wget protege les caracteres qui ne sont pas valables ou surs dans les noms de fichiers pour votre systeme d'exploitation, ainsi que pour les caracteres de controle habituellement impossibles a afficher. Cette option est utile pour changer ce comportement par defaut, peut etre parce que vous telechargez dans une partition non native, ou parce que vous voulez desactiver la protection des caracteres de controle, ou parce que vous voulez restreindre encore plus de caracteres a ceux de la plage de valeurs ASCII. Les modes sont un ensemble de valeurs textuelles separees par des virgules. Les valeurs acceptees sont unix, windows, nocontrol, ascii, lowercase et uppercase. Les valeurs unix et windows sont mutuellement exclusives (l'une ecrasera l'autre), de meme pour lowercase et uppercase. Ces deux dernieres sont des cas speciaux, car elles ne changent pas l'ensemble des caracteres qui devraient etre proteges, mais plutot forcent les chemins de fichier local a etre converti soit en minuscules ou en capitales. Lorsque "unix" est indique, wget protege le caractere / et les caracteres de controle dans les plages de 0 a 31 et de 128 a 159. C'est le comportement par defaut pour les systemes d'exploitation de type Unix. Lorsque "windows" est indique, wget protege les caracteres \, |, /, :, ?, ", *, <, >, et les caracteres controle dans les plages de 0 a 31 et de 128 a 159. En plus de cela, wget en mode Windows utilise + au lieu de : pour separer l'hote et le port dans les noms de fichiers locaux, et utilise @ au lieu de ? pour separer la partie requete du nom de fichier du reste. Par consequent, une URL qui aurait ete sauvegardee en www.xemacs.org:4300/search.pl?input=blabla en mode Unix pourrait l'etre en www.xemacs.org+4300/search.pl@input=blabla en mode Windows. C'est le mode par defaut sur Windows. Si vous indiquez nocontrol, alors la protection des caracteres de controle est aussi desactivee. Cette option est utile lorsque vous telechargez des URL avec des noms contenant des caracteres UTF-8 sur un systeme qui peut sauvegarder et afficher les noms de fichiers en UTF-8 (certaines valeurs d'octets possibles utilisees dans les sequences d'octets UTF-8 tombent dans la plage de valeurs designee par wget comme "controles"). Le mode ascii est utilise pour specifier que tous les octets dont la valeur est en dehors de la plage de caracteres ASCII, (c'est-a-dire superieure a 127) doivent etre proteges. Cela est utile lors de la sauvegarde des noms de fichiers dont l'encodage ne correspond pas a celui utilise en local. -4 --inet4-only -6 --inet6-only Forcer la connexion vers les adresses IPv4 ou IPv6. Avec --inet4-only ou -4, wget ne se connectera qu'a des hotes IPv4, ignorant les enregistrements AAAA du DNS, et refusant de se connecter aux adresses IPv6 indiquees dans les URL. Au contraire, avec --inet6-only ou -6, wget ne se connectera qu'aux hotes IPv6 et ignorera les enregistrements A et les adresses IPv4. Aucune de ces options ne devrait etre normalement necessaire. Par defaut, un wget prenant en charge IPv6 utilisera la famille d'adresses specifiee par l'enregistrement DNS de l'hote. Si le DNS repond avec a la fois des adresses IPv4 et IPv6, wget les essaiera dans l'ordre jusqu'a ce qu'il en trouve une pour se connecter. Consultez aussi l'option "--prefer-family" decrite ci-dessous. Ces options peuvent etre utilisees pour forcer deliberement l'usage des familles d'adresses IPv4 ou IPv6 sur les systemes avec les deux familles, habituellement pour aider au debogage ou s'occuper d'une configuration reseau defaillante. Seulement l'une des options --inet6-only et --inet4-only peut etre indiquee au meme moment. Aucune option n'est disponible si wget a ete compile sans la prise en charge de IPv6. --prefer-family=none/IPv4/IPv6 Lors d'un choix avec plusieurs adresses, se connecter d'abord aux adresses indiquees dans la famille d'adresses. Par defaut, l'ordre des adresses renvoye par DNS est utilise sans changement. Cela permet d'eviter les erreurs et les tentatives de connexion intempestives lors de l'acces a des hotes dont l'adresse est a la fois IPv6 et IPv4 a partir de reseaux IPv4. Par exemple, www.kame.net se resout en 2001:200:0:8002:203:47ff:fea5:3085 et en 203.178.141.194. Lorsque la famille souhaitee est "IPv4", l'adresse IPv4 sera utilisee en premier ; lorsque la famille souhaitee est "IPv6", l'adresse IPv6 sera utilisee en premier ; si la valeur indiquee est "none", l'ordre des adresses renvoye par DNS est utilise sans changement. Contrairement a -4 et -6, cette action n'empeche pas l'acces a une quelconque famille d'adresse, elle change juste l'ordre dans lequel on accede aux adresses. Remarquez aussi que le reordonnancement effectue par cette option est stable : il n'affecte pas l'ordre des adresses de la meme famille. C'est-a-dire que l'ordre relatif de toutes les adresses IPv4 et de toutes les adresses IPv6 reste intact dans tous les cas. --retry-connrefused Considerer "connection refused" comme une erreur passagere et reessayer. Normalement, wget abandonne une URL lorsqu'il ne parvient pas a se connecter au site, car l'echec de la connexion est considere comme un signe que le serveur ne fonctionne pas du tout et que de nouvelles tentatives ne seraient d'aucune utilite. Cette option est destinee a la mise en miroir de sites peu fiables dont les serveurs ont tendance a disparaitre pendant de courtes periodes. --user=utilisateur --password=mot_de_passe Indiquer le nom d'utilisateur utilisateur et le mot de passe mot_de_passe pour la recuperation des fichiers a la fois FTP et HTTP. Ces parametres peuvent etre ecrases par l'utilisation des options --ftp-user et --ftp-password pour les connexions FTP et les options --http-user et --http-password pour les connexions HTTP. --ask-password Demander un mot de passe pour chaque connexion etablie. Ne peut pas etre indique quand --password est deja utilise, car ils sont mutuellement exclusifs. --use-askpass=commande Demander un utilisateur et un mot de passe en utilisant la commande indiquee. Si aucune commande n'est indiquee, alors la commande dans la variable d'environnement WGET_ASKPASS est utilisee. Si WGET_ASKPASS n'est pas definie, alors la commande dans la variable d'environnement SSH_ASKPASS est utilisee. Vous pouvez definir la commande par defaut pour use-askpass dans .wgetrc. Ce reglage peut etre ecrase par la ligne de commande. --no-iri Desactiver la prise en charge des URI internationalises (IRI). Utiliser --iri pour l'activer. La prise en charge des IRI est activee par defaut. Vous pouvez definir l'etat par defaut de la prise en charge des IRI en utilisant la commande "iri" dans .wgetrc. Ce reglage peut etre ecrase par la ligne de commande. --local-encoding=encodage Forcer wget a utiliser encodage comme systeme d'encodage par defaut. Cela influe sur la maniere dont wget convertit les URL indiques comme arguments de parametres regionnaux vers UTF-8 pour la prise en charge d'IRI. wget utilise la fonction "nl_langinfo()" et donc la variable d'environnement "CHARSET" pour obtenir les parametres regionaux. Si cela echoue, ASCII sera utilise. Vous pouvez definir l'encodage local par defaut en utilisant la commande "local_encoding" dans .wgetrc. Ce reglage peut etre ecrase par la ligne de commande. --remote-encoding=encodage Forcer wget a utiliser l'encodage comme encodage par defaut du serveur distant. Cela affecte la facon dont wget convertit les URI trouves dans les fichiers de l'encodage distant en UTF-8 lors d'une recuperation recursive. Cette option n'est utile que pour la prise en charge d'IRI, pour interpreter les caracteres qui ne sont pas ASCII. Pour HTTP, l'encodage distant peut etre trouve dans l'en tete HTTP "Content-Type" et dans les meta-etiquettes HTML "Content-Type http-equiv". Vous pouvez definir l'encodage par defaut avec la commande "remoteencoding" dans .wgetrc. Ce reglage peut etre ecrase en ligne de commande. --unlink Forcer wget a delier le fichier au lieu d'ecraser le fichier existant. Cette option est utile pour le telechargement dans le repertoire avec des liens en dur (<< hardlinks >>). Options de repertoire -nd --no-directories Ne pas creer de hierarchie de repertoires lors d'une recuperation recursive. Avec cette option activee, tous les fichiers sont sauvegardes dans le repertoire actuel, sans ecrasement (si un nom apparait plus d'une fois, les noms de fichiers auront l'extension .n). -x --force-directories L'oppose de -nd : creer une hierarchie de repertoires, meme si une n'aurait pas ete creee autrement. Par exemple, wget -x http://fly.srk.fer.hr/robots.txt sauvegardera les fichiers telecharges dans fly.srk.fer.hr/robots.txt. -nH --no-host-directories Desactiver la generation de repertoires prefixes par le nom d'hote. Par defaut, l'invocation de wget avec -r http://fly.srk.fer.hr/ creera une structure de repertoires commencant par fly.srk.fer.hr/. Cette option desactive un tel comportement. --protocol-directories Utiliser le nom de protocole comme composant du repertoire des noms de fichiers locaux. Par exemple, avec cette option, wget -r http://hote sera sauvegarde en http/hote/... plutot que seulement en hote/.... --cut-dirs=nombre Ignorer un certain nombre de composants du repertoire. Cela est utile pour obtenir un controle fin sur le repertoire ou la recuperation recursive sera enregistree. Prenons comme exemple le repertoire a l'adresse ftp://ftp.xemacs.org/pub/xemacs/. Si vous le recuperez avec -r, il sera sauvegarde localement sous ftp.xemacs.org/pub/xemacs/. Bien que l'option -nH peut supprimer la partie ftp.xemacs.org/, vous etes encore coince avec pub/xemacs. C'est la ou --cut-dirs est vraiment pratique : il permet a wget de ne pas << voir >> le nombre de composants de repertoire distant. Voici quelques exemples de la maniere dont l'option --cut-dirs fonctionne. Pas d'options -> ftp.xemacs.org/pub/xemacs/ -nH -> pub/xemacs/ -nH --cut-dirs=1 -> xemacs/ -nH --cut-dirs=2 > . --cut-dirs=1 -> ftp.xemacs.org/xemacs/ ... Si vous voulez simplement vous debarrasser de la structure du repertoire, cette option est similaire a une combinaison de -nd et -P. Par contre, contrairement a -nd, --cut-dirs ne se perd pas avec des sous-repertoires (par exemple, avec -nH --cut-dirs=1, un sous-repertoire beta/ sera place sur xemacs/beta, comme on pourrait l'esperer. -P prefixe --directory-prefix=prefixe Designer le prefixe de repertoire a prefixe. Le prefixe de repertoire est le repertoire ou tous les autres fichiers et sous-repertoires vont etre sauvegardes, c'est-a-dire le haut de l'arbre de recuperation. C'est . (le repertoire actuel) par defaut. Options HTTP --default-page=nom Utiliser nom comme nom de fichier par defaut quand il n'est pas connu (c'est-a-dire pour les URL finissants avec une barre oblique), au lieu de index.html. -E --adjust-extension Si un fichier de type application/xhtml+xml ou text/html est telecharge et que l'URL ne finit pas par l'expression rationnelle \.[Hh][Tt][Mm][Ll]?, cette option provoquera le rajout du suffixe .html au nom de fichier local. C'est utile, par exemple, lorsque vous mettez en miroir un site distant qui utilise des pages .asp, mais que vous voulez que les pages mises en miroir puissent etre visualisees sur votre serveur Apache standard. Un autre usage appreciable pour cela est quand vous telechargez du materiel genere par CGI. Une URL telle que http://site.com/article.cgi?25 sera sauvegardee comme article.cgi?25.html. Notez que les noms de fichiers modifies ainsi seront telecharges a nouveau chaque fois que vous remettrez en miroir un site, car wget ne peut pas dire que le fichier local X.html correspond a l'URL X distante (etant donne qu'il ne sait pas encore que l'URL produit une sortie sous forme text/html ou application/xhtml+xml. Avec la version 1.12 wget s'assure aussi que tous les fichiers telecharges de forme text/css se terminent par le suffixe .css, et l'option a ete renommee de --html-extension, pour mieux refleter son nouveau comportement. L'ancien nom de l'option est encore acceptable, mais devrait etre considere comme obsolete. Depuis la version 1.19.2, wget s'assure aussi que tout fichier telecharge avec un "Content-Encoding" de type br, compress, deflate ou gzip finisse avec le suffixe .br, .Z, .zlib et .gz respectivement. A l'avenir, cette option devrait etre assez etendue pour englober les suffixes d'autres types de contenus, incluant ceux qui ne sont pas analyses par wget. --http-user=utilisateur --http-password=mot_de_passe Indiquer le nom d'utilisateur utilisateur et le mot de passe mot_de_passe sur un serveur HTTP. Selon le type d'authentification par question-reponse, wget encodera en utilisant a la fois le schema d'authentification "basic" (non-securise), "digest" ou "NTLM" de Windows. Une autre maniere d'indiquer le nom d'utilisateur et le mot de passe est de les specifier dans l'URL. Les deux methodes revelent votre mot de passe a quiconque se donne la peine d'executer "ps"). Pour empecher que les mots de passe ne soient vus, utilisez --use-askpass ou stockez les dans .wgetrc ou .netrc, et assurez vous de proteger ces fichiers des autres utilisateurs avec "chmod". Si les mots de passe sont tres importants, ne les laissez pas trainer dans ces fichiers non plus (editez les fichiers et effacez-les apres que wget a commence le telechargement). --no-http-keep-alive Desactiver la fonction << keep-alive >> pour les telechargements HTTP. Normalement, wget demande au serveur de laisser la connexion ouverte pour que, lorsque vous telechargez plus d'un document sur le meme serveur, ils soient transferes sur la meme connexion TCP. Cela economise du temps et aussi reduit la charge sur le serveur. Cette option a son utilite quand, pour une raison quelconque, les connexions persistantes (keep-alive) ne fonctionnent pas pour vous, du par exemple a un bogue du serveur ou en raison de l'incapacite des scripts cote serveur a gerer les connexions. --no-cache Desactiver le cache cote serveur. Dans ce cas, wget enverra les directives appropriees (Cache-Control: no-cache et Pragma: no-cache) au serveur distant pour recevoir les fichier du service distant, au lieu de renvoyer la version mise en cache. Cela est surtout utile pour retrouver et vider les documents obsoletes sur des serveurs mandataires. La mise en cache est autorisee par defaut. --no-cookies Desactiver l'utilisation des cookies. Les cookies sont un mecanisme permettant de conserver l'etat du serveur. Le serveur envoie au client un cookie utilisant l'en-tete "Set-Cookie" et le client repond avec le meme cookie lors de requetes supplementaires. Comme les cookies autorisent les proprietaires du serveur a garder une trace des visiteurs et pour les sites de s'echanger ces informations, certains considerent cela comme une atteinte a la vie privee. Par defaut, les cookies sont utilises ; cependant, il n'y a pas de stockage de cookies par defaut. --load-cookies fichier Charger les cookies d'un fichier avant la premiere recuperation HTTP. fichier est un fichier texte dans le format utilise a l'origine par les fichiers cookies.txt de Netscape. Vous utiliserez generalement cette option pour la mise en place d'un miroir de sites qui exigent que vous soyez connecte pour acceder a tout ou partie de leur contenu. Le processus de connexion fonctionne generalement de la maniere suivante : le serveur Web emet un cookie HTTP apres avoir recu et verifie vos identifiants. Le cookie est alors renvoye par le navigateur pour acceder a cette partie du site, et prouve ainsi de votre identite. La mise en miroir d'un tel site necessite que wget renvoie les meme cookies que ceux envoyes par le navigateur lors de la communication avec le site. Cela est fait par --load-cookies ; il suffit d'indiquer a wget l'emplacement du fichier cookies.txt et il enverra les memes cookies que votre navigateur enverrait dans la meme situation. Les differents navigateurs conservent les fichiers cookies textuels a des endroits differents : "Netscape 4.x." Les cookies sont dans ~/.netscape/cookies.txt. "Mozilla and Netscape 6.x." Le fichier de cookies de Mozilla se nomme aussi cookies.txt et se trouve quelque part sous ~/.mozilla, dans le repertoire de votre profil. Le nom de chemin se termine generalement en quelque chose comme ~/.mozilla/default/chaine_bizarre/cookies.txt. "Internet Explorer." Vous pouvez produire un fichier cookie que wget peut utiliser en utilisant le menu Fichier, Import et Export, Export de cookies. Cela a ete teste avec Internet Explorer 5 ; il n'est pas garanti que cela fonctionne avec des versions plus recentes. "Other browsers." Si vous utilisez un autre navigateur pour creer vos cookies, --load-cookies ne pourra fonctionner que si vous pouvez situer ou creer un fichier cookie dans le format Netscape comme attendu par wget. Si vous ne pouvez pas utiliser --load-cookies, il devrait exister une alternative. Si votre navigateur prend en charge un "gestionnaire de cookie", vous pouvez l'utiliser pour visualiser les cookies utilises pour acceder au site que vous mettez en miroir. Ecrire le nom et la valeur du cookie, et donner des instructions manuellement a wget pour qu'il envoie ces cookies, en contournant le gestionnaire de cookie << officiel >> : wget --no-cookies --header "Cookie: =" --save-cookies fichier Sauvegarder les cookies dans fichier avant de quitter. Cela ne sauvegardera pas les cookies qui ont expires ou qui n'ont pas de delai d'expiration (nommes les << cookies de session >>), mais voir aussi --keep-session-cookies. --keep-session-cookies Lorsque indique, fait que --save-cookies sauvegarde aussi les cookies de session. Les cookies de session ne sont normalement pas sauvegardes, car ils sont senses etre gardes en memoire et oublies lorsque vous quittez le navigateur. Les sauvegarder est utile sur les sites qui necessitent une identification ou une visite de la page d'accueil avant que vous puissiez acceder a certaines pages. Avec cette option, de multiples executions de wget sont considerees comme une seule session de navigateur tant que le site est concerne. Comme le format de fichier de cookie ne contient generalement pas les cookies de session, wget les marque avec un delai d'expiration de 0. --load-cookies de wget les reconnait comme cookies de session, mais cela pourrait etre confus pour d'autres navigateurs. Prenez en compte aussi que les cookies charges ainsi seront traites comme d'autres cookies de session, donc si vous voulez que --save-cookies les conserve a nouveau, vous devez utiliser --keep-session-cookies a nouveau. --ignore-length Helas, quelques serveurs HTTP (les programmes CGI, pour etre precis) envoient de faux en-tetes "Content-Length", ce qui rend wget fou, car il pense que tout le document n'a pas ete recupere. Vous pouvez reperer ce syndrome si wget tente a plusieurs reprises de recuperer le meme document, en affirmant a chaque fois que la connexion (par ailleurs normale) a ete fermee au meme instant precis. Avec cette option, wget ignorera l'en-tete "Content-Length", comme s'il n'avait jamais existe. --header=header-line Envoyer header-line avec le reste des en-tetes dans chaque requete HTTP. L'en-tete fourni est envoye tel quel, ce qui signifie qu'il doit contenir le nom et la valeur separes par un deux-points, et ne doit pas contenir de passage a la ligne. Vous pouvez definir plus d'un en-tete additionnel en indiquant --header plus d'une fois. wget --header='Accept-Charset: iso-8859-2' \ --header='Accept-Language: hr' \ http://fly.srk.fer.hr/ L'indication d'une chaine vide comme valeur d'en-tete effacera tous les en-tetes precedemment definis par l'utilisateur. Avec wget 1.10, cette option peut etre utilisee pour ecraser les en-tetes qui autrement auraient ete generes automatiquement. Cet exemple donne l'instruction a wget de se connecter a l'hote local, mais en indiquant truc.machin dans l'en-tete "Host" : wget --header="Host: truc.machin" http://localhost/ Dans les versions de wget anterieures a 1.10, une telle utilisation de --header provoquait l'envoi d'en-tetes en double. --compression=type Choisir le type de compression a utiliser. Les valeurs permises sont auto, gzip et none. Si auto ou gzip sont indiques, wget demande au serveur de compresser le fichier en utilisant le format gzip de compression. Si le serveur compresse le fichier et repond avec le champ d'en-tete "Content-Encoding" configure de maniere adequate, le fichier sera decompresse automatiquement. Si none est indique, wget ne demandera pas au serveur de compresser le fichier et ne decompressera aucune reponse du serveur. C'est le comportement par defaut. La prise en charge de la compression est actuellement experimentale. Au cas ou la compression est activee, merci de rapporter tout bogue a "bug-wget@gnu.org". --max-redirect=nombre Indique le nombre maximal de redirections a suivre pour une ressource. Par defaut, c'est 20, ce qui est generalement largement plus que suffisant. Cependant, en certaines occasions ou vous voulez en autoriser plus (ou moins), c'est l'option a utiliser. --proxy-user=utilisateur --proxy-password=mot_de_passe Indiquer le nom d'utilisateur utilisateur et le mot de passe mot_de_passe pour l'authentification sur un serveur mandataire. wget les encodera en utilisant le schema d'authentification "basic". Des considerations de securite similaires a celles avec --http-password sont pertinentes ici aussi. --referer=url Inclure l'en-tete << Referer: url >> dans la requete HTTP. Cela est utile pour recuperer des documents avec un traitement de serveur qui suppose qu'ils sont toujours recuperes par des navigateurs web interactifs et ne s'en sortent correctement que lorsque le Referer est regle sur l'une des pages qui pointent vers eux. --save-headers Sauvegarder les en-tetes envoyes par le serveur HTTP dans le fichier, precedant le contenu actuel, avec une ligne vide comme separateur. -U agent-string --user-agent=agent-string S'identifier comme agent-string pour le serveur HTTP. Le protocole HTTP autorise les clients a s'identifier eux-memes en utilisant un champ d'en-tete "User-Agent". Cela permet de differencier les logiciels WWW, generalement dans des buts de statistiques ou pour retracer les violations de protocole. Normalement, wget s'identifie comme Wget/version, ou version est le numero de la version actuelle de wget. Cependant, certains sites sont connus pour imposer la politique d'adaptation de la sortie en fonction des informations fournies par le "User-Agent". Bien que ce ne soit pas une si mauvaise idee en theorie, il y a eu des abus par des serveurs refusant l'information a des clients autres que Netscape (historiquement), ou plus frequemment, Microsoft Internet Explorer. Cette option vous permet de changer la ligne "User-Agent" fournie par wget. Utiliser cette option est deconseille, a moins de savoir reellement ce que vous faites. Indiquer un user agent vide avec --user-agent="" demandera a wget de ne pas envoyer d'en-tete "User-Agent" dans les requetes HTTP. --post-data=chaine --post-file=fichier Utiliser POST comme methode pour toutes les requetes HTTP et les envoyer dans les corps de requete. --post-data envoie chaine comme donnees, alors que --post-file envoie le contenu de fichier. A part cela, ces options fonctionnent exactement de la meme maniere. En particulier, les deux s'attendent a du contenu sous la forme "cle1=valeur1&cle2=valeur2", avec un encodage-pourcent (percent encoding) des caracteres speciaux ; la seule difference est que l'une attend son contenu comme parametre de ligne de commande et l'autre accepte son contenu d'un fichier. En particulier --post-file n'est pas fait pour transmettre des fichiers sous forme de pieces jointes : ceux-la doivent apparaitre comme des donnees "cle=valeur" (avec l'encodage-pourcent adequat) juste comme tout le reste. wget ne prend pas actuellement en charge "multipart/form-data" pour transmettre des donnees POST, mais seulement "application/x-www-form-urlencoded". Seule'une des options --post-data ou --post-file doit etre specifiee. Veuillez noter que wget n'exige pas que le contenu soit de la forme "cle1=valeur1&cle2=valeur2", et ne le teste pas non plus. wget transmettra simplement toutes les donnees qui lui sont fournies. La plupart des serveurs s'attendent toutefois a ce que les donnees POST soient dans le format ci-dessus lors du traitement des formulaires HTML. Lors de l'envoi d'une requete POST a l'aide de l'option --post-file, wget traite le fichier comme un fichier binaire et envoie chaque caractere de la requete POST sans supprimer les caracteres de fin de ligne ou de saut de page. Tout autre caractere de controle dans le texte sera aussi envoye tel quel dans la requete POST. Merci de prendre en compte que wget doit connaitre la taille des donnees POST a l'avance. C'est pourquoi l'argument a "--post-file" doit etre un fichier normal ; specifier une FIFO ou quelque chose comme /dev/stdin ne fonctionnera pas. La facon de contourner cette limite inherente a HTTP/1.0. n'est pas tres claire. Bien que HTTP/1.0. introduise le transfert morcele qui ne necessite pas de connaitre la longueur a l'avance, un client ne peut pas utiliser le tronconnage avant de savoir qu'il parle a un serveur HTTP/1.1. Et il ne peut pas le savoir avant d'avoir recu une reponse, qui a son tour necessite qu'une requete ait abouti - le probleme de l'oeuf et de la poule). Note : Depuis la version 1.15 si wget est redirige apres que la requete POST a termine, son comportement dependra du code de la reponse renvoye par le serveur. Dans le cas d'un 301 Moved Permanently, 302 Moved Temporarily ou 307 Temporary Redirect, wget en accord avec la RFC2616, continuera a envoyer une requete POST. Dans le cas ou un serveur veut que le client change la methode de requete lors de la redirection, il devrait envoyer un code de reponse 303 See Other . Cet exemple montre comment se connecter a un serveur en utilisant POST et ensuite proceder au telechargement des pages souhaitees, vraisemblablement accessibles uniquement aux utilisateurs autorises : # Se connecter au serveur. Cela ne peut etre fait qu'une fois. wget --save-cookies cookies.txt \ --post-data 'user=truc&password=machin' \ http://example.com/auth.php # Maintenant prendre la ou les pages qui nous interessent . wget --load-cookies cookies.txt \ -p http://example.com/interesting/article.php Si le serveur utilise des cookies de session pour tracer l'authentification de l'utilisateur, l'exemple ci-dessus ne fonctionnera pas car --save-cookies ne les sauvegardera pas (comme aucun navigateur) et le fichier cookies.txt sera vide. Dans ce cas, utiliser --keep-session-cookies avec --save-cookies pour forcer la sauvegarde des cookies de session. --method=HTTP-Method Pour les besoins des scripts RESTful, wget permet l'envoi d'autres methodes HTTP sans avoir besoin de les definir explicitement en utilisant --header=Header-Line. wget utilisera n'importe quelle chaine qui lui sera passee apres --method comme methode HTTP pour le serveur. --body-data=chaine-donnees --body-file=Fichier-donnees Doit etre positionne lorsque des donnees additionnelles necessitent d'etre envoyees au serveur avec la methode preconisee par l'utilisation de --method. --body-data envoie une chaine comme donnees, alors que --body-file envoie le contenu de fichier. Autrement, ils fonctionnent exactement pareil. Actuellement, --body-file ne transmet pas les fichiers comme un tout. wget ne prend actuellement pas en charge "multipart/form-data" pour la transmission de donnees, mais seulement "application/x-www-form-urlencoded". Dans le futur, cela devrait changer pour que wget puisse envoyer le fichier --body-file comme un fichier complet, au lieu d'envoyer son contenu au serveur. Veuillez prendre en compte que wget necessite de connaitre le contenu des donnees BODY a l'avance et donc l'argument de --body-file devrait etre un fichier ordinaire. Voir --post-file pour des explications plus detaillees. Une seule des options --body-data et --body-file devrait etre specifiee. Si wget est redirige apres la fin de la requete, wget suspend la methode en cours et envoie une requete GET jusqu'a ce que la redirection soit terminee. Cela est vrai pour tous les codes de redirection de reponse a l'exception de 307 Temporary Redirect qui est utilise pour indiquer explicitement que la methode de requete ne devrait pas changer. Une autre exception est quand la methode est positionnee a "POST", auquel cas les regles de redirection indiquees avec --post-data sont suivies. --content-disposition Si l'option est positionnee, la prise en charge experimentale (pas completement fonctionnelle) des en-tetes "Content-Disposition" est activee. Cela peut actuellement entrainer des allers-retours supplementaires vers le serveur pour une requete "HEAD", et souffre de quelques bogues connus, c'est pourquoi ce n'est pas actuellement active par defaut. Cette option est utile pour quelques programmes de telechargement CGI qui utilisent des en-tetes "Content-Disposition" pour decrire a quoi devrait ressembler le nom d'un fichier telecharge. Quand il est combine avec --metalink-over-http et --trust-server-names, un fichier Content-Type: application/metalink4+xml est nomme en utilisant le champ de nom de fichier de "Content-Disposition", s'il est disponible. --content-on-error Si cela est active, wget ne sautera pas le contenu lorsque le serveur repond avec un code d'etat http qui indique une erreur. --trust-server-names Si cela est active, lors d'une redirection, le nom du fichier local sera base sur l'URL de redirection. Par defaut le nom du fichier local est base sur l'URL d'origine. Lors d'une recherche recursive, cela peut etre utile car dans de nombreux sites web, les URL redirigees correspondent a une structure de fichiers sous-jacente, alors que les URL de liens ne le font pas. --auth-no-challenge Si cette option est passee, wget enverra une information d'authentification HTTP Basic (nom d'utilisateur et mot de passe en texte clair) pour toutes les requetes, comme le fait par defaut wget 1.10.2 et anterieurs. L'utilisation de cette option est deconseillee, et est destinee uniquement a la prise en charge de quelques serveurs obscurs qui n'envoient jamais d'authentification par question-reponse HTTP, mais acceptent les informations d'authentification non sollicitees, disons, en plus de l'authentification par formulaire. --retry-on-host-error Considerer les erreurs de l'hote, telles que "Echec temporaire dans la resolution du nom", comme des erreurs non fatales et transitoires. --retry-on-http-error=code[,code,...] Considerer les codes de reponse HTTP donnes comme des erreurs non-fatales et transitoires. Fournir une liste de codes de reponse HTTP a trois chiffres separes par des virgules comme argument. Utile pour travailler dans certaines circonstances ou les reessais sont necessaires, mais ou le serveur repond avec un code d'erreur que wget ne reessaye pas normalement. Ces erreurs devraient etre 503 (Service non disponible) et 429 (Trop de requetes). Les tentatives activees par cette option sont effectuees sous reserve des limitations normales de wget en matiere de delais et de nombre de tentatives. L'utilisation de cette option n'est prevue que pour des cas d'utilisation particuliers et n'est generalement pas recommandee, car elle peut forcer des tentatives meme dans les cas ou le serveur essaie reellement de reduire sa charge. Veuillez l'utiliser a bon escient et seulement si vous savez ce que vous faites. Options HTTPS (SSL/TLS) Pour la prise en charge des telechargements HTTP (HTTPS) chiffres, wget doit etre compile avec une bibliotheque SSL externe. Habituellement par defaut c'est GnuTLS. En plus, wget prend aussi en charge HSTS (HTTP Strict Transport Security). Si wget est compile sans la prise en charge de SSL, aucune de ces options n'est disponible. --secure-protocol=protocole Choisir le protocole de securite a utiliser. Les valeurs autorisees sont auto, SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2, TLSv1_3 et PFS. Si auto est utilise, le choix est donne a la bibliotheque SSL de choisir le protocole approprie automatiquement, qui s'acheve par l'envoi d'un salut TLSv1. C'est le comportement par defaut. Indiquer SSLv2, SSLv3, TLSv1, TLSv1_1, TLSv1_2 ou TLSv1_3 force l'utilisation du protocole correspondant. Cette fonction est utile lorsque l'on s'adresse a des implementations de serveur SSL anciennes et boguees qui rendent le choix de la version correcte du protocole difficile pour la bibliotheque SSL sous-jacente. Heureusement, de tels serveurs sont assez rares. La specification de PFS impose l'utilisation des suites de chiffrement dites << Perfect Forward Security >>. Pour faire court, PFS ajoute une securite en creant une cle a usage unique pour chaque connexion SSL. Cela a un impact un peu plus important sur le CPU du client et du serveur. Nous utilisons des chiffrements connus pour etre surs (par exemple, pas de MD4) et le protocole TLS. Ce mode exclut egalement de maniere explicite les methodes d'echange de cles non PFS, telles que RSA. --https-only En mode recursif, seuls les liens HTTPS sont suivis. --ciphers Definir la chaine de liste de chiffrement. Normalement cette chaine definit les suites de chiffrement et autres options SSL/TLS que l'utilisateur voudrait utiliser, avec un ordre de preference (GnuTLS l'appelle << chaine prioritaire >>). Cette chaine sera envoyee litteralement au moteur SSL/TLS (OpenSSL ou GnuTLS) et donc son format et sa syntaxe en dependront. wget ne la traitera ni ne la manipulera en aucune facon. Se referer a la documentation d'OpenSSL ou de GnuTLS pour de plus amples informations. --no-check-certificate Ne pas verifier le certificat du serveur aupres des autorites de certification disponibles. Ne pas requerir non plus que le nom d'hote de l'URL corresponde au nom commun presente par le certificat. Depuis wget 1.10, le comportement par defaut est de verifier le certificat du serveur aupres des autorites de certification reconnues, cassant l'etablissement de la liaison SSL et stoppant le telechargement si la verification echoue. Aussi, meme si cela procure des telechargements plus surs, cela casse l'interoperabilite avec certains sites qui fonctionnent avec des versions precedentes de wget, en particulier ceux qui utilisent des certificats auto-signes, expires ou non valables. Cette option force le mode "insecure" qui transforme les erreurs de verification de certificats en avertissements, permettant ainsi de poursuivre. Si vous rencontrez des erreurs "certificate verification" ou qui indiquent "le nom courant ne correspond pas au nom d'hote demande", vous pouvez utiliser cette option pour outrepasser la verification. N'utilisez cette option que si vous etes convaincu par un autre moyen de l'authenticite du site, ou si vraiment peu vous importe la validite de son certificat. C'est presque toujours une mauvaise idee de ne pas verifier les certificats lors de la transmission de donnees confidentielles ou importantes. Pour les certificats auto-signes, vous devriez telecharger le certificat pour le verifier au lieu de forcer en mode non securise. Si vous etes vraiment sur de ne vouloir aucune verification de certificat, vous pouvez indiquer --check-certificate=quiet pour dire a wget de ne pas afficher d'avertissements au sujet des certificats non valables, bien que dans la plupart des cas ce soit la mauvaise chose a faire. --certificate=fichier Utiliser le certificat du client stocke dans fichier. Cela est necessaire pour les serveurs qui sont configures pour demander les certificats des clients qui s'y connectent. Normalement, un certificat n'est pas demande et cette option est optionnelle. --certificate-type=type Indiquer le type de certificat du client. Les valeurs autorisees sont PEM (par defaut) et DER, aussi connu comme ASN1. --private-key=fichier Lire la cle privee dans fichier. Cela vous permet de fournir la cle privee dans un fichier separe du certificat. --private-key-type=type Indiquer le type de la cle privee. Les valeurs acceptees sont PEM (par defaut) et DER. --ca-certificate=fichier Utiliser fichier comme fichier contenant le paquet d'autorites de certification ("CA") pour verifier les pairs. Les certificats doivent etre au format PEM. Sans cette option wget cherche les certificats CA aux endroits specifies par le systeme, choisis par OpenSSL lors de son installation. --ca-directory=repertoire Indiquer le repertoire contenant les certificats CA au format PEM. Chaque fichier contient un certificat CA, et le nom du fichier est base sur une valeur de hachage derivee du certificat. Cela est realise en traitant un repertoire de certificats avec l'utilitaire "c_rehash" fourni avec OpenSSL. L'utilisation de --ca-directory est plus efficace que --ca-certificate lorsque plusieurs certificats sont installes car cela permet a wget de recuperer les certificats sur demande. Sans cette option wget cherche les certificats CA aux endroits specifies par le systeme, choisis par OpenSSL lors de son installation. --crl-file=fichier Indiquer un fichier CRL dans fichier. Cela est necessaire pour les certificats revoques par les Autorites de Certifications. --pinnedpubkey=file/hashes Dire a wget d'utiliser la cle publique indiquee (ou les hachages) pour verifier le pair. Cela peut etre un chemin qui contient une seule cle publique au format PEM ou DER, ou tout nombre de hachages sha256 encodes en base64 precedes de "sha256//" et separes par ";" Lors de la negociation d'une connexion TLS ou SSL, le serveur envoie un certificat prouvant son identite. Une cle publique est extraite de ce certificat et si cela ne correspond pas exactement a une des cles publique fournies a cette option, wget annulera la connexion avant l'envoi ou la reception de donnees. --random-file=fichier [OpenSSL et LibreSSL seulement] Utiliser fichier comme source de donnees aleatoires pour ensemencer le generateur de nombres pseudo-aleatoires sur les systemes sans /dev/urandom. Sur de tels systemes, la bibliotheque -SSL a besoin d'une source exterieure de donnees aleatoires pour s'initialiser. Les donnees aleatoires peuvent etre fournies par EGD (voir --egd-file ci dessous) ou lues sur une source exterieure specifiee par l'utilisateur. Si cette option n'est pas indiquee, wget cherchera les donnees aleatoires dans $RANDFILE ou, s'il n'est pas defini, dans HOME/.rnd. Si vous obtenez l'erreur "Could not seed OpenSSL PRNG; disabling SSL.", vous devriez fournir des donnees aleatoires en utilisant l'une des methodes decrites ci-dessus. --egd-file=fichier [seulement pour OpenSSL] Utiliser fichier comme socket EGD. EGD signifie Entropy Gathering Daemon, un programme de l'espace utilisateur qui collecte des donnees a partir de diverses sources systeme imprevisibles et les met a la disposition d'autres programmes qui pourraient en avoir besoin. Les logiciels de chiffrement, tels que la bibliotheque SSL, ont besoin de sources d'aleas non repetitifs pour ensemencer le generateur de nombres aleatoires utilise pour produire des cles cryptographiques solides. OpenSSL autorise l'utilisateur a indiquer sa propre source d'entropie en utilisant la variable d'environnement "RAND_FILE". Si cette variable n'est pas definie, ou si le fichier indique ne produit pas assez de caracteres aleatoires, OpenSSL lira les donnees aleatoires du socket EGD indique en utilisant cette option. Si cette option n'est pas indiquee (et que la commande equivalente de demarrage n'est pas utilisee), EGD n'est jamais contacte. EGD n'est pas necessaire sur les systemes Unix modernes qui prennent en charge /dev/urandom. --no-hsts wget prend en charge HSTS (HTTP Strict Transport Security, RFC 6797) par defaut. Utiliser --no-hsts pour faire que wget se comporte comme un UA non compatible avec HSTS. Comme consequence wget ignorera tous les en-tetes "Strict-Transport-Security", et ne voudra appliquer aucune politique HSTS existante. --hsts-file=fichier Par defaut, wget stocke sa base de donnees HSTS dans ~/.wget-hsts. Vous pouvez utiliser --hsts-file pour ecraser cela. wget utilisera le fichier fourni comme base de donnees HSTS. Un tel fichier doit etre conforme au format de base de donnees HSTS utilise par wget. Si wget ne peut pas analyser le fichier fourni, le comportement est indetermine. La base de donnees HSTS de wget est un fichier en texte brut. Chaque ligne contient une entree HSTS (c'est-a-dire, un site qui a fourni un en-tete "Strict-Transport-Security" et a neanmoins indique une politique concrete HSTS a appliquer). Les lignes commencant par un croisillon ("#") sont ignorees par wget. Veuillez noter qu'en depit de cette facilite de lecture, la creation manuelle de la base de donnees HSTS n'est generalement pas une bonne idee. Une entree de ligneHSTS consiste en plusieurs champs separes par un ou plusieurs espaces blancs : " SP [] SP SP SP " Les champs hostname et port indiquent le nom de l'hote et le port sur lequel est appliquee la politique HSTS indiquee. Le champ port peut etre zero, et le sera, dans la majorite des cas. Cela signifie que le numero de port ne sera pas pris en compte lors de la decision d'appliquer telle ou telle politique HSTS pour une requete donnee (seul le nom d'hote sera evalue). Lorsque port est different de zero, a la fois le nom d'hote et le port seront evalues et la politique HSTS sera appliquee si les deux correspondent. Cette option a ete incluse a des fins de test et de developpement surtout. La suite de tests de wget (dans testenv/) cree des bases de donnees HSTS avec des ports explicites dans le but d'assurer un comportement correct a wget. L'utilisation de politiques HSTS sur des ports autres que ceux par defaut est deconseillee par la RFC 6797 (voir l'appendice B "Differences between HSTS Policy and Same-Origin Policy"). Ainsi, cette option ne devrait pas etre utilisee dans des environnements en production et le port sera typiquement zero. Les trois derniers champs font ce qu'on attend d'eux. Le champ include_subdomains peut etre 1 ou 0 et indique si les sous-domaines du domaine cible devraient aussi faire partie de la politique HSTS donnee. Les champs create et max-age portent l'horodatage de la creation de l'entree (comme vu la premiere fois par wget) et la valeur definie par HSTS "max-age", qui definit combien de temps la politique HSTS devrait rester activee, mesure en secondes ecoulees depuis le delai stocke dans created. Une fois ce temps ecoule, la politique HSTS ne sera plus valable et sera finalement enlevee de la base de donnees. Si vous fournissez votre propre base de donnees HSTS a l'aide de --hsts-file, sachez que wget peut modifier le fichier fourni si un changement se produit entre les politiques HSTS demandees par les serveurs distants et celles du fichier. Quand wget se termine, il met effectivement a jour la base de donnees HSTS en reecrivant le fichier de base de donnees avec les nouvelles entrees. Si le fichier fourni n'existe pas, wget en creera un. Ce fichier contiendra les nouvelles entrees HSTS. Si aucune entree HSTS n'a ete cree (aucun en-tete "Strict-Transport-Security" n'a ete envoye par aucun des serveurs) alors aucun fichier n'est cree, meme pas un vide. Ce comportement s'applique aussi au fichier de base de donnees par defaut (~/.wget-hsts) : il ne sera pas cree, sauf par un serveur qui force la politique HSTS. L'attention est mise sur le fait de ne pas ecraser de possibles changements faits par d'autres wget au meme moment sur la base de donnees HSTS. Avant de deposer les entrees HSTS mises a jour dans le fichier, wget le relit et fusionne les modifications. Il est deconseille d'utiliser une base de donnees HSTS personnalisee ou de modifier une base existante. Pour plus d'informations sur les menaces de securite potentielles decoulant d'une telle pratique, consultez la section 14 "Considerations de securite" de la RFC 6797, en particulier la section 14.9 "Manipulation creative du stockage de politiques HSTS". --warc-file=fichier Utiliser fichier comme fichier WARC de destination. --warc-header=chaine Utiliser chaine dans l'enregistrement warcinfo. --warc-max-size=taille Definir la taille maximale des fichiers WARC a taille. --warc-cdx Ecrire les fichiers index CDX. --warc-dedup=fichier Ne pas conserver les documents repertories dans ce fichier CDX. --no-warc-compression Ne pas compresser les fichiers WARC avec GZIP. --no-warc-digests Ne pas calculer les sommes de controle SHA1. --no-warc-keep-log Ne pas stocker le fichier journal dans un enregistrement WARC. --warc-tempdir=repertoire Indiquer l'emplacement des fichiers temporaires crees par le redacteur WARC. Options FTP --ftp-user=utilisateur --ftp-password=mot_de_passe Indiquer le nom de l'utilisateur utilisateur et le mot de passe mot_de_passe sur un serveur FTP. Sans cela ou l'option de demarrage adequate, le mot de passe par defaut est -wget@, normalement utilise pour un FTP anonyme Le nom d'utilisateur et le mot de passe peuvent etre indiques dans l'URL. Les deux methodes revelent votre mot de passe a quiconque se donne la peine d'executer "ps". Pour empecher que vos mots de passe soient vus, stockez les dans .wgetrc ou .netrc, et assurez-vous de proteger ces fichiers des autres utilisateurs avec "chmod". Si les mots de passe sont tres importants, vous ne devriez pas les laisser trainer dans ces fichiers non plus (editez les fichiers et effacez-les apres que wget a commence le telechargement). --no-remove-listing Ne pas supprimer les fichiers temporaires .listing generes par les recuperations FTP. Normalement, ces fichiers contiennent les listings bruts de repertoires recus des serveurs FTP. Ne pas les supprimer peut etre utile pour des objectifs de debogage, ou quand vous voulez etre facilement capable de verifier le contenu des repertoires du serveur distant (par exemple, pour verifier que le miroir que vous lancez est complet). Remarquez que meme si wget ecrit dans un nom de fichier connu pour ce fichier, ce n'est pas une faille de securite dans le scenario d'un utilisateur faisant de .listing un lien symbolique vers /etc/passwd ou autre et demandant a "root" d'executer wget dans son repertoire. Selon les options utilisees, soit wget refusera d'ecrire dans .listing, faisant echouer l'operation de globbing/recursion/horodatage, soit le lien symbolique sera supprime et remplace par le fichier .listing reel, soit le listing sera ecrit dans un fichier .listing.numero. Meme dans cette situation, cela n'est pas un probleme, bien que, "root" ne devrait jamais lancer wget dans un repertoire utilisateur non securise. Un utilisateur pourrait faire quelque chose d'aussi simple qu'un lien de index.html a /etc/passwd et demander a "root" de lancer wget avec -N ou -r et ainsi ecraser le fichier. --no-glob Desactiver le globbing FTP. Globbing (englober) refere a l'utilisation de caracteres speciaux (jokers) a la facon du shell, tels que *, ?, [ et ] pour retrouver plus d'un fichier dans le meme repertoire en une fois, comme : wget ftp://gnjilux.srk.fer.hr/*.msg Par defaut, la fonction de globbing est activee si l'URL contient un caractere de globbing. Cette option peut etre utilisee pour activer ou desactiver le globbing de maniere permanente. Vous devrez peut-etre mettre entre guillemets l'URL pour le proteger de l'expansion par votre interpreteur de commandes. Le globbing fait que wget cherche une liste de repertoires, ce qui est specifique au systeme. C'est pourquoi cela ne fonctionne actuellement qu'avec les serveurs FTP Unix (et ceux qui emulent la sortie "ls" d'Unix). --no-passive-ftp Desactiver l'utilisation du mode de transfert FTP passif. Le mode FTP passif implique que le client se connecte au serveur pour etablir la connexion de donnees plutot que l'inverse. Si la machine est connectee directement a Internet, FTP actif et passif devraient fonctionner aussi bien l'un que l'autre. Derriere la plupart des configurations de pare-feu et de NAT, le FTP passif a plus de chance de fonctionner. Cependant, dans certaines configurations rares de pare-feu, le FTP actif fonctionne alors que le FTP passif ne fonctionne pas. Si vous pensez que c'est le cas, utilisez cette option, ou definissez "passive_ftp=off" dans votre fichier init. --preserve-permissions Preserver les permissions de fichiers distants au lieu des permissions definies par umask. --retr-symlinks Par defaut, lors de la recuperation recursive des repertoires FTP et qu'un lien symbolique est rencontre, le lien symbolique est suivi et les fichiers pointes sont recuperes. Actuellement, wget ne suit pas les liens symboliques pour telecharger les repertoires recursivement, bien que cette option pourrait etre ajoutee dans le futur. Lorsque --retr-symlinks=no est indique, le fichier pointe n'est pas telecharge. A la place, un lien symbolique correspondant est cree sur le systeme de fichiers local. Le fichier pointe ne sera pas recupere sauf si la recuperation recursive le rencontre autrement et le telecharge de toutes facons. Cette option pose un risque de securite ou un serveur FTP malveillant pourrait amener wget a ecrire dans des fichiers situes en dehors des repertoires prevus par le biais d'un fichier .LISTING specialement contrefait. Notez que cette option n'a aucun effet lors de la recuperation d'un fichier (pas d'un repertoire) parce qu'il a ete indique dans la ligne de commandes plutot que trouve par recursion. Les liens symboliques sont toujours suivis dans ce cas. Options FTP --ftps-implicit Cette option indique a wget d'utiliser FTPS implicitement. FTPS implicite consiste a initialiser SSL/TLS au tout debut de la connexion de controle. Cette option n'envoie pas de commande "AUTH TLS" : elle presume que le serveur parle FTPS et demarre directement une connexion SSL/TLS. Si la tentative reussit, la session continue juste comme FTPS normal ("PBSZ" et "PROT" sont envoyes, etc). FTPS implicite n'est plus un prerequis pour les implementations FTPS, donc beaucoup de serveurs ne le prennent pas en charge. Si --ftps-implicit est passe et qu'aucun numero de port explicite n'est indique, le port par defaut pour le FTPS implicite, 990, sera utilise, au lieu du port par defaut pour le FTPS << normal >> (explicite), qui est le meme que celui pour FTP, 21. --no-ftps-resume-ssl Ne pas reprendre la session SSL/TLS dans le canal de donnees. Lors du demarrage d'une connexion de donnees, wget essaiera de reprendre la session SSL/TLS precedemment demarree dans la connexion de controle. La reprise de session SSL/TLS evite d'effectuer une poignee de main entierement nouvelle en reutilisant les parametres SSL/TLS d'une session precedente. Habituellement, les serveurs FTPS souhaitent cela, aussi wget le fait par defaut. Dans de rares circonstances neanmoins, il serait possible de souhaiter demarrer une session SSL/TLS entierement nouvelle a chaque connexion de donnees. C'est a cela que --no-ftps-resume-ssl est destine. --ftps-clear-data-connection Toutes les connexions de donnees seront en texte brut. Seule la connexion de controle sera sous SSL/TLS. wget enverra une commande "PROT C" pour realiser cela, ce qui doit etre approuve par le serveur. --ftps-fallback-to-ftp Revenir a FTP si FTPS n'est pas pris en charge par le serveur cible. Pour des raisons de securite, cette option n'est pas declaree par defaut. Le comportement par defaut est de quitter avec une erreur. Si un serveur ne repond pas avec succes a la commande initiale "AUTH TLS", ou dans le cas du FTPS, implicite si la tentative de connexion SSL/TLS initiale est rejetee, on considere ce serveur comme ne prenant pas en charge le FTPS. Options de recuperation recursive -r --recursive Activer la recuperation recursive. La profondeur maximale par defaut est 5. -l profondeur --level=profondeur Definir le nombre maximal de sous-repertoires dans lesquels wget fera une recursion a profondeur. Dans le but d'eviter de telecharger de tres grands sites web lors de l'utilisation de la recursion, cela est limite a une profondeur de 5 par defaut, c'est a dire qu'il traversera au plus 5 repertoires en profondeur en commencant a l'URL fournie. Indiquer -l 0 ou -l inf pour une profondeur de recursion infinie. wget -r -l 0 http:///1.html Idealement, on pourrait s'attendre a ce que cela ne telecharge que 1.html, mais malheureusement ce n'est pas le cas, car -l 0 est equivalent a -l inf (ce qui est la recursion infinie). Pour telecharger une seule page HTML (ou quelques pages), indiquez les sur la ligne de commande et delaissez -r et -l. Pour telecharger les elements essentiels a l'affichage d'une seule page HTML, voir page requisites. --delete-after Cette option indique a wget de supprimer chaque fichier qu'il telecharge, apres l'avoir fait. Elle est utile pour precharger des pages populaires a travers un mandataire, par exemple : wget -r -nd --delete-after http://toto.com/~page/populaire/ L'option -r est pour recuperer recursivement et -nd pour ne pas creer de repertoires. Remarquez que --delete-after efface les fichiers sur la machine locale. Cela n'emet pas la commande DELE pour les sites FTP distants, par exemple. Notez aussi que lorsque --delete-after est indique, --convert-links est ignore, ainsi les fichiers .orig ne sont tout simplement pas crees en premier lieu. -k --convert-links Une fois le telechargement termine, convertir les liens du document pour les rendre adaptes a un affichage local. Cela concerne non seulement les hyperliens visibles, mais aussi toute partie du document qui renvoie a un contenu externe, comme les images integrees, les liens vers des feuilles de style, les hyperliens vers du contenu non HTML, etc. Chaque lien sera change d'une maniere ou d'une autre : - Les liens vers les fichiers qui ont ete telecharges par wget seront modifies pour faire reference au fichier qu'ils pointent comme lien relatif. Exemple : si le fichier telecharge /toto/doc.html pointe vers /machin/img.gif aussi telecharge, alors le lien dans doc.html sera modifie pour pointer vers ../machin/img.gif. Ce genre de transformation fonctionne pour relier des combinaisons arbitraires de repertoires. - Les liens des fichiers qui n'ont pas ete telecharges par wget seront modifies pour inclure le nom d'hote et le chemin absolu de l'emplacement vers lequel ils pointent. Exemple : si le fichier telecharge /toto/doc.html pointe vers /machin/img.gif (ou vers ../machin/img.gif), alors le lien dans doc.html sera modifie pour pointer vers http://nomdhote/machin/img.gif. De ce fait, la navigation locale fonctionne de maniere fiable : si un fichier lie a ete telecharge, le lien renverra a son nom local ; s'il n'a pas ete telecharge, le lien renverra a son adresse Internet complete plutot que de presenter un lien brise. Le fait que les anciens liens soient convertis en liens relatifs garantit que vous pouvez deplacer la hierarchie telechargee vers un autre repertoire. Notez que ce n'est qu'a la fin du telechargement que wget peut savoir quels liens ont ete telecharges. De ce fait, le travail effectue par -k sera realise a la fin de tous les telechargements. --convert-file-only Cette option ne convertit que la partie nom de fichier des URL, laissant le reste des URL intactes. La partie nom de fichier refere parfois au << nom de base >>, mais nous eludons ce terme ici pour ne pas creer de confusion. Cela fonctionne particulierement bien en conjonction avec --adjust-extension, meme si ce couplage n'est pas applique. Cela est utile pour alimenter les caches Internet avec des fichiers telecharges a partir de differents hotes. Exemple : si un lien pointe vers //toto.com/machin.cgi?xyz avec --adjust-extension active et sa destination locale etant prevue d'etre ./toto.com/machin.cgi?xyz.css, alors le lien devrait etre converti en //toto.com/machin.cgi?xyz.css. Remarquez que seule la partie nom de fichier a ete modifiee. Le reste de l'URL n'a pas ete touche, y compris le chemin de reseau ("//") qui aurait du autrement etre traite par wget et converti en schema effectif (c'est a dire "http://"). -K --backup-converted Lors de la conversion d'un fichier, sauvegarder la version d'origine avec un suffixe .orig. Cela a un effet sur le comportement de -N. -m --mirror Activer les options adaptees a la creation de miroir. Cette option active la recursion et l'horodatage, definit la profondeur a recursion infinie et garde les listes de repertoires FTP. C'est actuellement l'equivalent de -r -N -l inf --no-remove-listing. -p --page-requisites Cette option force wget a telecharger tous les fichiers qui sont necessaires pour afficher correctement une page HTML donnee. Cela comprend des elements tels que les images et les sons integres, ainsi que les feuilles de style referencees. Normalement, lors du telechargement d'une seule page HTML, les documents necessaires a son affichage ne sont pas telecharges. Utiliser -r associe a -l peut aider, comme wget ne distingue pas d'ordinaire les documents externes de ceux internes, on se retrouve generalement avec des << documents feuilles >> a qui manquent les elements requis. Par exemple, le document 1.html contient une etiquette "" referencant 1.gif et une etiquette "" pointant vers le document externe 2.html. Disons que 2.html est similaire mais que son image est 2.gif et qu'elle pointe vers 3.html. Disons que cela continue jusqu'a un nombre arbitrairement eleve. Si on execute la commande : wget -r -l 2 http:///1.html alors 1.html, 1.gif, 2.html, 2.gif, et 3.html seront telecharges. Comme vous pouvez voir, 3.html est sans son requis 3.gif parce que wget compte juste le nombre de bonds (jusqu'a deux) en dehors de 1.html pour determiner ou arreter la recursion. De toute facon, avec cette commande : wget -r -l 2 -p http:///1.html tous les fichiers au-dessus et le fichier 3.gif necessaire a 3.html seront telecharges. De meme, wget -r -l 1 -p http:///1.html entrainera le telechargement de 1.html, 1.gif, 2.html et 2.gif. On pourrait penser que : wget -r -l 0 -p http:///1.html ne telechargera que 1.html et 1.gif, mais malheureusement ce n'est pas le cas, car -l 0 est equivalent a -l inf (qui est la recursion infinie). Pour telecharger une seule page HTML (ou une poignee d'entre elles, toutes indiquees sur la ligne de commande ou dans un fichier d'entree -i URL ) et son (ou ses) elements requis, enlevez simplement -r et -l : wget -p http:///1.html Notez que wget se comportera comme si -r avait ete specifie, mais seule cette page unique et ses elements requis seront telecharges. Les liens de cette page vers des documents externes ne seront pas suivis. Actuellement, pour telecharger une seule page et ses elements requis (meme s'ils existent sur d'autres sites web), et s'assurer que le lot s'affiche correctement localement, cet auteur aime utiliser quelques options en plus de -p : wget -E -H -k -K -p http:/// Pour terminer ce sujet, il est utile de savoir que l'idee que wget se fait d'un lien vers un document externe est toute URL specifiee dans une etiquette "", une etiquette "" ou une etiquette "" autre que "". --strict-comments Activer l'analyse stricte des commentaires HTML. Par defaut cela arrete les commentaires a la premiere occurrence de -->. Selon les specifications, les commentaires sont exprimes en tant que declarations SGML. La declaration est un marqueur special commencant par , comme , qui peut contenir des commentaires entre une paire de delimiteurs --. Les commentaires HTML sont des << declarations vides >>, des declarations SGML sans aucun texte qui n'est pas un commentaire. Par consequent, est un commentaire valable, et aussi , mais n'en est pas un. D'autre part, la plupart des redacteurs de HTML ne percoivent pas les commentaires comme autre chose que du texte delimite par , ce qui n'est pas tout a fait la meme chose. Par exemple, quelque chose comme fonctionne comme un commentaire valable tant que le nombre de tirets est un multiple de quatre (!). Sinon, le commentaire dure techniquement jusqu'au prochain --, qui peut se trouver a l'autre bout du document. A cause de cela, beaucoup de navigateurs populaires ignorent totalement la specification et mettent en oeuvre ce que l'utilisateur attend : des commentaires delimites par . Jusqu'a la version 1.9, wget interpretait les commentaires de facon stricte, ce qui aboutissait en des liens manquants dans plusieurs pages web qui s'affichaient bien dans les navigateurs, mais avaient la malchance de contenir des commentaires non conformes. A partir de la version 1.9, wget a rejoint les rangs des clients qui implementent des commentaires << naifs >>, terminant chaque commentaire a la premiere occurrence de -->. Si, pour une raison quelconque, vous voulez une analyse stricte des commentaires, utilisez cette option pour l'activer. Options accepter/rejeter de maniere recursive -A liste_acceptation --accept liste_acceptation -R liste_rejet --reject liste_rejet Specifier des listes de suffixes ou de modeles de noms de fichier, separes par des virgules, a accepter ou a rejeter. Prenez en compte que tout caractere joker *, ?, [ et ] apparaissant dans un element de liste_acceptation ou liste_rejet sera traite comme un motif, plutot que comme un suffixe. Dans ce cas, vous devez l'enclore de guillemets pour empecher votre interpreteur de commande de l'etendre, comme dans -A "*.mp3" ou -A '*.mp3'. --accept-regex urlregex --reject-regex urlregex Indiquer une expression rationnelle pour accepter ou rejeter l'URL entiere --regex-type regextype Indiquer le type d'expression rationnelle. Les types possibles sont posix ou pcre. Veuillez noter que pour pouvoir utiliser le type pcre, wget doit avoir ete compile avec la prise en charge de libpcre. -D liste_domaine --domains=liste_domaine Designer les domaines a suivre. liste_domaine est une liste de domaines separes par des virgules. Cela n'active pas -H. --exclude-domains liste_domaine Indiquer les domaines a ne pas suivre. --follow-ftp Suivre les liens FTP des documents HTML. Sans cette option, wget ignorera tous les liens FTP. --follow-tags=liste wget a une table interne de paires d'etiquette/attributHTML qu'il examine lorsqu'il cherche des documents lies lors d'une recuperation recursive. Cependant, si un utilisateur souhaite que seul un sous-ensemble de ces etiquettes soit pris en compte, il doit specifier ces etiquettes dans une liste separee par des virgules avec cette option. --ignore-tags=liste C'est l'oppose de l'option --follow-tags. Pour ignorer certaines etiquettes HTML lors de la recherche recursive de documents a telecharger, indiquez-les dans une liste separee par des virgules. Dans le passe, cette option etait la meilleure solution pour telecharger une seule page et ses elements requis, en utilisant une ligne de commande comme : wget --ignore-tags=a,area -H -k -K -r http:/// Cependant, l'auteur de cette option a trouve une page avec des etiquettes comme "" et a realise que specifier les etiquettes a ignorer n'etait pas suffisant. On ne peut pas simplement dire a wget d'ignorer "", car les feuilles de style ne seront pas telechargees. Maintenant la meilleure solution pour telecharger une seule page et son necessaire reste l'option --page-requisites. --ignore-case Ignorer la casse pour la correspondance des fichiers et des repertoires. Cela influence le comportement des options -R, -A, -I et -X, ainsi que le developpement (globbing) mis en oeuvre lors du telechargement a partir de sites FTP. Par exemple, avec cette option, -A "*.txt" fera correspondre fichier1.txt, mais aussi fichier2.TXT, fichier3.TxT, et ainsi de suite. Les guillemets dans l'exemple sont la pour empecher l'interpreteur de commandes de developper le motif. -H --span-hosts Activer l'extension entre les hotes lors de la recuperation recursive. -L --relative Suivre uniquement les liens relatifs. Utile pour retrouver une page d'accueil specifique sans aucun egarement, meme pas celui dans les memes hotes. -I liste --include-directories=liste Indiquer une liste de repertoires separes par des virgules que vous voudriez suivre lors du telechargement. Les elements de la liste peuvent contenir des jokers. -X liste --exclude-directories=liste Indiquer une liste de repertoires separes par des virgules que vous voudriez exclure du telechargement. Les elements de la liste peuvent contenir des jokers. -np --no-parent Ne jamais monter dans le repertoire parent lors d'une recuperation recursive. C'est une option utile, vu qu'elle garantit que seuls les fichiers en dessous d'une certaine hierarchie seront telecharges. ENVIRONNEMENT wget prend en charge les mandataires a la fois pour les recuperations HTTP et FTP. La facon normale d'indiquer l'emplacement des mandataires, reconnus par wget, est d'utiliser les variables d'environnement suivantes : http_proxy https_proxy Si definies, les variables http_proxy et https_proxy devraient contenir les URL des mandataires pour les connexions HTTP et HTTPS respectivement. ftp_proxy Cette variable devrait contenir l'URL du mandataire pour les connexions FTP. Il est assez habituel que http_proxy et ftp_proxy soient definis a la meme URL. no_proxy Cette variable devrait contenir une liste de mandataires d'extensions de domaine separees par des virgules pour lesquelles le mandataire ne devrait pas etre utilise. Par exemple, si la valeur de no_proxy est .mit.edu, le mandataire ne sera pas utilise pour recuperer des documents de MIT. CODE DE RETOUR wget peut renvoyer l'un des differents codes d'erreur s'il rencontre des problemes. 0 Aucun probleme. 1 Code d'erreur generique. 2 Erreur d'analyse - par exemple, lors de l'analyse des options de la ligne de commande, des fichiers .wgetrc ou .netrc... 3 Erreur d'entrees/sorties du fichier. 4 Echec du reseau. 5 Echec de la verification SSL. 6 Echec de l'authentification du nom d'utilisateur ou du mot de passe. 7 Erreurs de protocole. 8 Le serveur a emis une reponse d'erreur. A l'exception de 0 et 1, les codes de retour les moins eleves sont prioritaires par rapport aux plus eleves lorsque plusieurs types d'erreurs sont rencontres. Dans les versions de wget anterieures a la 1.12, les codes de retour de wget tendaient a n'etre d'aucune utilite et incoherents. Les telechargements recursifs auraient toujours renvoye 0 (succes), sans tenir compte des problemes rencontres, et les recherches non recursives ne renvoyaient que l'etat correspondant a la derniere tentative de telechargement. FICHIERS /usr/local/etc/wgetrc L'emplacement par defaut du fichier de demarrage global. .wgetrc Fichier de demarrage de l'utilisateur. BOGUES Vous etes les bienvenus pour soumettre des rapports de bogue a l'aide du systeme de suivi de bogue de GNU wget (voir ) ou de la liste de diffusion . Visitez pour obtenir plus d'informations (comment souscrire, les archives de la liste, ...). Avant de soumettre un rapport de bogue, veuillez essayer de suivre quelques principes simples. 1. Essayez de verifier que le comportement que vous observez est bien un bogue. Si wget se plante, c'est un bogue. Si wget ne se comporte pas comme indique dans la documentation, c'est un bogue. Si les choses fonctionnent bizarrement, mais que vous n'etes pas sur de la maniere dont elles sont supposees fonctionner, cela pourrait bien etre un bogue, mais vous devriez faire une double verification dans la documentation et dans les listes de diffusion. 2. Essayez de repeter le bogue dans des circonstances aussi simples que possible. Par exemple, si wget plante lors du telechargement wget -rl0 -kKE -t5 --no-proxy http://example.com -o /tmp/log, vous devriez essayer de voir si le plantage est reproductible, et si cela n'arrive qu'avec un jeu d'options plus reduit. Vous pouvez meme essayer de lancer le telechargement a partir de la page ou le plantage s'est produit pour voir si cette page a declenche le plantage d'une maniere ou d'une autre. De plus, bien que je serais interesse par le contenu de votre fichier .wgetrc, l'integrer simplement dans le message de debogage est probablement une mauvaise idee. A la place, vous devriez d'abord essayer de voir si le bogue se repete avec un .wgetrc retire de son emplacement. C'est seulement s'il s'avere que les parametres de .wgetrc affectent le bogue, que vous devriez m'envoyer les parties pertinentes du fichier. 3. Merci de demarrer wget avec l'option -d et envoyez-nous le resultat de la sortie (ou des parties pertinentes de celle-ci). Si wget a ete compile sans la gestion du debogage, recompilez-le -- il est beaucoup plus simple de suivre les bogues avec la prise en charge du debogage activee. Note : merci de veiller a supprimer toute information potentiellement sensible du journal de debogage avant de l'envoyer a l'adresse pour les bogues. Le "-d" ne se demenera pas pour collecter des informations sensibles, mais le journal contiendra une transcription assez complete de la communication de wget avec le serveur, qui peut inclure des mots de passe et des elements de donnees telecharges. Comme l'adresse pour les bogues est publiquement archivee, vous devez comprendre que tous les rapports de bogue sont visibles du public. 4. Si wget a plante, essayez de l'executer dans un outil de debogage, par exemple, "gdb `which wget` core" et tapez "where" pour en garder une sauvegarde. Cela peut ne pas fonctionner si l'administrateur systeme a desactive les fichiers core, mais on peut essayer en toute securite. VOIR AUSSI Cela n'est pas le manuel complet de GNU wget. Pour des informations plus completes, comprenant plus d'explications detaillees de certaines des options, et un nombre de commandes a utiliser avec les fichiers .wgetrc et l'option -e, consulter l'entree de GNU Info pour wget. Voir aussi wget2(1), la version mise a jour de GNU wget avec une prise en charge encore meilleure du telechargement recursif et des protocoles modernes tels que HTTP/2. AUTEUR Ecrit a l'origine par Hrvoje Niki . Actuellement maintenu par Darshit Shah et Tim Ruhsen . COPYRIGHT Copyright (c) 1996--2011, 2015, 2018--2023 Free Software Foundation, Inc. L'autorisation est accordee de copier, distribuer et/ou modifier ce document selon les termes de la GNU Free Documentation License, Version 1.3 ou toute version ulterieure publiee par la Free Software Foundation ; sans sections invariantes, sans texte de premiere de couverture et sans texte de couverture du verso. Une copie de la licence est incluse dans la section intitulee "GNU Free Documentation license". TRADUCTION La traduction francaise de cette page de manuel a ete creee par Sebastien Blanchet, Eric Piel et bubu Cette traduction est une documentation libre ; veuillez vous reporter a la GNU General Public License version 3 concernant les conditions de copie et de distribution. Il n'y a aucune RESPONSABILITE LEGALE. Si vous decouvrez un bogue dans la traduction de cette page de manuel, veuillez envoyer un message a . GNU Wget 1.21.4 20 mai 2023 WGET(1)