Linux 게시판 - wget 사용법

wget 사용법




1. Introduction

 

가끔씩 이 홈페이지는 자주 참고하는데 이를 내 컴퓨터에 옮겨놓고 싶다고 생각되는 경우가 있나?

 

이때 사용 할 수 있는 것이 바로 지금 소개하는 'wget'이다.

 

하는 일은 MS 윈도우즈의 'Teleport Pro'라는 것과 비슷하다. 이 wget은 한텀상에서 커맨드라인으로 사용하는 것이다.

 

이 프로그램은 http://www.gun.org/software/wget/wget.html 에서 구할수 있다.

 

 

2. 설치(일반적으로 리눅스에는 거의 기본으로 깔려 있음)

 

먼저 압축된 파일 wget-5.3.1.tar.gz를 적당한 디렉토리에 복사해 넣고, 그후

 

#tar xvzf wget-5.3.1.tar.gz

 

명령하면 그 디렉토리에 'wget-5.3.1'이라는 디렉토리가 생긴다. 그럼 그 디렉토리로 이동후

 

#./configure

 

#make install

 

이라 하면 wget-5.3.1/src 디렉토리 내에 'wget'이라는 실행파일이 만들어 진다. 패스가 열려있는 디렉토리에 심볼릭 링크를 만들던가 쉘 스크립트를 만들어 넣어두면 어느 디렉토리에서도 이것을 실행시킬 수 있다.

 

 

3. 사용법

 

사용법은 간단하다.

 

#wget -h

 

하면 간단한 설명을 볼수 있고

 

#man wget

 

하면 좀더 많은 설명을 볼수 있다. 먼저 예를 들어서 홈페이지 www.hitel.net/~myname을 복사해 온다고 하면

 

#wget http://www.hitel.net/~myname/index.html

 

이라고 명령하면 된다. 'http://"는 생략해도 되고, 'index.html' 부분도 생략하면 알아서 'index.html' 또는 'index.htm'을 찾으므로

 

#wget www.hitel.net/~myname/

 

라고 해도된다. 그러면 명령을 내린 현재 디렉토리에 'index.html'을 복사한다. 자 그러면 index.html에 링크 되어 있는 것까지 찾아오려면 어떻게 할까?

 

-r 이란 옵션을 사용한다.

 

#wget -r www.hitel.net/~myname/

 

이렇게 사용한다. 'r'은 '재귀적'을 의미하는 'recursive'의 줄임이다. 디렉토리 구조와 파일을 그대로 복사해 온다.

 

재귀적 탐색의 깊이 레벨은 기본값이 '5'로 되어 있다. '-l depth' 옵션을 사용하면 바꿀수 있다. 그러니까 기본값은 '-l 5' 란 이야기다. 이 레벨이 증가함에 따라 복사해오는 파일은 지수 함수적으로 증가하게 된다.

 

만약 홈페이지 전체가 아니라 특정 페이지와 링크되어 있는 것만 받아 오려면 어떻게 할까? 예를 들어

 

#wget -r www.hitel.net/~myname/doc/lecture/lecture.html

 

이라고 하면 'lecture.html'과 이것에 링크된 파일들을 복사해 오게 된다. 이 과정에서 링크된 파일 중 상위 디렉토리에 있는 것도 있는데, 이것들은 빼고 원하는 파일이 있는 디렉토리와  그 이하에서만 받아 오려면

 

#wget -r -np www.hitel.net/~myname/doc/lecture/lecture.html

 

이렇게 '-np' 옵션을 사용한다. 'np'는 'no-parent'를 의미한다.

 

자, 홈페이지에서 그림이나 오디오파일 등은 빼고 HTML 문서만 복사해오려고 한다면

 

#wget -r -np -A html, htm www.hitel.net/~myname/

 

처럼 -'A'옵션을 사용한다. 'A'는 'accept'를 의미한다. 위의 예처럼 원하는 파일의 형식을 나열하면된다. 반대로 일부 파일을 제외하고 싶으면 '-R'옵션을 사용한다. 'R'은 'reject'를 의미한다. 예를 들어

 

#wget -r -R gif,jpg,jpeg www.hitel.net/~myname/

 

라고 하면 파일의 뒷부분의 문자열이 'gif', 'jpg', 'jpeg'인 파일들은 제외하고 나머지 파일들만 불러 온다.

 

'-L'옵션을 사용하면 상대주소를 이용한 링크들만 불러온다. 다른 호스트에 있는 자료는 당연히 불러오지 않는다. 그런데 대부분의 HTML 내의 링크는 상대주소를 이용할 것으로 생각되기 때문에 크게 중요하지는 않을 것 같다. 'L'은 'leLative'를 의미한다. 아래의 예처럼 사용할 수 있다.

 

#wget -r -L www.hitel.net/~myname/

 

만약 다른 호스트의 자료까지 재귀적 탐색에 넣으려면 'H'옵션을 쓴다. 이는 'span-hosts'를 의미한다.

 

wget을 실행시켜 보면 메세지가 장황하게 나온다. 메세지를 전혀 나오지 않게 하려면 'quiet'를 의미하는 '-q'옵션을 조금만 나오게 하려면 'non-verbose'를 의미하는 '-nv'옵션을 사용해라

 

wget은 파일을 불러올 때 컴퓨터 내에 같은 이름의 파일이 존재하면 기존의 파일은 그대로 두고 기존의 이름의 끝에 'roiginal.file.1', 'original.file.2', 이런 식으로 숫자를 붙인 이름으로 복사한다. 만약, 같은 이름이, 파일이 있을 경우 복사해 오지 않게 하려면 'not-clobber'를 위미하는 '-nc' 옵션을 사용하면 된다.

 

매번 같은 옵션을 커맨드라인에서 사용하기는 번거로울 것이다. 자신의 홈디렉토리에다 '.wgetrc'라는 파일을 만들고 필요한 옵션들을 기록하면 매번 옵션을 주지 않아도 된다.

 

예를 들면,

 

1   accept = htm, html          <- 원하는 파일의 형식을 나열

2   reject =                       <- 배제하기를 원하는 파일의 형식을 나열

3   recursive = on                <- 재귀적 탐색 여부

4   reclevel = 5                  <- 재귀적 탐색의 깊이 레벨

5   no_parent = on               <- 상위 디렉토리의 파일 배제의 여부

6   relative_only = on          <- 상대주소만 포함시킬 것인지의 여부

7   verbose = on/off           <- 자세한 설명을 표시할 것인지의 여부

8   span_host = on/off          <- 다른 호스트도 탐색할 것인지의 여부

9   noclobber = on/off         <- 같은 이름의 파일을 복사해 오지 않을 것인지의 여부

10  quiet = on/off                <- 메세지를 전혀 보내지 않을 것인지의 여부

 

4. discussion(토론)

 

위에서 설명한 옵션을 잘 활용하면 홈페이지에 갱신되는 내용을 웹브라우저로 접근하지 않고서도 가져올 수 있다. 예를 들어, 만약 내가 잘 가는 무료 porn 사이트에 링크된 url에 올려져 있는 동영상을 보고 싶다고 하자. 다음과 같이 wget 명령을 사용한다.

 

#wget -A mpg, mpeg, avi, asf -r -H -l 2 -nd -t 1 http://url.you.like

 

-A, -r, -H는 위에서 설명을 했고, 설명이 안된 옵션을 살펴보면

 

-l 2 : Recursive depth. 재귀 검색의 깊이 레벨을 지정해 준다. 2로 지정해 주면, 메인 페이지에서 url을 따라가고 그 url에 링크된 비디오 파일을 가져오도록 한다.

 

-nd : No directoryes. 로칼에 다운받을 때 디렉토리를 생성하지 않고 모든 파일을 같은 디렉토리 안에 넣는다.

 

-t 1 : Retries. link된 url로 서버를 찾지 못할 때 retry 횟수를 지정한다. 여기서는 1번 시도를 하도록 지정했다.

 

[출처 : 동우의 홈페이지]




첨부파일


Blogging > Linux 's Other Contents

Linux 게시판 - 게시물리스트


솔라리스 패키지 다운로드 04/24
우분투 root 비활성화 04/24
mod_security 설치 centos5 / ubuntu 04/05
무료 웹방화벽 03/29
vpopmail quota 무제한 03/27

첫페이지 이전페이지  1 | 2 | 3 | 4 | 5 | 6   다음페이지 마지막페이지