Если вам понадобилось сделать локальную копию интересующего вас сайта, то wget будет очень полезен (ключи я описывал ранее):

$ wget -v -m -k -K -E -w 1 -p --output-file=wget.log http://www.notsecretsite.com/

Но, допустим, картинки вида http://www.notsecretsite.com/images/supersecret.png не списались и по-прежнему берутся с сайта, то стоит посмотреть на содержимое файла robots.txt. Там может быть запрет на списывание контента роботами:

User-agent: *
Disallow: /images/
...
Host: www.notsecretsite.com

Это просьба владельца сайта к подобным краулерам не тянуть лишнее. Стоит её уважать. Но если всё-таки хочется переступить через эту просьбу, то можно сказать "-e robots=off" и wget прекрасно всё стянет:

$ wget -v -m -k -K -E -p -e robots=off -w 1 --output-file=wget.log http://www.notsecretsite.com/

Теперь осталось скормить списанный сайт браузеру или, что более полезно, забросить копию в DocumentRoot web-сервера и наслаждаться результатом.