Как скачать сайт с web archive org
Перейти к содержимому

Как скачать сайт с web archive org

  • автор:

Wayback Machine Downloader — Скачиваем сайты бесплатно

Однажды потребовалось скачать сайт с web.archive.org. Archivarix.com и r-tools.org не нужны, так как это тот же Wayback Machine Downloader, только платные и работают только через веб-морду. В 2023 году.

Некоторые читатели попытались обвинить меня в предвзятости, мотивируя тем, что Архиварикс — лучший инструмент для восстановления сайтов. Всё аргументы были в сторону cms Архиварикса. И те о том, что она удобная. Поднять отдельный фронтенд для редактирования html-файлов — топ, консоль — слишком сложно.

Кстати, в чём разница между java и javascript? �� �� ��

Преимущества Архиварикса

Наверное случайная опечатка висит так много лет.

Рекомендую пойти чуть более сложным, но более гибким способом.

Если вам нужно слить большой сайт с Вебархива, есть терминал и 5 минут на настройку — можно обойтись без сторонних сервисов + бесплатно.

Wayback Machine Downloader

Чтобы скачивать сайты с Вебархива бесплатно воспользуемся бесплатной консольной утилитой Wayback Machine Downloader. Я ставил под macOS, мануал будет под неё же.

Установка Wayback Machine Downloader

Открываем терминал и вводим команду:

sudo gem install wayback_machine_downloader

Как скачать сайт с Вебархива бесплатно

После установки Wayback Machine Downloader вводите команду:

wayback_machine_downloader http://example.com

Где http://example.com — сайт, который нужно скачать.

Параметры для скачивания

  • -d, —directory PATH: Категория для сохранения загруженных файлов. По умолчанию это ~/websites/ плюс имя домена;
  • -s, —all-timestamps: Скачать все снимки для данного сайта;
  • -f, —from TIMESTAMP: Скачать только файлы в указанный момент времени или после него (например 20060716231334);
  • -t, —to TIMESTAMP: Скачать только файлы в указанной временной метке или до нее (например 20100916231334);
  • -e, —exact-url: Загружать только указанный url, а не полный сайт;
  • -o, —only ONLY_FILTER: Ограничить загрузку только теми адресами, которые соответствуют данному фильтру. (используйте нотацию //, чтобы фильтр рассматривался как regex);
  • -x, —exclude EXCLUDE_FILTER: Пропустить загрузку ссылок, соответствующих этому фильтру (используйте // обозначения для фильтра, чтобы он рассматривался как регекс);
  • -a, —all: Скачивать файлы ошибок (40x и 50x) и перенаправления (30x);
  • -c, —concurrency NUMBER: Во сколько потоков скачивать сайт (по умолчани работает в 1 поток);
  • -p, —maximum-snapshot NUMBER: Максимальное количество снапшотов (по умолчанию 100);
  • -l, —list: Вывести список адресов файлов в формате JSON с архивными метками времени, ничего не скачивая;
  • -v, —version: Показать версию Wayback Machine Downloader.

Вопросы в файлах

Всё идеально, только у файлов в заголовке иногда сохраняются get-запросы. Был style.css, стал style.css?ver=666, а у вас в консоли ошибки. Для исправления запустите эту команду, находясь в директории со слитым сайтом.

find . -type f -name '*\?*' -exec sh -c 'mv "$0" "$"' <> \;

У меня не работает/ошибки, что делать?

Не знаю. И по почте не проконсультирую, даже не ждите ответа.

Как скачать сайт с web archive org

Интерфейс веб-архива: инструкция к инструментам Summary, Explore и Site map.

В этой статье мы расскажем о самом web.archive и о том, как он работает.

Для справки: веб-архив был создан Брюстером Кейлом в 1996 году примерно в то же время, когда он основал компанию Alexa Internet, занимающуюся сбором статистики о посещаемости веб-сайтов. В октябре того же года организация начала архивировать и хранить копии веб-страниц. Но в текущем виде ― WAYBACKMACHINE ― в котором мы можем его использовать, он запустился только в 2001 году, хотя данные сохраняются с 1996 года. Преимущество веб-архива для любого сайта в том, что он сохраняет не только html-код страниц, но и другие типы файлов: doc, zip, avi, jpg, pdf, css. Комплекс html-кодов всех элементов страниц позволяет восстановить сайт в его первоначальном виде (на конкретную дату индексирования, когда паук веб-архива посещал страницы сайта).

Итак, архив находится по адресу http://web.archive.org/. Рассмотрим возможности веб-архива на примере крупного всем известного сайта, как WhatsApp.

На главной странице в поле поиска вводим домен интересующего нас сайта, в данном случае ― whatsapp.com

После ввода ссылки на сайт мы видим календарь сохранения кода html страницы. На этом календаре на датах сохранения мы видим пометки различными цветами:

Синий ― сервер отдавал валидный правильный код 200 (отсутствие ошибок от сервера);

Красный (желтый, оранжевый, в зависимости от браузера и операционной системы ПК) ― ошибка 404 или 403, то, что не интересно при восстановлении;

Зеленый ― redirect-страницы (301 и 302).

Цвета в календаре не дают 100% гарантию соответствия: на синей дате также может быть redirect (не на уровне заголовка, а к примеру, в html-коде самой страницы ― в мета-тегах refresh (тегах обновления экрана) или в JavaScript).

Переходим на 2009 год, в самое начало индексирования (сохранения) сайта в веб-архиве.

Видим версию от 24 января и открываем ее в новой вкладке (в случае ошибок при работе, лучше открыть инструмент веб-архива в режиме инкогнито или в другом браузере).

Итак, мы видим версию страницы WhatsApp за 2009 год. В url страницы мы видим цифры ― timestamp (временную метку) ― т.е. год, месяц, день, час, минута, секунда, когда было сохранение именно этого url. Формат timestamp (YYYYMMDDhhmmss).

Timestamp ― это не время сохранения копии сайта и не время сохранения страницы, это именно время сохранения конкретного файла. Это важно знать для восстановления контента из веб архива. Все элементы сайта — картинки, стили, скрипты, html и так далее имеют свой timestamp, то есть дату архивации.

Для возвращения со страницы сайта обратно на календарь, нажимаем на ссылку с числом captures (захватов страницы).

Инструмент Summary

На главной странице веб-архива выбираем инструмент Summary. Это графики и диаграммы сохранения сайта. Все графики и таблички можно посмотреть по годам.

Наиболее полезная информация на странице ― сумма столбика New URLs. Эта сумма показывает нам количество уникальных файлов содержащееся в веб-архиве.

Цифра будет установлена приблизительна, по той причине, что сам веб-архив мог заиндексировать страницу с www или без. Т.е. одна и та же страница и ее элементы могут располагаться по разным адресам.

Инструмент Explore

Он загружает в таблицу все url, что ранее были заиндексированы пауком веб-архива.

Тут можно увидеть:

  1. MIME Тип элемента;
  2. Первичную дату индексирования элемента;
  3. Последнюю дату сохранения элемента;
  4. Общее число захватов (сохранений) элемента;
  5. Число дубликатов;
  6. Число сохранений уникального контента по url.

В поле фильтра возможно задать любую часть искомого элемента: для поиска содержимого сайта, которое трудно обнаружить в большом количестве ссылок.

Также возможно в поиске ввести часть пути, к примеру, путь в папку (обязательно со звездочкой), можно увидеть все url по заданному пути (все файлы со страницы или с папки) для анализа индексации этого контента.

Инструмент Site Map

На главной странице сайта нажимаем соответствующую ссылку Site Map.

Это кольцевая диаграмма с разделением по годам для анализа элементов, которые сохранял веб-архив (какие страницы) в разрезе от главного url к url вторго и n-ного уровня. Этот инструмент позволяет определить, в какой год веб-архив перестал сохранять новый контент на сайт или копии определенных url (появление любого кода, кроме кода 200).

В центре главная страница, а далее по структуре пути на втором-третьем этапе видим внутренние страницы сайта. Здесь нет других видов файлов, только сохраненные url. Т.е. мы можем понять, где архив смог проиндексировать или не проиндексировать страницы.

На схеме показаны:

1. Главная страница

2 — 5. Уровни вложенности страниц сайта

Также с помощью данного инструмента мы можем увидеть внутренние страницы по структуре и открыть их отдельно в новой вкладке.

Таким образом, отобрав ссылки на страницы и элементы с необходимой датой сохранения в веб-архиве и построив требуемую нам структуру, мы можем приступать к следующему этапу ― подготовке домена к восстановлению. Но об этом мы расскажем в следующем гайде.

Этот видео гайд есть на Youtube:

Использование материалов статьи разрешается только при условии размещения ссылки на источник: https://archivarix.com/ru/blog/1-how-does-it-works-archiveorg/

1 Как восстанавливать сайты из Веб Архива — archive.org. Часть 1

В этой статье мы расскажем о самом web.archive и о том, как он работает. Интерфейс веб-архива: инструкция к инструментам Summary, Explore и Site map. В этой статье мы расскажем о самом web.archive и…

4 года назад
2 Как восстанавливать сайты из Веб Архива — archive.org. Часть 2

Подготовка домена к восстановлению. Создание robots.txt
В прошлой статье мы рассмотрели работу сервиса archive.org, а в этой статье речь пойдет об очень важном этапе восстановления сайта из веб-архи…

4 года назад
3 Как восстанавливать сайты из Веб Архива — archive.org. Часть 3

Выбор ограничения ДО при восстановлении сайтов из веб-архива. Когда домен заканчивается, на сайте может появится заглушка домен-провайдера или хостера. Перейдя на такую страницу, веб-архив будет ее со…

4 года назад
Последние новости:

Новая верия CMS стала удобнее и понятее вебмастерам из разных стран мира.

— Полная локализация Archivarix CMS на 13 языков (Английский, Испанский, Итальянский, Немецкий, Французский, Португальский, Польский, Турецкий, Японский, Китайский, Русский, Украинский, Белорусский).
— Экспорт всех текущих данных сайта в zip архив для сохранения резервной копии или переноса на другой сайт.
— Показ и удаления битых zip архивов в инструментах импорта.
— Проверка версии PHP при установке.
— Информация для установки CMS на сервер с NGINX + PHP-FPM.
— В поиске при включенном режиме эксперта отображается дата/время страницы и ссылка на её копию в ВебАрхив.
— Улучшения пользовательского интерфейса.
— Оптимизация кода.

Если вы на уровне носителя владеете языком, на который наша CMS ещё не переведена, то приглашаем вас сделать наш продукт ещё лучше. Через сервис Crowdin вы можете подать заявку и стать нашим официальным переводчиком на новые языки.

Новая верия Archivarix CMS.
— Поддержка интерфейса командной строки для развертывания веб-сайтов прямо из командной строки, импорта, настроек, статистики, очистки истории и обновления системы.
— Поддержка зашифрованных паролей password_hash(), которые можно использовать в CLI.
— Экспертный режим для включения дополнительной отладочной информации, экспериментальных инструментов и прямых ссылок на сохраненные снимки WebArchive.
— Инструменты для неработающих внутренних изображений и ссылок теперь могут возвращать список всех отсутствующих URL-адресов вместо удаления.
— Инструмент импорта показывает поврежденные / неполные zip-файлы, которые можно удалить.
— Улучшена поддержка файлов cookie, чтобы соответствовать требованиям современных браузеров.
— Настройка выбора редактора по умолчанию для HTML-страниц (визуальный редактор или код).
— Вкладка «Изменения», показывающая различия текста, по умолчанию отключена, может быть включена в настройках.
— Откатиться к конкретному изменению можно во вкладке «Изменения».
— Исправлен URL-адрес карты сайта XML для веб-сайтов, построенных с субдоменом www.
— Исправлено удаление временных файлов, которые были созданы в процессе установки / импорта.
— Более быстрая очистка истории.
— Удалены неиспользуемые фразы локализации.
— Переключение языка на экране входа в систему.
— Обновлены внешние пакеты до самых последних версий.
— Оптимизировано использование памяти для расчета текстовых различий на вкладке «Изменения».
— Улучшена поддержка старых версий расширения php-dom.
— Экспериментальный инструмент для исправления размеров файлов в базе данных, если вы редактировали файлы непосредственно на сервере.
— Экспериментальный и очень сырой инструмент экспорта плоской конструкции.
— Экспериментальная поддержка открытого ключа для будущих функций API.

Первое июньское обновление Archivarix CMS с новыми, удобными фичами.
— Исправлено: Раздел История не работал при отсутствии включённого php расширения zip.
— Вкладка История с деталями изменений при редактировании текстовых файлов.
— Инструмент редактирования .htaccess.
— Возможность подчистить бэкапы до нужной точки отката.
— Блок «Отсутствующие урлы» убран из Инструментов, т.к. он доступен с главной панели
— В главную панель добавлена проверка и показ свободного места на диске.
— Улучшена проверка необходимых PHP расширений при запуске и начальной установке.
— Мелкие косметические правки.
— Все внешние инструменты обновлены на последние версии.

Обновление, которое оценят веб-студии и те, кто использует аутсорс.
— Отдельный пароль для безопасного режима.
— Расширен безопасный режим. Теперь можно создавать кастомные правила и файлы, но без исполняемого кода.
— Переустановка сайта из CMS без необходимости что-либо вручную удалять с сервера.
— Возможность сортировать кастомные правила.
— Улучшены Поиск & Замена для очень больших сайтов.
— Дополнительные настройки у инструмента «Метатег viewport».
— Поддержка IDN доменов на хостингах со старой версией ICU.
— В начальной установке с паролем добавлена возможность разлогиниться.
— Если при интеграции с WP обнаружен .htaccess, то правила Archivarix допишутся в его начало.
— При скачивании сайтов по серийному номер используется CDN для повышения скорости.
— Другие мелкие улучшения и фиксы.

Наша Archivarix CMS развивается семимильными шагами. Новое обновление, в котором появились:
— Новый дэшборд для просмотра статистики, настроек сервера и обновления системы.
— Возможность создавать шаблоны и удобным образом добавлять новые страницы на сайт.
— Интеграция с WordPress и Joomla в один клик.
— Теперь в Поиске-Замене дополнительная фильтрация сделана в виде конструктора, где можно добавить любое количество правил.
— Фильтровать результаты теперь можно и по домену/поддоменам, дате-времени, размеру файлов.
— Новый инструмент сброса кэша в Cloudlfare или включения/отключения Dev Mode.
— Новый инструмент удаления версионности у урлов, к примеру, «?ver=1.2.3» у css или js. Позволяет чинить даже те страницы, которые криво выглядели в ВебАрхиве из-за отсутствия стилей с разными версиями.
— У инструмента robots.txt добавлена возможность сразу включать и добавлять Sitemap карту.
— Автоматическое и ручное создание точек откатов у изменений.
— Импорт умеет импортировать шаблоны.
— Сохранение/Импорт настроек лоадера содержит в себе созданные кастомные файлы.
— У всех действий, которые могут длиться больше таймаута, отображается прогресс-бар.
— Инструмент добавления метатега viewport во все страницы сайта.
— У инструментов удаления битых ссылок и изображений возможность учитывать файлы на сервере.
— Новый инструмент исправления неправильных urlencode ссылок в html коде. Редко, но может пригодиться.
— Улучшен инструмент отсутствующих урлов. Вместе с новым лоадером, теперь ведётся подсчёт обращений к несуществующим урлам.
— Подсказки по регулярным выражениями в Поиске & Замене.
— Улучшена проверка недостающих расширений php.
— Обновлены все используемые js инструменты на последние версии.

Это и много других косметических улучший и оптимизации по скорости.

Как скачать сайт из вебархива

Как скачать сайт из вебархива

Обращаю ваше внимание на то, что все операции производятся в операционной системе Ubuntu (Linux). Как все это провернуть на Windows я не знаю. Если хотите все проделать сами, а у вас Windows, то можете поставить VirtualBox, а на него установить ту же Ubuntu. И приготовьтесь к тому, что сайт будет качаться сутки или даже двое. Однажды один сайт у меня скачивался трое суток.

По сути, на текущий момент мы имеем два сервиса с архивом сайтов. Это российский сервис web-archiv.ru и зарубежный archive.org. Я скачивал сайты с обоих сервисов. Только вот в случае с первым, тут не все так просто. Для этого был написан скрипт, который требует доработки, но поскольку мне он более не требуется, соответственно я не стал его дорабатывать. В любом случае его вполне достаточно на то, что бы скачать страницы сайта, но приготовьтесь к ошибкам, поскольку очень велика вероятность появления непредусмотренных особенностей того или иного сайта.

Первым делом я расскажу о том, как скачать сайт с web.archive.org, поскольку это самый простой способ. Вторым способом имеет смысл воспользоваться если по каким-то причинам копия сайта на web.archive.org окажется неполной или её не окажется совсем. Но скорее всего вам вполне хватит первого способа.

Принцип работы веб-архива

Прежде чем пытаться восстанавливать сайт из веб-архива, необходимо понять принцип его работы, который является не совсем очевидным. С особенностями работы сталкиваешься только тогда, когда скачаешь архив сайта. Вы наверняка замечали, попадая на тот или иной сайт, сообщение о том, что домен не продлен или хостинг не оплачен. Поскольку бот, который обходит сайты и скачивает страницы, не понимает что подобная страница не является страницей сайта, он скачивает её как новую версию главной страницы сайта.

Таким образом получается если мы скачаем архив сайта, то вместо главной страницы будем иметь сообщение регистратора или хостера о том, что сайт не работает. Чтобы этого избежать, нам необходимо изучить архив сайта. Для этого потребуется просмотреть все копии и выбрать одну или несколько где на главной странице страница сайта, а не заглушка регистратора или хостера.

Качаем сайт с web.archive.org

Процесс восстановления сайта из веб-архива я покажу на примере сайта 1mds.ru. Я не знаю что это за сайт, я всего лишь знаю что у него в архиве много страниц, а это значит что сайт не только существовал, но с ним работали.

Для того, что бы открыть архив нужного сайта, нам необходимо пройти по такой вот ссылке:

  • http://web.archive.org/web/*/1mds.ru

На 24 ноября 2018 года, при открытии этой ссылки я обнаружил вот такую картину:

Снапшот сайта на web.archive.org

Как видите на главной зафиксировались результаты экспериментов с программной частью. Если мы просто скачаем сайт как есть, то в качестве главной будет именно эта страница. нам необходимо избежать попадания в архив таких страниц. Как это сделать? Довольно просто, но для начала необходимо определить когда последний раз в архив добавлялась главная страница сайта. Для этого нам необходимо воспользоваться навигацией по архиву сайта, которая расположена вверху справа:

Навигация по снапшотам сайта в архиве

Кликаем левую стрелку ибо правая все равно не активна, и кликаем до тех пор, пока не увидим главную страницу сайта. Возможно кликать придется много, бывает домены попадаются с весьма богатым прошлым. Например сайт, на примере которого я демонстрирую работу с архивом, не является исключением.

Вот мы можем видеть что 2 мая 2018-го бот обнаружил сообщение о том, что домен направлен на другой сайт:

Пример страницы из архива сайта

Классика жанра, регистрируешь домен и направляешь его на существующий дабы не тратить лимит тарифа на количество сайтов.

А до этого, 30 марта, там был вообще блог про шитье-вязание.

Долистал я до 23 октября 2017-го и вижу уже другое содержимое:

Пример страницы сайта из архива за сентябрь

Тут мы видим уже материалы связанные с воспитанием ребенка. Листаем дальше, там вообще попадается период когда на домене была всего одна страница с рекламой:

Пример страницы сайта из архива связанного с рекламой

А вот с 25 апреля 2011 по 10 сентября 2013-го там был сайт связанный с рекламой. В общем нам нужно определиться какой из этих периодов мы хотим восстановить. К примеру я хочу восстановить блог про шитье-вязание. Мне необходимо найти дату его появления и дату когда этот блог был замечен там последний раз.

Я нашел последнюю дату, когда блог был на домене и скопировал ссылку из адресной строки:

  • http://web.archive.org/web/ 20180330034350 /http://1mds.ru:80/

Мне нужны цифры после web/, я их выделил красным цветом. Это временная метка, когда была сделана копия. Теперь мне нужно найти первую копию блога и также скопировать из URL временную метку. Теперь у нас есть две метки с которой и до которой нам нужна копия сайта. Осталось дело за малым, установить утилиту, которая поможет нам скачать сайт. Для этого потребуется выполнить пару команд.

  • sudo apt install ruby
  • sudo gem install wayback_machine_downloader

После чего останется запустить скачивание сайта. Делается это вот такой командой:

  • wayback_machine_downloader -f20171223224600 -t20180330034350 1mds.ru

Таким образом мы скачаем архив с 23/12/2017 по 30/03/2018. Файлы сайта будут сохранены в домашней директории в папке «websites/1mds.ru». Теперь остается закинуть файлы на хостинг и радоваться результату.

Качаем сайт с web-arhive.ru

Это самый геморройный вариант ибо у данного сервиса нет возможности скачать сайт как у описанного выше. Соответственно пользоваться этим вариантом есть смысл пользоваться только в случае если нужно скачать сайт, которого нет на web.archive.org. Но я сомневаюсь что такое возможно. Этим вариантом я пользовался по причине того, что не знал других вариантов,а поискать поленился.

В итоге я написал скрипт, который позволяет скачать архив сайта с web-arhive.ru. Но велика вероятность того, что это будет сопровождаться ошибками, поскольку скрипт сыроват и был заточен под скачивание определенного сайта. Но на всякий случай я выложу этот скрипт.

  • Вот ссылка: https://yadi.sk/d/zoMRxwPoSXh0Jw

Пользоваться им довольно просто. Для запуска скачивания необходимо запустить этот скрипт все в той же командной строке, где в качестве параметра вставить ссылку на копию сайта. Должно получиться что-то типа такого:

  • php get_archive.php «http://web-arhive.ru/view2?time=20160320163021&url=http%3A%2F%2Fremontistroitelstvo.ru%2F»

Заходим на сайт web-arhive.ru, в строке указываем домен и жмем кнопку «Найти». Ниже должны появится года и месяцы в которых есть копии.

Список архивов на web-archive

Обратите внимание на то, что слева и справа от годов и месяцев есть стрелки, кликая которые можно листать колонки с годами и месяцами.

Просмотр всего архива за все время

Остается найти дату с нужной копией, скопировать ссылку из адресной строки и отдать её скрипту. Не забывает помещать ссылку в кавычки во избежание ошибок из-за наличия спецсимволов.

Мало того, что само скачивание сопровождается ошибками, более того, в выбранной копии сайта может не быть каких-то страниц и придется шерстить все копии на предмет наличия той или иной страницы.

Помощь в скачивании сайта из веб-архива

Если у вас вдруг возникли трудности в том, что бы скачать сайт, можете воспользоваться моими услугами. Буду рад помочь. Для начала заполните и отправьте форму ниже. После этого я с вами свяжусь и мы все обсудим.

Восстановление сайта из вебархива

Восстановление сайта из Webarchive — инструмент, который позволяет восстановить и скачать полностью сайт или копию из Вебархива (web archive org) за любую дату в формате HTML. Все картинки, стили и скрипты также будут сохранены (кроме подгружаемых с других ресурсов). Есть возможность выбирать даты для каждой конкретной страницы с предпросмотром.

Создание задачи

Вводим название задачи и переходим на следующий шаг к настройкам сбора. Тут есть чекбокс “Выбрать период”, чтобы скачать документы по установленной дате. Если чекбокс не будет активирован — система скачает документ по последней доступной дате.

Рекомендуем не включать этот чекбокс, если вы точно не знаете за какую дату вам нужна копия. Если домен, например, старый и вы точно знаете, за какую дату обновления он нужен, тогда просто выбираете в календаре:

Чекбоксы “Сделать пути относительными” и “Удалить счетчики статистики” рекомендуется всегда оставлять включенными — они помогут избежать различных проблем при переносе копии сайта на ваш сервер.

Далее, переходим на третий шаг и вводим адрес сайта (без http и www), который нужно восстановить из веб-архива и после этого жмем “Добавить домен”:

Важно: на данный момент поддерживаются только задачи по 1 домену, поэтому если вам надо восстановить несколько сайтов, придется создать несколько задач.

Далее нажимаем “Создать новую задачу” и подтверждаем запуск.

Работа с результатами

После запуска, задачи появится на листинге в разделе “Восстановление из Вебархива”. Вы можете проследить за статусом его выполнения. Когда задача будет готова появится кнопка “Скачать”, с помощью которой вы сможете скачать ZIP-архив с копией сайта на свой компьютер и потом загрузить его на хостинг.

Чтобы перейти в задачу и просмотреть результаты, просто нажмите на название задачи. Перед вами откроется список скачанных файлов со столбцами:

  • Название файла
  • Тип файлов
  • Дата сохранения
  • Действия

Этот список вы можете отсортировать по любому столбцу. Также присутствует форма поиска по названию файла. Вы можете воспользоваться пагинацией или указать сколько результатов выводить на странице.

Вы можете кликнуть по URL-адресам выгруженных файлов — они доступны для просмотра и открываются в новой вкладке (откроется уже сохраненная на нашем сервере копия).

Если какие-то страницы скачались неправильно или не те, то для каждой из них можно выбрать другую дату копии, для этого нужно нажать на иконку рядом с URL и выбрать снепшот за нужную дату.

Если других дат нет — значит в Вебархиве не содержится дополнительных копий выбранной страницы.

Если какой-то URL вам не нужен — просто отключите чек бокс рядом с ним и он не попадет в архив при скачивании.

Дальше, чтобы восстановить сайт на своем сервере скачиваем ZIP-архив с задачи, просматриваем его и распаковываем по FTP в корневую директорию своего домена на хостинге:

После запуска сайта внимательно просмотрите как он работает, пройдитесь по всем страницам, проверьте работоспособность всех ссылок, кнопок, отображение стилей и картинок, так как бывает что в Вебархиве присутствуют не все страницы сайта и нужно что-то подправить.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *