• Можно ли настраивать дизайн?


    Да, доступны несколько вариантов оформления. В дальнейшем, если таких запросов будет много - будем расширять список доступных шаблонов.

  • Сколько стоит?

    Ближайшие пол года - сознательно - только бесплатный тариф.
    в дальнейшем - возможно введем какой-то платный, но в рамках разумного (200-500 руб. в месяц, в зависимости от занимаемого пространства)

  • Как это работает?

    Напишите свой старый адрес сайта, свою почту и название компании - и менеджер создаст Вам свой магазин.

  • Это конструктор?

     И да и нет. Это готовая сборка магазина, созданная нами, на базе open source CMS .

  • В чем наша выгода?

    Мы рекламное агентство - мы зарабатываем на рекламе (seo, smm,  контекст ) - с этим мы будем рады помочь. Но текущий магазин - это наша возможность помочь предпринимателям, которые попали в неприятную ситуацию.

  • Как восстановить свои данные?

    Есть несколько способов восстановления информации с вашего удаленного сайта.

    Несколько платных и один бесплатный, разберем подробно каждый из них

    Но для начала немного теории:

    Ваши данные были удалены компанией TIU, и оригинал их уже не существует. Либо существует, но внешний доступ к нему отсутствует. Поэтому - наша задача найти те обрывки данных, которые остались от вашего сайта в интернете.
    Есть несколько мест, где сохраняются данные обо всех сайтах.

    Это компания web archive, сайт -  https://web.archive.org/ 

    Кэш поисковых систем - Гугл или Яндекс.

     

    И есть несколько способов восстановить 

    1. Бесплатный.  РУЧНОЙ

    Собственно основной ресурс, который используют все сервисы для восстановления сайта это https://archive.org/web/

    Перейдите по ссылке, в поисковую строку введите интересующее доменное имя. Ниже появится линия лет, черной полоской обозначен момент, когда сервис сделал снимок сайта.

    Ниже отображается календарь за выбранный год, там вы можете увидеть конкретный месяц и день, когда был произведен снимок.

     

    Кликайте по снимку, откроется окно со страницей сайта за тот день. Открываете консоль разработчика и копируете html и все ресурсы необходимые странице — картинки, css, js и др.

    АНАЛОГИ ARCHIVE.ORG

    https://archive.org/web/ не единственый проект, который делает снимки сайтов и хранит их. Существуют и другие например
    Archive.is
    http://timetravel.mementoweb.org/ уникальный проект, своего рода гугл по сайтам-аналогам archive.org

    2. Бесплатный. автоматический.

    Программа называется WayBack Machine Downloader.

    Работает из консоли!

    Устанавливаем:

    gem install wayback_machine_downloader

    После сообщения об успешной установке - запускаем программу на скачивание вашего сайта, для этого пишем в консоли:

    wayback_machine_downloader http://example.com

    Вместо example.com - пишем старое название Вашего домена.

    Можно использовать ряд опций, которые позволяют "тонко" настроить процесс:

        -d, --directory PATH             Directory to save the downloaded files into

        -s, --all-timestamps             Download all snapshots/timestamps for a given website

        -f, --from TIMESTAMP             Only files on or after timestamp supplied (ie. 20060716231334)

        -t, --to TIMESTAMP               Only files on or before timestamp supplied (ie. 20100916231334)

        -e, --exact-url                  Download only the url provied and not the full site

        -o, --only ONLY_FILTER           Restrict downloading to urls that match this filter (use // notation for the filter to be treated as a regex)

        -x, --exclude EXCLUDE_FILTER     Skip downloading of urls that match this filter   (use // notation for the filter to be treated as a regex)

        -a, --all                        Expand downloading to error files (40x and 50x) and redirections (30x)

        -c, --concurrency NUMBER         Number of multiple files to download at a time

        Default is one file at a time (ie. 20)

        -p, --maximum-snapshot NUMBER    Maximum snapshot pages to consider (Default is 100)

        Count an average of 150,000 snapshots per page

        -l, --list                       Only list file urls in a JSON format with the archived timestamps, won't download anything

     

    Подробнее можете прочитать в инструкции у разработчика: https://github.com/hartator/wayback-machine-downloader

     

    3. Платный.

    Сервис https://archivarix.com/ru/

    Принцип его использования максимально прост - Указываете нужный домен, выбираете что Вам нужно восстановить и запускаете.

    До 200 файлов (страниц) он восстановит бесплатно, а дальше - потребуется оплатить пакет от 10 долларов.

     

    4. Платный. Robo-tools

     

     

    • Подходит для парсинга сайтов у которых мало html страниц и много ресурсов другого типа. Потомучто они рассчитывают цену по html страницам
    • возможность отказаться от сайта, если качество не устроило. После того как система скачала сайт, вы можете сделать предпросмотр и отказаться если качество не устроило, но только если еще не заказали генерацию архива. (Не проверял эту функцию лично, и не могу сказать на сколько хорошо реализован предпросмотр, но в теории это плюс)
    • Внедрена быстрая интеграция сайта с биржей SAPE
    • Интерфейс на русском языке
    • Высокая стоимость.

     

     
     
Отмена