Skip to content

Latest commit

 

History

History
51 lines (35 loc) · 1.28 KB

README.md

File metadata and controls

51 lines (35 loc) · 1.28 KB

FindMy404

We have many web sites in Internet with some ugly errors like "Page not found" or something like this. This script allows you to scan your web site recursively and find all 404 / 500 error pages before it will be found by your customers.

HowTo Use

  1. Install requirements:
    pip install -r requirements.txt
    sudo apt-get install xvfb
  1. Install geckodriver
  2. Edit configuration file server.conf
  3. Run the script:
    ./get404.py
  1. Check log file results.txt

ToDo List

  1. Add Authentication methods
  2. Rewrite multi-threading with Scrappy pool
  3. Add W3C validation for pages

Analogs

You can also try Xenu. It is doing the same staff but it can't use authentication for web sites and perform W3C validation.

TODO:

Что еще добавить:

Браузер и JS

Фаззинг

HTML отчет с группировкой по типу ошибки

Определение уникальных паттернов урлов и только для них проверка JS ошибок и прочего - для случая когда таких урлов больше 1к (отрезаем все параметры и берем только уникальные урлы из каждого паттерна)