Главная > Программы Проверяем сайт на наличие битых ссылокВ этом деле нам поможет старый добрый wget: # wget --spider -o ~/site_ru.log -e robots=off -w 1 -r -p http://site.ru Краткая расшифровка опций:
Проверяем свой улов на наличие 404 ошибок - # grep -B 2 '404' ~/site_ru.log Кстати, сюда также попадут и ссылки у которых просто в теле адреса есть словосочетание '404 Not Found' Все бы хорошо, да этот метод не покажет нам битые ссылки на чужие ресурсы. А это довольно важно - например, у вас могут подгружаться картинки с других ресурсов и т.д. Я нашел решение которое работает не на 100 процентов и оно довольно кривое (из-за некотрых особенностей wget), но тем не менее мне оно помогло отыскать битые ссылки на картинки и найти одну 404. # mkdir ~/test/ cd ~/test/ Директорию создаем т.к. метод довольно грязный - создает кучу пустых директорий в процессе работы. # wget -r -l 1 -H -p -o ~/test/site_ru_out.log --spider -e robots=off http://site.ru/ И затем прогоняем получившийся у нас # grep -B 2 'failed' ~/site_ru.logМатериал взят с сайта: Главная > Программы |