Перейти к контенту
  • 0

Рекорд посещаемости


zero_vlz

Вопрос

Пять минут назад обнаружил у себя новый рекорд посещаемости: 131 человек, из которых 128 гостей. Я знаю, что такого по-настоящему быть не должно (прежний рекорд был 14 человек :D ). Почему это могло произойти? Мне очень интересно, т.к. такое же встречал и на другом форуме, и там админы тоже не могли ничем это объяснить.
Ссылка на комментарий
Поделиться на других сайтах

Рекомендуемые сообщения

  • 0

Ничего не могу сказать по 1.3, к тому же тема про - 2.0.

У нас в форуме тоже, не бывает более 10-15 юзеров в день. Однако рекорд посещаемости уже зашкаливает за 60.

Ссылка на комментарий
Поделиться на других сайтах

  • 0
Смотрите, в онлайне, когда висят эти боты... Смотрите, какие у них IP. Затем пробивайте по whois, что именно это за боты... В прошлый раз у меня (1.3) это был Inktomi Slurp... Поскольку по-русски он один х. не понимает, а из России им никто не пользуется, я просто забанил его нах по маске... И всё, рекорды приняли вид истинный.
Ссылка на комментарий
Поделиться на других сайтах

  • 0

Есть такая гадость - называется Yahoo! Slurp

В списке ботов оно вроде есть, однако оно не высвечивается как яндекс и другие роботы.

Но проблема не в этом.

Я вот чего хочу:

Именно из за этой твари есть нереальные рекорды посещаемости.

Рекорды бывают когда yahoo кушает ЛОФИ и у него это получается очень быстро и прожёвывает он помногу - от того и рекорды.

 

Айпи у этой гадости: 66.196.*.*

 

Вопрос такой:

Могу ли я при помощи .htaccess перекрыть доступ в директорию ЛОФИ для диапазона 66.196.* ?

Могу ли я при помощи .htaccess ограничить количество разрешённых сессий с одного диапазона?

 

Если да - то что именно прописать?

 

Заранее благодарю

Ссылка на комментарий
Поделиться на других сайтах

  • 0

Думаю вот такой .htaccess должен помочь:

 

order allow,deny

deny from 66.196.0.0/255.255.0.0

allow from all

 

Удачи.

 

П.С. Естесственно файл .htaccess должен быть в той папке, доступ к которой нужно ограничить. Если нужно будет ограничить дополнительные сети, то просто добавляйте строки "deny from".

Ссылка на комментарий
Поделиться на других сайтах

  • 0

А почему так жестко?

Ведь существуют стандартные средства, такие как robots.txt, метатеги.

А яхуу рассматривает метатеги?

<meta name="robots" content="">

Ссылка на комментарий
Поделиться на других сайтах

Присоединиться к обсуждению

Вы можете ответить сейчас, а зарегистрироваться позже. Если у вас уже есть аккаунт, войдите, чтобы ответить от своего имени.

Гость
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Ответить на вопрос...

×   Вы вставили отформатированный текст.   Удалить форматирование

  Допустимо не более 75 смайлов.

×   Ваша ссылка была автоматически заменена на медиа-контент.   Отображать как ссылку

×   Ваши публикации восстановлены.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.

Зарузка...
×
×
  • Создать...

Важная информация

Находясь на нашем сайте, вы соглашаетесь на использование файлов cookie, а также с нашим положением о конфиденциальности Политика конфиденциальности и пользовательским соглашением Условия использования.