Успешное подключения к БД.

-------------------
Вы знаете, как устроен наш мир?



---Load files---
Совет: если изображения отображаются неправильно, попробуйте очистить кеш браузера!
Поиск на странице - нажмите "Ctrl+F", Поиск на сайте - поле ввода "Яндекс-Найти" на "шапке",
Поиск в интернете - 1) выделите текст, 2) нажмите правую клавишу мыши и 3) выберите поисковик.

С О Д Е Р Ж А Н И Е

------- Тимин В.А. (mail: timinva@yandex.ru) Дата последней загрузки: April 21 2018. -------
Ссылка на этот материал: fajl_ROBOTS..TXT.htm)
Как создать файл робот 'robots.txt из Заметки начинающего вебмастера

Как создать файл робот 'robots.txt

Основные требования к формату файла robots.txt:

  • Формат файла robots.txt - простой текстовый файл, создается в обычном блокноте.
  • Местонахождение файла робот - корневая директория сайта.
  • Пустой файл robots.txt или его отсутствие означает разрешение на индексирование всего сайта.
  • Большие robots.txt (более 256 Кб) считаются полностью разрешающими
  • Регистр написания имени файла - только нижний.
  • При копировании файла с помощью ftp-клиента, его нужно настроить на текстовый режим обмена файлами.

Что должно обязательно быть в файле robots.txt?

  • Две директивы: «User-agent» и «Disallow».
  • Необязательная «Allow».

Обязательная директива «User-agent»

Запись «User-agent» содержит в себе название поискового робота.
Если обращение происходит абсолютно ко всем поисковикам, то пишем символ звездочку «*», выглядит это так:
        User-agent: *
Если нужно обратиться к роботу Яндекса или Гугле, то запись будет выглядеть так:
        User-agent: Yandex
        User-Agent: Googlebot

Примечания пишутся через символ # . Например:
        User-Agent: * # Все поисковый системы

Обязательная директива «Disallow»

Директива «Disallow» укажет поисковому роботу, какие файлы, каталоги запрещается индексировать. Если сайт открыт для индексирования весь, то нужно писать так:
        Disallow:
или
        Allow: /
Наложим запрет на индексацию файла links.html из корневой папки. Тогда запись будет такой:
       Disallow: /links.html
Теперь запретим индесирование файла my.html , находящегося в папке «noybot» . Это будет выглядеть так:
        Disallow: /noybot/my.html
Запретим индексацию определенных директорий, например, содержащих файлы форума - папка «forum» и папку со сценариями «cgi-bin». Это значит, что все, что находится в этих папках не будет доступно для поисковиков. Выглядеть запись будет так:
        Disallow: /cgi-bin/
        Disallow: /forum/

Зная этот минимум, мы уже можем написать свой файл робот и запретить в нем индексировать какие-либо файлы или любые папки вместе с их содержимым. Впрочем, эта шпаргалка минимальна. И требует продолжения. Что мы и сделаем.
Можно запретить индексировать страницы и директории, название которых начинается с одних и тех же символов. Запрет накладывается всего одной записью «Disallow».
Например, запретим к индексированию директории и файлы, начинающиеся с символов «my» . Это папки my, my1, my2 и страницы my.html, mylove.html и тому подобное. Для этого пропишем так:
        Disallow: /my
В директиве «Disallow» разрешено пользоваться регулярными выражениями, но не во всех поисковых системах. Google поддерживает символы «*» (звездочка - любая последовательность символов) и «$» (доллар - окончание строки). Что это дает нам? Можно запретить индексацию файлов с определеным расширением, например, «htm», достаточно написать:
        Disallow: *.htm$
Еще пример запрета индексации файлов PDF для гугл
        User-agent: Googlebot
        Disallow: *.pdf$
Другой вариант решить эту задачу - это создать отдельный каталог pdf и размещать документы PDF в нем. Тогда пишем так:
        User-agent: *
        Disallow: /pdf/

Обязательная директива «Allow»

Директива «Allow» укажет поисковому роботу, какие файлы, каталоги разрешается индексировать. Если сайт открыт для индексирования весь, то нужно писать так:
        Allow: /
Формат такой же, как и для Disallow. Можно последовательно уточнять запрещения/разрешения для файлов последовательным применением директив Disallow и Allow.

Директива «Host»

Директива «Host» используется для определения главного зеркала сайта. С ее помощью можно выбрать url, под которым будет проиндексирован веб-сайт. Эта директива поддерживается русскими поисковиками, такими как Яндекс, Рамблер, Апорт. Без этой директивы робот яндекса выберет основное зеркало самостоятельно, а все другие имена получат запрет к индексации. Т.к. директиву «Host» понимают не все поисковики, поэтому саму запись нужно вставлять обязательно после «Disallow», в конце блока.
Записывается следующим образом:
        Host: www.site.ru
Обратите внимание на поведение гугл при встрече с директивой хост. Google игнорирует всю секцию, где прописана директива «Host» . Это решаемо, для гугл нужно создать свой блок с записями. Например:
        User-Agent: * # Все поисковый системы
        Disallow: /admin/ # Запрет директории админ и всех, файлов этой папки
        Host: www.mainsite.ru # Главное зеркало
        User-Agent: Googlebot # Личный блок для гугла
        Disallow: /admin/ # Запрет директории гуглом

Ссылка на этот материал: fajl_ROBOTS..TXT.htm)

- - - ВЫ МОЖЕТЕ ОСТАВИТЬ ПЕРВЫЙ КОММЕНТАРИЙ! - - -


Введите логин:      Введите эл.адрес:

Введите пароль:    Ваш телефон:        

Введите Ваш комментарий:
Формулы:

(возможно использование BB-кодов для оформления комментария и кодов LaTeX для ввода формул)

Решите пример: 34 ^ "один" =

---Load files---
Сегодня - 20_08_2019
Время переоткрытия сайта 15 ч 00 м по Гр.
Календарь
на АВГУСТ месяц 2018 г.
Пн Вт Ср Чт Пт Сб Вс
      1; 2; 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31 1
(8 431)

---Load files---

---Load files---

© Все права защищены 2017-2019 При использовании материалов сайта ссылка на http://lowsofphisics.ru обязательна.

В НАЧАЛО
КОММЕНТ
В КОНЕЦ
U:6 V:7
Уникальных посетителей: 6 Просмотров: 7