Похоже всё оказалось не так уж страшно.

Сайт адекватно выплывает, правда пока по весьма специфическим запросам.

Нужно отметить что выше всего попадают именно целевые страницы, страницы самих материалов, а, как по мне, это успех!

Однако получил наставление о том, что в robots.txt все директивы disallow, allow и другие директивы блока должны быть прописаны без пробелов между собой и начинаться лишь с "*" или "/", а значит была ошибка с директивой:

Disallow: ?limitstart=0

Которой при более детальном изучении вопроса нашлась замена:

Clean-param: start&limitstart /

Так что теперь наш файл выглядит так:

User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /component/
Allow: /images/stories
Clean-param: start&limitstart /

Sitemap: http://kosarev.by/sitemap.xml

Так же подключил Google Analytics.


Для пытливых и любопытных хочу пометить, что в поиск попала куча левых страниц, которые были на "пред-версии сайта", т.к. оказалось google, при появлении новых dns-сведений в сети, сразу начинает по ним шариться. И плевать ему, что в индекс вы страницу не кидали. Этот факт нашел подтверждение: ещё одно доменное имя, которое по факту ничего не содержит в данное время попало в поиск, и google проиндексировал его как свое же сообщение об ошибке. Внимание: по запросу не полностью релевантному своему доменному имени сайт на 40ых позициях.

Что из этого следует: при создании тестовой площадки для сайта убедитесь в её дальнейшем существовании с 301 редиректом на ваш главный домен. Иначе сайт может запросто попасть под фильтр полного дублирования контента, в связи с чем просто не попадёт в поиск.