Решил не затягивать и дать доменному набирать возраст в поисковых системах - а вдруг пригодится...

Проверил структуру моего маленького портала через онлайн-генератор sitemap, и получил в результате:

Главная
Блог сонного программиста
Новости
    	
component/
    	    	
mailto/ 2 pages
Косарев.BY
Косарев.BY
    	    	
users/ 3 pages
Косарев.BY
Косарев.BY
Косарев.BY
    	
sleepwalking/ 2 pages
Начнем?..
А .htaccess неплох
Кстати решил быть честным, а так же проверить насколько далеко пойдёт чистое SEO, так что никаких nofollow или noindex на ссылки на сторонние ресурсы, которые действительно оказались полезными.

Всё довольно-таки не плохо, но вот users и maito меня не устраивают - нужно вырубить.

Google в этом помог не сразу. Может в том упущение Joomla!, но пол интернета свято верит, что стандартная структура robots.txt спасёт сайт от кривого crawling`а роботами - так вот нет.

User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/

Не "отроботывает" роботов так, как нужно. Но всё же поискав ещё проверил другой код, и добавление нескольких строк спасает ситуацию:

Allow: /images/stories
Disallow: /component/

Ну вот. "Корм роботам" готов. Осталось сделать тарелки под каждое блюдо в виде настроек и metadata. Повторюсь: тарелки. Роботы не свиньи, и думаю плохо будут есть, если вообще будут есть все блюда сваленные в одно корыто, какими бы изысканными они ни были.