Salve a tutti per l'ennesima volta 8-)...
volevo una delucidazione sul robot.txt (so che nn è proprio il posto migliore dove postare, ma nn saprei proprio a chi chiedere)
Ho installato il google sitemap, e prima di effettuare alcuna modifica al mio [i][b]robot.txt[/b][/i] volevo semplicemente sapere se nella voce sitemap del robot.txt è sufficente indicare il file sitemapindex.xml creato con il mopdulo google o è necessario indicare un sitemap per ogni file xml realizzato con il modulo google.
Cioè:
- [b]Questo è come si presenta il mio robot.txt:[/b]
--------------------------------
User-agent: *
Sitemap: http://www.miosito.it/sitemapindex.xml
--------------------------------
- [b]Mentre questo è quello che vorrei inserire:[/b]
--------------------------------
User-agent: *
Sitemap: http://www.miosito.it/sitemapindex.xml
User-agent: *
Sitemap: http://www.miosito.it/sitemapcategories.xml
User-agent: *
Sitemap: http://www.miosito.it/sitemapezpages.xml
User-agent: *
Sitemap: http://www.miosito.it/sitemapproducts.xml
-------------------------------
Non ho capito bene se per ogni sitempa è necessario dichiarare da quale agente è utilizzato, [i][b]e se necassario inserire la disabilitazione per la directory admin, o eventualmente anche per altre directory[/b][/i]
User-agent: *
Disallow: http://www.miosito.it/admin
Grazie mille a tutti... 8-)