une question de ma part sur les robots

15 Mar 2014 22:06 #1 par informaticien51
juste une question simple :
Si on met un site hors ligne, les visiteurs n y ont pas accès, ca c est ok....

Mais qu en est il des robots ?
Passent ils quand meme sur le site ou pas?

Je me pose cette question car j ai un sous domaine actif mais pas le domaine principal.
Et vu que le site sera hors ligne, j ai pas envie d avoir des erreurs 404 pour du contenu innaccessible....

Connexion pour participer à la conversation.

16 Mar 2014 18:08 #2 par Simon
Bonjour,

sir le site est hors-ligne, les robots n'ont accès qu'à la page d'accueil (sauf bien sur si d'autres pages ont déjà été référencées.

Le mieux (lorsque l'on s'intéresse vraiment au référencement) est de développer le site en local et de ne le mettre en ligne que lorsqu'il est prêt.
Sinon, il est également possible de régler le paramètres "Robots" de la configuration générale du site sur No index No follow.

Élargissons notre vision du web et de ses relations avec Joomla! Cinnk magazine
Pour apprendre à construire votre site web avec Joomla 3 : Joomla3! Le Livre Pour Tous
Formation Joomla 3 pour débutant : 40 Tutoriels vidéos pour débuter avec Joomla!
Plus de 100 Trucs et Astuces pour Joomla 3
Suivez moi sur Twitter

Connexion pour participer à la conversation.

17 Mar 2014 14:14 #3 par cavo789
Bonjour

+1 pour le développement en local et +1 pour la modif. dans la config générale de Joomla.

Une autre manière d'y arriver : édite ton fichier robots.txt et ajoute ces deux lignes au début du fichier :
User-agent: *
Disallow: /

N'oublie pas de les retirer ensuite.

Christophe (cavo789)
Développeur d'aeSecure; protection, optimisation et nettoyage (après hack) de sites web Apache www.aesecure.com
1. aeSecure QuickScan - Outil de scan gratuit de votre site : www.aesecure.com/fr/blog/aesecure-quickscan.html
2. Conseils pour le nettoyer le sécuriser : www.aesecure.com/fr/blog/site-hacke.html

Connexion pour participer à la conversation.

Créez vos templates Joomla avec Template Creator CK
17 Mar 2014 16:50 - 17 Mar 2014 16:51 #4 par informaticien51
LE fichier robots.txt n est pas suivi par touts les robots....
C est ce que j ai remarqué sur mon petit site.

La seule manière de les interdire de maniere sure et certaine est via le fichier .htacces.

Donc je reste avec ma methode qui conbsiste a mettre en ligne uniquement des sites terminés...

Merci pour les infos.

Connexion pour participer à la conversation.

17 Mar 2014 18:36 #5 par cavo789
Tu as raison : les robots n'ont pas d'obligation à respecter le fichier robots.txt ... tout comme ils n'en ont aucune à respecter les balises du .htaccess ou du code html. Ce n'est donc pas "plus sûr" de faire ainsi.

Bonne soirée

Christophe (cavo789)
Développeur d'aeSecure; protection, optimisation et nettoyage (après hack) de sites web Apache www.aesecure.com
1. aeSecure QuickScan - Outil de scan gratuit de votre site : www.aesecure.com/fr/blog/aesecure-quickscan.html
2. Conseils pour le nettoyer le sécuriser : www.aesecure.com/fr/blog/site-hacke.html

Connexion pour participer à la conversation.

17 Mar 2014 20:10 #6 par informaticien51
Le fichier .htacces est utilisé pour chaque requete....
C est un passage obligatoire pour toutes les requetes et ce quelquesoit le user-agent.
Donc si tu met dedans une directive d'interdiction, c est sur et certain que rien ne passe....

s'il n etait pas utilisé pour chaque requete, il y aurais de gros problemes pour la reecriture d url.....

Connexion pour participer à la conversation.

Temps de génération de la page : 0.149 secondes

Sur ce site, nous utilisons des cookies.