Description
Avez-vous rencontré un obstacle lors de la création et de la modification du fichier robots.txt sur votre site ?
DB Robots.txt est une extension facile à utiliser pour générer et configurer le fichier robots.txt indispensable pour SEO (optimisation pour les moteurs de recherche). Le fichier doit contenir les règles pour les robots d’exploration des moteurs de recherche tels que Google, Bing, Yahoo!, Yandex, etc.
L’extension fonctionne parfaitement aussi bien si le fichier robots.txt n’a jamais été créé que s’il existe déjà. Une fois installée, l’extension crée un fichier robots.txt optimisé qui inclut des règles spéciales communes aux sites WordPress. Après cela, vous pouvez procéder à une personnalisation plus poussée spécifique à votre propre site si c’est nécessaire.
Si l’extension détecte un ou plusieurs fichiers Sitemap XML, elle les inclura dans le fichier robots.txt.
Aucun accès FTP, codage manuel ou modification de fichier n’est requis, ce qui rend la gestion des réglages simple et pratique !
Captures d’écran
Installation
- Téléversez le dossier bisteinoff-robots-txt dans le répertoire
/wp-content/plugins/
- Activez l’extension via le menu « Extensions » dans WordPress
- Profitez-en
FAQ
-
Cela entrera-t-il en conflit avec un fichier robots.txt existant ?
-
Non, ce ne sera pas le cas. Si le fichier robots.txt se trouve dans le dossier racine, il ne sera pas écrasé. Sur la page Réglages, une notification correspondante apparaîtra et vous trouverez deux options : retirer ou renommer le fichier robots.txt existant. L’extension fournit cette fonctionnalité.
-
Pourrais-je bloquer accidentellement tous les robots de recherche ?
-
Une fois l’extension installée, elle fonctionnera correctement pour tous les robots des moteurs de recherche. Si vous ne connaissez pas les règles de réglage fin d’un fichier robots.txt, il est préférable de laisser le fichier tel quel ou de lire d’abord un manuel correspondant pour en savoir plus sur les directives utilisées pour le fichier robots.txt.
Note : les directives suivantes bloquent le(s) robot(s) de recherche correspondant(s) :
Disallow:
Disallow: /
Disallow: *
Disallow: /*
Disallow: */Vous devez utiliser l’une de ces directives uniquement si vous souhaitez que toutes les pages de votre site soient inaccessible à l’exploration.
-
Où puis-je lire le guide mis à jour sur robots.txt ?
Avis
Contributeurs/contributrices & développeurs/développeuses
« DB Robots.txt » est un logiciel libre. Les personnes suivantes ont contribué à cette extension.
Contributeurs“DB Robots.txt” a été traduit dans 3 locales. Remerciez l’équipe de traduction pour ses contributions.
Traduisez « DB Robots.txt » dans votre langue.
Le développement vous intéresse ?
Parcourir le code, consulter le SVN dépôt, ou s’inscrire au journal de développement par RSS.
Journal
3.12
- Compatible with WordPress 6.7
- Rewritten the code with depricated and discouraged functions
- Security issues
3.11
- Design of the Settings page in admin panel
3.10
- Custom rules for WooCommerce if the plugin is installed and activated
- Fixing ampersand symbol
3.9
- Security issues
3.8
- Compatible with WordPress 6.5
3.7
- Security issues
3.6
- Compatible with WordPress 6.3
- Security issues
3.5
- Compatible with multisites
3.4.2
- Corrected errors in the functions for translation of the plugin
3.4.1
- Now the translations are automatically downloaded from https://translate.wordpress.org/projects/wp-plugins/db-robotstxt/ If there is not a translation into your language, please, don’t hesitate to contribute!
3.4
- Compatible with GlotPress
3.3
- New options to rename or delete the existing robots.txt file
3.2
- New option to disable the rules for Yandex
- Design of the Settings page in admin panel
3.1
- New basic regular rules for Googlebot and Yandex
- Now more possibilities to manage your robots.txt: you can add custom rules for Googlebot, Yandex and other User-agents
- More information about your robots.txt on the settings page
3.0
- Added a settings page in admin panel for custom rules
2.3
- Tested with WordPress 6.2.
- The code is optimized
- Added the robots directives for new types of images WebP, Avif
2.2
- Fixed Sitemap option
2.1
- Tested with WordPress 5.5.
- Added wp-sitemap.xml
2.0
- Tested with WordPress 5.0.
- The old Host directive is removed, as no longer supported by Yandex.
- The robots directives are improved and updated.
- Added the robots directives, preventing indexind duplicate links with UTM, Openstat, From, GCLID, YCLID, YMCLID links
1.0
- Initial release.