Anevi.com
Cómo desactivar plugins de WordPress sin acceso al área de administración

Obtenido de Blog Oficial de Daniel Nabil – 20 noviembre 2011.

Respuesta rápida (en caso de urgencia):

  • Por FTP. Renombra la carpeta «plugins» y crea otra igual, pero vacía.
  • a través de phpMyAdmin. Edita el campo «active_plugins» (en la tabla «wp_options«) y vacía la lista de plugins activos sustituyendo el contenido por: «a:0:{}» (sin las comillas)

Respuesta completa

Es probable que en alguna ocasión necesitemos desactivar todos los plugins (o solo alguno) de nuestra instalación de WordPress pero, por una u otra razón, no podamos acceder al area de administración: páginas en blanco, pérdida de los datos de acceso o cualquier otra razón.

Por ejemplo, podemos encontrarnos con páginas en blanco en el panel de administración cuando algún plugin no es compatible con la versión de WordPress que tenemos instalada (o simplemente porque contiene errores), cuando el archivo «functions.php» del tema activo o «wp-config» están mal formados, etc.

Para comprobar si se trata de un problema con algún plugin instalado, tendremos que desactivarlos todos e ir activándolos de uno en uno, pero como no podemos acceder a la página de gestión, no podemos hacer nada.

Hay dos maneras de solucionarlo: por FTP o accediendo directamente a la base de datos a través de phpMyAdmin (o cualquier otro gestor).

Cómo desactivar plugins por FTP

Si tenemos acceso FTP a los archivos de la instalación, lo único que tenemos que hacer es cambiar el nombre de la carpeta «plugins« (en wp-content/plugins), por ejemplo llamándola «plugins_original», y crear una carpeta nueva vacía. Paso a paso sería así:

  1. Acceder por FTP a nuestra instalación de WordPress
  2. Abrir la carpeta «wp-content«
  3. Buscar la carpeta «plugins» y cambiarle el nombre (por ejemplo, «plugins_original»)
  4. Crear una carpeta nueva y llamarla «plugins»

Al volver a acceder al panel de administración nos aparecerá un mensaje de error por cada plugin que teníamos activado, pero en este caso, eso es precisamente lo que buscábamos: «El plugin X se ha desactivado debido a un error: El archivo del plugin no existe.»

Si volvermos a renombrar la carpeta original por FTP, los plugins aparecerán como inactivos y podremos volver a activarlos uno a uno, fijándonos bien cual es el que causa problemas.

Cómo desactivar plugins en phpMyAdmin

Lo que vamos a hacer es decirle al sistema que no tenemos ningún plugin activado, es decir, el mismo método que el anterior pero, esta vez, marcándolo directamente en la base de datos. En otras palabras, no vamos a eliminar ninguna extensión, solo a desactivarlas «a distancia». Para ello tendremos que:

  1. Acceder a través de phpMyAdmin a la base de datos de nuestra instalación de WordPress
  2. Examinar la tabla «wp_options» (el prefijo «wp_» puede variar según la instalación)
  3. Buscar en la columna «option_name» la fila «active_plugins» (puede que no esté en la primera página). O también podemos hacer una consulta SQL directa. Así:SELECT * FROM wp_options WHERE option_name = ‘active_plugins’;
  4. Editar esta fila
  5. En el campo «option_value» veremos una lista de todos nuestros plugins activos en forma de cadena. Lógicamente la longitud y el contenido variará dependiendo de los que tengamos activados:a:2:{i:0;s:19:»akismet/akismet.php»;i:1;s:27:»wp-pagenavi/wp-pagenavi.php»;}
  6. Guardar una copia de esta cadena (por si acaso, para poder volver a activar los plugins más tarde) y sustituirla por:a:0:{}
  7. Finalmente guardamos los cambios pulsando «Continuar»

Ahora podremos volver a acceder al panel de administración de WordPress. Si el problema de las páginas en blanco continúa, lo más probable es que los archivos «functions.php» o «wp-config» estén mal formados.

Más información (en inglés):
How to deactivate all plugins when not able to access the administrative menus?

GoogleBot ¿Qué es? Araña o robot de rastreo para el buscador

Obtenido del Blog Oficial de Akus.net, publicación original por Hugo Delgado – 17 diciembre 2019.

Googlebot es el robot de rastreo web de Google, mediante el cual Google descubre páginas nuevas o actualizadas y las añade al índice del buscador.

Googlebot es el robot de rastreo web de Google (en ocasiones, también denominado «araña»). El rastreo es el proceso mediante el cual Googlebot descubre páginas nuevas y actualizadas y las añade al índice de Google.

Utilizamos una enorme cantidad de equipos informáticos para obtener (o «rastrear») miles de millones de páginas de la Web. Googlebot utiliza un proceso de rastreo algorítmico: a través de programas informáticos se determinan los sitios que hay que rastrear, la frecuencia y el número de páginas que hay que buscar en cada sitio.

El proceso de rastreo de Googlebot comienza con una lista de URL de páginas web generada a partir de procesos de rastreo anteriores y se amplía con los datos de los sitemaps que ofrecen los webmasters. A medida que Googlebot visita cada uno de esos sitios web, detecta enlaces (SRC y HREF) en sus páginas y los añade a la lista de páginas que debe rastrear. Los sitios nuevos, los cambios en los existentes y los enlaces obsoletos se detectan y se utilizan para actualizar el índice de Google.

Cómo accede Googlebot a su sitio

De media, Googlebot no suele acceder a la mayoría de los sitios más de una vez cada pocos segundos. Sin embargo, debido a los retrasos de la red, esta frecuencia puede parecer ligeramente superior durante breves períodos de tiempo. Por lo general, Googlebot descarga una sola copia de cada página de forma simultánea. Si detecta que Googlebot descarga la misma página varias veces, es probable que esto se deba a la detención y al reinicio del rastreador.

Googlebot está diseñado para distribuirse en varios equipos con el fin de mejorar el rendimiento y el alcance a medida que la Web se desarrolla. Además, para reducir el uso del ancho de banda, muchos de los rastreadores se ejecutan en equipos ubicados cerca de los sitios que indexan en la red. Por tanto, es posible que sus registros muestren visitas de varios equipos a la página google.com, en todos los casos con Googlebot como «user-agent». Nuestro objetivo consiste en rastrear el mayor número posible de páginas de su sitio en cada visita sin colapsar el ancho de banda de su servidor.

Bloqueo del acceso de Googlebot al contenido de su sitio

Resulta prácticamente imposible no publicar enlaces a un servidor web para mantenerlo en secreto. En el momento en que un usuario utilice un enlace de su servidor «secreto» para acceder a otro servidor web, su URL «secreta» podrá aparecer en la etiqueta de referencia, y el otro servidor web podrá almacenarla y publicarla en su registro de referencia. Además, la Web contiene un gran número de enlaces obsoletos y dañados. Siempre que se publique un enlace incorrecto a su sitio o que los enlaces no se actualicen correctamente para reflejar los cambios realizados en su servidor, Googlebot tratará de descargar un enlace incorrecto de su sitio.

Bloqueo del acceso de Googlebot al contenido de su sitio

Resulta prácticamente imposible no publicar enlaces a un servidor web para mantenerlo en secreto. En el momento en que un usuario utilice un enlace de su servidor «secreto» para acceder a otro servidor web, su URL «secreta» podrá aparecer en la etiqueta de referencia, y el otro servidor web podrá almacenarla y publicarla en su registro de referencia. Además, la Web contiene un gran número de enlaces obsoletos y dañados. Siempre que se publique un enlace incorrecto a su sitio o que los enlaces no se actualicen correctamente para reflejar los cambios realizados en su servidor, Googlebot tratará de descargar un enlace incorrecto de su sitio.

Dispone de varias opciones para evitar que Googlebot rastree el contenido de su sitio, incluido el uso del archivo robots.txt para bloquear el acceso a los archivos y a los directorios de su servidor.

Es posible que Googlebot tarde un tiempo en detectar los cambios una vez que haya creado el archivo robots.txt. Si Googlebot sigue rastreando contenido bloqueado en el archivo robots.txt, compruebe que la ubicación de este archivo sea correcta. El archivo robots.txt se debe ubicar en el directorio principal del servidor (por ejemplo, www.mihost.com/robots.txt), ya que su inclusión en un subdirectorio no tendrá ningún efecto.

Si solo desea evitar que aparezcan en el registro de su servidor web mensajes de error en los que se indique que no se puede encontrar el archivo, cree un archivo vacío con el nombre «robots.txt». Para evitar que Googlebot siga los enlaces a una página de su sitio, utilice la metaetiqueta nofollow. Para evitar que Googlebot siga un enlace específico, añada el atributo rel=»nofollow» al enlace.

A continuación se indican otras sugerencias:

  • Compruebe si su archivo robots.txt funciona correctamente. La herramienta Probar robots.txt deHerramientas para webmasters de Google le permite comprobar cómo interpretará exactamente Googlebot el contenido de su archivo robots.txt. El robot «user-agent» de Google es muy acertadamente Googlebot.
  • La herramienta Explorar como Googlebot de Herramientas para webmasters de Google le permite comprobar cómo ve exactamente su sitio Googlebot. Esta herramienta puede resultarle muy útil para la resolución de problemas relacionados con el contenido de su sitio o con la visibilidad del mismo en los resultados de búsqueda.

Cómo asegurarse de que se pueda rastrear su sitio

Googlebot encuentra sitios siguiendo enlaces entre páginas. En la página Errores de rastreo de Herramientas para webmasters de Google se indican los problemas detectados por Googlebot al rastrear su sitio. Le recomendamos que consulte con regularidad esos errores de rastreo para identificar los problemas relacionados con su sitio.

Si está ejecutando una aplicación AJAX con contenido que desea que aparezca en los resultados de búsqueda, le recomendamos que consulte nuestra propuesta sobre cómo hacer que el contenido basado en AJAX se pueda rastrear e indexar.

Si su archivo robots.txt funciona correctamente, pero el sitio no presenta tráfico, es posible que la posición del contenido en las páginas de resultados no sea buena por alguno de los motivos que se indican a continuación.

Problemas relacionados con emisores de spam y con otros user-agents

Las direcciones IP que utiliza Googlebot varían cada cierto tiempo. La mejor forma de identificar los accesos de Googlebot es utilizar el robot «user-agent» (Googlebot). Para comprobar si el robot que accede a su servidor es realmente Googlebot, realice una búsqueda DNS inversa.

Googlebot, al igual que el resto de robots de los motores de búsqueda acreditados, respetará las directrices del archivo robots.txt, pero es posible que algunos emisores de spam y otros usuarios malintencionados no las respeten. 

Google también dispone de otros user-agents, como Feedfetcher (user-agent: Feedfetcher-Google). Las solicitudes de Feedfetcher proceden de acciones explícitas realizadas por usuarios que han añadido feeds a la página principal de Google o a Google Reader (y no de rastreadores automatizados), por lo que Feedfetcher no sigue las directrices del archivo robots.txt. Para evitar que Feedfetcher rastree su sitio, configure su servidor para que muestre mensajes de estado de error 404, 410 o de cualquier otro tipo al robot user-agent Feedfetcher-Google. Más información sobre Feedfetcher