Dobbiamo ottimizzare i siti intranet oi siti in cui l'accesso è protetto?

  • 1 settembre 2020
  • SEO

" Buongiorno,

Ho una domanda veloce su SEMrush.

È possibile recuperare con SEM Rush o un altro strumento, i dati di uno spazio professionale di un sito web (protetto con password)?

diciannove.com - Sito pubblico

https://integralpro.dixneuf.com/  – Espace professionnel en sous domaine

Grazie in anticipo, Dorian 🙂 »


Ciao Dorian,

L'obiettivo di SEMrush è aiutare i siti a ottenere maggiore visibilità.

Un sito protetto da password o accessibile solo dalla rete interna di un'azienda non cerca visibilità pubblica.

Logicamente, quindi, non è pensato per essere ottimizzato per il SEO e scansionato da vari robot, incluso quello di SEMrush.

La domanda, invece, è l'opportunità di parlare del file robots.txt e di fare chiarezza sul suo funzionamento.

Questo file può essere utilizzato per ogni dominio E per ogni sottodominio.

In questo caso, ad esempio, esiste effettivamente un diverso robots.txt per https://www.dixneuf.com/robots.txt:

… E per https://integralpro.dixneuf.com/robots.txt:

Questo è incaricato di bloccare tutti i robot, incluso Google Bot.

Nessuna pagina viene quindi indicizzata quando si digita "site:":

Un e-commerce è come un supermercato. Il suo manager determina i prodotti proposti e cerca di indirizzare il percorso dei suoi potenziali clienti (nessuna ricezione = capo gondola).

Il cliente, invece, non ha accesso agli uffici e alle riserve ;).

Ho guadagnato i miei primi guadagni sul web nel 2012 sviluppando e monetizzando il traffico dei miei siti (AdSense...).


Dal 2013 e dai miei primi servizi professionali, ho avuto l'opportunità di partecipare allo sviluppo di più di 450 siti in più di +20 paesi.

Leggi anche sul blog

Visualizza tutti gli articoli
Non ci sono commenti

Un commento ?