Tutto WebMaster
HOME BLOG SEO TOOLS NET TOOLS DIRECTORY REGISTRAZIONE NEWS LINK SITE MAP
Categorie Articoli



Cerca
 »  Home  »  Blogs

RSS Feeds penalizzati dal filtro dei contenuti duplicati

Il tema dei contenuti duplicati è uno degli argomenti più discussi al momento, sia per i redattori dei siti sia per gli specialisti che lavorano sull’ottimizzazione per i motori di ricerca. Nei forum di discussione specializzati i thread si sprecano e gli eventi dedicati al settore non mancano mai sessioni in cui si dibatte sull’argomento. I filtri antiduplicazione adottati da parte dei principali motori di ricerca costringe infatti tutti gli addetti ai lavori ad occuparsi della questione.

I contenuti duplicati, particolarmente negativi per i motori quali guadagnano fornendo risultati utili ai loro utenti, proliferano nei siti nati per veicolare pubblicità contestuale, principalmente Google AdSense. Questi ultimamente sono stati colpiti in due modi: il primo è l’effetto dello Smart Pricing, che riduce molto i guadagni provenienti da queste pagine e, l’altro, la rimozione o comunque penalizzazione delle pagine tramite i filtri antiduplicazione. Il risultato: poco guadagno con una pagina duplicata e poche visite giunte gratuitamente dai motori di ricerca.

Tuttavia, il contenuto duplicato non è sempre negativo ed esisterà sempre in una forma o l’altra. Nessuno desidera la sparizione dei siti che riportano comunicati stampa, citazioni, ma neanche i siti che riportano le news aggregate con cura per riportare le ultime novità del proprio settore tematico, tra altro con il consenso dell’editore che fornisce e desidera divulgare le proprie notizie.

L’esperienza è però quella, che le pagine contenenti notizie rss aggregate sono fortemente penalizzate da Google. Ad esempio, controllando il numero degli articoli presenti nella nostra area news, all’indirizzo http://www.tuttowebmaster.it/news/ risultano migliaia di feeds archiviati, ma la presenza nei motori, controllabile a http://www.tuttowebmaster.it/strumenti/presenza_nei_motori.php ci da un risultato di solo qualche centinaia. La maggior parte delle pagine news quindi non sono al momento indicizzate e, quelle che sono nell’index, hanno un pessimo posizionamento anche se già ottimizzate per i motori.

Visto che questa penalizzazione può compromettere nel futuro anche il ranking di altre pagine, al momento ben posizionate, la nostra redazione ha deciso di mettere per ora in “disallow” la directory /news/ nel file robots.txt e di cercare soluzioni di rimedio, trattate separatamente nell’articolo ”Come evitare il filtro dei contenuti duplicati”.

Post a comment about this blog
Add comment

Commenti

  • No Comments Found. Submit Comment

  • CheckUp del sito
    Meta tag analyzer
    Trova link errati
    Meta tag generator
    Sitemap generator
    Google sitemap generator.
     

    [ Ottimizzazione siti | Blog | Strumenti SEO | Strumenti di rete | Directory | F.A.Q. ]
    [ Registrazione | Condizioni | Privacy | Contatti | Link | Mappa del sito ]


    Copyright 2017

    Genesys Informatica Srl
    P.iva 02002750483