Hjem anmeldelser Deepcrawl gjennomgang og vurdering

Deepcrawl gjennomgang og vurdering

Innholdsfortegnelse:

Video: DeepCrawl Crawl Set Up (Oktober 2024)

Video: DeepCrawl Crawl Set Up (Oktober 2024)
Anonim

DeepCrawl har hevet prisen litt siden vi først så på den. Verktøyet begynner nå på $ 89, 00 per måned, fakturert måned til måned; 81, 50 dollar ved fakturering årlig). Det er omtrent $ 10 mer enn det kostet tidligere, så det burde ikke være et problem for de fleste søkemotoroptimaliseringsverktøyskunder (SEO). Det som imidlertid kan kaste deg, er designfokuset: dette verktøyet er ment kun for én ting og én ting: gjennom innsiden, ut-til-bunnen, gjennomgang av nettsteder. SEO-verktøy kan generelt grupperes i tre hovedkategorier. Først er det ad hoc-søkeordundersøkelser, som hjelper deg å finne de mest hensiktsmessige søkesidene for at innholdet ditt skal rangere høyere. Deretter er det kontinuerlig overvåkning av stillinger, som er hvordan du følger med på søkeposisjonene dine for å identifisere hvor du vinner og mister terreng. Endelig er det gjennomgang, der nettboter analyserer enten et enkelt nettsted eller systematisk gjennomsøker og indekserer hele internett. DeepCrawl gjør ikke gjennomsøkinger på internett, men det vil gi nettstedet ditt omtrent så omfattende SEO-fullscanning som du kan få.

Denne typen gjennomgang av dypside er nyttig for bedrifter på flere måter. DeepCrawl er et verktøy for både nybegynnere som ønsker å fremheve nettstedsproblemer eller avanserte brukere som tilpasser gjennomgangene, men uten begrensninger i datatilgang. Gjennomgang gjør det lettere å overvåke nettstedets helse både med sanntid og historisk kontekst, noe som gir bedrifter muligheten til å sammenligne gjennomganger år over år og drille seg inn i ulike trender og rapporttyper. Du må vanligvis bruke en kombinasjon av flere verktøy på tvers av de tre kategoriene med SEO for den mest effektive strategien, og nettlesere er hvordan du identifiserer styrkene og svakhetene på ditt eget nettsted og destinasjonssider.

Editors Choice SEO-verktøy Moz Pro, SpyFu og AWR Cloud har en langt større dybde av nøkkelord- og posisjonsovervåking, men har ikke på langt nær gjennomgang og nettstedrevisjon. Så hvis du for eksempel brukte et av Editors 'Choice-verktøyene eller et nøkkelordspesifikt produkt som KWFinder.com for å identifisere en resultatside for målsøkemotoren (SERP) og et ideelt sted for innholdet ditt å rangere, ville du kjøre en DeepCrawl-skanning av nettstedets arkitektur for å generere sideoppdelinger og identifisere de spesifikke SEO-problemene nettstedet ditt trenger å forbedre og løse for at den siden skal rangeres. Det samme gjelder for å finne ut hvorfor innholdet ditt taper terreng i søkerangeringene som spores i et overvåkningsverktøy som AWR Cloud eller utføre noen grunnårsaksanalyser på hvorfor nettstedet ditt ble rammet med en Google-søksstraff og hvordan du kan gjenopprette. Før eller senere kommer en SEO-strategi alltid tilbake til å revidere ditt eget nettsted. Det er DeepCrawl den eneste jobben.

Priser og planer

Som nevnt starter DeepCrawl på $ 81, 50 per måned, fakturert årlig ($ 89 måned-til-måned) for sin startplan, som kommer med 100 000 aktive nettadresser, fem aktive prosjekter, pluss full tilgang til applikasjonsprogrammeringsgrensesnitt (API). De fleste SEO-verktøy reserver API-tilgang for bedriftsnivåer, som er et klart pluss for DeepCrawl-brukere som ønsker dypere tilpasning uten prislappen til bedriften.

En annen endring som skjedde siden vi sist vurderte verktøyet, er at selskapet har gjort unna sine andre prisplaner. For de som ønsker å registrere seg på nettet for tjenesten, er det startplanen og det er det. Mer avanserte funksjoner og økte servicealternativer er nå bare tilgjengelige i bare én annen plantype: Bedriftsplanen. Her er det ikke så mye detalj, bortsett fra "skreddersydd" -prising, som vi antar betyr en oppfordring til en representant for bedriften, slik at de kan skreddersy en service- og prisplan etter dine behov.

Nettsøk

Nettstedets gjennomsøkingsprosess i DeepCrawl begynner med et raskt fire-trinns oppsett. I en gjennomgang kan du ta med opptil fem kilder, nettkart, nettsteder, analyser, tilbakekoblinger og URL-lister. Tanken er å gjøre det enkelt å identifisere hull i nettstedsarkitekturen, med spesifikke beregninger du ikke finner i andre gjennomsøkingsverktøy som for eksempel foreldreløse sider som fører til trafikk. DeepCrawl er designet for å gi brukerne en fullstendig oversikt over nettstedets tekniske helse, med handlingsrike data og innsikt for å øke SEO-synligheten og gjøre organisk trafikk til inntekter.

Når du registrerer deg for en gratis DeepCrawl-prøveperiode, tar grensesnittet deg først til prosjektdashbordet. For å sette opp PCMag-testprosjektet mitt, skrev jeg inn PCMag.com som hoveddomenet. Trinn to er å velge datakilder for gjennomgangen, som inkluderer selve nettstedet, PCMags nettkart og analyser du har tilgang til med en aktiv Google Analytics-konto. Du kan også legge til spesifikke parametre for tilbakekobling og URL-adresser i domenet (for eksempel hvis du har identifisert målsider i et søkeordforskningsverktøy) ved å laste opp CSV-filer med spesifikke tilbakekoblinger eller URL-lister. Det er også en popup-boks nederst på siden for å se en videoopplæring for hvordan du konfigurerer DeepCrawl-prosjekter og gjennomganger.

Trinn tre lar deg sette opp parametrene for selve gjennomgangen. Jeg var i stand til å skifte gjennomsnittshastighet hvor som helst fra en URL til 50 nettadresser per sekund. Derfra hadde jeg muligheten til å angi hvor mange "gjennomsøkingsnivåer" dypt skanningen skulle gå fra PCMag-hjemmesiden, og angi det maksimale antallet URL-er som gjennomgangen skulle stoppe. Min gratis prøveperiode var for Starter-planen, så nettadressene mine ble avkortet til 100 000. Det siste trinnet er å angi om dette vil være en engangs eller en tilbakevendende gjennomgang, som kan være timesvis, daglig, ukentlig, to-ukentlig, månedlig eller kvartalsvis, med muligheten til å stille start- og sluttider for gjennomgangen.

Dette er en viktig funksjon som du kan angi hvis du trenger regelmessige nettstedrevisjoner, men vær forsiktig med nettadressegrensene avhengig av hvilken plan du velger. Det er også mer avanserte innstillinger for dypere gjennomgangsbegrensninger, ekskluderte URL-er, URL-omskriving og API-tilbakeringinger, men en ikke-teknisk SEO-bruker trenger ikke nødvendigvis å komme inn på disse. Derfra klikket jeg på Start gjennomgang, og fikk en e-post noen minutter senere når gjennomgangen var fullført.

I det komplette gjennomsøkingspanelet blir du øyeblikkelig møtt med en vegg med informasjon. Hvis du vet hva du leter etter, er det doble søkefelt øverst for å finne en spesifikk URL eller finne rapporten om et bestemt område i nettstedsarkitekturen; dette kan være alt fra kroppsinnhold og sosiale koder til mislykkede nettadresser og omdirigeringer av nettsteder. Totalt kjørte DeepCrawl 175 rapporter på nettadressene mine - som i den gratis prøveversjonen viste seg å være avkortet på litt over 10 000 - og oppdaget 30 nettstedsproblemer og gjennomsøkte seks "nivåer" eller lenker dypt fra hjemmesiden.

Hovedside på dashbordet inneholder en oversikt over listen over alle de aktuelle nettstedsproblemene, hvorfra du kan drille deg ned til de spesifikke nettadressene der DeepCrawl vil fremheve sidefeil som duplikatinnhold, ødelagte sider, overskytende lenker eller sider med titler, beskrivelse og metadata med behov for SEO-forbedring. Ved siden av den listen fant jeg en interaktiv kakediagram fordeling av de mest utbredte problemene blant de 10 000+ gjennomsøkte sidene.

DeepCrawl har også oppdatert brukergrensesnittet (UI) siden vår første gjennomgang, og lagt brødsmuler på hver side for å gjøre det enklere å navigere til andre deler av plattformen og legge til en dashborddel for å vurdere alle løpende gjennomganger på ett sted. For mitt domene fant jeg at selv om det ikke var noen store problemer med 49 prosent av sidene mine (de fleste av dem "primære" sider), så hadde 30 prosent av sidene mine under overflaten å gjøre med 5xx serverfeil, men fem prosent av sidene har mislykkede nettadresser, og 16 prosent av sidene var "ikke indekserbare." I følge DeepCrawl oppstod sannsynligvis 5xx-feilene på grunn av PCMag-nettstedets blokkering av aspektene ved gjennomgangen eller på grunn av gjennomgang for raskt til at serveren kan håndtere. DeepCrawl har også tydeliggjort at sider som er flagget som primære ikke nødvendigvis er problemfrie, og kan fremdeles vurderes for å inkludere manglende sider, ekskludere sider med lav verdi og merkes med SEO-anbefalinger på siden.

Noen av de andre gjennomsøkingsverktøyene jeg testet, inkludert Ahrefs og Majestic, gir deg også denne typen sammenbrudd, inkludert grunnleggende problemer med nettstedet samt indeksering av tilbakekoblinger, noe som betyr at innkommende hyperkoblinger fra andre nettsteder til ditt. Det de andre ikke helt gjør, er å dykke dypere til poenget som DeepCrawl gjør, spesielt med sammenbrudd som sidene som er sikret med den sikrere HTTPS-protokollen i motsetning til HTTP, noe Google-algoritmen tar hensyn til når du rangerer sider.

DeepCrawl gir deg også intelligente sidegrupper (som du kan finne i Avanserte innstillinger når du konfigurerer en gjennomgang), noe som betyr at samplingen er basert på en prosentandel av sider i stedet for et tall. Å gruppere sider på denne måten er viktig i og med at det gir deg en jevn prøvetaking på tvers av gjennomganger. Tenk på det som et vitenskapelig eksperiment: hvis du er et e-handelsnettsted som gjennomsøker 20 prosent av produktsidene dine, i følgende gjennomgang, vil Deepcrawl skanne de samme 20 prosentene for sider som er lagt til, fjernet, manglet eller endret innen hver rapport. Dette reduserer også gjennomsøkelsestid og -kostnader, ettersom du målretter gjennomsøkingen din mot den spesifikke delmengden av sider du er interessert i.

Tilsvarende kan DeepCrawl tilpassede ekstraksjoner brukes til å inkludere eller ekskludere parametrene du velger. Dette er en mer avansert funksjon designet for mer spesialisert gjennomgang for å finpusse på dine fokusområder. Selskapet har også lagt til forhåndsinnstilte tilpassede ekstraksjoner for ikke-tekniske brukere, ettersom å skrive tilpassede utdrag krever kunnskap om vanlig uttrykksspråk (Regex).

Avansert rapportering

Bortsett fra GSC-integrasjonen, er de mest fremtredende forbedringene av DeepCrawl i rapporteringsfunksjonene, som DeepCrawl har lagt til 75 nye rapporter det siste året. Utover det grunnleggende - å dele og eksportere rapporter, eller legge til en oppgave for den rapporten - kan du klikke på Del-knappen for å få en delbar kobling til den rapporten. Du kan deretter sende rapporten til et hvilket som helst antall mottakere. Du kan også laste ned rapporten som en CSV-fil eller et XML-områdekart, og tilpasse rapporter med tilpasset merkevarebygging.

Den oppgavebaserte funksjonen er spesielt nyttig. DeepCrawl tillot meg å legge til en oppgave for spesifikke rapporter - i dette tilfellet listen over 5xx serverfeil - for å gjøre noe med det SEO-sikkerhetsproblemet. DeepCrawl lar deg ikke bare planlegge og tilpasse gjennomganger, men ved å bruke Task Manager kan du spore fremdrift og håndtere arbeidsflyter for problemstillinger og tidsfrister. Merket av et godt verktøy er en som ikke bare oppdager et problem eller en mulighet, men hjelper deg å handle på det med målrettede anbefalinger. Jeg fikk muligheten til å stille en åpen eller fast oppgave; utpeke en lav, middels, høy eller kritisk prioritet; angi en frist, og tilordne oppgaven til bestemte personer på teamet mitt. DeepCrawl ga meg en konkret vei til å løse SEO-problemer med nettstedet mitt. Bare de målrettede anbefalingene fra SpyFu og KWFinder.com ga den samme muligheten til å handle på SEO-rapportering, og ingen av de andre gjennomsøkerne inkluderte denne typen oppgavebaserte handlingsfunksjoner.

DeepCrawl har forbedret søkesøylinjen til venstre for å finne rapporter som bruker nøkkelord også (selv om nøkkelordene ikke vises i rapportens faktiske tittel), og filtrere rapporter etter hvilken som helst relevant URL eller lenkeverdi. Det er også en rekke nye datavisualiseringer på rapport- og kategorisidene, inkludert neddelingsgrafer, relaterte grafer, nye trendgrafer og UX-forbedringer som rulle og veksling av diagrammer, samt interaktive forklaringer på spesifikke beregninger som vises i en gitt graf. Rapportens instrumentpanelgrensesnitt er også fleksibelt, noe som betyr at du kan dra og slippe rapportene du vil vise.

Hvis du klikker på en hvilken som helst URL i en hvilken som helst rapport, får du detaljerte beregninger per side. I alle sine URL-for-URL-rapporter bruker DeepCrawl en tilpasset beregning kalt DeepRank, som måler den "interne vekten" til en kobling beregnet på samme måte som Googles PageRank-algoritme. Det er DeepCrawl URL-autoritetsberegning, i en skala fra 0-10, og viser de viktigste URL-ene eller de som trenger mest forbedring. Så mens PCMag-hjemmesiden og toppsidene alle ble rangert i 8-10-serien, satt noen utgiftsbelagte sider igjen med en DeepRank på nær null.

I tillegg til synkronisering med Google Analytics, inkluderer DeepCrawl også en del av data som bryter ned stasjonære og mobile sider, ikke bare for responsiv webdesign, men alle mobilkonfigurasjoner inkludert separate mobil- og skrivebordsider, dynamiske sider og AMP-sider. Disse typene viktige sammenbrudd på mobilenheter kan du også finne i SpyFu og SEMrush, men ikke til dybden i DeepCrawl-beregningene og ikke i noen av de andre sporingsverktøyene for crawler og backlink jeg testet, inkludert LinkResearchTools.

Den største kapasitetsoppdateringen til DeepCrawl siden vår første gjennomgang er en integrasjon med Google Search Console (GSC), og enda mer avansert brukeropplevelse for side-for-side (UX) og ytelsesmetoder. Integrasjonen lar deg koble DeepCrawls eksisterende sideytelsesinnsikt med organisk søkeinformasjon fra GSCs Search Analytics-rapport. Ved å legge til Search Console-egenskapen som en URL-kilde i gjennomsøkingsinnstillingene, kan DeepCrawl nå gi visnings-, klikk-, klikkfrekvens- (CTR) og gjennomsnittlig posisjonsberegning for hver indekserte side som vises i søkeresultatene. Googles Search Analytics-rapport kommer med en URL-grense i GSC-grensesnittet, men tilgang til rapporten gjennom DeepCrawl får deg rundt den.

Andre SEO-verktøy som SEMrush og Majestic integreres også med Google Search Console, men DeepCrawls integrasjon er det eneste blant verktøyene vi har testet for å bruke dette for å gi enhetsspesifikke SERP-beregninger. Gjennom integrasjonen har DeepCrawl gitt ut 10 nye rapporter, to nye grafer og dypere sammenligning av skrivebord / mobil / nettbrett. Enhetsfordelingene og sammenligningene trekker nå inn GSC-data på landsbasis, søkeinntrykk og effektivitet for indekserbare og ikke-indekserbare sider, gjennomsøkingssider som får trafikk fra bildesøk og beregninger på Google AMP-sider.

En unik funksjon her er et mål på mobile / AMP-sider som mottar desktop-trafikk og omvendt, noe som betyr at DeepCrawl vil vise om sidene dine rangerer på feil enhet. Dette betyr at DeepCrawl gjennomsøker alle separate mobil- eller AMP-nettadresser for å fremheve forskjeller og misforhold mellom skrivebord og mobilinnhold. Rapporter sjekker at alle sider med høy verdi eksisterer på mobil.

DeepCrawl gir også data om sosial tagging, for eksempel sidene med gyldige Twitter-kort, samt en fane som ganske enkelt viser sideytelsen når det gjelder lastetid eller tiden det tok å "hente" en side. Endelig gir verktøyet migreringsrapporter for nettsteder for å analysere live og iscenesette nettsteder under en migrering og rapportere spesifikt på HTTP- og HTTP-sider. Dette er beregninger du finner i verktøy for overvåkning av nettsteder, men med tanke på SEO kan det være verdifullt bare ved å identifisere sider der UX er dårlig og sikre jevn migrering av nettsteder.

Under Microscope for gjennomgang av nettsteder

DeepCrawl er det beste gjennomsøkingsverktøyet vi testet med stor margin. Det gir den største dybden av domeneskanning og SEO-rapportering med ekstremt detaljerte data og beregninger som for en SEO-novise ærlig kan være overveldende. Mye av kartleggingen av nettstedarkitekturen og domeneanalysen den gir, er uten tvil bedre egnet for utviklere og IT. PCMag gjennomgår ikke betafunksjoner, men DeepCrawl tester også ut en eksperimentell nettstedutforskermodus som lar deg visuelt utforske nettstedarkitektur.

Som med KWFinder.coms dominans i ad hoc-søkeordforskning, er DeepCrawl laserfokus på gjennomgang både velsignelse og forbannelse. Dette smale omfanget av funksjonaliteten forhindrer DeepCrawl i å tjene et Editors 'Choice-nikk sammen med mer fullverdige SEO-plattformer Moz Pro og SpyFu. Men når det gjelder frittstående gjennomsøkingsfunksjoner for å skanne nettstedet ditt eller konkurrentenes nettsteder fra topp til bunn, er DeepCrawl et høytdrevet SEO-mikroskop.

Deepcrawl gjennomgang og vurdering