vi har talt meget om datakvalitet i fortiden – inklusive omkostningerne ved dårlige data. Men på trods af en grundlæggende forståelse af datakvalitet forstår mange mennesker stadig ikke helt, hvad der præcist menes med “kvalitet”.

er der for eksempel en måde at måle den kvalitet på, og i så fald hvordan gør du det? I denne artikel vil vi søge at besvare disse spørgsmål og meget mere. Men først…

fjernelse af Datakvalitetsmyter

decision-makers
grundlaget for at sikre datakvalitet starter, når grundlæggende krav oprettes

en af de største myter om datakvalitet er, at den skal være helt fejlfri. Med hjemmesider og andre kampagner, der indsamler så meget data, er det næsten umuligt at få nulfejl. I stedet skal dataene kun overholde de standarder, der er sat for dem. For at bestemme, hvad “kvalitet” er, skal vi først vide tre ting:

  1. hvem skaber kravene
  2. hvordan oprettes kravene, og
  3. hvilken breddegrad har vi med hensyn til at opfylde disse krav

mange virksomheder har en enestående “dataforvalter”, der forstår og stiller disse krav, samt at være den person, der bestemmer toleranceniveauerne for fejl. Hvis der ikke er nogen dataforvalter, spiller det ofte rollen for at sikre, at de ansvarlige for dataene forstår eventuelle mangler, der kan påvirke dem.

du kan få det godt, hurtigt eller billigt-Vælg to

mcdonalds-junk-food

alt fra indsamling af data til at gøre det passer til virksomhedens behov åbne det op til potentielle fejl. At have data, der er 100% komplette og 100% nøjagtige, er ikke kun uoverkommeligt dyrt, men tidskrævende og knap nudging af ROI-nålen.

med så mange data, der kommer ind, skal beslutninger træffes og hurtigt. Derfor er datakvalitet i høj grad en delikat balancehandling – jonglering og bedømmelse af nøjagtighed og fuldstændighed. Hvis det lyder som en høj ordre at udfylde, vil du være glad for at vide, at der er en metode til galskaben, og det første trin er dataprofilering.

Hvad er Dataprofilering?

data-quality

Dataprofilering indebærer at se på alle oplysningerne i din database for at afgøre, om den er nøjagtig og/eller komplet, og hvad man skal gøre med poster, der ikke er. Det er ret ligetil at for eksempel importere en database med produkter, som din virksomhed fremstiller, og sørge for, at alle oplysninger er nøjagtige, men det er en anden historie, når du importerer detaljer om konkurrentens produkter eller andre relaterede detaljer.

med dataprofilering ser du også på, hvor nøjagtige dataene er. Hvis du har lanceret den 7/1/16, registrerer systemet det som 1916 eller 2016? Det er muligt, at du endda kan afdække dubletter og andre problemer i kæmning gennem de oplysninger, du har fået. Profilering af dataene på denne måde giver os et udgangspunkt – et springbræt at hoppe fra for at sikre, at de oplysninger, vi bruger, er af den bedst mulige kvalitet.

bestemmelse af datakvalitet

så nu hvor vi har et udgangspunkt, hvorfra vi kan afgøre, om vores oplysninger er komplette og nøjagtige, bliver det næste spørgsmål – Hvad gør vi, når vi finder fejl eller problemer? Typisk kan du gøre en af fire ting:

  • Accepter fejlen – hvis den falder inden for en acceptabel standard (dvs. Main Street i stedet for Main St) du kan beslutte at acceptere det og gå videre til næste post.
  • Afvis fejlen – nogle gange, især med Dataimport, er oplysningerne så alvorligt beskadigede eller forkerte, at det ville være bedre at blot slette posten helt end forsøge at rette den.
  • ret fejlen – stavefejl i kundenavne er en almindelig fejl, der let kan rettes. Hvis der er variationer på et navn, kan du indstille et som “Master” og holde dataene konsolideret og korrekt på tværs af alle databaser.
  • Opret en standardværdi – hvis du ikke kender værdien, kan det være bedre at have noget der (ukendt eller n/A) end slet ingenting.

integrering af dataene

når du har de samme data på tværs af forskellige databaser, er muligheden moden for fejl og duplikater. Det første skridt mod vellykket integration er at se, hvor dataene er, og derefter kombinere disse data på en måde, der er konsistent. Her kan det være yderst værd at investere i dokumenterede datakvalitets-og nøjagtighedsværktøjer til at hjælpe med at koordinere og synkronisere information på tværs af databaser.

din datakvalitet tjekliste

clean-data

endelig, fordi du har at gøre med så mange data på tværs af så mange forskellige områder, er det nyttigt at have en tjekliste for at bestemme, at du arbejder med den højest mulige datakvalitet. DAMA UK har oprettet en fremragende guide til” datadimensioner”, der kan bruges til bedre at få det fulde billede af, hvordan datakvaliteten afgøres.

deres datakvalitetsdimensioner omfatter:

fuldstændighed – en procentdel af data, der indeholder en eller flere værdier. Det er vigtigt, at kritiske data (såsom kundenavne, telefonnumre, e-mail-adresser osv.) udfyldes først, da fuldstændighed ikke påvirker ikke-kritiske data så meget.

unikhed – når der måles mod andre datasæt, er der kun en post af sin art.

aktualitet – hvor stor indflydelse har Dato og klokkeslæt på dataene? Dette kan være tidligere salg, produktlanceringer eller enhver information, der er påberåbt sig over en periode for at være nøjagtig.

validitet – er dataene i overensstemmelse med de respektive standarder, der er fastsat for det?

nøjagtighed – hvor godt afspejler dataene den virkelige verden person eller ting, der er identificeret af det?

konsistens – hvor godt stemmer dataene overens med et forudfattet mønster? Fødselsdatoer deler et fælles konsistensproblem, da standarden i USA er MM/DD/ÅÅÅÅ, mens i Europa og andre områder er brugen af DD/MM/ÅÅÅÅ standard.

det store billede på datakvalitet

som du kan se, er der ingen “En størrelse passer til alle” tilgang til at opretholde nøjagtighed og fuldstændighed på enhver type data for enhver virksomhed. Og med big datas appetit på information vokser mere og mere hver dag, bliver det vigtigere end nogensinde at tackle datakvalitetsproblemer frontalt. Selvom det kan virke overvældende, er det værd at bruge datahygiejneværktøjer til at lade computere gøre, hvad de gør bedst – crunch-numre.

det vigtigste skridt, du kan tage, er simpelthen at komme i gang. Dataene vil altid vokse, efterhånden som flere udsigter kommer om bord, og nye markeder opdages, så der vil aldrig være en “bedste tid” til at tackle datakvalitetsproblemer. At tage sig tid til at kortlægge, hvad datakvalitet betyder for din virksomhed eller organisation, kan skabe en krusningseffekt af forbedret kundeservice, en bedre kundeoplevelse, en højere konverteringsfrekvens og længere kundefastholdelse-og det er de slags investeringsafkast, som enhver virksomhed helhjertet vil omfavne!

om forfatteren: Sherice Jacob hjælper virksomhedsejere forbedre hjemmeside design og øge omregningskurser gennem overbevisende tekstforfatning, brugervenligt design og smart analytics analyse. Lær mere på iElectrify.com og hente din gratis hjemmeside kopi tune-up og konvertering tjekliste i dag!

væk din trafik

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.

lg