vi har pratat mycket om datakvalitet tidigare – inklusive kostnaden för dåliga data. Men trots en grundläggande förståelse för datakvalitet förstår många fortfarande inte riktigt vad som menas med ”kvalitet”.

finns det till exempel ett sätt att mäta den kvaliteten, och i så fall hur gör du det? I den här artikeln, vi letar efter att svara på dessa frågor och mycket mer. Men först…

skingra Datakvalitetsmyter

decision-makers
grunden för att säkerställa datakvalitet börjar när grundläggande krav skapas

en av de största myterna om datakvalitet är att den måste vara helt felfri. Med webbplatser och andra kampanjer som samlar in så mycket data är det nästan omöjligt att få nollfel. Istället behöver uppgifterna bara överensstämma med de standarder som har fastställts för den. För att bestämma vad ”kvalitet” är, måste vi först veta tre saker:

  1. vem skapar kraven
  2. hur skapas kraven och
  3. vilken grad av latitud har vi när det gäller att uppfylla dessa krav

många företag har en singular ”data steward” som förstår och ställer dessa krav, liksom att vara den person som bestämmer toleransnivåerna för fel. Om det inte finns någon data steward spelar det ofta rollen för att se till att de som ansvarar för uppgifterna förstår eventuella brister som kan påverka det.

du kan ha det bra, snabbt eller billigt-Välj två

mcdonalds-junk-food

allt från att samla in data till att göra det passar företagets behov öppna upp till potentiella fel. Att ha data som är 100% komplett och 100% korrekt är inte bara oöverkomligt dyrt, men tidskrävande och knappt knuffar ROI-nålen.

med så mycket data som kommer in måste beslut fattas och snabbt. Därför är datakvalitet väldigt mycket en känslig balansgång-jonglering och bedömning av noggrannhet och fullständighet. Om det låter som en lång order att fylla, kommer du vara glad att veta att det finns en metod för galenskap, och det första steget är dataprofilering.

Vad är dataprofilering?

data-quality

dataprofilering innebär att du tittar på all information i din databas för att avgöra om den är korrekt och/eller fullständig och vad du ska göra med poster som inte är det. Det är ganska enkelt att till exempel importera en databas med produkter som ditt företag tillverkar och se till att all information är exakt, men det är en annan historia när du importerar information om konkurrentens produkter eller andra relaterade detaljer.

med dataprofilering tittar du också på hur exakt uppgifterna är. Om du har lanserat den 7/1/16, registrerar systemet det som 1916 eller 2016? Det är möjligt att du till och med kan avslöja dubbletter och andra problem när du kammar igenom den information du har fått. Profilering av data på detta sätt ger oss en utgångspunkt – en språngbräda att hoppa från för att se till att informationen vi använder är av bästa möjliga kvalitet.

bestämning av datakvalitet

så nu när vi har en utgångspunkt för att avgöra om vår information är fullständig och korrekt blir nästa fråga – Vad gör vi när vi hittar fel eller problem? Vanligtvis kan du göra en av fyra saker:

  • Acceptera felet – om det faller inom en acceptabel standard (dvs. Main Street istället för Main St) du kan välja att acceptera det och gå vidare till nästa post.
  • avvisa felet – ibland, särskilt med dataimport, är informationen så allvarligt skadad eller felaktig att det skulle vara bättre att helt enkelt radera posten helt än att försöka korrigera den.
  • korrigera felet – felstavningar av kundnamn är ett vanligt fel som lätt kan korrigeras. Om det finns variationer på ett namn kan du ställa in en som” Master ” och hålla data konsoliderade och korrekta i alla databaser.
  • skapa ett standardvärde – om du inte vet värdet kan det vara bättre att ha något där (okänt eller n/a) än ingenting alls.

integrera Data

när du har samma data i olika databaser är möjligheten mogen för fel och dubbletter. Det första steget mot framgångsrik integration är att se var data är och sedan kombinera dessa data på ett sätt som är konsekvent. Här kan det vara mycket värdefullt att investera i beprövade datakvalitet och noggrannhet verktyg för att samordna och synkronisera information över databaser.

din checklista för datakvalitet

clean-data

slutligen, eftersom du har att göra med så mycket data över så många olika områden, är det bra att ha en checklista för att avgöra att du arbetar med högsta möjliga datakvalitet. DAMA UK har skapat en utmärkt guide om ”datadimensioner” som kan användas för att bättre få en fullständig bild av hur datakvaliteten bestäms.

deras datakvalitetsdimensioner inkluderar:

fullständighet – en procentandel av data som innehåller ett eller flera värden. Det är viktigt att kritiska data (t.ex. kundnamn, telefonnummer, e-postadresser, etc.) slutföras först eftersom fullständighet inte påverkar icke-kritiska data så mycket.

unikhet – när det mäts mot andra datamängder finns det bara en post i sitt slag.

aktualitet – hur mycket av en inverkan har datum och tid på data? Detta kan vara tidigare försäljning, produktlanseringar eller någon information som åberopas under en tidsperiod för att vara korrekt.

giltighet-överensstämmer uppgifterna med respektive standarder för det?

noggrannhet – hur väl återspeglar uppgifterna den verkliga personen eller saken som identifieras av den?

konsistens – hur väl stämmer data med ett förutbestämt mönster? Födelsedatum har en gemensam konsistensfråga, eftersom standarden i USA är MM/DD/ÅÅÅÅ, medan i Europa och andra områden är användningen av DD/MM/ÅÅÅÅ standard.

den stora bilden på datakvalitet

som du kan se finns det ingen ”one size fits all” – metod för att upprätthålla noggrannhet och fullständighet på alla typer av data för varje företag. Och med big data aptit för information växer mer och mer varje dag, blir det viktigare än någonsin att ta itu med datakvalitetsproblem rakt på. Även om det kan verka överväldigande, är det värt att anlita datahygienverktyg för att låta datorer göra vad de gör bäst – crunch numbers.

det viktigaste steget du kan ta är helt enkelt att komma igång. Uppgifterna kommer alltid att växa när fler utsikter kommer ombord och nya marknader upptäcks, så det kommer aldrig att bli en ”bästa tid” för att ta itu med datakvalitetsproblem. Att ta sig tid nu att kartlägga vad datakvalitet betyder för ditt företag eller organisation kan skapa en krusningseffekt av förbättrad kundservice, en bättre kundupplevelse, en högre omvandlingsfrekvens och längre kundretention-och det är de typer av avkastning på investeringar som alla företag helhjärtat kommer att omfamna!

om författaren: Sherice Jacob hjälper företagare att förbättra webbdesign och öka konverteringsgraden genom övertygande copywriting, användarvänlig design och smart analysanalys. Läs mer på iElectrify.com och ladda ner din gratis webbkopia tune-up och konvertering checklista idag!

öka din trafik

Lämna ett svar

Din e-postadress kommer inte publiceras.

lg