datakvalitetsproblemer

hvis du leser dette, er det sannsynligvis fordi du opplever datakvalitetsproblemer i dette øyeblikk. Vi kan være ganske sikre på denne formodningen fordi sannheten er at mange organisasjoner har problemer med dataene sine som hindrer dem i å nå sine mål.

bare se på noen av tallene nedenfor Fra ZoomInfo som viser hvor utbredt ‘skitne data’ problemet er:

  • 33% av bedrifter har over 100 000 poster i databasen
  • 62% av organisasjonene er avhengige av prospektdata som er opptil 40% unøyaktige
  • 34% av selskapene endrer navn årlig
  • 15% av leads inneholdt dupliserte data
  • 7% av leads inneholdt ugyldige e-postadresser
  • 40% av forretningsmålene feil på grunn av unøyaktige data
  • 50% av it-budsjettene blir brukt på datarehabilitering
  • dårlige datakostnader amerikanske bedrifter mer enn $611bn hvert år

(Kilde: https://blog.zoominfo.com/the-effect-of-dirty-data-on-roi/)

Så du er i det minste ikke alene. Spørsmålet er hva kan du gjøre med det? Hvilke skritt kan du ta for å forbedre datakvaliteten, og også fikse datakvalitetsstyringsprosessene dine, slik at du ikke lider av de samme problemene lenger ned i linjen?

de 6 vanligste datakvalitetsproblemene som hindrer organisasjonen din

Nedenfor er de vanligste datakvalitetsproblemene som de fleste organisasjoner opplever, de som hindrer deg i å få mest mulig ut av informasjonen din:

1) Ufullstendighet: hvor viktige opplysninger mangler

2) Unøyaktighet: all informasjon kan være ’tilstede’ (eller datafeltene fylt ut), men det kan skrives inn i feil felt, stavet feil, eller feltet inneholder en søppelverdi

3) Inkonsekvens: data som skal presenteres med samme verdi / format, er inkonsekvent (for eksempel ved å bruke forskjellige valutaer i stedet for den samme i hele)

4) Ugyldighet: feltene er komplette, men med data som ikke kan være korrekte i den sammenhengen (f. eks. «enheter tilgjengelig» som viser en minusverdi)

5) Redundans: Hvor de samme dataene er skrevet inn flere ganger, men uttrykt på litt forskjellige måter (f. eks.: informasjon som legges inn ved hjelp av ikke-standardformater (eller formater som ikke kan behandles av systemet, for eksempel prosent i stedet for %)

selv om disse datakvalitetsproblemene er langt fra ideelle, er de nok av en hindring for å rettferdiggjøre å gjøre store endringer i måten organisasjonen administrerer dataene på? Hvis virksomheten kan fungere ’tilstrekkelig’ uten å gjøre slike endringer, bør du bare fortsette som før og gjøre det beste med det du har?

Med andre ord, når skal datakvalitetsprosesser implementeres (hvis i det hele tatt)?

når bør du iverksette tiltak for datakvalitet?

generelt sett bør datakvalitetskontroller og tiltak settes på plass når det er et forretningsbehov og når du trenger å løse et bestemt problem. Og som vi alle vet, er det alltid et forretningsbehov i en eller annen form, og det er alltid noe å sikte på. Ellers, hva gjør vi alle her?

her er noen grunner til at du sannsynligvis vil være interessert i å forbedre kvaliteten på dataene dine (eller burde være!):

1) dataene dine er en stor strategisk ressurs som vil gi deg et konkurransefortrinn hvis det er nøyaktig og brukbart

2) du vil tegne data fra ulike kilder til ett sentralt datalager eller lager, noe som vil være ekstremt vanskelig (om ikke umulig) å gjøre hvis informasjonen ikke er standardisert

3) du vil administrere masterdataene dine mer effektivt

4) du planlegger å implementere et nytt system eller utføre en systemoverføring, for eksempel fra et eldre system eller erp til et skybasert system

når du har identifisert business case for å sette datakvalitetstiltak på plass – eller overbevise andre i organisasjonen om behovet for å – da må selve datakvalitetsstyringsprosessen defineres. Men hvem er ansvarlig for det?

Hvem er involvert i datakvalitetsstyringsprosessen?

Spesielt To typer rolle er avgjørende for suksessen til datakvalitetsprosessen, nemlig:

dataforvaltere-de er involvert i å profilere dataene og lage regler for datastandardisering og rensing

Utviklere-de samarbeider med dataforvaltere og spiller en viktig rolle i utformingen av datakvalitetsregler og utviklingsprosessen

Begge disse rollene må samarbeide tett gjennom hele implementeringsprosessen, hvoretter dataforvaltere vil være ansvarlige for å overvåke kvaliteten på informasjonen.

hva er en kvalitetssikring / styringsprosess for data?

selve prosessen omfatter visse stadier som datakvalitet analytikere og data forvaltere i særdeleshet må fullføre, inkludert:

dataprofilering – på dette punktet, vil de trenger å utforske data for å få en grundig forståelse og identifisere problemer i det, slik som de som er skissert tidligere (ufullstendighet, unøyaktig, etc) før oppsummering problemene.

Definere beregninger – For å få en ide om hvor utbredt dataproblemene er, samtidig som de etablerer datakvalitetsstandarder, må de registrere beregninger som hvor mye av dataene som er fullført (%fullført), hvor mye er konsistent (% konsistent), gyldig (% gyldig) og så videre.

Fikse dataene – på dette tidspunktet, etter at problemene er profilert og benchmarked, kan prosessen med å rense informasjonen og fikse problemene begynne.

men å gjøre endringer direkte i dataene utgjør åpenbart en risiko hvis de foreslåtte endringene selv er feil. Dette vil føre til en veldig rotete og forvirrende situasjon som er enda vanskeligere å fikse! Derfor er det best å ikke gjøre noen endringer direkte i databasen med en gang.

i Stedet bør foreslåtte endringer listes opp og detaljert før de sendes til en dataforvalter for gjennomgang, hvoretter de enten vil bli godkjent eller avvist.

Utvikling av datakvalitetsbehov og spørsmål å vurdere

En av de uunngåelige aspektene ved å jobbe med informasjon-spesielt når det gjelder datakvalitetsstyring, forvaltning og styring – er at det aldri vil være en ‘one and done’ situasjon.

i Stedet vil organisasjonens behov for datakvalitet endres over tid, og som et resultat av dette vil dine definerte regler også justeres over tid, spesielt ettersom dataforvalterne får en større forståelse av dataene, vanlige gjentakende problemer og hvordan de kan redusere dem.

dessuten står ikke dataene selv stille. Statistikken i starten av denne bloggen viser hvor ofte informasjon som firmanavn, adresser og e-postadresser endres og oppdateres, mens nye datakilder også vil bli lagt til etter hvert som tiden går, noe som betyr at behovet for forvaltning og styring vil fortsette.

takket være de endrede behovene til organisasjonen, og den endrede naturen til selve dataene, må du også periodisk stille deg selv spørsmål for å sikre at selvtilfredshet ikke kryper inn og at du er proaktiv, i motsetning til reaktiv.

disse kan for eksempel omfatte følgende:

  • er kvaliteten på dataene dine faktisk bedre over tid, og derfor fungerer datahåndteringsprosessen som ønsket?
  • hvis kvaliteten ikke blir bedre, må reglene oppdateres? Oppfyller de organisasjonens nåværende behov?
  • hvis og når nye datakilder legges til, gjelder de eksisterende datakvalitetsreglene fortsatt, eller må de tilpasses tilsvarende?

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.

lg