Hoppa till innehållet

Datautvinning

Från Wikipedia
(Omdirigerad från Informationsutvinning)
Beslutsträdsinlärning är ett exempel på en databrytningsalgoritm som skapar prediktionsmodeller, i detta exempel för överlevnaden av en passagerare på RMS Titanic. Sibsp är antalet makar och syskon som personen har ombord. Siffrorna under trädets löv visar sannolikheten för överlevnad respektive procent av observationerna inom respektive löv.
Databrytning
Under­klass tillupptäckt, text and data mining Redigera Wikidata
Aspekt avartificiell intelligens, maskininlärning, databas, algoritm, multivariat statistik Redigera Wikidata

Databrytning,[1] informationsutvinning[2] eller datautvinning,[3][4] av engelskans data mining, betecknar verktyg för att söka efter mönster, samband och trender i stora datamängder.[2][5] Verktygen använder beräkningsmetoder för multivariat statistisk analys kombinerat med beräkningseffektiva algoritmer för maskininlärning och mönsterigenkänning hämtade från artificiell intelligens.

Tekniker för datautvinning tillämpas inom områden som visualisering av öppna data, bioinformatik, affärsunderrättelser (business intelligence), beslutsstödsystem, webbanvändningsanalys (web mining), IT-forensik och analys av medicinska data, sensordata och mycket annat. Text mining innebär datautvinning ur icke-strukturerade data i form av text, och kan användas för maskinöversättning, automatisk sammanfattning av texter, statistisk analys av språk, med mera.

Det bredare begreppet big data åsyftar även tekniker för insamling av data från flera stora databaser och datafiler till ett sökbart informationslager (data warehousing), vilket ofta föregår men inte ska sammanblandas med datautvinning.

Data mining är ett trendord som åsyftar tidigare kända tekniker, och som har fått uppmärksamhet på senare år därför att dagens växande datamängder med ett stort antal variabler ofta är svåröverblickbara för människor. Dessutom kan klassiska metoder för multivariat statistisk dataanalys, exempelvis korrelationsberäkning och multipel regression, ge orimligt stor beräkningskomplexitet och fungerar därför inte vid storskalig analys.

Syftet med verktyg för datautvinning är att underlätta sökandet efter strukturer bland ett stort antal variabler och leda till upptäckt av tidigare okända relationer, och på så sätt extrahera begriplig och användbar information ur rådata.

Forskningsmetod

[redigera | redigera wikitext]
Tredimensionellt sambandsdiagram där värdet av tre variabler indikeras med datapunktens position i rummet, och en fjärde variabel med dess färg.

Användaren av verktyg för databrytning väljer bland en uppsättning algoritmer och diagram som lämpar sig för olika typer av analys och problemställningar, och för olika typer av data. Användaren testar och jämför vilken algoritm och vilka parameterinställningar som ger bäst reliabilitet eller tydligast diagram inom rimlig beräkningstid för det aktuella problemet.

Den datamängd(en) som analyseras är vanligen i form av en tabell, där varje rad eller post kan motsvara resultatet från ett mättillfälle eller för en försöksperson, och varje kolumn är en variabel eller ett attribut. Varje rad betraktas som en datapunkt i ett flerdimensionellt rum. Varje attribut har en specifik statistisk mätskala och en specifik datatyp. Ett av attributen kan ha roll som målvariabel, det vill säga den variabel vi vill träna självlärande algoritmer att prediktera.

Explorativ dataanalys

[redigera | redigera wikitext]

Arbetssättet vid databrytning baseras på exploratativ dataanalys(en) (EDA), som innebär att man omväxlande kombinerar verktygets automatiserade beräkningar med visualisering och manuell observation. Syftet med EDA är att hjälpa forskaren att upptäcka nya okända relationer som kan åskådliggöras med tydliga diagram, och att bygga nya prediktionsmodeller. Syftet är också att bedöma vilka samband som kan vara intressanta och att identifiera vilka variabler och datapunkter som förväntas ha betydelse vid prediktering av en målvariabel, och vilka som kan elimineras för att reducera beräkningstiden.

Explorativ dataanalys skiljer sig från konfirmativ dataanalys (CDA) som är det traditionella arbetssättet vid kvantitativ forskning. Vid CDA formulerar man hypoteser och bygger modeller innan man påbörjar insamling och analys av experimentella data, och dataanalysen används enbart för att verifiera prediktioner genom systematisk hypotesprövning. EDA är däremot en hypotesgenererande och induktiv metod, som ger upphov till datadrivna hypoteser. EDA bör kompletteras med CDA för att undvika felaktiga slutsatser.

Vid databrytning arbetar man dessutom ofta heuristiskt genom att utnyttja problemspecifik kunskap om vilken data som förväntas ha betydelse för resultatet och vilka typer av relationer som är rimliga och användbara att identifiera.

Risk för förhastade slutsatser

[redigera | redigera wikitext]

Kritiker menar att man vid databrytning och annan explorativ dataanalys riskerar att dra förhastade slutsatser eftersom man kringgår inledande formulering och testning av hypoteser. Tillfälliga slumpmässiga mönster och relationer finns alltid mellan ett stort antal variabler, och om man letar förutsättningslöst bland alla upptänkliga samband riskerar man att identifiera slumpmässiga relationer. Sådant missbruk av multivariat analys kallas ibland data dredging, data fishing eller data snooping bias. Vid hypotestestning brukar man rekommendera en signifikansnivå med ett p-värde på högst 0,05, vilket innebär att det är mindre än en chans på tjugo att det som ser ut som ett samband i själva verket bara är ren slump. Denna tumregel förutsätter emellertid att man har ett fåtal tydliga hypoteser från början, medan signifikansnivån bör vara betydligt lägre vid explorativ dataanalys.

Liksom vid annan multivariat dataanalys riskerar man confounding (okända snedvridande faktorer som är korrelerade med indata och målvariabel och därför ger felaktigt intryck av samband), eller att predikteringar görs långt in i framtiden genom extrapolation av gamla data som inte är ett representativt urval för framtida data.

Resultatet av datamodellering implementeras ofta i form av policier, exempelvis för vilken produkt som ska marknadsföras för vilken kund, eller i form av verktyg för att prediktera variabler, exempelvis marknadspris. Vid införandet av sådana riskerar man att förändra marknadens eller systemets beteende, och då är inte prediktionsmodellerna tillämpliga längre. Om exempelvis kunder på en auktionssajt utnyttjar en web mining-tjänst som predikterar auktionspriset på en vara baserat på hur många som klickar på varans webblänk, finns en risk att intresserade köpare undviker att klicka på varans webbsida för att inte höja priset, och att säljare försöker höja priset genom att klicka på varans webbsida.

Processdiagram som visar relationen mellan de olika faserna i CRISP-DM

Standardiserad arbetsprocess

[redigera | redigera wikitext]

För att undvika ovanstående problem bör den explorativa datauvinningen följas av en valideringsfas, då generaliserbarheten av de identifierade sambanden utvärderas på andra datamängder (så kallade testdata). Under utvärderingsfasen beräknas olika prestandamått för mönstrens och predikteringarnas reliabilitet. Generaliserbarheten av de samband man kommer fram till måste också rimlighetsbedömas baserat på begripliga förklaringsmodeller, vilket förutsätter att man först utvecklar en grundförståelse för problemområdet och variablernas innebörd. Vissa metoder inom databrytning kan ge upphov till prediktionsmodeller som har ett förklaringsvärde som kan rimlighetsbedömas, exempelvis beslutsträd, medan andra modeller, exempelvis vikterna i neurala nätverk, är svårtolkade.

Standardmodeller för arbetsprocessen vid databrytning har därför formulerats. Den så kallade CRISP-DM-modellen är idag den vanligaste metodiken som tillämpas för databrytning:[6][7]

  1. Uppgiftsförståelse (business understanding)
  2. Dataförståelse
  3. Datapreparering
  4. Modellering
  5. Validering
  6. Införande i verksamheten
Klusteranalys med K-means-algoritmen grupperar datapunkter i ett givet antal kluster (i detta fall tre, representerade av tre färger). Algoritmen maximerar avståndet mellan klustren, som förutsätts vara lika stora (inte adekvat i detta exempel) och vara geometriskt konvexa.
Tvådimensionellt korrelogram kan illustrera en korrelationsmatris, som kan användas vid urval av variabler.

Metoder och algoritmer

[redigera | redigera wikitext]
k-NN-klassificering. Träningsdatat har klassificerats i två klasser: blå kvadrater respektive röda trianglar. Testdatapunkten (grön cirkel) har okänd klass. Om k = 3 (heldragen cirkel - de tre närmaste träningsdatapunkterna) klassificeras den som röd triangel eftersom det finns fler trianglar än kvadrater i cirkeln. Om k = 5 (streckad cirkel - med fem träningsdatapunkter) klassificeras den istället som blå kvadrat.
Tränad klassificering med stödvektormaskin (SVM), som avgränsar klasserna med hyperplan för minsta möjliga fel och största möjliga avstånd mellan hyperplanet och närmaste datapunkt.
Ett artificiellt neuralt nätverk kan tränas att prediktera och klassificera.
Linjär och ickelinjär regressionsanalys med polynom av olika ordning.
En genetisk algoritm genererar slumpvisa kombinationer av parametervärden, och korsfertiliserar parvis de kombinationer ("föräldrar") som ger bäst prestanda så att nya potentiellt goda kombinationer ("barn") uppstår. Efter några generationer erhålles en lösning som sannolikt är nära optimum.

Datatutvinning innefattar en rad metoder och algoritmer för olika typer av dataanalys, som kan grupperas enligt följande.

Datapreparering och datarensning

[redigera | redigera wikitext]

Icke-tränade självlärande algoritmer

[redigera | redigera wikitext]

Icke-tränade (non-supervised) algoritmer saknar målvariabel. Syftet är att ge förståelse för hur mindre grupper av variabler förhåller sig till varandra. Algoritmerna används för att upptäcka lokala mönster och relationer mellan en delmängd av variablerna, men som inte är tillämpliga på datamängden i sin helhet. Algoritmerna används bland annat under dataförståelsefasen i ovan nämnda arbetsprocess för att identifiera vilka variabler som sannolikt saknar betydelse för den variabel man vill prediktera. De kan också användas för att extrahera dold information, exempelvis kategorier och kluster av datapunkter, som kan ha betydelse för predikteringen. Exempel på typer av algoritmer:

Tränade algoritmer

[redigera | redigera wikitext]

Syftet med tränade (supervised) självlärande algoritmer är att ge upphov till prediktionsmodeller som kan förutsäga värdet av en målvariabel, med utgångspunkt i att målvariabeln är känd för träningsdata. Detta kan användas för klassificering, utifrån att träningsdata redan klassificerats (försetts med en känd målvariabel), exempelvis en kategori, ett rekommenderat beslut eller en diagnos. Tränade algoritmer kan också användas för skattning, interpolation, extrapolation och trendanalys av en numerisk målvariabel. Modellen utgör en global beskrivning av relationen mellan målvariabeln och summan av hela datamängden.

Exempel på tränade algoritmer:

Verifiering och validering

[redigera | redigera wikitext]

Vid träning av självlärande algoritmer används träningsdata som måste vara ett statistiskt urval av de data som det ska tillämpas på, och som innehåller en målvariabel med givna värden. Ett prestandamått beräknas genom att jämföra målvariabeln med algoritmens estimering av målvariabeln. Det finns metoder för att undvika överanpassning (eng overfitting), det vill säga att modellen får för hög komplexitet och hög prestanda för träningsdata men låg reliabilitet för andra data. Ett exempel är med split-half-metoden genom att dela upp den datamängd som har känd målvariabel i träningsdata och testdata, och efter varje träningsiteration applicera den erhållna modellen på testdata. Träningen avbryts när modellen inte ger ökad prestanda för testdata. Den modell som erhålles efter slutförd träning tillämpas därefter på nya data, som saknar känd målvariabel. Om mängden tränings- och testdata är begränsad kan man upprepa förfarandet för flera olika uppdelningar i testdata och träningsdata. Därmed erhålles flera prediktionsmodeller, som kan kombineras exempelvis genom majoritetsröstning av kategorisering eller medelvärdesbildning av estimering.

Ett annat exempel på metod för att undvika överanpassning är beskärning av komplexa beslutsträd (eng. pruning).

Exempel på prestandamått:

  • Andel korrekt klassificerade testpunkter (%)
  • En confusion matrix:
Predikterade som positiva: Predikterade som negativa: Summa:
Positiv målvariabel: Antal sant positiva (TP) Antal falskt negativa (FN) (TP + FN)
Negativ målvariabel: Antal falsk positiva (FP) Antal sant negativa (TN) (FP + TN)
Summa: TP + FP FN + TN TP + FN + FP + TN

Andra vanliga mått är:

  • Receiver operating characteristic (ROC-kurvor) kan visa relationen mellan sant positiv och sant negativ, exempelvis vid naiv baysisk klassificering. Arean under kurven (AUC) ska då vara så stor som möjligt.
  • Kvadratiskt medelfel (MSE, mean squared error)
  • Sammanlagt kvadratiskt fel (SSE, summed squared error, eller TSE, total squared error)
  • Standardfel

Meta-analys är metoder för att välja lämpligast algoritm och optimera algoritmens parameterinställningar för respektive fall, och för att utveckla strategier för att förbättra systemets lärande som är tillämpliga på ett stort antal fall. Exempel på optimeringsalgoritm:

Vanlig programvara för databrytning är:

  • R (statistikprogram som användaren programmerar med ett skriptspråk - öppen källkod)
  • WEKA (programbibliotek i Java som också har ett grafiskt användargränssnitt - öppen källkod)
  • Rapidminer (baseras på grafisk programmering - öppen källkod fram till version 5.3)
  • Orange[8], Pandas[9] eller scikit learn[10] (programbibliotek för Python - öppen källkod)
  • SPSS (kommersiellt statistikprogram)

Tillämpning i Sverige

[redigera | redigera wikitext]

FRA:s användning av databrytning

[redigera | redigera wikitext]

FRA använder databrytning i sin bearbetning av trafikdata, benämnt som "trafikbearbetning" och fastställande av "trafikmönster" i förarbetena till FRA-lagen,[11]

och förarbetena till FRA:s PUL.[12][13]

  1. ^ ”2D5342, Databrytning / Knowledge Discovery and Data Mining, 4 pooäng”. www.nada.kth.se. Arkiverad från originalet den 1 september 2009. https://web.archive.org/web/20090901203542/https://www.nada.kth.se/kurser/kth/2D5342/news06.html. Läst 22 november 2019. 
  2. ^ [a b] Uppsala Universitet: Data mining (Informationsutvinning)
  3. ^ Svenska datatermgruppen har rekommenderat begreppet datautvinning, som emellertid tekniskt inte är korrekt
  4. ^ ”Datautvinning – IDG:s ordlista”. Computer Sweden. https://it-ord.idg.se/ord/datautvinning/. Läst 6 februari 2022. 
  5. ^ Gartner group
  6. ^ en:Cross Industry Standard Process for Data Mining (CRISP-DM)
  7. ^ Gregory Piatetsky-Shapiro (2007) KDnuggets Methodology Poll
  8. ^ http://orange.biolab.si/
  9. ^ http://pandas.pydata.org/
  10. ^ http://scikit-learn.org/
  11. ^ ”En anpassad försvarsunderrättelseverksamhet - Proposition 2006/07:63” ( PDF). Försvarsdepartementet, sidan 22. 8 mars 2007. Arkiverad från originalet den 29 september 2007. https://web.archive.org/web/20070929105518/http://www.regeringen.se/content/1/c6/07/83/67/2ee1ba0a.pdf. 
  12. ^ Lag om behandling av personuppgifter i Försvarets radioanstalts försvarsunderrättelse- och utvecklingsverksamhet (2007:259)
  13. ^ ”Personuppgiftsbehandling hos Försvarsmakten och Försvarets radioanstalt - Proposition 2006/07:46” ( PDF). Försvarsdepartementet, sidan 29. 8 mars 2007. Arkiverad från originalet den 26 februari 2014. https://web.archive.org/web/20140226050744/http://www.regeringen.se/content/1/c6/07/73/05/7ac2933f.pdf.