Bei Big Data soll­te es nicht um
Mar­ke­ting-Über­trei­bun­gen gehen

Begrif­fe, wie Big Data oder KI sind seit gerau­mer Zeit täg­lich zu lesen. Sehr groß­zü­gig wird mit die­sen Begrif­fen umge­gan­gen.

Aber eben nicht Alles, was da beschrie­ben wird, ist Big Data oder KI.

Unter der Über­schrift “Big Insights Not Big Data: Why We Should Stop Tal­king About File Size“ erfasst Kalev Lee­taru bei For­bes eine sehr kri­ti­sche Betrach­tung über Big Data.

Was bedeu­tet Big Data wirk­lich?

Auf­grund der ste­tig ver­füg­ba­ren preis­wer­ten Spei­cher­an­ge­bo­te, der all­um­fas­sen­den Daten­sets und des gro­ßen Volu­men­be­dar­fes benut­zer­freund­li­cher Aus­tausch­for­ma­te, wie zum Bei­spiel XML und JSON, wer­den Daten­men­gen maß­los ange­häuft.

„In unse­rem daten­ge­trie­be­nen Wett­rüs­ten haben wir die ein­fa­che Tat­sa­che aus den Augen ver­lo­ren, dass„ Big Data “ent­stan­den ist, um Erkennt­nis­se zu gewin­nen, die im klei­ne­ren Maß­stab nicht mög­lich sind.“

Lee­taru stellt jedoch fest, dass in der Wer­bung nur mög­lichst rie­si­ge Daten­men­gen und nicht die Qua­li­tät der gewon­nen Erkennt­nis­se im Vor­der­grund ste­hen.

Plat­form or Pro­duct

wei­ter­le­sen…

Mul­ti or Mono

wei­ter­le­sen…

Königs­weg oder Holz­weg

wei­ter­le­sen…

Nur weni­ge Ana­ly­sen ver­wen­den jedes Feld in einem Daten­satz. Tat­säch­lich han­delt es sich bei der über­wie­gen­den Mehr­heit der “Big Data” ‑Ana­ly­sen in Wirk­lich­keit um sehr vie­le “Small Data” ‑Ana­ly­sen, wenn es um die tat­säch­lich ver­brauch­te Daten­men­ge geht.“

Lee­taru beschreibt wei­ter sehr anschau­lich an dem Bei­spiel einer Stu­die bei Twit­ter, wie bei der Ver­ar­bei­tung eines Mega­da­ten­sat­zes peu a peu durch die feh­len­de Rele­vanz der Daten und der unvoll­stän­di­ge Daten­sät­ze, aus Big Data kaum ver­wert­ba­re Infor­ma­tio­nen ent­stan­den sind.

„Die heu­ti­ge Big-Data-Welt kon­zen­triert sich zu sehr auf die Datei­grö­ße der zu ana­ly­sie­ren­den Daten­sät­ze und nicht auf die tat­säch­li­chen Daten­punk­te bzw. die Erkennt­nis­se, die sie lie­fern sol­len. Wenn ein 1‑Me­ga­byte-Data­set die­sel­ben Erkennt­nis­se lie­fert wie ein 1‑Pe­ta­byte-Data­set (1015Byte), ist „Big Data“ mög­li­cher­wei­se nicht die bes­te Lösung für die­ses Pro­blem.“

facere.berlin ver­folgt kon­se­quent den Weg der Mini­mie­rung des Daten­vo­lu­mens. Wir for­schen an der Auf­lö­sung, Abs­tra­hie­rung, Seman­tik und der Asso­zia­ti­ons­ana­ly­se kom­ple­xer Inhal­te in Doku­men­ten, um mög­lichst weni­ge, aber dafür hoch rele­van­te und zweck­ge­bun­de­ne Daten für Geschäfts­pro­zess­steue­run­gen zu erhal­ten.

Nur so ist es mög­lich, die Effi­zi­enz und Indi­vi­dua­li­sie­rung von Geschäfts­pro­zes­sen zu stei­gern, per­so­nel­le und tech­ni­sche Res­sour­cen zu scho­nen und die Trans­pa­renz erheb­lich zu ver­bes­sern.
facere.berlin pro­cess design GmbH