Während die ganze Welt von Big Data redet und dabei meist dunkle Ahnungen von NSA und Spionage durch die Köpfe wabern, haben nicht wenige Beobachter des Arbeitsmarktes die Zeichen der Zeit erkannt. Die neue Jobbörse bigdatajob.de versammelt Stellenanzeigen, die ausschließlich Spezialisten im Bereich Big Data und Analytics suchen – und folgt damit einem Trend, der die Unternehmenswelt nachhaltig revolutioniert.

Big Data ist die Antwort auf die große Datenflut, die durch das Informationszeitalter entstanden ist, begründen die Seitenbetreiber ihre Motivation. Denn Unternehmen müssen einen Weg finden, um diese Datenflut für sich zu nutzen, um maßgeschneiderte Angebote für Kunden zu erstellen und auch, um überhaupt noch geschäftsfähig zu sein. Denn mit Big Data werden auch interne Geschäftsdaten analysiert, weltweite Warenströme überprüft und Abläufe und Prozesse optimiert. Es geht also weniger um das Ausspionieren von Kunden, um sie mit Werbung zu überschütten. Es geht um eine völlig neue Art der Wissensbeschaffung. Darum ist deren professionelle Aufarbeitung ein Job, den man besser einem Profi überlässt.

Auch im KMU-Bereich relevant
Dass der Bedarf wächst, zeigen auch die ständig hinzukommenden Stellenanzeigen auf der Plattform. Die Jobbörse ist bisher zwar nur ein Nischenportal, doch hat sie klare Wachstumsaussichten: Durch die Spezialisierung gibt es weniger Streuverluste und die Börse soll sich langfristig zu einem Marktplatz für Data Mining und Analytics entwickeln, auf dem Firmen aller Art ihre High Professionals zielgerichtet finden können.

Denn nicht nur große Technik-Firmen wie IBM oder Google kommen da als mögliche Arbeitgeber in Frage, auch jede KMU sollte sich mit Big Data beschäftigen. Etwa alle zwei Jahre verdoppelt sich das von Menschen erschaffene zirkulierende Datenvolumen, Tendenz steigend. Aus diesem Volumen relevante Informationen zu filtern und sie aufzubereiten, dafür sollten auch kleine und mittelständische Unternehmen die entsprechenden Professionals beschäftigen.

Weitreichende Aufgabengebiete
Auf bigdatajobs.de sind die Angebote vielfältig: Es braucht Analysten fürs Marketing, Data Scientists fürs Controlling von Prozessen und Finanzströmen und natürlich Sicherheitsbeauftragte, die den Datenstrom eines Unternehmens vor ungewolltem Zugriff oder Industriespionage schützen. Was unterscheidet jedoch den althergebrachten IT-Spezialisten vom neudeutschen Big Data Professional? Die methodische und analytische Schulung ist neben den Computerkenntnissen das wichtigste Arbeitsinstrument der Data Miners, ergänzt um eine gehörige Portion Kompetenz im Bereich sozialen Schnittstellenmanagements. Kernstück der Arbeit ist schließlich nicht die Sammlung relevanter Daten, sondern deren Interpretation.

Beste Einstiegschancen
Der Datenstrom wird also weiter ansteigen und so ist die einzigartige Mischung aus IT-Spezialist, Wissensmanager, Übersetzer und Forscher das Berufsbild der Zukunft. Für entsprechend geschultes Personal sind Unternehmen heute bereit, hohe Einstiegsgehälter zu zahlen. Und da ist noch viel Luft nach oben.

Das ist auch so etwas wie eine Schreckreaktion, denn während Hightech-Firmen den Trend schon früh erkannten und Spezialisten ins Silicon Valley und in andere Technikzentren zogen, dämmert es vielen Unternehmen erst jetzt, dass Wissen die eigentliche Marktmacht ist und es die passenden Mitarbeiter braucht, um diesen Schatz namens Business Intelligence zu heben. Denn mit verfügbarem Wissen lassen sich Entscheidungen viel schneller und zielgerichteter treffen – auch über weit verzweigte, dezentrale Strukturen.

Weitere Diversifizierung des Marktes
Auf bigdatajobs.de werden Spezialisten in den Bereichen Business Intelligence, Data Scientist, Data Analyst und Data Engineer gesucht. Die Übergänge zwischen den einzelnen Arbeitsbereichen sind zwar fließend, dennoch im Verantwortungslevel eindeutig zu unterscheiden: Der Analyst ist der Übersetzer, der Scientist der Tiefenforscher auch auf unbekanntem Terrain und der Engineer ein Architekt im Datenbereich.

Langfristig gesehen wird sich dieser Jobmarkt weiter diversifizieren und noch feinere Anforderungsabstufungen herausbilden. Diese Entwicklung will bigdatajobs.de von Anfang an begleiten und moderieren.

Big Data im Alltag – Eine Infografik vom Team vouchercloud

Programm_Big-Data-Konferenz
 

Big-Data-Konferenz – „Big Data erfolgreich umsetzen – wie Unternehmen neue Erfolgspotenziale erschließen“

25. September 2014, Stuttgart, Hotel Steigenberger Graf Zeppelin

Berechnungen zufolge verdoppelt sich das weltweite Datenvolumen, mit zunehmender Geschwindigkeit, alle zwei Jahre. Zeit sich zu informieren und inspirieren wie Big Data als Information für die direkte Wertschöpfung eingesetzt und messbar gemacht werden kann. Die Big-Data-Konferenz steht unter dem Motto „Big Data erfolgreich umsetzen – wie Unternehmen neue Erfolgspotenziale erschließen“.

Neben hochkarätigen Referenten wird der Vordenker und Bestsellerautor Thomas H. Davenport über aktuelle Entwicklungen, konkrete Anwendungsbeispiele und Nutzen für Unternehmen berichten.

Nähere Informationen zu Themen, Inhalten und Referenten sowie das Anmeldeformular erhalten Sie auf der Homepage www.horvath-partners.com/konferenzen/bigdata oder bei uns persönlich.

Ansprechpartnerin:

Kathrin Werf
Tel +49 711 66919-3610
E-Mail: konferenz@horvath-partners.com

Datenexplosion in der Unternehmens-IT
Laut einer aktuellen Studie von BT Germany erwarten IT-Entscheider in den kommenden zwei Jahren einen Zuwachs des Datenvolumens von mehr als 40 Prozent. Damit ist Big Data und Big Data Analytics offensichtlich  in den Unternehmen angekommen – zumindest in den Köpfen, denn alle befragten IT-Verantwortlichen sehen in dieser Entwicklung eine erhebliche strategische Relevanz. Allerdings besteht noch erheblicher Handlungsbedarf, laut den befragten IT-Entscheidern unter anderem bei der Speicherung und effizienten Verarbeitung der Datenmengen.

Die Ergebnisse der Studie „Datenexplosion in der Unternehmens-IT“ zeigen: Big Data ist längst mehr als ein reiner Trendbegriff. Für die strategische Relevanz des Themas spricht ebenfalls, dass sich knapp über die Hälfte der Unternehmen bereits mit dem Thema Big Data beschäftigt hat; ein weiteres Viertel der Befragten plant, sich künftig mit dem Thema zu befassen. Konkret haben jedoch lediglich acht Prozent der Unternehmen entsprechende Lösungen schon in ihre Prozesse integriert.

mehr Lesen »

(© Bild: GSVA)

Gewonnen!

ParStream hat das Silicon-Valley-Förderprogramm des German Silicon Valley Accelerator (GSVA) gewonnen. Als eines von sechs aus über 40 Unternehmen wurde ParStream aufgrund seiner innovativen und wachstumsstarken Big Data Analytics Plattform ausgewählt, um drei Monate lang im Silicon Valley Kontakte zu Investoren, Neukunden und Partnern zu knüpfen.

Der Grund für die Förderung ist klar: Big Data ist das IT-Thema des Jahres 2012 – nicht nur hierzulande, sondern erst recht im Silicon Valley. Schließlich ist das Valley immer noch einer der wichtigsten Marktplätze für IT-Innovationen weltweit. Hier tummeln sich Venture-Capital-Firmen, die sogar spezielle Fonds eigens für das Thema Big Data aufgelegt haben. Hier gibt es risikobereite Unternehmen, die nach Innovationen verlangen, um den entscheidenden Wettbewerbsvorsprung zu erreichen. Und hier finden sich starke Partner, die das internationale Enterprise-Software-Geschäft in- und auswendig kennen.

Für uns als deutsches IT-Unternehmen ist die Förderung eine riesige Chance, um unser Netzwerk zu stärken. Der deutsche Markt ist eher zurückhaltend und vorsichtig, wenn es um neue Ideen junger Unternehmen geht. Die IT-Entscheider im Valley sind deutlich offener – das haben wir schon in ersten Gesprächen gemerkt. Mit Hilfe der hervorragend vernetzten GSVA-Spezialisten vor Ort werden wir sicher bald noch mehr spannende Kontakte dort haben.

Wenn Sie wissen wollen, welche Fortschritte und Erfahrungen wir im Silicon Valley machen, dann kommen Sie wieder hier vorbei. Wir halten Sie auf dem Laufenden.

P.S.: Die Medien interessieren sich übrigens auch für unsere Aktivitäten im US-Markt. Sehen Sie selbst: Financial Times Deutschland, VentureCapital Magazine, digitalbusiness Magazin, initiative mittelstand, FKT

Letzte Woche war ich auf der Konferenz für „Extremely Large Databases“ auf dem Gelände des SLAC in Palo Alto. Die Veranstaltung war mit mehr als 300 Besuchern und über 50 Gästen auf der Warteliste mehr als überbucht. Vertreter von Linkedin, Facebook, Zynga, ebay gaben Einblick in die Praxis von Big Data Management in ihren Unternehmen. Daneben gab es eine Reihe von spannenden Vorträgen über die Massendatenverarbeitung in Wissenschaft und Forschung.

Ein zentrales, auch sehr kontrovers diskutiertes Thema war die Fragestellung, ob klassische Datenbankenarchitekturen oder NoSQL Ansätze wie Hadoop oder Cassandra bessere Big Data Lösungen bereitstellen können. Datenbankpapst Michael Stonebraker brachte es in seinem ersten Vortrag auf den Punkt. Seiner Meinung nach sind die Shared-Nothing Architekturen der verteilten RDBMS auf jeden Fall besser skalierbar als die Shared-Disk Ansätze von Hadoop & Co. Dabei provozierter er auch bewusst mit der Aussage: „Um aus dem Hadoop Framework eine Datenbank zu machen, muss man fast alles drumherum bauen, was eine richtige DB ausmacht“.

Wie man die Stärken beider Ansätze nutzen kann zeigte, Thomas Fastner von ebay, der übrigens auch auf dem Big Data Forum am 29. /30 11 in Düsseldorf präsentieren wird. Während Linkedin, Facebook und weitere sich auf NoSQL fokussieren und dabei enorme Server-Infrastrukturen und große Entwicklungsleistungen benötigen, kombiniert ebay die existierende Teradata Infrastruktur mit dem Einsatz von Hadoop. Der Einsatz von Hadoop beschränkt sich hierbei aber auf die Verarbeitung von unstrtukturierten Daten.

Zum Abschluss gab es dann noch drei Präsentation über Big Data Analytics in der Cloud und auch hier wurde heftig debattiert über die Bedeutung von Cloud Computing für Big Data. Während einige Vertreter behaupteten zukünftig werde alle Datenverarbeitung in der Wolke stattfinden (Zitat „your own datacenter is so 90`s“), zeigten andere auf die Problematiken mit Datensicherheit und garantierter Verfügbarkeit.

Alles in allem eine klasse Veranstaltung mit spannenden Beiträgen und interessanten Gesprächen in den Pausen. Wer mehr über die dort gehaltenen Vorträge erfahren möchte, kann mich gerne unter Joerg.Bienert@ParStream.com kontaktieren.

PS: Zum Lunch gab es dann sogar “German Bratwurst with Kraut”; kam dem Original schon ziemlich nah.



Gartner hat Big Data zum ersten mal in den aktuellen Hypecycle aufgenommen.

Der Hype Cycle zum Thema „Emerging Technologies“ wird von Gartner seit 1995 jährlich veröffentlicht. Hierbei werden von den Analysten Reifegrad, Geschäftsnutzen und Potential von neuen Technologien bewertet. Die Kurve stellt dabei den Verlauf von anfänglicher Begeisterung, nachfolgender Desillusionierung und einsetzendem Realismus dar, der jede neue Technik und Innovation begleitet.

In den Studien von Gartner wird der Begriff Big Data meist durch „Extreme Information Processing“ ergänzt, eine aus meiner Sicht passende Interpretation, da die Herausforderungen nicht in der puren Speicherung von Daten, sondern in der schnellen und flexiblen Verarbeitung von Massendaten liegen.

Der Artikel kann hier nachgelesen werden.



Der Markt für Big Data -Technologien wächst rasant und Anwendern fällt es zunehmend schwerer eine Produktauswahl zu treffen.

Laufend entstehen neue Anwendungsfelder und Produkte, so dass eine Einordnung immer schwieriger wird. Die uneinheitliche Verwendung von Fachbegriffen wie z.B. „low latency“ erleichtert die Orientierung nicht.

Kurt Monash, Berater und Autor des DBMS2 Blogs, hat sich mit dieser Frage befasst und macht einen Vorschlag zur Kategorisierung von Big Data Analyse-Technologien. Monash erklärt „Eine Kategorisierung kann niemals perfekt sein, allerdings weisen die Kategorien zumindest ein gewisses Maß an technischer Homogenität auf“.

Monash schlägt folgende 8 Kategorien für Big Data Analytics Produkte vor:

-Enterprise data warehouse (Full or partial)

-Traditional data mart

-Investigative data mart – agile

-Investigative data mart – big

-Bit bucket

-Archival data store

-Outsourced data mart

-Operational analytic(s) server

Wünschenswert und Notwendig ist eine Strukturierung des Marktes da sie den Anwendern und auch Anbietern die Orientierung und Positionierung erleichtert. Die großen Research-Firmen wie Gartner, TDWI und IDC haben jeweils eigene Kategorisierungen und so darf man gespannt sein, welche Struktur sich schlussendlich durchsetzt.

Eight kinds of analytic database (Part 1)

Eight kinds of analytic database (Part 2)

DBMS2 Blog-Kurt Monash


Big Data erhält in den USA immer mehr Aufmerksamkeit. So hat das Mckinsey Global Institute gerade eine 159 Seiten starke Studie veröffentlicht unter dem Thema „Big Data: The Next Frontier for Innovation, Competition and Productivity“ (sehr lesenswert). Und die Financial Times nimmt dies zum Anlass, einen ausgiebigen Artikel zu verfassen. Hier die Highlights:
Daten sind ein wichtiger Rohstoff der Informationswirtschaft, ähnlich wie es Kohle und Eisenerz in der industriellen Revolution waren. Aber die Wirtschaft lernt gerade erst, wie man große Datenmengen richtig verarbeitet.

Die Menge an Geschäftsdaten verdoppelt sich circa alle 1,2 Jahre. Es gibt viele Bereiche, in denen die Menge der Daten derzeit rapide ansteigt. Dazu zählen zum Beispiel Sendungsverfolgung, E-Mail, Web-Datenverkehr und Social Media.

Große Datenmengen fallen in allen Branchen an und sind ein wesentlicher Faktor der Produktion. Big Data wird dazu beitragen, neue Wachstumsmöglichkeiten und völlig neue Kategorien von Unternehmen zu schaffen, So könnten z.B. durch die Nutzung von Big Data Analysis im US-Gesundheitssystem jährlich 300 Milliarden Dollar eingespart werden.

Es gibt fünf Herausforderungen im Management von Big Data:

  • Große Datenmengen besser und schneller verfügbar machen
  • Mit Hilfe von Analysetechniken Reaktionen und Leistungen zu verbessern.
  • Sinnvolle Segmentierung durchzuführen und ständig anzupassen.
  • Durch automatisierte Algorithmen die Entscheidungsfindung zu unterstützen und zu automatisieren
  • Neue und innovative Geschäftsmodelle, Produkte und Dienstleistungen zu gestalten.

Ende Juni wird sich das Who-is-Who der High Performance Computing Szene im Rahmen der International Supercomputing Conference im Hamburger CCH versammeln.

Die ISC ist ein globales Event und beinhaltet eine internationale wissenschaftliche Konferenz und Ausstellung zu den Themen Supercomputing, Hochleistungsrechnen, Networking und Storage. Traditionell wird im Rahmen dieser Konferenz die erste der beiden jährlichen Aktualisierungen der Supercomputer-Rangliste TOP500 veröffentlicht.
Die Ausstellung ist vom 20. bis 22. Juni geöffnet.

Das Datum sollte man sich auf jeden Fall freihalten. Aus Deutschland ist übrigens das Kölner ParStream-Team vor Ort.

Das ParStream-Team besucht die diesjährige ISC erstmalig als Aussteller und ist gespannt was es zu erwarten hat, und vor allem wie die HPC Szene auf die parallele analytische Datenbank ParStream reagieren wird. Sie sind in der Ausstellungshalle mit ihrem eigenen Stand (Nr. 813) zu finden.

Weitere Informationen unter :

www.parstream.com

www.isc11.org