Benutzer-Werkzeuge

Webseiten-Werkzeuge


nosql:hadoop_integration

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
nosql:hadoop_integration [2014/11/16 16:30] – [Übersicht über Data Transfer/Import-Export Frameworks] gpipperrnosql:hadoop_integration [2016/01/08 16:46] (aktuell) – [Die Oracle RDBMS und NoSQL Datenbank mit Hadoop verwenden] gpipperr
Zeile 14: Zeile 14:
 Am Beispiel einer zentralen Archivierung und Auswertung von der Audit Log Daten von vielen Oracle Datenbank Umgebungen werden die möglichen Konzepte dargestellt und vertieft. Am Beispiel einer zentralen Archivierung und Auswertung von der Audit Log Daten von vielen Oracle Datenbank Umgebungen werden die möglichen Konzepte dargestellt und vertieft.
  
-Siehe auch meinen Vortrag zu diesem Thema auf einem DOAG Hadoop Workshop: +Siehe auch meinen Vortrag zu diesem Thema auf einem DOAG Hadoop Workshop und der DOAG 2014
  
-=> [[http://www.pipperr.de/knowhow/oracle_hadoop/oracle_hadoop.html|DOAG -Big Data für Oracle Entwickler: Zweitagesveranstaltung mit Hands-On 25.09.2014 in Köln]]+=> [[http://www.pipperr.de/knowhow/oracle_hadoop/oracle_hadoop.html|Die Oracle Datenbank und Apache Hadoop DOAG 2014 Nürnberg 18.11.2014]]
  
 +Bzw. unter Sildeshare:
 +[slideshare id=51535733&doc=oraclehadoop-doag-bigdata092014gpi-150812090124-lva1-app6892]
  
 ====Integration oder alles neu entwickeln?==== ====Integration oder alles neu entwickeln?====
Zeile 64: Zeile 66:
   * Eigene Java Klassen implementieren das MapReduce Pattern und lesen die Daten in die DB ein   * Eigene Java Klassen implementieren das MapReduce Pattern und lesen die Daten in die DB ein
  
 +
 +
 +==== Übersicht über Data Transfer/Import-Export Frameworks ====
 +
 +
 +Oracle Big Data
 +  * http://www.oracle.com/technetwork/database/database-technologies/bdc/big-data-connectors/documentation/index.html
 +
 +
 +Oracle Direct Connector for Hadoop Distributed File System
 +
 +  * [[nosql:oracle_hadoop_big_data_appl_erste_schritte#diese_aud_daten_in_der_db_wieder_als_external_table_zur_verfuegung_stellen|Erste Schritte mit der Oracle Big Data Appliance - AUD$ Daten in der DB wieder als external Table zur Verfügung stellen]]
 +  * http://docs.oracle.com/cd/E53356_01/doc.30/e53067/start.htm#BDCUG111
 +  * http://www.adaltas.com/blog/2013/05/15/oracle-sql-connector-hadoop-hdfs/
 +
 +
 +Apache Sqoop(TM) 
 +
 +  * Apache Sqoop(TM) is a tool designed for efficiently transferring bulk data between Apache Hadoop and structured datastores such as relational databases see => http://sqoop.apache.org/
 +  * [[nosql:sqoop_erste_schritte|Erste Schritte mit Apache Sqoop 2 - v1.99]]
 +
 +
 +Quest
 +
 +  * Data Connector for Oracle and Hadoop => http://www.quest.com/data-connector-for-oracle-and-hadoop/
 +
 +
 +Apache Flume
 +
 +Flume ist für das Sammeln von Log Files gedacht:
 +
 +  *  http://flume.apache.org/
 +  * [[nosql:flume_erste_schritte|Apache Flume im Überblick]]
 +
 +Flume Tutorial: => http://hortonworks.com/hadoop-tutorial/how-to-refine-and-visualize-server-log-data/
  
  
nosql/hadoop_integration.txt · Zuletzt geändert: 2016/01/08 16:46 von gpipperr