Benutzer-Werkzeuge

Webseiten-Werkzeuge


nosql:flume_erste_schritte

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
nosql:flume_erste_schritte [2014/09/14 17:50] – [Aufgabe - Lesen des Listener Logs einer Oracle 11g Datenbank] gpipperrnosql:flume_erste_schritte [2014/11/16 16:26] (aktuell) – [Architektur] gpipperr
Zeile 78: Zeile 78:
 {{ :hadoop:read_listener_log_oracle_flume_v01.png?500 | Auslesen Oracle Listener Log mit Apache Fume}} {{ :hadoop:read_listener_log_oracle_flume_v01.png?500 | Auslesen Oracle Listener Log mit Apache Fume}}
  
-Der Agent auf dem DB Server liest als Source die XML Log Datei des Listeners ein. Ein Channel im Memory sorgt für die Flusssteuerung, ein Avro Skink serialisert die Daten und versendet diese Daten an den Agent auf dem HDFS Knoten. Der Agent auf dem HDFS Knoten hat eine Source die wiederum die serialisierten Daten im Afro Format empfangen kann, einen Channel im Memory und einen Skink vom Typ HDFS. Damit werden dann die Daten in das HDFS geschrieben.+Der Agent auf dem DB Server liest als Source die XML Log Datei des Listeners ein. 
  
 +Ein Channel im Memory sorgt für die Flusssteuerung, ein Avro Skink serialisert die Daten und versendet diese Daten an den Agent auf dem HDFS Knoten. 
  
-== Vorraussetzung ==+Der Agent auf dem HDFS Knoten hat eine Source die wiederum die serialisierten Daten im Afro Format empfangen kann, einen Channel im Memory und einen Skink vom Typ HDFS. Damit werden dann die Daten in das HDFS geschrieben. 
 + 
 + 
 +== Voraussetzung ==
  
 Flume ist installiert, Verzeichnis für die Konfiguration ist bekannt. Flume ist installiert, Verzeichnis für die Konfiguration ist bekannt.
nosql/flume_erste_schritte.txt · Zuletzt geändert: 2014/11/16 16:26 von gpipperr