Benutzer-Werkzeuge

Webseiten-Werkzeuge


nosql:flume_erste_schritte

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
Letzte ÜberarbeitungBeide Seiten der Revision
nosql:flume_erste_schritte [2014/09/13 16:20] – [Quellen] gpipperrnosql:flume_erste_schritte [2014/09/14 17:50] – [Aufgabe - Lesen des Listener Logs einer Oracle 11g Datenbank] gpipperr
Zeile 8: Zeile 8:
   * Eine "Source" ließt die Quelle ein   * Eine "Source" ließt die Quelle ein
   * Ein "Channel" puffert zwischen   * Ein "Channel" puffert zwischen
-  * Ein "Shink  liefert die Daten ab / schreibt die Daten z.B. auf das HDFS+  * Ein "Sink  liefert die Daten ab / schreibt die Daten z.B. auf das HDFS
  
  
Zeile 77: Zeile 77:
  
 {{ :hadoop:read_listener_log_oracle_flume_v01.png?500 | Auslesen Oracle Listener Log mit Apache Fume}} {{ :hadoop:read_listener_log_oracle_flume_v01.png?500 | Auslesen Oracle Listener Log mit Apache Fume}}
 +
 +Der Agent auf dem DB Server liest als Source die XML Log Datei des Listeners ein. Ein Channel im Memory sorgt für die Flusssteuerung, ein Avro Skink serialisert die Daten und versendet diese Daten an den Agent auf dem HDFS Knoten. Der Agent auf dem HDFS Knoten hat eine Source die wiederum die serialisierten Daten im Afro Format empfangen kann, einen Channel im Memory und einen Skink vom Typ HDFS. Damit werden dann die Daten in das HDFS geschrieben.
  
  
nosql/flume_erste_schritte.txt · Zuletzt geändert: 2014/11/16 16:26 von gpipperr