nosql:oracle_hadoop_big_data_appl_erste_schritte
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
nosql:oracle_hadoop_big_data_appl_erste_schritte [2014/09/20 21:21] – [Daten aus Oracle mit sqoop 2 - 1.9 in das HDFS exportieren] gpipperr | nosql:oracle_hadoop_big_data_appl_erste_schritte [2014/09/20 21:28] (aktuell) – [Mit dem Oracle Loader for Hadoop – OLH vom Hadoop Daten einlesen] gpipperr | ||
---|---|---|---|
Zeile 24: | Zeile 24: | ||
service iptables off | service iptables off | ||
chkconfig iptables off | chkconfig iptables off | ||
+ | |||
+ | chkconfig --list iptables | ||
+ | |||
</ | </ | ||
Zeile 219: | Zeile 222: | ||
Das heißt das sqoop per Default recht anfällig für SQL Injektion Attacken ist! | Das heißt das sqoop per Default recht anfällig für SQL Injektion Attacken ist! | ||
+ | |||
+ | |||
+ | ---- | ||
==== Diese AUD$ Daten in der DB wieder als external Table zur Verfügung stellen ===== | ==== Diese AUD$ Daten in der DB wieder als external Table zur Verfügung stellen ===== | ||
Zeile 1016: | Zeile 1022: | ||
-conf hdfs_job_config.xml | -conf hdfs_job_config.xml | ||
-libjars / | -libjars / | ||
- | < | + | </code> |
Mit der obigen Konfiguration finden sich die Dateien im HDFS nun hier: | Mit der obigen Konfiguration finden sich die Dateien im HDFS nun hier: |
nosql/oracle_hadoop_big_data_appl_erste_schritte.txt · Zuletzt geändert: 2014/09/20 21:28 von gpipperr