• zum Inhalt springen

Gunther Oracle APEX und Datenbank Wiki

Benutzer-Werkzeuge

  • Admin
  • Anmelden

Webseiten-Werkzeuge

Zuletzt angesehen:

data

Suche

Unten sind die Ergebnisse Ihrer Suche gelistet.

Genaue Treffer
  • Genaue Treffer
  • Beginnt mit
  • Endet mit
  • Enthält
@nosql
  • Alle Namensräume
Jederzeit
  • Jederzeit
  • Letzte Woche
  • Letzter Monat
  • letztes Jahr
Sortiere nach Treffer
  • Sortiere nach Treffer
  • Sortiere nach letzter Änderung

Passende Seitennamen:

  • oracle_bigdatalite_vm_vmware
  • oracle_hadoop_big_data_appl_erste_schritte
  • oracle_nosql_database_einfuehrung

Volltextergebnisse:

hive_erste_schritte
31 Treffer, Zuletzt geändert: vor 7 Jahren
educe Framework zum Aufsetzen der Jobs. Für das Data Dictionary / die Metadaten wird eine separate rel... l> #Tabelle anlegen hive> CREATE TABLE ora_audit_data(id BIGINT , message str... , instance_name string) COMMENT 'Oracle Audit Data.' ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' ... Tabellen gibt es hive> show tables; OK ora_audit_data Time taken: 0.14 seconds, Fetched: 1 row(s) #Bes
hadoop_integration
22 Treffer, Zuletzt geändert: vor 5 Jahren
bereits ausgefeilte Datenbank System und komplexe Data Warehouse Umgebungen im Einsatz. Viel Energie u... en die Daten in die DB ein ==== Übersicht über Data Transfer/Import-Export Frameworks ==== Oracle Big Data * http://www.oracle.com/technetwork/database/database-technologies/bdc/big-data-connectors/documentation/index.html Oracle Dire
apache_hadoop_einfuehrung
12 Treffer, Zuletzt geändert: vor 6 Jahren
e Cluster Knoten sind voneinander unabhängig * "Data locality" => Daten werden auf dem Knoten verarbe... Datenmengen Nachteil: * Redundanz Konzept und "Data locality" erfordern schnell seine sehr hohe Anzah... _schritte|Erste Schritte mit Apache Hive]] Pig - Data sets manipulation language um Map Reduces Jobs zu... QL Engines** * Impala * Spark * Oracle Big Data SQL (Leider nur in einer Exadata/BigData Applianc
sqoop_erste_schritte
7 Treffer, Zuletzt geändert: vor 6 Jahren
BC_CONNECTOR_0005:No column is found to partition data Stack trace: ... sqoop:000>update job --jid 1 #... sed by: java.sql.SQLRecoverableException: No more data to read from socket </code> ?? Suche wir weiter ?? Mehr Erfolg mit : [[nosql:oracle_hadoop_big_data_appl_erste_schritte##daten_aus_oracle_mit_sqoop_2... dfs_exportieren|Erste Schritte mit der Oracle Big Data Appliance]] ==== Einsatz von OraOop ===== Oraoop
hadoop_first_setup
7 Treffer, Zuletzt geändert: vor 7 Jahren
tion === **User hadoop!** \\ Anlegen des Hadoop Data Verzeichnisses, hier werden später dann die Daten... node directoy mkdir /opt/hadoop/hdata/namenode # Data node directory mkdir /opt/hadoop/hdata/datanode ... e> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop/hdata/datanod... adoop starten ==== Im ersten Schritt Name Node, Data Nodes für HDFS starten: <code bash> Bzw. alles a
connect_read_write_oracle_nosql_db_11gr2
7 Treffer, Zuletzt geändert: vor 8 Jahren
// Nutzdaten wieder herstellen String data = new String(vdata.getValue()); // Daten ausgeben System.out.println(data); </code> Dokumentation: [[http://doc... Value vdata = vv.getValue(); String data = new String(vdata.getValue()); System.ou... +" Version("+ matchVersion.getVersion() + ") fond data::" + data); //Daten ändern
kvclient_oracle_nosql_db_11gr2
6 Treffer, Zuletzt geändert: vor 6 Jahren
nt: 1 kv-> get kv -all /AGUIZ000000000702/-/TEST_DATA kv-> get -key /AGUIZ000000000702/-/TEST_DATA 702000000000702GENWERT000000000702 </code> Füge einen K... hell> kv-> put kv -key /AGUIZ000300000702/-/TEST_DATA -value HUGO Operation successful, record inserted. kv-> put -key /AGUIZ000300000702/-/TEST_DATA -value GUNTHER Operation successful, record updat
flume_erste_schritte
6 Treffer, Zuletzt geändert: vor 6 Jahren
127.0.0.1'> <txt>06-SEP-2014 11:21:44 * (CONNECT_DATA=(SID=GPI)(CID=(PROGRAM=null)(HOST=__jdbc__)(USER=... ver== Eine einfache Agent Konfiguration für eine Data Source vom Type "exec" erstellen (mit dem Typ **e... are.com/files/pdf/products/vsphere/VMware-vSphere-Data-Ingestion-Solution-Guide.pdf * http://www.ritt... achecon.com/na2013/presentations/27-Wednesday/Big_Data/11:45-Mastering_Sqoop_for_Data_Transfer_for_Big_D
oracle_bigdatalite_vm_vmware
4 Treffer, Zuletzt geändert: vor 6 Jahren
rtieren==== Eine VM von Oracle zu dem Thema Big Data kann hier gefunden werden: * http://www.oracle.... e-2104726.html Leider wird die Oracle VM für Big Data nicht in einem OVA Format angeboten, das sich so ... urchgeführt werden => [[nosql:oracle_hadoop_big_data_appl_erste_schritte|Erste Schritte mit der Oracle Big Data Appliance]] ---- ===Der Weg zum Ziel:=== ** B
oracle_hadoop_big_data_appl_erste_schritte
3 Treffer, Zuletzt geändert: vor 7 Jahren
===== Erste Schritte mit der Oracle Big Data Appliance ===== ==== BigDataLite VM von Oracle ==== Eine... s_export; hive> load data inpath '/user/oracle/hdfs_export.csv' overwrite i... p://hadooped.blogspot.de/2013/05/apache-sqoop-for-data-integration.html External Table: * https://bl
install_oracle_nosql_db_11gr2
3 Treffer, Zuletzt geändert: vor 7 Jahren
on erfolgt) * KV Store einen Namen vergeben * Data Center anlegen * Admin Prozess auf einen Knoten... -name GPIDB Store configured: GPIDB </code> === Data Center anlegen === Ein Store kann nur ein Data Center enthalten und wird mit dem Befehl "plan deploy-
mapreduce_hadoop_20_job
3 Treffer, Zuletzt geändert: vor 7 Jahren
.class); // Input and Output Path to the data FileInputFormat.setInputPaths(job, new Pa... .class); // Input and Output Path to the data FileInputFormat.setInputPaths(job, new Pa... ks.com/2013/07/mapreduce-algorithms-understanding-data-joins-part-1.html MapAndReduce Patterns: * htt
oracle_nosql_database_einfuehrung
3 Treffer, Zuletzt geändert: vor 5 Jahren
tspricht im Prinzip dem System Tablespace mit dem Data Dictionary einer RDBMS) und dient zur Überwachung... n: * [[http://www.azulsystems.com/solutions/big-data|Zing: A better Java for Big Data]] * [[http://www.azulsystems.com/sites/www.azulsystems.com/files/Jav
oracle_nosql_table_definition
3 Treffer, Zuletzt geändert: vor 6 Jahren
ow empRow = empTable.createRow(); // put data in the row empRow.put("empno", 10); ... empRow.put("deptno", 10); // write the data to the store tableAPI.put(empRow, null, null); //-------- Read the data again from the Store //------- Use an Ind
lokale_testdatenbank_oracle_nosql_db_11gr2
2 Treffer, Zuletzt geändert: vor 6 Jahren
cted to kvstore kv-> put kv -key /ABC1234/-/TEST_DATA -value HUGO Operation successful, record inserted. kv-> get kv -all /ABC1234/-/TEST_DATA HUGO 1 Record returned. </code> Bzgl. der Clien
mapreduce_hadoop_20_yarn
2 Treffer, Zuletzt geändert: vor 7 Jahren
netzkonfiguration_speicher_oracle_nosql_db_11gr2
1 Treffer, Zuletzt geändert: vor 8 Jahren
redis_overview
1 Treffer, Zuletzt geändert: vor 4 Jahren
enterprise_cc_edition_oracle_nosql_db_11gr2
1 Treffer, Zuletzt geändert: vor 7 Jahren
hadoop_connect_from_windows
1 Treffer, Zuletzt geändert: vor 7 Jahren
"Autor: Gunther Pipperr"

Seiten-Werkzeuge

  • Seite anzeigen
  • Links hierher
  • Nach oben
Driven by DokuWiki ImpressumDatenschutzerklärung