Benutzer-Werkzeuge

Webseiten-Werkzeuge


dba:install_rac_linux_18c

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
Letzte ÜberarbeitungBeide Seiten der Revision
dba:install_rac_linux_18c [2018/11/30 11:48] – [Oracle Cluster Registry spiegeln] gpipperrdba:install_rac_linux_18c [2018/12/02 16:15] – [FC Umgebung auslesen und Platten identifizieren] gpipperr
Zeile 204: Zeile 204:
  
 Von anderen Storage Systemen war ich es gewohnt, das sich die ersten Digits der UUID sich aus der Storage Konfiguration ergeben und damit ganz einfach klar ist von welchen Storage die Platten stammen. Von anderen Storage Systemen war ich es gewohnt, das sich die ersten Digits der UUID sich aus der Storage Konfiguration ergeben und damit ganz einfach klar ist von welchen Storage die Platten stammen.
 +
 +
 +Nachträglich scannen ob neue Platten hinzugekommen sind => https://www.learnitguide.net/2016/02/scan-newly-added-fc-luns-and-scsi-disks.html
  
  
Zeile 1005: Zeile 1008:
  
  
-=== Compatible Mode prüfen===+=== Compatible Mode prüfen, auf min 11.2 einstellen ===
  
 Um später einfach wieder eine Failgroup weider einbinden zu können, müssen die compatible Parameter min auf 11.2 stehen! Ansonsten müssen die Platten alle per Hand wieder hinzugefügt werden. Um später einfach wieder eine Failgroup weider einbinden zu können, müssen die compatible Parameter min auf 11.2 stehen! Ansonsten müssen die Platten alle per Hand wieder hinzugefügt werden.
 +
 +Falls noch 10g als DB im Einsatz ist, nicht ändern! 
  
 <code bash> <code bash>
Zeile 1015: Zeile 1020:
  
 siehe auch =>[[dba:asm_platten_verteilen##fehler_behandlung_in_einer_asm_umgebung_mit_fail_groups_ueber_zwei_storage_systeme|Fehler Behandlung in einer ASM Umgebung mit Fail Groups über zwei Storage Systeme]] siehe auch =>[[dba:asm_platten_verteilen##fehler_behandlung_in_einer_asm_umgebung_mit_fail_groups_ueber_zwei_storage_systeme|Fehler Behandlung in einer ASM Umgebung mit Fail Groups über zwei Storage Systeme]]
 +
 +
 +=== Repair Timer setzen===
 +
 +Die REPAIR_TIMER Spalte von V$ASM_DISK zeigt die Zeit an, bis eine Disk im Offline Status gedroppt wird.
 +
 +Der Wert kann zum Beispiel mit "ALTER DISKGROUP ACFS  SET ATTRIBUTE 'disk_repair_time'='24h'" gesetzt werden.
 +
 +Default erhöhen:
 +disk_repair_time => 36h
 +failgroup_repair_time => 72h
 +<code bash>
 +--abfragen:
 +select g.name  as group_name
 +     , a.name
 +     , a.value
 + , a.SYSTEM_CREATED
 +  from V$ASM_ATTRIBUTE a
 +      inner join  v$asm_diskgroup g on (g.group_number=a.group_number)
 +where g.name like upper ('&&DG_NAME'
 +  and a.name like lower ('%repair%'
 +order by a.name
 +       , g.name
 +/
 +
 +--setzen:
 +
 +ALTER DISKGROUP DATA01     SET ATTRIBUTE 'disk_repair_time'='36h';
 +ALTER DISKGROUP DATA01     SET ATTRIBUTE 'failgroup_repair_time'='72h';
 +
 +</code>
 +
 +
 +
  
 ---- ----
dba/install_rac_linux_18c.txt · Zuletzt geändert: 2021/05/11 21:27 von gpipperr