목록전체 글 (60)
DBDBDEEP
CKPT 및 REDO CKPT의 작업 - 체크포인트 정보로 데이터 파일 헤더를 갱신한다. - 체크포인트 정보로 Control File 갱신 - 전체 체크포인트 시 DBWn에 알린다. 체크포인트 - dirty buffer 를 데이터 파일로 내리는 작업 - DBwn에 의해서 수행된다 - 3초마다 CKPT는 DBWn이 SGA의 수정된 데이터 블록을 디스크에 기록한 내용을 Control file에 저장한다. 이것이 Instance 체크포인트 체크포인트 존재 이유 1. LGWR이 메모리에 있는 수정된 데이터 블록을 정기적으로 디스크에 기록하니까, 시스템이나 데이터베이스에 Failure가 발생할 경우 데이터 손실이 발생하지 않음. 2. Instance Recovery에 필요한 시간을 줄인다. (마지막 체크포인트 다..
DBA의 책임 > 어느 곳에서나 발생할 수 있는 failure로부터 데이터베이스를 보호 > 가용성을 저하시키는 Mean time between failure (MTBF) 증가시키는 작업 수행 > redundancy를 사용하여 주요 구성 요소 보호 > MTTR (Mean time to Recover)단축 > 데이터 손실 최소화 - 아카이브 로그 파일 - Flashback 기술 - Standy Database 및 Oracle Data Guard Failure 카테고리 1. Statement Failure : 단일 데이터베이스 작업(선택, 삽입, 갱신, 또는 삭제)이 실패하는 경우 2. User Process Failure : 단일 데이터베이스 세션이 실패하는 경우 3. Network Failure : 데이터..
• Resource 관리가 OS에서 이루어질 경우 - 서버 프로세스 수가 많으면 오라클 서버 프로세스 운영체제 컨텍스트 전환으로 인한 과도한 오버헤드 - 래치를 보유중인 데이터베이스 서버 프로세스의 중지 - 오라클 DB 프로세스간 불균등한 리소스 분배, 우선순위 정할 수 없음 - 병렬 실행 서버 및 활성 세션 같은 DB 리소스 관리 불가 • 해결책, Resource Manager (RM) - 비효율적인 OS 관리로 초래된 문제 (자원 부적절한 할당, 비효율적 스케쥴링) 해결 - 운영체제의 리소스 관리 기능만 사용할 때 보다 세부적으로 시스템 리소스 할당을 제어가능 - 혼합된 작업 로드 관리 - 시스템 성능 제어 • RM 기능 - CPU 방식 : Consumer 그룹과 Subplan 간에 CPU 리소스가 ..
• 메모리관리 개요 - DBA는 메모리 관리를 직무의 중요한 부분으로 고려해야한다 이유는 1) 사용가능한 메모리양의 한정 2) 특정 유형의 기능을 제공하는 메모리를 더 많이 할당하면 전체적인 성능이 향상 3) 자동으로 튜닝된 메모리여도 최적화를 위해 모니터 해야함. 어느정도 수동 구성 필요 메모리 구성 요소 관리 수동으로 구성하는 방법 - 여러 개별 초기화 파라미터를 통해 구성 요소의 크기를 조정한다. ex) Shared_pool_szie = 80m / db_cache_size = 40m 9. 버전 기준 수동으로 구성하는 방법 : Dynamic SGA 기능 shared_pool_size=50m 으로 지정해 놨었는데 분석 보고서를 보니 Cache_hit가 적게나오면 shared_pool_size를 늘리는 ..
목차 1. AWR(Automatic Workload Repository) - 오라클이 수집하는 정보들이 쌓이고 있음 2. 오라클 각종 Advisor 소개 : ADDM 3. 오라클 서버의 성능향상을 위한 Auto Task 3가지 4. Server Generated Alert 1. AWR - sysaux의 영역에 AWR이 저장되어 있다. - 오라클 성능정보에 대해 내장 저장소이다. - 60분마다 데이터베이스 Metrics의 스냅샷을 생성하여 8일동안 보관한다. - 모든 자체 관리 기능의 토대이다. • shared Pool 안의 Fixed Area - v$ 형태의 값이 저장된다. - 데이터베이스가 shutdown 되면 drop이 된다. - 데이터 베이스 올라온 이후의 정보만 적히게 된다. - 따라서, v$ 은..
• Oracle Data Pump 개요 - 대량의 데이터/메타 데이터 이동을 위한 고속 export 및 import 유틸리티용 API 포함 - DBMS_DATAPUMP를 통해 호출 할 수 있다. - 데이터 파일이 서버 측에 생성된다. Original Export/import는 cilent 쪽에 생성 ㄴ---> 서버측에 생성되기 때문에 directory object를 만들어서 관리해야 한다. Datapump export/import 10.1 이후 사용 - Original과 비교했을때 1. 속도빠름 / 수행 시 필요한 디스크 공간 미리 알 수 있음 / 중지했다가 수행가능 2. 병렬 수행이 가능 - dumpfile은 xml 형식 ■ Directory Object -10g 부터 유틸리티 사용시 서버쪽 경로를 지..