OpenShift logging > PaaS 자료실

본문 바로가기
사이트 내 전체검색

PaaS 자료실

OpenShift logging

페이지 정보

profile_image
작성자 smlee
댓글 0건 조회 310회 작성일 21-06-11 11:19

본문

1. OpenShift 로깅 이해

클러스터 관리자는 OpenShift 로깅을 배포하여 노드 시스템 감사 로그, 애플리케이션 컨테이너 로그 및 인프라 로그와 같은 OKD 클러스터의 모든 로그를 집계할 수 있습니다. OpenShift Logging은 클러스터 전체에서 이러한 로그를 집계하여 기본 로그 저장소에 저장합니다. Kibana 웹 콘솔을 사용하여 로그 데이터를 시각화 할 수 있습니다.

OpenShift 로깅은 다음 유형의 로그를 집계합니다.

  애플리케이션 - 인프라 컨테이너 애플리케이션을 제외한 클러스터에서 실행되는 사용자 애플리케이션에서 생성된 컨테이너 로그입니다.

  인프라 - 클러스터에서 실행되는 인프라 구성 요소와 저널 로그와 같은 OKD 노드에서 생성된 로그를 기록합니다. 인프라 구성 요소는 개방형 시프트*, kube* 또는 기
  본 프로젝트에서 실행되는 파드입니다.

  audit - auditd에서 생성된 로그, /var/log/audit/audit.log 파일에 저장되는 노드 감사 시스템, Kubernetes apiserver 및 OpenShift apiserver의 감사 로그를 생성합니다.

2. OpenShift 로깅 배포 정보

OpenShift 컨테이너 플랫폼 클러스터 관리자는 OpenShift 컨테이너 플랫폼 웹 콘솔 또는 CLI를 사용하여 OpenShift 로깅을 배포하여 OpenShift Elastic 검색 연산자 및 Red Hat OpenShift 로깅 연산자를 설치할 수 있습니다. 연산자가 설치되면 CR(클러스터 로깅 사용자 지정 리소스)를 생성하여 OpenShift 로깅 포드 및 OpenShift 로깅을 지원하는 데 필요한 기타 리소스를 예약합니다. 운영자는 OpenShift 로깅을 배포, 업그레이드 및 유지 관리할 책임이 있습니다.

클러스터 로깅 CR은 로그를 수집, 저장 및 시각화할 로깅 스택의 모든 구성 요소를 포함하는 완전한 OpenShift 로깅 환경을 정의합니다. Red Hat OpenShift Logging Operator는 OpenShift Logging CR을 감시하고 그에 따라 로깅 배포를 조정합니다.

관리자 및 애플리케이션 개발자는 뷰 액세스 권한이 있는 프로젝트의 로그를 볼 수 있습니다.

3. OpenShift 로깅 구성 요소 정보

OpenShift Logging 구성 요소에는 OKD 클러스터의 각 노드에 배포된 수집기가 포함되어 있으며, 이 수집기는 모든 노드 및 컨테이너 로그를 수집하여 로그 저장소에 기록합니다. 중앙 집중식 웹 UI를 사용하여 집계된 데이터를 사용하여 풍부한 시각화 및 대시보드를 만들 수 있습니다.

OpenShift Logging의 주요 구성 요소는 다음과 같습니다.

  collection - 클러스터에서 로그를 수집하고 포맷한 다음 로그 저장소에 전달하는 구성 요소입니다. 현재 구현은 Fluentd입니다.

  log store - 로그가 저장되는 위치로 기본 구현은 Elasticsearch입니다. 기본 Elasticsearch 로그 저장소를 사용하거나 로그를 외부 로그 저장소로 전달할 수 있습니다. 단
  기 저장을 위해 최적화되어 테스트됩니다.

  visualization - 로그, 그래프, 차트 등을 보는 데 사용할 수 있는 UI 구성 요소입니다. 현재 시행 중인 것은 Kibana입니다.

4. 로깅 수집기 정보

OpenShift Container Platform은 Fluentd를 사용하여 컨테이너 및 노드 로그를 수집합니다.

기본적으로 로그 수집기는 다음 소스를 사용합니다.

  journald -  모든 시스템 로그

  /var/log/containers/*.log - 모든 컨테이너 로그

  /var/log/audit/는audit.log - 감사 로그를 수집하도록 로그 수집기를 구성한 경우

로깅 수집기는 각 OpenShift 컨테이너 플랫폼 노드에 포드를 배포하는 데몬 세트입니다. 시스템 및 인프라 로그는 운영 체제, 컨테이너 런타임 및 OpenShift 컨테이너 플랫폼의 저널 로그 메시지에 의해 생성됩니다. 응용 프로그램 로그는 CRI-O 컨테이너 엔진에 의해 생성됩니다. Fluentd는 이러한 소스에서 로그를 수집하여 OpenShift 컨테이너 플랫폼에서 구성할 때 내부 또는 외부로 로그를 전달합니다.

5. 로그 저장소 정보

기본적으로 OpenShift 컨테이너 플랫폼은 Elasticsearch(ES)을 사용하여 로그 데이터를 저장합니다. 선택적으로 로그 전달 기능을 사용하여 Fluentd 프로토콜, syslog 프로토콜 또는 OpenShift 컨테이너 플랫폼 로그 전달 API를 사용하여 로그를 외부 로그 저장소에 전달할 수 있습니다.

OpenShift Logging Elasticsearch 인스턴스는 약 7일이라는 짧은 기간 동안 저장되도록 최적화되고 테스트됩니다. 로그를 장기간 보존하려면 데이터를 타사 스토리지 시스템으로 이동하는 것이 좋습니다.

Elasticsearch는 Fluentd의 로그 데이터를 데이터스토어 또는 인덱스로 구성한 다음 각 인덱스를 샤드라고 하는 여러 조각으로 세분화하며, 이 조각은 Elastic 검색 클러스터의 Elastic 검색 노드 집합에 분산됩니다. 복제본이라고 하는 샤드의 복사본을 만들도록 Elasticsearch를 구성할 수 있으며, Elasticsearch 노드에 분산됩니다. 클러스터 로깅 사용자 지정 리소스(CR)를 사용하면 데이터 중복성과 장애 복구 기능을 제공하기 위해 공유의 복제 방법을 지정할 수 있습니다. 또한 클러스터 로깅 CR의 보존 정책을 사용하여 여러 유형의 로그가 유지되는 기간을 지정할 수 있습니다.

6. 로깅 시각화 정보

OpenShift Container Platform은 Kibana를 사용하여 Fluentd에서 수집하고 Elasticsearch에서 인덱싱 한 로그 데이터를 표시합니다.

Kibana는 히스토그램, 선 그래프, 파이 차트 및 기타 시각화를 통해 Elasticsearch 데이터를 쿼리, 발견 및 시각화하는 브라우저 기반 콘솔 인터페이스입니다.

7. 이벤트 라우팅 정보

이벤트 라우터는 OpenShift Logging에서 수집 할 수 있도록 OpenShift Container Platform 이벤트를 감시하는 포드입니다. 이벤트 라우터는 모든 프로젝트에서 이벤트를 수집하여 STDOUT. Fluentd는 이러한 이벤트를 수집하여 OpenShift Container Platform Elasticsearch 인스턴스로 전달합니다. Elasticsearch는 이벤트를 infra인덱스에 인덱싱합니다.

8. 로그 전달 정보

기본적으로 OpenShift Logging은 ClusterLogging사용자 지정 리소스 (CR)에 정의 된 기본 내부 Elasticsearch 로그 저장소로 로그를 보냅니다 . 다른 로그 집계 자에게 로그를 전달하려는 경우 로그 전달 기능을 사용하여 클러스터 내부 또는 외부의 특정 엔드 포인트로 로그를 보낼 수 있습니다.

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : (주)리눅스데이타시스템 / 대표 : 정정모
서울본사 : 서울특별시 강남구 봉은사로 114길 40 홍선빌딩 2층 / tel : 02-6207-1160
대전지사 : 대전광역시 유성구 노은로174 도원프라자 5층 / tel : 042-331-1161

접속자집계

오늘
489
어제
331
최대
680
전체
82,234
Copyright © www.linuxdata.org All rights reserved.