최근 게시글
-
Kibana Alerting 복잡한 조건을 체크하고 알람을 n8n 연동하여 자동화
n8n을 사용하여 Kibana와 연동하여 복잡한 조건을 체크하고 알람을 설정하는 자동화 프로세스를 구축하는 것은 좋은 선택입니다. n8n은 데이터를 수집, 처리, 모니터링 및 자동화할 수 있는 강력한 워크플로 자동화 도구입니다. 여기에 Kibana와의 연동을 포함하는 프로세스를 설명하겠습니다.1. n8n 환경 설정n8n을 설치하고 실행해야 합니다. n8n은 Docker, npm, 또는 바이너리 파일을 통해 설치할 수 있습니다.2. Kibana에서 데이터 접근 설정Kibana에서 데이터를 검색하려면 Elasticsearch의 API를 사용할 수 있습니다. 이를 위해서는 Kibana가 설치된 서버에서 API 접근이 가능하도록 설정해야 합니다. 보안을 위해 API 키를 생성하거나 HTTP 인증을 설정할 수 있..
2024.07.16
-
시만텍 백신에 의해 격리되는 파일을 수집하여 분석하기 위한 방안
시만텍 백신 윈도우 클라이언트의 파일 격리와 관련해서 간단히 정리해 보겠습니다.1. 격리 설정 관리바이러스 및 스파이웨어 스캔 또는 행동 분석(SONAR)이 위협을 감지하면, Symantec Endpoint Protection은 의심스러운 파일을 감염된 컴퓨터의 로컬 격리소에 보관합니다. 이후 클라이언트는 파일을 복구하거나 복원하거나 삭제합니다.클라이언트가 위험을 감지하여 파일을 격리하면 관리 서버에 알립니다. 관리 서버에서는 격리된 파일을 자동으로 요청하고 검색할 수 있습니다. 관리 서버는 위험 샘플을 데이터베이스에 업로드하고 저장하며, 이벤트 세부 정보를 표시하고 추가 분석을 위해 다운로드할 수 있습니다.2. 격리된 파일을 관리 서버로 업로드기본적으로 관리 서버는 클라이언트에서 격리된 파일을 검색하지..
2024.07.15
-
Windows Update 상태 체크 및 강제 업데이트 PowerShell 실행 관리
Windows에서 업데이트의 마지막 수행 일자를 체크하고, 그 일자가 1개월 이상 지났을 경우 강제로 업데이트를 실행하는 스크립트를 PowerShell을 사용하여 작성할 수 있습니다.# 윈도우 업데이트 서비스를 가져옵니다.$UpdateSession = New-Object -ComObject Microsoft.Update.Session$UpdateSearcher = $UpdateSession.CreateUpdateSearcher()# 마지막 검색 시간을 확인합니다.$LastSearch = $UpdateSearcher.QueryHistory(0, 1)if ($LastSearch.Count -gt 0) { $LastUpdateDate = $LastSearch[0].Date $CurrentDate =..
2024.07.14
-
n8n에서 HTTP 요청 및 외부 트래픽 프록시 적용 및 모니터링 통제 방안
n8n에서 HTTP 요청을 보내거나 외부와 통신할 때 프록시 서버를 사용하는 방법은 크게 두 가지 접근 방식이 있습니다. 하나는 전역 설정을 통해 모든 HTTP 요청에 대해 프록시를 설정하는 것이고, 다른 하나는 개별 요청에 대해 프록시를 설정하는 것입니다.1. 전역 프록시 설정n8n을 구성하는 환경에서 전체적으로 프록시를 설정하려면, 환경 변수를 통해 설정할 수 있습니다. 다음 환경 변수를 설정하세요.N8N_HTTP_PROXY: HTTP 트래픽을 위한 프록시 주소N8N_HTTPS_PROXY: HTTPS 트래픽을 위한 프록시 주소N8N_NO_PROXY: 프록시를 사용하지 않을 호스트나 도메인 목록 Docker를 사용하는 경우 docker-compose.yml 파일이나 Docker 명령어에 다음과 같이 환..
2024.07.13
-
개발과 운영 효율적인 통합 DevOps 환경 원격 K8s 클러스터 구축 운영
Visual Studio Code에서 SSH 키를 이용한 원격 접속을 설정하려면 몇 가지 단계를 따라야 합니다. 여기에 Visual Studio Code를 이용하여 SSH 키 방식으로 원격 서버에 접근하는 방법을 설명드리겠습니다.SSH 키 생성하기SSH 키를 생성해야 합니다. 이는 로컬 컴퓨터에서 다음과 같은 명령어를 통해 수행할 수 있습니다. 터미널을 열고 다음 명령어를 입력하세요.ssh-keygen -t rsa -b 4096이 명령은 ~/.ssh 디렉토리에 비공개 키(id_rsa)와 공개 키(id_rsa.pub)를 생성합니다. 공개 키를 원격 서버에 등록해야 합니다.공개 키를 원격 서버에 등록하기원격 서버의 ~/.ssh/authorized_keys 파일에 로컬 컴퓨터의 공개 키(id_rsa.pub) ..
2024.07.12
-
서버 가상화 환경 구축 및 관리 통합 플랫폼 오픈 소스 Proxmox VE
"Proxmox"는 가상화 환경을 구축하고 관리할 수 있는 오픈 소스 플랫폼입니다. 주로 프로모스 VE(Proxmox Virtual Environment)와 프로모스 백업 서버(Proxmox Backup Server)라는 두 가지 주요 제품으로 나뉩니다.Proxmox VE (Virtual Environment)Proxmox VE는 서버 가상화 관리를 위한 통합 플랫폼으로, KVM과 LXC 컨테이너 기술을 사용하여 가상 머신과 컨테이너를 호스팅할 수 있습니다. 웹 기반 인터페이스를 통해 사용자는 가상 머신의 생성, 관리 및 모니터링을 쉽게 할 수 있으며, 고가용성 클러스터, 분산 파일 시스템, 백업, 그리고 복구 기능 등을 제공합니다.Proxmox Backup ServerProxmox Backup Serv..
2024.07.11
-
Grafana와 Superset 연계하여 통합된 차트 대시보드 시각화 방법
Grafana와 Apache Superset을 연계하여 대시보드를 구성하는 방법은 데이터를 시각화하고 모니터링하는데 매우 유용합니다. 두 도구를 통합하면 각 도구의 장점을 최대한 활용할 수 있습니다.Grafana와 Superset 설치도구를 설치해야 합니다. 각 도구의 공식 문서를 참고하여 설치를 완료합니다.Grafana 설치 가이드Apache Superset 설치 가이드데이터 소스 구성Grafana와 Superset에 동일한 데이터 소스를 구성합니다. 예를 들어, MySQL, PostgreSQL, ClickHouse 등 여러 데이터베이스를 사용할 수 있습니다.GrafanaGrafana에 로그인 후, 'Configuration' > 'Data Sources'로 이동합니다.'Add data source'를..
2024.07.10
-
아파치 플링크(Apache Flink) 스트림 프로세싱 프레임워크 구성
Apache Flink 개요Apache Flink는 고성능, 저지연, 그리고 분산 스트리밍 데이터 처리 시스템입니다. Flink는 실시간 스트리밍 데이터와 배치 데이터를 모두 처리할 수 있는 유연한 플랫폼을 제공합니다. 주로 실시간 분석, 데이터 파이프라인, ETL(Extract, Transform, Load) 작업, 이벤트 기반 애플리케이션 등에 사용됩니다.주요 특징저지연 스트리밍 처리: Flink는 이벤트가 발생하는 즉시 데이터를 처리할 수 있습니다.높은 처리량: 분산 시스템 구조로 인해 대규모 데이터도 빠르게 처리할 수 있습니다.상태 관리: Flink는 상태 기반의 스트리밍 작업을 지원하며, 상태를 효율적으로 관리할 수 있는 기능을 제공합니다.유연한 API: DataStream API와 DataSe..
2024.07.09
-
공유기 연결 단말기 통신 패킷 캡쳐 (ipTIME 공유기 OpenWRT 설치)
공유기에서 연결된 단말기들의 패킷을 캡쳐하려면 몇 가지 방법이 있습니다. 사용할 수 있는 방법은 네트워크 구성과 사용 중인 하드웨어에 따라 달라질 수 있습니다. 여기 몇 가지 일반적인 방법을 소개합니다.미러링 포트 사용하기: 일부 고급 공유기나 스위치는 트래픽 미러링 기능을 지원합니다. 이 기능을 사용하면 특정 포트로 들어오거나 나가는 모든 트래픽을 다른 포트로 복사하여 패킷 캡처 도구를 사용하여 분석할 수 있습니다.네트워크 탭 사용하기: 네트워크 탭은 물리적 장치로, 네트워크 흐름을 복제하여 두 번째 포트로 보내는 역할을 합니다. 이 포트에 패킷 분석 도구를 연결하면 통과하는 모든 데이터를 볼 수 있습니다.라우터에 직접 패킷 캡처 도구 설치하기: 일부 라우터는 사용자가 직접 커스텀 펌웨어(예: DD-W..
2024.07.08
-
Elasticsearch 버킷 제한 too_many_buckets_exception 문제 해결
Elasticsearch 검색 쿼리가 실행될 때 너무 많은 버킷을 생성하려고 시도하면 제한을 초과했다는 오류 메세지가 발생합니다. 여기서 "버킷"은 특정 필드의 값이나 범위에 따라 문서를 그룹화하는 데 사용되는 데이터 구조를 말합니다. 이 문제를 해결하는 방법은 몇 가지가 있습니다.쿼리 최적화: 너무 많은 버킷을 생성하지 않도록 쿼리를 조정합니다. 예를 들어, 집계(aggregations)의 범위를 줄이거나, 필요하지 않은 집계를 제거합니다.search.max_buckets 설정 변경: Elasticsearch 클러스터 설정에서 search.max_buckets 값을 늘려서 허용되는 최대 버킷 수를 증가시킬 수 있습니다. 하지만 이 방법은 메모리 사용량이 증가할 수 있으므로 주의해서 사용해야 합니다.PU..
2024.07.07