본문 바로가기

프로그램 (PHP,Python)190

휴가철 항공권 정보를 수집해서 카카오톡 메세지로 받아보기 네이버 항공권 정보 크롤링을 위한 과정을 상세하게 정리하겠습니다. 아래는 크롤링 과정을 단계별로 나눈 것입니다. 단계 1: 필요한 라이브러리 가져오기 먼저, 크롤링을 위해 필요한 라이브러리를 가져옵니다. 이 과정에서 selenium과 BeautifulSoup를 사용합니다. selenium은 웹 브라우저 자동화를 위해 사용되며, BeautifulSoup은 HTML 문서를 파싱하기 위해 사용됩니다. from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys from bs4 import BeautifulSoup import time 단계 2: 크롬 드.. 2023. 10. 3.
Grafana 대시보드 쇼케이스: Prometheus, GitHub 등 시각화! Grafana 대시보드 쇼케이스: Prometheus, 가정 내 에너지 사용, GitHub 등을 위한 시각화! 몇 가지 대시보드를 살펴보겠습니다! Grafana Loki NGINX 서비스 메시 대시보드 Ward Bekker가 만든 이 놀라운 새 대시보드와 관련 통합을 사용하면 Grafana Cloud 사용자는 전 세계 트래픽 및 수십 가지 핵심 지표를 모니터링할 수 있습니다. 자세한 내용, 전체 지침 및 데모 샌드박스 애플리케이션은 이 블로그 포스트에서 확인하세요. Loki NGINX Service Mesh - JSON version | Grafana Labs Thank you! Your message has been received! grafana.com VMware vSphere 대시보드 Veeam .. 2023. 9. 29.
Jupyter Notebook 한글 Docker 환경 구성 및 테스트 Docker를 사용하여 Jupyter Notebook을 실행하면서 한글 폰트 문제를 해결하는 방법을 확인해 보겠습니다. Dockerfile 작성이 Dockerfile은 jupyter/datascience-notebook:latest 이미지를 기반으로하여 빌드됩니다. 우분투 패키지 소스를 한국 미러로 변경하고, 나눔 폰트를 설치한 다음, 폰트 캐시를 업데이트합니다. 먼저, Jupyter Notebook을 실행할 Docker 이미지를 빌드하기 위한 Dockerfile을 작성해야 합니다. 아래는 Dockerfile의 내용입니다. FROM jupyter/datascience-notebook:latest USER root # Ubuntu 패키지 소스를 한국 미러로 변경 RUN sed -i 's/archive.ub.. 2023. 9. 26.
Python 클러스터(IPython Parallel)와 Jupyter Notebook 통합 IPython Parallel (ipyparallel)은 Python에서 병렬 및 분산 컴퓨팅을 수행하는 강력한 도구이며, Jupyter Notebook 및 Jupyter Lab 환경과 완벽하게 통합됩니다. 아래에서는 IPython Parallel을 설치하고 시작하고 Jupyter Notebook에서 사용하는 방법에 대한 단계별 안내를 제공하겠습니다. 설치 IPython Parallel은 pip를 사용하여 설치할 수 있습니다. 터미널 또는 명령 프롬프트를 열고 다음 명령을 실행하십시오. pip install ipyparallel 이 명령은 IPython Parallel 패키지와 필요한 종속성을 다운로드하고 설치합니다. 클러스터 시작 IPython Parallel 설치가 완료되면 ipcluster 명령을 .. 2023. 9. 25.
HTML 코드에서 데이터 추출하여 JSON 형식 변환 HTML 코드에서 데이터를 추출하여 JSON 형식으로 변환하는 작업을 수행합니다. 이를 간소화하려면 정규 표현식을 사용하는 대신 더 구조화된 방법을 사용하는 것이 좋습니다. 다음은 Python을 사용하여 같은 작업을 수행하는 방법입니다. Python은 정규 표현식 대신 BeautifulSoup과 같은 라이브러리를 사용하여 HTML 파싱을 더 쉽게 할 수 있습니다. from bs4 import BeautifulSoup import re import json html = """ 여기에 HTML 코드를 입력하세요 """ soup = BeautifulSoup(html, 'html.parser') data = [] for row in soup.find_all('tr'): # 'tr' 태그를 포함하는 모든 행을 찾.. 2023. 9. 23.