본문 바로가기

Python43

데이터 탐색 및 게시를 위한 오픈 소스 멀티 도구(Datasette) Datasette(데이터셋)는 데이터를 탐색하고 게시하는 데 사용되는 오픈 소스 멀티 툴입니다. 이 도구는 어떤 모양 또는 크기의 데이터든 인터랙티브하고 탐색 가능한 웹 사이트와 관련 API로 게시할 수 있도록 도와줍니다. Datasette는 데이터 저널리스트, 박물관 관리자, 기록 보관자, 지방 정부, 과학자, 연구자 및 데이터를 세계와 공유하고자 하는 누구에게나 도움이 되는 도구입니다. 이 도구를 사용하여 데이터를 업로드하고 게시해보거나 데모를 살펴보거나 프로젝트에 대한 비디오를 시청하려면 datasette.io 공식 웹사이트를 방문하세요. 최신 Datasette 뉴스 및 상세한 설명, 예시, 라이브 데모 및 프로젝트 관련 토론을 위한 Discord 채널에 참여하는 방법에 대한 정보는 공식 웹사이트에.. 2023. 11. 3.
파이썬(Python) 스크립트 자동실행 스케쥴 관리 (지정시간, 매시간, 매일) 주기별로 원하는 시간(초,분,시간,요일,일,월)마다 Python 스크립트를 자동으로 실행(반복)하는 코드를 작성하려면 schedule 라이브러리를 사용할 수 있습니다. 이 라이브러리를 사용하면 주기별로 작업을 예약하고 실행할 수 있습니다. 먼저 schedule 라이브러리를 설치해야 합니다. pip install schedule 주기와 실행할 Python 스크립트 파일 리스트를 등록하는 방법입니다. 아래 코드에서는 job_list라는 리스트를 사용하여 주기와 실행할 스크립트를 등록합니다. 각 항목은 튜플로 구성되며, 첫 번째 요소는 주기를 나타내는 문자열이고, 두 번째 요소는 실행할 Python 스크립트의 경로입니다. import schedule import time import subprocess # 주.. 2023. 10. 18.
OWASP ZAP 프록시 통해 사이트 취약점 진단 자동화 및 결과 시각화 Docker 컨테이너 내에서 OWASP ZAP 프록시를 실행하고, 각 사이트를 점검한 후 리포트를 생성하는 Python 코드를 작성해보겠습니다. 이를 위해서는 zap-cli 라이브러리를 사용할 것입니다. 코드는 사이트 목록을 반복하면서 ZAP을 사용하여 각 사이트를 점검하고 리포트를 생성할 것입니다. 먼저, zap-cli 라이브러리를 설치합니다. pip install zap-cli 다음은 Python 코드의 예시입니다. import subprocess import time # 대상 사이트 목록 target_sites = [ "http://site1.com", "http://site2.com", "http://site3.com", # 필요한 만큼 사이트를 추가하세요. ] # Docker 컨테이너 실행 (Z.. 2023. 10. 11.
AWS 클라우드 환경 보안점검을 오픈소스(Prowler)로 자동화 수행 Prowler는 AWS 환경에서 보안 점검을 수행하는 오픈 소스 도구 중 하나입니다. 아래는 Prowler를 사용하여 AWS 환경 보안 점검을 수행하는 단계별 구체적인 지침입니다. 이러한 지침은 Prowler의 기본 사용 방법을 안내하며, 상황에 따라 추가적인 구성이 필요할 수 있습니다. 참고: Prowler를 실행하기 전에 AWS CLI 및 AWS 계정에 액세스할 권한이 필요합니다. 단계 1: Prowler 설치 Prowler를 사용하려면 먼저 다음 단계를 따라 Prowler를 설치해야 합니다. Prowler GitHub 저장소에서 Prowler를 다운로드합니다. git clone https://github.com/toniblyx/prowler Prowler 디렉터리로 이동합니다. cd prowler .. 2023. 10. 10.
휴가철 항공권 정보를 수집해서 카카오톡 메세지로 받아보기 네이버 항공권 정보 크롤링을 위한 과정을 상세하게 정리하겠습니다. 아래는 크롤링 과정을 단계별로 나눈 것입니다. 단계 1: 필요한 라이브러리 가져오기 먼저, 크롤링을 위해 필요한 라이브러리를 가져옵니다. 이 과정에서 selenium과 BeautifulSoup를 사용합니다. selenium은 웹 브라우저 자동화를 위해 사용되며, BeautifulSoup은 HTML 문서를 파싱하기 위해 사용됩니다. from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys from bs4 import BeautifulSoup import time 단계 2: 크롬 드.. 2023. 10. 3.