본문 바로가기

Crawling3

Google Sheets API 통해 Python으로 구글시트 콘텐츠 활용 Google Sheets API를 사용하여 Python에서 Google Sheets의 내용을 크롤링하고 OAuth 2.0 인증을 사용하는 과정은 몇 가지 단계로 나눌 수 있습니다. 여기서는 Google Sheets API를 사용하여 데이터를 읽는 기본적인 방법을 소개합니다. 1단계: Google Cloud Platform 프로젝트 생성 및 설정 Google Cloud Console에서 새 프로젝트를 생성합니다. "API 및 서비스" 대시보드로 이동하여 "사용 설정"을 클릭하고 "Google Sheets API"를 검색한 다음 사용 설정합니다. "사용자 인증 정보" 페이지로 이동하여 "사용자 인증 정보 만들기"를 클릭하고 "OAuth 클라이언트 ID"를 선택합니다. 애플리케이션 유형으로 "데스크톱 앱"을 .. 2024. 3. 26.
Domain SQL Injector - Find SQL Injection on all sites hosted on server Hey Guys, Sharing a private python script - "Domain SQL Injector - Error Based SQLi Tool" The script has following features: 1. Crawling : it can crawl all or requested number of pages on a website 2. Reverse IP Look Up : it can find all sites hosted on a shared hosting server 3. Single-Mode Attack : Crawl and find SQLi on single website and report 4. Mass-Mode Attack : Find all sites hosted on .. 2012. 3. 31.
OWASP AJAX Crawling Tool (update) Enumerating AJAX Applications with ACT (AJAX Crawling Tool) This demo shows how the AJAX Crawling Tool can be used in conjunction with your favorite proxy to fully enumerate and test AJAX applications. The purpose of the video is to: 1) Demonstrate how traditional spidering tools do not enumerate entire applications 2) How to run a basic ACT session and attacking it's findings using a proxy 출처 .. 2012. 1. 6.