혜랑's STORY

[2020-2학기 웹] : Broken Auth - Insecure Login Forms / Robots File 본문

2020 SISS 21기 활동/2학기 WEB

[2020-2학기 웹] : Broken Auth - Insecure Login Forms / Robots File

hyerang0125 2020. 10. 29. 15:38

# Broken Auth - Insecure Login Forms

- low level

해결 : 소스코드를 살펴본 뒤, 로그인 할 수 있는 정보를 찾아 접속하기

low level 소스코드

 이 소스코드를 살펴보면, 아이디와 비밀번호가 흰색 글자로 숨겨져 있다는 것을 알 수 있다. 따라서 아이디에 'tonystark', 비밀번호에 'I am Iron Man'을 입력하면 로그인 할 수 있다.

low level 결과

- medium level

해결 : 소스코드를 살펴본 뒤, 로그인 할 수 있는 정보를 찾아 접속하기

medium level 소스코드(1)
medium level 소스코드(2)

 이 소스코드를 찾아보면, charAt(N)함수를 이용하여 bWAPP의 문자열의 N번째 문자를 반환하는 비밀번호흫 가진다는 것을 알 수 있다. 따라서 secret 값을 해석하면 'hulk smash!'라는 값을 가진다는 것을 알 수 있다.

medium level 실행결과

 

# Robots File

(1) Robots.txt란?

Robots.txt 파일이란 웹 크롤러(Web Crawlers)와 같은 착한 로봇들의 행동을 관리하는 것을 말한다. 이 파일은 HTML 마크업 코드가 없고 웹사이트의 다른 파일들처럼 웹 서버에 호스팅 된다. 파일은 사이트의 어디에도 연결되지 않아 사용자가 파일을 우연히 볼 일은 적지만 대부분의 웹 크롤러 봇들은 나머지 사이트를 크롤링하기 전에 먼저 이 파일을 찾는다. 

>> Robots.txt 기본 문법

  • User-Agent : 웹사이트 관리가자 어떤 종류의 로봇이 크롤링을 하는지 알 수 있게 돕는다.
  • Disallow : 이 명령은 어떤 웹페이지 URL을 크롤링 하지 않아야 하는지 알려준다.
  • Allow : 모든 검색엔진이 이 명령을 인식하지는 않지만 특정 웹페이지나 디렉토리에 접근하라는 명령이다.
  • Crawl-delay : 검색엔진 스파이더 봇이 서버를 과도하게 사용하지 못하도록 대기하라는 명령이다.
  • Robots Exclusion Protocol
  • Sitemaps Protocol

- low level

 bWAPP 'robots.txt'파일 내용을 확인해 본 결과, 'GoosBot' 봇은 사이트 크롤링이 가능하며 'BadBot'봇은 모든 디렉토리 접근이 불가능 하다는 것을 알 수 있었다. 모든 봇들은 /admin/, /documents/, /images/, /passwords/ 디렉토리 접근이 불가능 하다는 것을 알 수 있다.

admin 정보확인
passwords 정보확인