출처 : https://www.wireshark.org/docs/wsug_html_chunked/ChAppFilesConfigurationSection.html

The majority of the penetration testers are using the Mozilla Firefox as a web browser for their pentest activities.This article will introduce the firefox addons that can be used for a web application penetration test.


1) Firebug

It is useful for the debugging tools that can help you tracking rogue javascript code on servers.


2) User Agent Switcher

You can use this extension to change the user agent of your browser.Useful for web application penetration tests that you want to check and the mobile versions of the websites.


3) Hackbar

Useful for SQL injection and XSS attacks.It includes also tools for URL and HEX encoding/decoding and many more.


4) HttpFox

Monitor and analyze all the incoming and outgoing HTTP traffic between your browser and the web server.


5) Live HTTP Headers

View the HTTP headers of a website instantly.


6) Tamper Data

View and modify HTTP/HTTPS headers and post parameters.


7) ShowIP

Shows the IP of the current page in the status bar.It also includes information like the hostname,the ISP,the country and the city.


8) OSVDB

Open Source Vulnerability Database Search.


9) Packet Storm search plugin

Search the packet storm database for exploits,tools and advisories.


10) Offsec Exploit-db Search

Search the Exploit-db archive.


11) Security Focus Vulnerabilities Search Plugin

Search for vulnerabilities in the Security Focus


12) Cookie Watcher

Watch the selected cookie in the status bar.


13) Header Spy

Shows HTTP Headers on status bar


14) Groundspeed

Manipulate the application user interface.


15) CipherFox

Displays the current SSL/TLS cipher and certificate on the status bar.


16) XSS Me

Tool for testing reflected XSS vulnerabilities.


17) SQL Inject Me

Extension to test SQL Injection vulnerabilities.


18) Wappalyzer

Discover technologies and applications that are used on websites.


19) Poster

Make HTTP requests,interact with web services and watch the output.


20) Javascript Deobfuscator

Show the JavaScript code that are running on web pages.


21) Modify Headers

Modify HTTP request headers.


22) FoxyProxy

Advanced proxy management tool.


23) FlagFox

Displays a country flag for the location of the web server.It also includes tools such as Whois,Geotool,Ping,Alexa etc.


24) Greasemonkey

Customize the way a webpage behaves by using small bits of JavaScript.


25) Domain Details

Displays Server Type, Headers, IP Address, Location Flag, and links to Whois Reports.


26) Websecurify

Useful for security assessments in web applications.


27) XSSed Search

Search the cross-site scripting database at XSSed.Com


28) ViewStatePeeker

ASP.NET viewstate viewer.


29) CryptoFox

CryptoFox is an encryption/decryption tool for cracking MD5 passwords.


30) WorldIP

Location of the web server,IP,Datacenter,Ping,Traceroute,RDNS,AS etc.


31) Server Spy

Unveils the technology of the web server (Apache, IIS etc.)


32) Default Passwords

Search CIRT.net default password database.


33) Snort IDS Rule Search

Search for Snort IDS Rules.

출처 : http://www.hacoder.com/2015/10/firefox-addons-for-penetration-testing/

'Web Penetration' 카테고리의 다른 글

PENETRATION TESTING PRACTICE LAB - VULNERABLE APPS / SYSTEMS  (0) 2015.11.24

 1. 서론

포스트리뷰중에 'robots.txt 파일에 접근하는 클라이언트를 차단 하는것이 적절한가' 라는 주제로 얘기했던게 생각나서, 해킹과 보안 관점에서 robots.txt를 정리해봤다.

사진출처 : harcoder


 2. robots.txt란?

robots.txt는 로봇 배제 표준(robots exclusion protocol)으로 알려진 규약으로서 해당 웹사이트에 대한 크롤링 지침을 전달하기 위한 용도로 사용된다. 쉽게 말해 접근 가능/불가능한 페이지, 디렉토리, 크롤러를 명시함으로서 크롤러를 제어 할 수있는 파일이다. 하지만 robots.txt 파일에 페이지, 디렉토리, 크롤러를 명시한다고 해도 접근이 불가능한 것은 아니다. 파일에 명시한 내용은 단순 '규약' 일뿐, 이를 어긴다고 문제가 될 건 없기 때문이다. 또한, 일반적인 웹 브라우저를 통해서 접근하는 클라이언트는 제어 할 수 없다.

 3. 해킹 관점에서의 robots.txt

민감한 정보를 포함하고 있는 'juicy'라는 페이지가 존재하고, 이 페이지의 경로는 관리자만 알고 있다고 가정해보자. 그럼 무차별 대입(Brute force)과 추측(Guessing) 방법 이외에는 이 페이지의 존재여부를 알 수 없을 것이다. 하지만 악의적 목적을 가진 해커가 robots.txt 파일에 접근하여 'juicy' 페이지가 Disallow로 설정 된 것을 확인한다면, 'juicy' 페이지에 흥미로운 정보가 있다고 추측 할 것이고, 해당 페이지에 접근하여 민감한 정보를 획득하려고 할 것이다. 하지만 접근제어 설정이 적용되어 있어서 'juicy' 페이지에 접근하지 못해도, 해커가 정보를 취할 수 있는 여지는 남아있다. 서버 운영자의 접근제어 설정 실수를 노리고 해당 페이지에 매일 접근 시도를 할 수도 있고, Disallow 설정이 되 있지만, 접근 제어 설정은 되 있지 않은 다른 페이지에 접근해서 주석처리 된 id/password를 운 좋게 획득할 수도 있다. 또한 robots.txt 파일의 내용을 통해 해당 서버의 디렉토리 구조도 어느 정도 파악하는 등 해커에게 정보를 제공할 수 있다. 이러한 이유 때문에 일부 취약점 스캐너들은 robots.txt 파일을 점검 항목에 포함한다. 아래 그림은 취약점 스캐너 Nikto의 점검 결과이다.


 4. 보안 관점에서의 robots.txt

침해사고를 예방하기 위해 취약점 점검을 받으면 robots.txt 파일이 없기 때문에, 대형검색엔진의 크롤러 봇들에 의해 개인정보가 노출될 가능성이 있다는 진단 결과를 받을 수도 있다. 하지만 앞서 살펴 봤듯이 robots.txt는 누구나 접근가능하고, 해커에게 정보를 제공할 수도 있는 파일이므로 접근제어 설정과의 적절한 조화가 필요하다. 먼저 로봇 배제 표준보다 접근제어 설정이 우선시 되어야하며, 클라이언트에게 [403]Forbidden 페이지보다는 [404]Not Found 페이지를 보여주도록 함으로써, 해커에게 정보를 주지 않도록 한다. 또한, 로봇 배제 표준은 크롤러의 접근을 제어하는 것이 목적이므로, Disallow 설정보다 User-agent 설정을 우선시하여, Disallow 설정으로 보여지는 디렉토리와 페이지 정보를 최소화 해야한다.

 5. 결론

이 글을 작성한 이유인 'robots.txt 파일에 접근하는 클라이언트를 차단 하는것이 적절한가'에 대한 나의 주장은 '당연히 차단해야 한다' 였다. 하지만 스캐닝성으로 robots.txt 파일에 접근하는 모든 IP의 웹로그를 일일히 분석하여 차단 근거를 확인 할 수는 없으므로, 개발자와 서버 운영자들이 정보보안에 관심을 가지고 적극적으로 협조하려는 자세가 동시에 수반되어야 할 것이다.



참고
https://en.wikipedia.org/wiki/Robots_exclusion_standard#About_the_standard
http://www.hacoder.com/2015/10/what-exactly-is-robots-txt-file/

'보안관제 > 보안관제 이벤트' 카테고리의 다른 글

중국 만리장성 방화벽  (0) 2016.01.06
PHP Remote Code Execution and Sending E-mail  (0) 2015.12.01
User-Agent: friendly-scanner  (0) 2015.11.25
base64 encode PHP Execute  (0) 2015.11.25
Hash Table DOS  (0) 2015.11.24

+ Recent posts