通过对robots.txt文件的分析,发现这个文件都有一个共同点,那就是都含有"User-agent:*"这个关键字,所以我们可以利用Google Hack来查找网站的robots.txt
我们只需要在Google里输入
intext:"User-agent:*" inurl:robots.txt"
intext:"Mediapartners-Google" inurl:"robots.txt"
intext:"Disallow:" inurl:robots.txt
intext:"Allow:" inurl:"robots.txt"
inurl:robots.txt
等语句就可以搜索存在robots.txt文件的网站的信息了
总结:其实利用Google hacking 来踩点就是利用一些关键字来查询,而且关键字最好要是世界上独一无二的那么收集的信息就越全面。利用Google hacking来入侵同样也是利用关键字,他的原理是很简单,语法也不多给了我们自己最大的自由发挥空间。利用它来入侵网站看上去是很合法的,所以他的隐藏性也是很强的,只有灵活的运用它才能够达到最大的效果。
下面给出一些最常见的语句,这些语句是一小部分,大部分是国外网站上公布出来的。可以作为自己的以后构造语句的参考。最新的语句请看http://johny.ihackstuff.com
allinurl:bbs data
查找所有bbs中的含有data的URL
filetype:mdb inurl:database
查找含有database的URL,且查找后缀名为mdb的文件
filetype:inc conn
查找含有后缀名为inc conn的文件
inurl:data filetype:mdb
查找含有data的URL,且查找后缀名为mdb的文件
intitle:"index of" data
查找网页标题中含有"index of"data的网页
intitle:"index of" .sh_history
查找网页标题中含有"Index of" .sh_history的网页
intitle:"Index of" .bash_history
查找网页标题中含有"Index of" .bash_history的网页
intitle:"index of" password
查找网页标题中含有"index of"passwd的网页