直接上代码吧,之前看了多线程,在这种io密集型情况下使用多线程效率会大大提高,但我写的时候就报错了,再研究一段时间再添加多线程吧。1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56import requests
import os
import re
dirs="D:/妹子图"
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 UBrowser/6.2.4094.1 Safari/537.36'}
def mkdir(): #创建文件夹
if not os.path.exists(dirs):
os.mkdir('D:/妹子图')
os.chdir('D:/妹子图')
print("D:/妹子图")
return True
else:
print("妹子图文件夹已存在")
return False
def get_max_page():#获取到最大的页面数
url="https://www.mzitu.com/zipai/"
r = requests.get(url,headers=headers)
result=re.findall("<span aria-current='page' class='page-numbers current'>(.*?)</span>",r.text,re.S)
return result[0]
def find_onepage_imgs(url):#匹配到一个页面里所有的图片地址以及上传时间
r=requests.get(url,headers=headers)
result=re.findall('<div class="comment-meta commentmetadata"><a href=".*?">(.*?)</a>.*?</div>.*?<p><img class="lazy".*?data-original="(.*?)".*?</p>',r.text,re.S)
return result
def download_onepage(onepage_list):
for j in onepage_list:
global a
path0=j[0].split()
path=path0[0][0:4]+path[0][5:7]+path[0][8:10]+path[1]+path[2][0:2]+path[2][3:5]#把上传时间切片后作为文件名
img=requests.get(j[1])
if os.path.exists(path+".jpg"):#因为上传时间可能相同,所以判断一下,如果相同就a+1
a=a+1
path=path+str(a)
with open(path+".jpg", 'wb+') as f:
print("下载第"+str(i)+"页提交于"+path0+"的图片")
f.write(img.content)
else:
a=1
with open(path+".jpg", 'wb+') as f:
print("下载第"+str(i)+"页提交于"+path0+"的图片")
f.write(img.content)
a=1
if __name__== '__main__':
mkdir()
max_page=get_max_page()
for i in range(int(max_page),1,-1):
onepage_list=find_onepage_imgs("http://www.mzitu.com/zipai/comment-page-"+ str(i)+"/#comments" )
download_onepage(onepage_list)
2019强网杯web Writeup
0x01随便注
1 | CREATE DATABASE supersqli; |
iscc2019 web wp
web1
这个涨姿势,chr()函数是模256,在原数加256即可绕过,intval可以用科学计数法绕过,payload如下1
password=2e5&value[]=375&value[]=307&value[]=364&value[]=355&value[]=304&value[]=365&value[]=357&value[]=351&value[]=340&value[]=367&value[]=351&value[]=329&value[]=339&value[]=323&value[]=323&value[]=306&value[]=304&value[]=305&value[]=313
web2
这题拿到了一血,因为我一发入魂,直接猜到996,果然ctf需要一点脑洞(联系到之前的996事件)。
可以用burp,删除cookie和user_code就能暴力破解过验证码了。
web3
这题是sql-libs原题,二次注入。
web4
parse_str()把查询字符串解析到变量中,存在变量覆盖,payload如下1
action=auth&key=1&hashed_key=6b86b273ff34fce19d6b804eff5a3f5747ada4eaa22f1d49c01e52ddb7875b4b
简单的代码审计
bugku里一些简单的代码审计题
extract变量覆盖
http://123.206.87.240:9009/1.php1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16<?php
$flag='xxx';
extract($_GET);
if(isset($shiyan))
{
$content=trim(file_get_contents($flag));
if($shiyan==$content)
{
echo'flag{xxx}';
}
else
{
echo'Oh.no';
}
}
?>
首先extract函数用来将变量从数组中导入到当前的符号表中。这里要让$shiyan==$content,那么只要给$flag和$shiyan变量同时传入空值即可。
1 | payload:shiyan=&flag= |
kali安装docker
第一步
1 |
|
第二步
1 |
|
第三步
1 |
|
使用aliyun镜像
我之前下载速度就像一滴一滴,还经常断掉,使用了阿里云镜像后,就像水管一样,一下就好了。阿里云镜像加速器