找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 52|回复: 6

请教一下python爬虫大佬

[复制链接]

162

主题

354

回帖

1254

积分

金牌会员

积分
1254
发表于 2018-6-6 02:43:41 | 显示全部楼层 |阅读模式
本帖最后由 流量之神 于 2020-5-4 23:36 编辑

用 requests.get(url) 下载的图片全是坏的。。。大小都是一样的
回复

使用道具 举报

19

主题

352

回帖

799

积分

高级会员

积分
799
发表于 2018-6-6 07:22:37 | 显示全部楼层
反扒了,加reference
回复

使用道具 举报

173

主题

1295

回帖

3191

积分

论坛元老

积分
3191
发表于 2018-6-6 07:34:09 | 显示全部楼层
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36Name','Referer':'https://t66y.com'}



加个headers就好了
回复

使用道具 举报

127

主题

1万

回帖

2万

积分

论坛元老

积分
22891
发表于 2018-6-6 07:44:45 | 显示全部楼层
楼主爬好之后能打包分享下吗。。
回复

使用道具 举报

23

主题

317

回帖

737

积分

高级会员

积分
737
发表于 2018-6-6 11:50:00 | 显示全部楼层
"

不分享的你别教……
回复

使用道具 举报

40

主题

211

回帖

616

积分

高级会员

积分
616
发表于 2018-6-6 08:21:43 | 显示全部楼层
加headers
回复

使用道具 举报

162

主题

354

回帖

1254

积分

金牌会员

积分
1254
 楼主| 发表于 2018-6-6 07:34:00 | 显示全部楼层

eqblog 发表于 2018-6-6 07:34

headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gec ...

大佬您来了



加了headers好像还是不行啊,图片的URL打开进去好像是一个网页,还得再解析一次HTML好像。。。http://www.siimg.com/i/?i=u/20180605/12045739.jpg 比如这个图片


[ol]
  • import re
  • import requests
  • import json
  • from multiprocessing import Pool
  • from requests.exceptions import RequestException
  • import os
  • from hashlib import md5
  • from bs4 import BeautifulSoup
  • headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36Name','Referer':'https://t66y.com'}
  • def get_page_index(offset):
  •     url = 'http://t66y.com/thread0806.php?fid=16&search=&page=' + str(offset)
  •     try:
  •         response = requests.get(url, headers = headers)
  •         response.encoding = 'gbk'
  •         if response.status_code == 200:
  •             return response.text
  •         return None
  •     except RequestException:
  •         print('请求索引页出错')
  •         return None
  • def parse_index_page(html):
  •     soup = BeautifulSoup(html, 'html.parser')
  •     h3s= soup.find_all('h3')
  •     for h3 in h3s:
  •         yield h3
  • def get_page_detail(url):
  •     try:
  •         response = requests.get(url, headers = headers)
  •         response.encoding = 'gbk'
  •         print(response.status_code)
  •         if response.status_code == 200:
  •             return response.text
  •         return None
  •     except ConnectionError:
  •         print('Error occurred')
  •         return None
  • def parse_page_detail(html2):
  •     pattern = re.compile('复制代码
  • 回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Archiver|手机版|小黑屋|Discuz! X

    GMT+8, 2025-5-8 19:05 , Processed in 0.019745 second(s), 3 queries , Gzip On, Redis On.

    Powered by Discuz! X3.5

    © 2001-2024 Discuz! Team.

    快速回复 返回顶部 返回列表