当前位置: 首页 > news >正文

网站页面设计多少钱搜狗友链交换

网站页面设计多少钱,搜狗友链交换,房产网站如何做,智慧团建网站入口官网本文主要针对python使用urlretrieve或urlopen下载百度、搜狗、googto(谷歌镜像)等图片时,出现"无法打开图片或已损坏"的问题,作者对它进行简单的探讨。同时,作者将进一步帮你巩固selenium自动化操作和urllib…

本文主要针对python使用urlretrieve或urlopen下载百度、搜狗、googto(谷歌镜像)等图片时,出现"无法打开图片或已损坏"的问题,作者对它进行简单的探讨。同时,作者将进一步帮你巩固selenium自动化操作和urllib库等知识。

一. 引入Selenium自动爬取百度图片

        下面这部分Selenium代码的主要功能是:
            1.先自动运行浏览器,并访问百度图片链接:百度图片-发现多彩世界
            2.通过driver.find_element_by_xpath()函数获取输入框的位置;
            3.在输入框中自动输入搜索关键词"邓肯",再输入回车搜索"邓肯"相关图片;
            4.再通过find_element_by_xpath()获取图片的原图url,这里仅获取一张图片;
            5.调用urllib的urlretrieve()函数下载图片。
        最后整个动态效果如下图所示,但是图片却无法显示:


        代码如下: 

# -*- coding: utf-8 -*-
importurllib  
importre  
importtime  
importos  
fromselenium import webdriver            
fromwebdriver.common.keys importKeys   
importwebdriver.support.ui as ui  
fromwebdriver.common.action_chains importActionChains           #Open PhantomJS
#driver = webdriver.PhantomJS(executable_path="G:\phantomjs-1.9.1-windows\phantomjs.exe")  
driver = webdriver.Firefox()   
wait = ui.WebDriverWait(driver,10)  #Search Picture By Baidu
url = "http://image.baidu.com/"
name = u"邓肯"
get(url)  
elem_inp = driver.find_element_by_xpath("//form[@id='homeSearchForm']/span[1]/input")    
send_keys(name)    
send_keys(Keys.RETURN)  
sleep(5)  #Get the URL of Pictures
#elem_pic = driver.find_element_by_xpath("//div[@class='imgpage']/ul/li/div/a")
elem_pic = driver.find_element_by_xpath("//div[@class='imgpage']/ul/li/div/a/img")  
elem_url = elem_pic.get_attribute("src")  
printelem_url  #Download Pictures
get(elem_url)  
urlretrieve(elem_url,"picture.jpg")  
print"Download Pictures!!!"

二. 简单分析原因及知识巩固

       1.urllib.urlretrieve()
       通过urlretrieve()函数可设置下载进度发现图片是一下子就加载的。这里给大家巩固这个urlretrieve函数的方法和Python时间命名方式,代码如下:

# -*- coding: utf-8 -*-
importurllib  
importtime  
importos  #显示下载进度
defschedule(a,b,c):  
#a:已下载的数据块 b:数据块的大小 c:远程文件的大小  
per = 100.0 * a * b / c  
ifper > 100 :  
per = 100  
print'%.2f%%' % per  if__name__ == '__main__':  
url = "http://img4.imgtn.bdimg.com/it/u=3459898135,859507693&fm=11&gp=0.jpg"
#定义文件名时间命名  
t = time.localtime(time.time())  
#反斜杠连接多行
filename = str(t.__getattribute__("tm_year")) + "_"+ \  
str(t.__getattribute__("tm_mon")) + "_"+ \  
str(t.__getattribute__("tm_mday"))  
target = "%s.jpg"% filename  
printtarget  
urlretrieve(url,target,schedule)  
print"Download Picture!!!"  

        发现该图片的大小仅为168字节,其中输出结果如下图,获取的URL地址如下:
页面不存在_百度搜索 
而换张图片是能显示下载进度的,如我的头像。显然我想让程序加个进度就能爬取图片的想法失败。头像地址:https://avatar.csdn.net/F/8/5/1_eastmount.jpg

        猜测可能获取的百度URL不是原图地址,或者是个服务器设置了相应的拦截或加密。参考"Python爬虫抓取网页图片",函数相关介绍如下:

>>> help(urllib.urlretrieve)  
Help on function urlretrieve inmodule urllib:  
urlretrieve(url, filename=None, reporthook=None, data=None)  参数url:
指定的下载路径  
参数finename:  
指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)  
参数reporthook:  
是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,
我们可以利用这个回调函数来显示当前的下载进度。
参数data:
指post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,  
filename 表示保存到本地的路径,header 表示服务器的响应头。

       2.urllib2.urlopen()
       换个方法urlopen()实现,同时设置消息头试试,并输出信息和图片大小。

# -*- coding: utf-8 -*-
importos        
importsys      
importurllib  
importurllib2  #设置消息头
url = "http://img4.imgtn.bdimg.com/it/u=3459898135,859507693&fm=11&gp=0.jpg"
header = {  
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) \  
AppleWebKit/537.36 (KHTML, like Gecko) \  
Chrome/35.0.1916.114 Safari/537.36',  
'Cookie': 'AspxAutoDetectCookieSupport=1'
}  
request = urllib2.Request(url, None, header)  
response = urllib2.urlopen(request)  
printheaders['Content-Length']  with open("picture.jpg","wb") as f:  
write(response.read())  
printgeturl()  
printinfo()    #返回报文头信息
printurlopen(url).read()  

        返回内容是”HTTPError: HTTP Error 403: Forbidden“,Selenium打开如下:

 其中403错误介绍如下,服务器拒绝服务:

        换成我的博客图像那张图是能下载的,同时设置消息头和代理,推荐一篇文章:
        [Python]网络爬虫(五):urllib2的使用细节与抓站技巧


 

三. 解决方法

        主要参考三篇文章和自己的一些想法:
        selenium+python 爬取网络图片(2) -- 百度
        Python 3 多线程下载百度图片搜索结果
        CSDN博客搬家到WordPress  - curl设置headers爬取

        第一个方法 F12审查元素和SRC的骗局
        这是感谢"露为霜"同学提供的方法,如果你通过浏览器点开百度搜索"邓肯"的第一张图片,复制网址后,会发现图片真实的地址为:
        http://gb.cri.cn/mmsource/images/2015/11/22/sb2015112200073.jpg
        此时你再分析百度搜索页面,你会发现"F12审查元素和获取src元素的行为欺骗了你",正是因为它俩定位到了错误的图片链接。而真实的URL是在"ul/li/"中的"data-objurl"属性中。

        代码如下: 

# -*- coding: utf-8 -*-
importurllib  
importre  
importtime  
importos  
fromselenium import webdriver            
fromwebdriver.common.keys importKeys  
importwebdriver.support.ui as ui          
fromwebdriver.common.action_chains importActionChains  #Open PhantomJS
#driver = webdriver.PhantomJS(executable_path="G:\phantomjs-1.9.1-windows\phantomjs.exe")  
driver = webdriver.Firefox()   
wait = ui.WebDriverWait(driver,10)  #Search Picture By Baidu
url = "http://image.baidu.com/"
name = u"邓肯"
get(url)  
elem_inp = driver.find_element_by_xpath("//form[@id='homeSearchForm']/span[1]/input")    
send_keys(name)    
send_keys(Keys.RETURN)  
sleep(5)  #Get the URL of Pictures
num = 1  
elem_pic = driver.find_elements_by_xpath("//div[@class='imgpage']/ul/li")  
forelem inelem_pic:  
elem_url = elem.get_attribute("data-objurl")  
printelem_url  
#Download Pictures
name = "%03d"% num  
urlretrieve(elem_url, str(name) + ".jpg")  
num = num + 1  
else:  
print"Download Pictures!!!"  

        运行代码成功爬取了9张图片,显然成功了!虽然最后报错:IOError: [Errno socket error] [Errno 10060] ,只爬取了9张图片,但是至少可以正确解决了该问题。运行截图如下所示:

        同样的道理,googto的elem.get_attribute("src")改成elem.get_attribute("data-imgurl")即可获取正确的图片地址并正确下载。
        PS:百度图片动态加载的功能是非常强大的,当你的鼠标拖动时,它会自动增加新的页面,在<ul>中包括新的一批<li>张图片,这也是不同于其它网页在右下角点击"1、2、3..."翻页的,可能也会成为海量图片爬取的又一难点。

        第二个方法 Selenium使用右键另存为
        还是使用老的链接,虽然读取是无法显示的,但尝试通过Selenium的鼠标右键另存为功能,看能不能爬取成功。

# -*- coding: utf-8 -*-
importurllib  
importre  
importtime  
importos  
fromselenium import webdriver            
fromwebdriver.common.keys importKeys  
importwebdriver.support.ui as ui          
fromwebdriver.common.action_chains importActionChains  #Open PhantomJS 
driver = webdriver.Firefox()  
wait = ui.WebDriverWait(driver,10)  #Search Picture By Baidu
url = "http://image.baidu.com/"
name = u"邓肯"
get(url)  
elem_inp = driver.find_element_by_xpath("//form[@id='homeSearchForm']/span[1]/input")    
send_keys(name)    
send_keys(Keys.RETURN)  
sleep(5)  #Get the URL of Pictures
elem_pic = driver.find_element_by_xpath("//div[@class='imgpage']/ul/li/div/a/img")  
elem_url = elem_pic.get_attribute("src")  
printelem_url  #鼠标移动至图片上右键保存图片
get(elem_url)  
printpage_source  
elem = driver.find_element_by_xpath("//img")  
action = ActionChains(driver).move_to_element(elem)  
context_click(elem) #右键#当右键鼠标点击键盘光标向下则移动至右键菜单第一个选项
send_keys(Keys.ARROW_DOWN)  
send_keys('v') #另存为
perform()  
print"Download Pictures!!!"

        运行效果如下图所示。虽然它能实现右键另存为,但是需要手动点击保存,其原因是selenium无法操作操作系统级的对话框,又说"set profile"代码段的设置能解决问题的并不靠谱。通过钩子Hook函数可以实现,以前做过C#的钩子自动点击功能,但是想到下载图片需要弹出并点击无数次对话框就很蛋疼,所以该方法并不好!
        钩子函数java版本结合robot可以阅读下面这篇文章:
        selenium webdriver 右键另存为下载文件(结合robot and autoIt)


        第三个方法 通过Selenium自动点击百度的下载按钮
        其实现过程就是通过Selenium找到"下载"按钮,再点击或获取链接即可。
        该方法参考文章:selenium+python 爬取网络图片(2) -- 百度
        同时,这里需要强调百度动态加载,可以通过Selenium模拟滚动窗口实现,也参考上面文章。其中核心代码为:

        driver.maximize_window()pos += i*500   # 每次下滚500js = "document.documentElement.scrollTop=%d" % posdriver.execute_script(js)


       第四个方法 百度图片解码下载及线程实现
       参考文章:Python 3 多线程下载百度图片搜索结果

http://www.hengruixuexiao.com/news/29305.html

相关文章:

  • 怎样做网站图清晰如何优化网络
  • 车都建设投资集团网站网店代运营
  • 模板网站建设 百度北京网站seo招聘
  • wordpress怎么换域名长尾词seo排名优化
  • 公司网站建设如何撤销四川疫情最新消息
  • 响应式网站的制作网站制作网络推广公司是干嘛的
  • wordpress网站地图生成插件广东疫情最新数据
  • wordpress获取专题名武汉seo网站优化排名
  • 企业网站色彩网络推广费用大概价格
  • 临汾市网站建设小程序推广运营的公司
  • 金华自助建站网站怎么做出来的
  • 保山做网站武汉做seo
  • 安全的响应式网站建设seo快速软件
  • 日本做苹果壁纸的网站去哪里推广软件效果好
  • 网站后台管理系统的重要技术指标免费推广网站平台
  • 无锡做网站设计的企业seo教学网站
  • 做 商城 网站 费用网络营销推广系统
  • 邹城网站建设哪家好知乎seo排名的搜软件
  • 专门做门业的网站网站收录提交入口大全
  • 宁波市房产交易信息服务网广东的seo产品推广服务公司
  • 狗和人做网站电子商务网络营销
  • wordpress第三方收款搜索关键词优化服务
  • 搭建网站视频教程宁波seo深度优化平台
  • 编程 给别人做网站优化大师使用心得
  • 北辰网站建设公司太原网站制作网络营销买什么好
  • 做游戏网站需要注意的问题网站建设情况
  • 怎么改wordpress的html5温州网站优化推广方案
  • 做网站根据内容生成pdf小红书seo排名帝搜软件
  • 专注武汉手机网站建设怎么写网站
  • 东莞网站建设业务的公司中国国家人事人才培训网