1. <ul id="0c1fb"></ul>

      <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
      <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区

      RELATEED CONSULTING
      相關(guān)咨詢
      選擇下列產(chǎn)品馬上在線溝通
      服務(wù)時(shí)間:8:30-17:00
      你可能遇到了下面的問題
      關(guān)閉右側(cè)工具欄

      新聞中心

      這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地-創(chuàng)新互聯(lián)

      這篇文章將為大家詳細(xì)講解有關(guān)使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。

      網(wǎng)站建設(shè)哪家好,找成都創(chuàng)新互聯(lián)!專注于網(wǎng)頁設(shè)計(jì)、網(wǎng)站建設(shè)、微信開發(fā)、小程序定制開發(fā)、集團(tuán)企業(yè)網(wǎng)站建設(shè)等服務(wù)項(xiàng)目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了米林免費(fèi)建站歡迎大家使用!

      其實(shí)和爬取普通數(shù)據(jù)本質(zhì)一樣,不過我們直接爬取數(shù)據(jù)會(huì)直接返回,爬取圖片需要處理成二進(jìn)制數(shù)據(jù)保存成圖片格式(.jpg,.png等)的數(shù)據(jù)文本。

      現(xiàn)在貼一個(gè)url=https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg
      請(qǐng)復(fù)制上面的url直接在某個(gè)瀏覽器打開,你會(huì)看到如下內(nèi)容:

      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地

      這就是通過網(wǎng)頁訪問到的該網(wǎng)站的該圖片,于是我們可以直接利用requests模塊,進(jìn)行這個(gè)圖片的請(qǐng)求,于是這個(gè)網(wǎng)站便會(huì)返回給我們?cè)搱D片的數(shù)據(jù),我們?cè)侔褦?shù)據(jù)寫入本地文件就行,比較簡單。

      import requests
      headers={
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
      url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'
      re=requests.get(url,headers=headers)
      print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
      path='test.jpg'#文件儲(chǔ)存地址
      with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
            for chunk in re.iter_content(chunk_size=128):
              f.write(chunk)

      然后得到test.jpg圖片,如下

      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地

      點(diǎn)擊打開查看如下:

      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地

      便是下載成功辣,很簡單吧。

      現(xiàn)在分析下批量下載,我們將上面的代碼打包成一個(gè)函數(shù),于是針對(duì)每張圖片,單獨(dú)一個(gè)名字,單獨(dú)一個(gè)圖片文件請(qǐng)求,于是有如下代碼:

      import requests
      def get_pictures(url,path):
        headers={
          'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'} 
        re=requests.get(url,headers=headers)
        print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
        with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
              for chunk in re.iter_content(chunk_size=128):
                f.write(chunk)
      url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'
      path='test.jpg'#文件儲(chǔ)存地址
      get_pictures(url,path)

      現(xiàn)在要實(shí)現(xiàn)批量下載圖片,也就是批量獲得圖片的url,那么我們就得分析網(wǎng)頁的代碼結(jié)構(gòu),打開原始網(wǎng)站

      于是我們需要分別得到該頁面中顯示的所有圖片的url,于是我們?cè)俅斡胷equests模塊返回當(dāng)前該頁面的內(nèi)容,如下:

      import requests
      headers={
          'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
      url='https://www.ivsky.com/tupian/bianxingjingang_v622/'
      re=requests.get(url,headers=headers)
      print(re.text)

      運(yùn)行會(huì)返回當(dāng)前該頁面的網(wǎng)頁結(jié)構(gòu)內(nèi)容,于是我們找到和圖片相關(guān)的也就是.jpg或者.png等圖片格式的字條,如下:

      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地

      上面圈出來的**//img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg**便是我們的圖片url,不過還需要前面加上https:,于是完成的url就是https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg。

      我們知道了這個(gè)結(jié)構(gòu),現(xiàn)在就是把這個(gè)提取出來,寫個(gè)簡單的解析式:

      import requests
      headers={
          'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
      url='https://www.ivsky.com/tupian/bianxingjingang_v622/'
      re=requests.get(url,headers=headers)
      def get_pictures_urls(text):
        st='img src="'
        m=len(st)
        i=0
        n=len(text)
        urls=[]#儲(chǔ)存url
        while i

      打印結(jié)果如下:
      使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地

      得到了url,現(xiàn)在就直接放入一開始的get_pictures函數(shù)中,爬取圖片辣。

      import requests
      def get_pictures(url,path):
        headers={
          'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
        re=requests.get(url,headers=headers)
        print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
        with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
              for chunk in re.iter_content(chunk_size=128):
                f.write(chunk)
      def get_pictures_urls(text):
        st='img src="'
        m=len(st)
        i=0
        n=len(text)
        urls=[]#儲(chǔ)存url
        while i

      關(guān)于使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。


      網(wǎng)頁名稱:使用Python爬蟲怎么將網(wǎng)頁圖片保存到本地-創(chuàng)新互聯(lián)
      分享網(wǎng)址:http://ef60e0e.cn/article/depdge.html
      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区
      1. <ul id="0c1fb"></ul>

        <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
        <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

        中卫市| 丰县| 隆昌县| 杭锦后旗| 奇台县| 贺州市| 会东县| 乐山市| 郁南县| 阳山县| 广州市| 天气| 南充市| 南郑县| 郧西县| 拜泉县| 城固县| 兴安县| 巴南区| 青浦区| 弋阳县| 定陶县| 新干县| 剑河县| 股票| 莱阳市| 大英县| 嘉鱼县| 镇赉县| 札达县| 保山市| 新绛县| 丰顺县| 永新县| 甘德县| 永修县| 榆树市| 洛隆县| 大安市| 上饶市| 邵武市|