乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      Python爬取新浪微博評(píng)論

       quanshan 2019-01-22

      • 環(huán)境: Python3 + windows。

      • 開(kāi)發(fā)工具:Anaconda + Jupyter / VS Code。

      • 學(xué)習(xí)效果:

        1. 認(rèn)識(shí)爬蟲(chóng) / Robots協(xié)議

        2. 了解瀏覽器開(kāi)發(fā)者工具

        3. 動(dòng)態(tài)加載頁(yè)面的處理

        4. 手機(jī)客戶(hù)端頁(yè)面的數(shù)據(jù)采集

      Robots.txt 協(xié)議

      Robots協(xié)議,也稱(chēng)為爬蟲(chóng)協(xié)議

      網(wǎng)站通過(guò)Robots協(xié)議告訴搜索引擎哪些頁(yè)面可以抓取,哪些頁(yè)面不能抓取。Robots是一個(gè)協(xié)議,而不是一個(gè)命令。Robots.txt文件是一個(gè)文本文件,是放置在網(wǎng)站根目錄下,使用任何一個(gè)常見(jiàn)的文本編輯器,就可以創(chuàng)建和編輯它。Robots.txt是搜索引擎中訪(fǎng)問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件,其主要的作用就是告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。

      Robots協(xié)議是國(guó)際互聯(lián)網(wǎng)界通行的道德規(guī)范。約定俗成。

      Python代碼

      • 導(dǎo)入模塊
      1 import requests
      2 import pandas
      3 import json
      4 import time
      • 反爬
      復(fù)制代碼
      1 head = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:56.0) Gecko/20100101 Firefox/56.0'}
      2 Cookie = {'Cookie':'_T_WM=f6d406d777aafb7ed7671865d1f83799; SUB=_2A2504yPYDeRhGeNO6VMY9SvEyTuIHXVULE2QrDV6PUJbkdAKLW_YkW0b_QKWV_mSPrmPv7aZsGtGMxBDlQ..; SUHB=079ja78HU_LZCb; SCF=AmqC1lSo0254S3K0WtBQVQwXfOSQ7ivbLAOSCObPteJy5JckO3l0ZH7pSTuid_JRXlWylgjTetdZzQcModbM4A4.; H5:PWA:UID=1; M_WEIBOCN_PARAMS=featurecode%3D20000320%26oid%3D4160547165300149%26luicode%3D20000061%26lfid%3D4160547165300149; H5_INDEX=0_all; H5_INDEX_TITLE=%E6%8C%96%E6%8E%98%E6%9C%BA%E5%A4%A7%E7%8E%8B%E5%AD%90'}
      復(fù)制代碼
      復(fù)制代碼
       1 url = 'https://m.weibo.cn/api/comments/show?id=4160547165300149&page=2'
       2 html = requests.get(url,headers = head, cookies = Cookie)
       3 ii = 1
       4 while html.status_code==200:
       5     ii = ii+1
       6     url_next='https://m.weibo.cn/api/comments/show?id=4160547165300149&page='+str(ii)                   
       7     
       8     try:
       9         for jj in range(1,len(html.json()['data'])):
      10             data1 = [(html.json()['data'][0]['id'],
      11              html.json()['data'][jj]['user']['screen_name'],
      12              html.json()['data'][jj]['created_at'],
      13              html.json()['data'][jj]['source'],
      14             html.json()['data'][jj]['user']['id'],
      15             html.json()['data'][jj]['user']['profile_url'],
      16             html.json()['data'][jj]['user']['profile_image_url'],
      17              html.json()['data'][jj]['text'])]
      18             data2 = pandas.DataFrame(data1,columns=['莫名id','評(píng)論者昵稱(chēng)','評(píng)論時(shí)間','手機(jī)版本','用戶(hù)id','評(píng)論者主頁(yè)','評(píng)論者頭像','評(píng)論內(nèi)容'])
      19             data2.to_csv('D:/Windows 7 Documents/Desktop/My/weibo2.csv', header=False,index=False,mode='a+') #寫(xiě)入csv文件,'a+'是追加模式
      20     
      21     except:
      22         
      23         None
      24     
      25     time.sleep( 2 )
      26                         
      27     html=requests.get(url_next,cookies=Cookie,headers=head)
      復(fù)制代碼

      Python發(fā)展方向

      • 數(shù)據(jù)分析/數(shù)據(jù)挖掘

        關(guān)聯(lián)分析【啤酒與尿布】,聚類(lèi)分析 ,判別分析 ,隨機(jī)森林 .

      • 人工智能

        一種能以人類(lèi)智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等。例如AlphaGo , AlphaGo Zero.

      • Python運(yùn)維

        不會(huì)開(kāi)發(fā)的運(yùn)維終將被淘汰?。?!

      • WEB開(kāi)發(fā)

        開(kāi)發(fā)網(wǎng)站,例如豆瓣網(wǎng)。側(cè)重于實(shí)戰(zhàn)?。?!

      • Python爬蟲(chóng)

        采集網(wǎng)絡(luò)數(shù)據(jù),為數(shù)據(jù)分析或大數(shù)據(jù)等提供支持,大型的比如Google,百度等。側(cè)重于實(shí)戰(zhàn)!??!

       

        本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
        轉(zhuǎn)藏 分享 獻(xiàn)花(0

        0條評(píng)論

        發(fā)表

        請(qǐng)遵守用戶(hù) 評(píng)論公約

        類(lèi)似文章 更多