免费阿v视频-成人无码视频-成人免费毛片漫画-日韩av综合-亚洲欧洲一区-日韩欧美第一页-欧美黄色视屏-麻豆成人91精品二区三区-主妇的呻吟hd中字电影-琪琪久久-成人精品一区二区三区电影-台湾佬中文在线-日韩裸体-av天天在线-xxxxwwww在线观看-中国美女专干屁股眼-国语对白91-日本伦理一区二区-高跟91娇喘-色悠悠久久综合-欧美日韩在线网站-双性尿奴穿贞c带憋尿-男生尿隔着内裤呲出来视频-亚洲图区综合-欧美xxxxx少妇-国产日韩av一区二区-色欧美88888久久久久久影院-91性感美女视频

中國商盾網(wǎng)商標(biāo)查詢(商標(biāo)類別明細)
2021-06-21 20:18:09

爬蟲介紹

image

這是一個采集程序,不需要登錄,根據(jù)企業(yè)名稱抓取企業(yè)頁面數(shù)據(jù)。

注:這是一個比較簡單的爬蟲,基本上只使用代理,不使用其他反爬技術(shù)。但是由于爬取的數(shù)據(jù)量較大,適合刷解析技能的熟練程度,所以高手不要輸入

代碼已經(jīng)上傳到GitHub有用請給我一個star

python版本: python2.7

編碼工具: pycharm

數(shù)據(jù)存儲: MySQL

crawler結(jié)構(gòu):廣度crawler

crawler idea:

iamge
  1. 先獲取需要采集信息的公司:
    1. get from database
    2. get field:etid,etname
    3. get data from state table of The acquired data storage。并更新狀態(tài)表
    4. 拼接etname和初始url獲取初始url
  2. 拼接初始URL:
    1. 將初始url放在一個列表中,如何在獲取HTML時出錯,將錯誤的url放在另一個列表中,進行循環(huán)采集
    2. 驗證查詢的公司是否正確(?)
  3. 請求解析初始一級頁面:
    1. 將二級url放在一個列表中,獲取HTML時如何出錯,將錯誤的url放在另一個列表中,循環(huán)獲取
    2. 將二級url放在一個列表中,獲取HTML時如何出錯,將錯誤的url放在另一個列表中,循環(huán)獲取
    3. 獲取待確定的信息
  4. 請求解析二級頁面:
    1. 創(chuàng)建表
  5. 將公司的信息存儲到數(shù)據(jù)庫中:
    1. 創(chuàng)建表:
    2. 創(chuàng)建表:

企業(yè)主信息:et_host_info

iamge
  1. 工商信息:et_busi_info
  2. 分公司信息:et_branch_office
  3. 軟件版權(quán)信息:et_container_copyright_info
  4. 網(wǎng)站記錄信息:et _ convainer _ ICP _ info
  5. 外商投資信息:et_foreign_investment_info
  6. 融資
  7. 融資信息: et_rongzi_info
  8. 股東信息: et_stareholder_info
  9. 商標(biāo)信息: et_trademark_info
  10. 狀態(tài)表: et_name_status

看一下部分的結(jié)果圖:

我們的優(yōu)勢
上門服務(wù)

支持POS機刷卡

最快1小時上門交接資料

專業(yè)服務(wù)

具有10年以上財務(wù)工作經(jīng)驗

嚴(yán)格按照新三板財務(wù)標(biāo)準(zhǔn)做賬

價格透明

拒絕隱形消費

價格全稱透明合理

支付隨心

支付寶掃碼支付、POS機刷卡

微信掃碼支付、現(xiàn)金收款